Beiträge

Vom offenen Web zurück in die Sandbox – Teil 3.2

Eine Betrachtung auf die Entwicklung von Google und der SEO-Branche in drei Akten
In Vergangenheit, Gegenwart und Zukunft

…und dem Übergang in die nahe Zukunft…(Zweiter Teil)

Ebenso wie die Hoheit über die gesammelten Daten und Einsicht in die zwar gesammelten, aber nicht dem eigentlichen bewerbenden Anbieter zuzurechnenden Nutzerprofile der Facebook-User, auf die der Content Publisher zwar Zugriff haben sollte aber in durch das eng definierte Framework der Netzwerke schnell in seine Grenzen verwiesen wurde, einem eklatanten Einschnitt gegenüber dem „freien“ Internet außerhalb dieser digitalen Soziotope, der die Rolle des Suchmaschinenmarketings und der in diesem Bereich tätigen SEO-Agents und Profiler vorrangig in eine Vermittler- und Verwalter-Rolle drängte und das weiterbestehen dieses Berufszweiges in Frage stellt, da man durch die Begrenzungen durch die Netzwerkbetreiber statt, wie gewohnt, eigenständig und nur durch die Grenzen der aktuellen Technik eingeschränkt, durch für Suchmaschinen optimierten Content und Präsentationsformen und Frameworks entwickeln zu können nur noch in eng gesteckten Zwischenräumen mit den vorhandenen Mitteln des Online-Marketings arbeiten kann.

– Die gefürchtete Geißel aller Suchmaschinenoptimierer: Die gesammelten Daten bleiben beim Plattformbetreiber ohne Chance auf kommerzielle Verwertung –

Ein wichtiger Grund für die rasche Entwicklung und den Release von Google+ ist in einer einfachen Milchmädchenrechnung zu erklären: Google ist für Facebook wie für die Mitglieder der SEO-Branche als Unternehmens-Externe ohne Partnerstatus klar als feindliche Konkurrenz deklariert, da hier um den selben Markt gekämpft wird. Die Außenstehenden haben also nur begrenzten, kaum kommerziell nutzbaren Zugang zu den von ihnen aufgebrachten Zahlen, insbesondere die fehlende Möglichkeit zur Verknüpfung von Datensätzen mit Besucherprofilen schlägt den – Vollzugriff auf alle Auswertungen gewohnten – SEO-Professionellen schwer auf den Magen, da hier wichtige Waffen auf dem Feld des digitalen Marketings schlichtweg fehlen und so die gezielte Steuerung und Platzierung von eigenem Content bewusst erschwert, wenn nicht gänzlich behindert wird.

– Google erhebt Mimikry zur Taktik: Wenn ich den Gegner Facebook nicht besiegen kann, imitiere ich ihn, der SEO-Markt leidet dennoch –

Denn anfallende Daten – abseits von Fragestellungen über die datenschutzrechtliche Lage zur Erhebung dieser – so detailliert auszuwerten, wie es die eigenen, im freien Web verwendeten Tools erlauben würden um eine kommerzielle Nutzbarmachung dieser, gerade für das kampagnengestützte Suchmaschinenmarketing essentiellen Datensätze zu erlauben liegt den Betreibern der Social Networks freilich fern. Der Weg führt alleine über eine Kooperation mit dem Betreiber, der an diesen Kampagnen durch sein Insiderwissen und die damit in der Reichweite seines Netzwerks befindlichen Werbeflächen besonderen Verdienst einfährt, denn: „Alleine Facebook weiß, was Facebook weiß.“.

– Datenentzug für die Branche des Online-Marketing: Alleine Facebook weiß, was Facebook weiß.“

Das Unternehmen Facebook selbst hatte von vorne herein das beste Interesse daran sein Kapital, die vom Benutzer gesammelten und aggregierten Datensätze, für sich zu behalten und die Nutzungsrechte ebenso wie die Offenlegungspflichten per EULA und AGB zu seinen Gunsten zu gestalten. Die Personalisierung der Werbeanzeigen war schlichtweg die einzige reale Einnahmequelle des vergleichsweise jungen Online-Angebotes und rückte schnell auch in den Fokus der begierlichkeiten der Wirtschaft, die ihren Platz für professionelles Advertising in den neuen Medien noch suchte und die Entwicklung einer Aufspaltung des Marktes und damit der faktischen Auflösung eines Google-geführten Datenmonopols tatkräftig zur Seite zu stehen, so weit, das auch Facebook schlussendlich ein Aktienunternehmen wurde und seine Zulassung an der Börse erhielt und seit 2012 dotiert wird.

– Google gezwungen durch Mächtige Gegner: Facebook wird AG, fordert Google offen heraus –

Die darauf von der Google Inc. ergriffenen Gegenmaßnahmen in Form von Updates und Veränderungen an der Unternehmensstruktur und dem Produkt-Portfolio lässt sich durchaus als ein Vorläufer, einen Prototypen des kommerziellen Cyber-Wars, eines virtuellen Wirtschaftskrieges beschreiben: Der Kampf um die Ressource Mensch und der für die monetäre Vermarktung zwingend zu sammelnden Nutzerprofile, ein Kampf zwischen zwei Schwergewichten im Internet, in dem sich Google von der primären Funktion als Netzindex und Suchmaschine abwenden und zu einem umfassenden, ganzheitlich vernetzt agierenden Datenriesen entwickeln würde und die bereits früh auftretenden Kritiker der Datenschutzpolitik von Google, die seit jeher von Datenschützern ob ihrer Datensammlung zu kommerziellen Zwecken in der Kritik standen, geltendes Recht zu verletzen, in jeder noch so schlimmen Prophezeiung zu bestätigen, der Begriff einer „Datenkrake“ prägte sich in dieser Zeit zusehends, wie einige Urteile in der Europäischen Union und den USA gegen die Intransparenz der Datenschutzklauseln der Google Inc. Bestätigten und den Riesen zumindest in datenschutzrechtlicher Hinsicht zu Lippenbekenntnissen zwang.

– Schmutziger digitaler Wirtschaftskrieg auf Kosten der zuarbeitenden Unternehmen und den Nutzern als eierlegende Wollmilchsau –

Zwischen diesen beiden großen Parteien jedoch steht nicht nur die SEO-Branche vor den bedrohten Märkten, die sowohl Google als auch Facebook unter die jeweilige Kontrolle bringen wollen: Durch die Dominanz der beiden Unternehmen im Bereich der sozialen Medien gibt es auch für die Markt-Teilnehmer, die nicht zum „Big Business“ gehören, nur noch – zumindest um den Anschluss an die frequentierten Knotenpunkte des Internets, die Wahl zwischen Pest und Cholera, denn tatsächlich selbstbestimmtes, effektives Marketing ist mit der geplanten, stellenweise in Ansätzen bereits realisierten Einführung des „sozialen Faktors“, der Bewertung durch die Nutzerbasis via Google Plus‘ „+1“ oder etwa Facebooks bekanntem „Like“-Button, der SERP-Platzierungen und Bewertungen, wie der Vergabe des begehrten Google Page Rank sowie der Seitenpopularität eines Angebotes als auch der laufenden Umstrukturierung des Dienstleistungsangebotes der Google Inc. in eine, dem Facebook ähnelnden, umzäunten digitalen Netzwerk, das sich vom Begriff der Netzfreiheit in ziemlich jeder Form entfremdet und den Markt für die kleineren Teilnehmer am Markt zusehends erschwert, wie wir im folgenden Teil unserer Serie erläutern wollen.

– Die Unternehmen des Suchmaschinenmarketings stehen vor einer handfesten Krise. Wie könnte es weitergehen? –

… Ende?

Vom offenen Web zurück in die Sandbox – Teil 3.1

Eine Betrachtung auf die Entwicklung von Google und der SEO-Branche in drei Akten
In Vergangenheit, Gegenwart und Zukunft

…und dem Übergang in die nahe Zukunft…(Erster Teil)

Die überragende Qualität der organischen Suchergebnisse war von der ersten Stunde an das Hauptziel der Google Inc., das damals unter den anderen Webverzeichnissen und Suchmaschinen noch keine führende Rolle einnahm und sich gegen die etablierten Suchmaschinen daher mit flotter Bedienung und hoch qualitativen Search Results profilieren musste. Neben den Möglichkeit, aktiv Umsätze mit Google AdWords zu generieren, bestimmte Angebote in Form von digitalen Textanzeigen und anderen Maßnahmen besser zu stellen und Keyword-bezogen in der AdWords-Leiste auf jeder SERP darzustellen, war die Realität eben diese, das ein Großteil des Content vor allem auf die Zukunft hin betrachtet, primär aus dem privaten oder nicht-kommerziellen Sektor ( u.a. NGOs ) – sprich geldloser Klientel – kommen würde und dementsprechend die Qualität der Ergebnisse und ihrer Ausführung Vorrang haben musste um die ersten Anfangserfolge zu sichern und zu zementieren. So würde Google den Vorsprung durch die bessere Firmenpolitik und die frischeren Ideen mit einem treuen Nutzerfundament auszubauen. Diese Epoche der Suchmaschine – die des Fair Plays – sollte sich halten, bis eine neue Form der weltweiten Vernetzung ihren Siegeszug durch das Internet antreten sollte und eine im Jahr 2012 geschätzte Zielgruppe von 1,2 Milliarden Menschen weltweit mit steiler Tendenz nach oben ansprechen sollte: Die sozialen Netzwerke.

– 1,2 Milliarden Menschen weltweit in der altersrelevanten Zielgruppe: Der SEO-Markt um Google ist gewaltig –

Damit sollte eine Entwicklung beginnen, die alles althergebrachte, kaum zwanzig Jahre nach der Unternehmensgründung Googles als Geschichte verblassen, denn das Unternehmen entwickelte sich von hier an auf den Erhalt von Marktanteilen gegenüber der neuen Konkurrenz, den sozialen Netzwerken (Social Networks) vor allem in Form des weltgrößten und nahezu allseits präsenten, in sich geschlossenen Netzwerk Facebook immer weiter und expandierte mit diesem Produktangebot, vor allem gefördert durch das massive Potential und die nahezu unbegrenzten finanziellen Mittel nach dem Start-Up und der Eroberung des Suchmaschinen-Marktes immer weiter und begann die schon von erster Stunde gepflegte Politik, die über die eigenen Angebote generierten Inhalte, von der Mail bis zum Softwareprojekt im Google Code Hosting vollständig zu erfassen, katalogisieren und für personalisierte Suchergebnisse ohne Rückfrage an den User auch kommerziell zu verwenden und sich damit eine Goldmine zu schaffen, von der die meisten im mittleren bis oberen Segment des Online-Marketings ihren Lebtag nur träumen dürfen, vor allem da die Daten über Surfverhalten, Pageviews und ähnliche, auch für das Suchmaschinenmarketing sehr interessante Profildaten quasi „En Passant“ abgreift und diese Position durch die über 90% liegenden Marktanteile und die vollkommene Durchdringung des Marktes mit Cookie-gesteuerten Applets und Plug-Ins für nahezu alle populären Publikationssysteme (CMS, Content Management Systeme) eine unerschöpfliche Datenmine zu erschlossen haben schien

– Der Wandel vom Web-Dienstleister vom allumfassenden Datensammler zeichnet sich bei Google ab –

Mit dem kometenhaften Aufstieg der sozialen Netzwerke, wie eben Facebook im globalen als Marktführer und darüber hinaus lokaler Angebote wie der VZ-Netzwerke in Deutschland (SchülerVZ, StudiVZ und MeinVZ als jeweilige eigenständige Soziale Netzwerke), vKontakte im russischsprachigen Raum, Orkut vorrangig auf dem südamerikanischen Kontinent oder Qzone, Sina Weibo und RenRen in der bevölkerungsreichen Volksrepublik China und LinkedIn in englischsprachigen Staaten außerhalb des angelsächsischen Spektrums und des Commonwealth, bildete sich jedoch ein ähnlich operierender, rasch wachsender Konkurrenzmarkt, der basierend auf den tiefgreifend detaillierten Datensätzen ihrer Nutzer Inseln im bis zu diesem Zeitpunkt von Google kontrollierten Markt begann, die Monopolstellung der Suchmaschine anzukratzen, mit ihrem Aufwuchs auf Milliarden von aktiven Nutzern, mit der tiefgreifenden Bereitstellung von Internetfähigen Geräten auch in Drittweltländern einen rasant wachsenden Markt erschließend, schlussendlich auch auf den Radarschirmen der Betreiber von Google als bedrohliche Variable wahr genommen wurde. So sollte es auch nicht lange dauern bis man seitens Google, angefeuert vom Erfolg und dem dadurch entstehenden Konkurrenzdruck des vom Harvard-Studienabbrechers Mark Zuckerberg gegründeten Netzwerks Facebook, sein eigenes „Social Network“ präsentieren sollte: Google+.

– Die Bedrohung des Google-Monopols durch die sozialen Netzwerke –

Dieses Netzwerk sollte perfekten Symbiose zwischen sich eher statisch verhaltenden Inhalten der von Google erfassten Webseiten inklusive der dort platzierten Applets sowie der dynamischen Verwertung von Kundendaten den eingeloggten User optimal mit auf seine Interessen abgestimmte Online-Werbung mit höherer Click-Through-Rates versorgen um die gewonnenen Anteile im Ad-Marketing-Segment zu halten, bestenfalls sogar auszubauen. Im im Gegenzug eine technisch auf dem Stand der Zeit befindliche systemübergreifende, bereits in die zusammengefassten Dienstleistungen der Google Inc. integrierten Plattform der Social Media zu bieten und das Dienstleistungspaket für
Die offensive Ausweitung dieses Marktes würde für die angestammte SEM-Agenturen schwere Zeiten bringen: Denn die geschlossenen Social Media-Plattformen waren bereits bei ihrem ersten Erscheinen ein Bereich, in dem die Suchmaschinenmarketing-Branche zunächst nur durch die Vermittlung und Erstellung von Social Media Marketing Related Content und dem klassischen, wenig Ertrag abwerfenden, da von Google und Facebook strikt durch und durch auch Preislich reglementierten, Anzeigengeschäft teilnehmen konnte. Die vorhandenen Strukturen waren gerade beim Marktführer unter den Social Networks, Zuckerbergs‘ Facebook, durch dokumentierte APIs die Möglichkeiten für Suchmaschinenoptimierer ideal um sich mit dem soziale Netzwerk zu verbinden, doch die Spielregeln blieben fest in der Hand des Unternehmens.

– Harte Bandagen: Daumenschrauben für SEM-Profiler und Marketingagenturen in den sozialen Medien sind längst angelegt –

… Fortsetzung folgt morgen!

Vom offenen Web zurück in die Sandbox – Teil 2.2

Eine Betrachtung auf die Entwicklung von Google und der SEO-Branche in drei Akten
In Vergangenheit, Gegenwart und Zukunft

…bis in die Gegenwart… (Zweiter Teil)

Die Hyperlinks die die Google Crawler durch die vergleichsweise an Zahl und Umfang geringen Inhalte (Web Content) des frühen World Wide Web führten, stellten in den späten 1990er Jahren also zunächst die einzige Möglichkeit dar, weite Teile des bekannten Internets zu durchsuchen und der geplanten Katalogisierung zu unterziehen um das Angebot der Suchmaschine Google zu erweitern. Die dabei generell in Textform (In Grafiken gebundene Informationen werden bis heute generell von Google nicht erfasst und müssen separiert für die Spider im HTML-Quelltext deklariert werden) dargebrachten zur Erfassung freigaben und durch die Bots des Unternehmens nach bestimmten Schwerpunkten in Form von Suchbegriffen, sogenannten Keywords durchsuchte (Siehe → Content-Indexierung). Anhand dieser definierten Kriterien wurde eine Kategorisierung vorgenommen, die die für den eingegebenen Suchbegriff höchstwahrscheinlich relevante Verknüpfungen als Hyperlink auf einer organischen, dynamisch generierten Suchergebnisseite sortiert wieder gab und dem Nutzer zur Verfügung stellte.

– Die ersten Google Crawler erfassen das World Wide Web, die Geburtsstunde der SEO-Agenturen –

Dieser Augenblick war ebenfalls die Geburtsstunde der SEO-Agenturen, die im unregulierten und mit kaum gemeinsamen Standards versehenen Internets die Aufgabe übernahmen, den Content des Kunden entsprechend für diese Erfassung und positive auf Relevanz abzielende Prüfung aufzubereiten.Es entstand in wortwörtlicher Windeseile eine ganze Branche, die sich auf die optimierte Darreichungsform von Informationen für die von Google ins Web entsendeten Bots spezialisierte: Die SEO-Branche (Search Engine Optimization),die später unter dem Oberbegriff des Suchmaschinenmarketings als Teilgebiet dessen definiert wird, einem der Mittel des Online-Marketings durch die Optimierung von Inhalten und technischen Frameworks (Wie etwa Content Management Systemen) zur Verbesserung der Kundenplatzierung innerhalb der organischen Suchergebnisse in den Google SERPs und durch gezieltes Search Engine Marketing dem Bewerben von definierten Claims und dem erzeugen einer konsistenten Brand Presence zur Reichweitensteigerung des Kundenprodukts in den angepeilten Zielgruppen, die über die für das Internet klassischen Formen der Bannerwerbung (Banner Ads) über das Affiliate Marketing durch Partnerwerbung bis in das Social Media Marketing (SMM) , das bis zur Etablierung der Social Networks vorrangig in den Vorstufen der heutigen sozialen Netzwerke, den Internet-Foren und Communities oftmals in Form des Cloaked Marketing in Erscheinung getreten ist.

– Neue Marketingformen entwickeln sich im Mikrokosmos des Internets – Dank Google SEM –

Anhand der bekanntgewordenen Kriterien der Suchalgorithmen wurden die ersten Webseiten angepasst und auch in der Entwicklung von HTML schlug sich diese Entwicklung nieder, Definitionen für die kontrollierte Erfassung durch die Spider und Crawler ( Ab dem Jahr 2005 z.B der „nofollow“ Rel-Tag ) wurden unter der Federführung der Google Inc. in die Syntax eingebunden und nach der konstant stattfindenden Expansion des Marktes, der das wachsende Internet mit sich brachte wurden auch die Erfassungskriterien der Suchmaschine immer feiner ausgearbeitet, da auch die Bedürfnisse der Nutzer sich weiter entwickelten, je mehr die technische Entwicklung der Standards zur Darstellung von Webseiten im Internet und andere web-basierende Technologien hergaben.

– Die frühen Tage: Hand in Hand mit den Webmastern das Web katalogisieren und für Google optimieren –

Es zählte schon bald nicht mehr nur allein der Inhalt einer Webseite, um auf den SERPs (Search Engine Result Pages) zu erscheinen: Anhand der Zugänglichkeit, Sprache und auch dem Umfeld einer Seite wurden die Webseiten mit dem bald als Google Pagerank bekannt gewordenen Kriterium nach Relevanz und Bedeutung eingestuft um der Flut an neuen Inhalten, gemeinhin der in der Branche vorherrschenden Sprache Englisch als „Content“ bezeichnet, Herr zu werden und der ersten, optimierten Indexierung, SEO-Maßnahmen, wie etwa der Erstellung von möglichst breit gefächerten Suchworten oder gar in den Hintergrund einer Webseite unsichtbar eingebundenen Suchbegriffen (Aus dem englischen: Keywords) entgegen zu wirken und diese, meist unseriösen SEO-Maßnahmen zu bekämpfen.

Denn dass diese selten zum gewünschten Ziel führten wurde den Beteiligten, allen voran der Google Inc. sehr schnell klar. Was fortan als „Black-Hat“-Suchmaschinenoptimierung benannt und rigoros sanktioniert wurde, ganz zu Recht, wie jeder seriöse SEO-Profiler ohne zögern bestätigen wird:

Denn schon in der frühen Entwicklungsphase der Suchmaschine standen ausreichend legale und nicht sanktionierte Mittel der Optimierung zur Verfügung. Begriffe, die heute als selbstverständlich und unbedingt zu meiden galten, fanden in diesem Zeitraum ihre erste Prägung durch auftretende, handfeste Probleme, die erst noch definiert und so schnell wie möglich unterbunden werden mussten werden mussten.

Black Hat SEO als allgemein anerkannter und verwendeter Fachbegriff bezeichnet SEO-Agenturen und einzelne SEO-Profiler und SEM-Agents, die gezielt Schwächen und Fehler des Suchalgorithmus von Google bewerben und ausnutzen. Im Laufe der Zeit erweiterte diese Definition sich ebenfalls auf EULA Violations, Maßnahmen zur Popularitätssteigerung einer Webadresse, wie etwa dem Link-Spamming, ebenso des Einbaus von Code, der aktives Content Cloaking betreibt, der also das Auslesen der Inhalte durch den Google Spider gezielt manipuliert während der Verbraucher vollkommen anderen Content erhält. Es wird zusätzlich, nach Grad der Legalität der Maßnahmen, von White Hat oder Grey Hat SEO gesprochen. Der wohl bekannteste Vertreter der ersten Stunde der als Black-Hat geflaggten SEO-Maßnahmen war wohl der Keyword Spam. Diese populäre Methode basierte darauf, die Katalogisierung des behandelten Angebotes nachhaltig zu beeinflussen: Durch eine Vielzahl, bis in die mehreren Tausend gehenden, thematisch gruppierten oder alphabetisch sortierte Einflechtung von Keywords in den Quellcode und in das darin definierte Erscheinungsbild einer Webseite vermochten die ersten Black-Hatter eine unglaubliche Keyword-Bandbreite für die von ihnen „optimierten“ Webseiten erreichen.

– Nicht nur auf Keyword Spamming erfolgte schnell die Penalty durch Google: Ein erfolgreiches Konzept –

Es zeigte sich der erbitterte Ernst, mit dem der damals noch viel belächelte – hinter der Hand jedoch gefürchtete – kleine Inc. die hinter der Suchmaschine Google stand, das angestrebte Firmenziel zu verteidigen bereit war um konsequent hochqualitativen Content zu fördern, das Benutzererlebnis auf Google.com zu verbessern und vor allem seine Guidelines zur Google-Optimierung einer Webseite rigoros durchzusetzen und damit einen de-facto Standard zu schaffen. Denn der Erfolg der Schwarzhüte sollte nicht lange währen und die konsequente Abwertung der von Black-Hat-Maßnahmen betroffenen Objekte darf mit Fug und Recht als „verbrannte Erde“ bezeichnet werden.

Währenddessen waren die Google Exploiter weiter nach dem Prinzip des „Hit and Run“ vorgegangen: In kurzen, präzise durchgeführten Aktionen ihre zeitlich straff geplanten Maßnahmen und Eingriffe in das korrekte Page-Ranking und der Domainpopularität einzubringen und dabei möglichst viel Geld damit zu ergaunern. Der Verkauf von scheinbar wertvollen Top-Level-Domains wäre hier zum Beispiel anzuführen.

Dieses Katz-und-Maus-Spiel zwischen den Sheriffs (Google Engineering Team), den Guten (White Hat SEO), den bösen (Black Hat SEO) sowie den Hässlichen (Grey Hat SEO) zieht sich mit anderen Mitteln, aber nach den selben Schemen bis heute hin, nur das die Eskalation ebenso wie die Werte um die es bei diesen schnell durchgeführten Manipulationen und Ausnutzen der Schwächen der Algorithmen um bedeutende Summen geht und die Infrastruktur kleineren Armeen gleichgestellt ist, denn erfolgreicher Betrug war und ist ein wenig populäres, dennoch sehr einträgliches Geschäft, das viele moralisch flexible Techniker und Vermarkter sowie Algo/Logarithmen-Spezialisten anzulocken scheint.

– Erstes High Noon im Internet: „The Good, the Bad and the Ugly“ alá Google, wider dem Black-Hat-SEO –

… Fortsetzung folgt morgen!

Vom offenen Web zurück in die Sandbox – Teil 2.1

Eine Betrachtung auf die Entwicklung von Google und der SEO-Branche in drei Akten
In Vergangenheit, Gegenwart und Zukunft

…bis in die Gegenwart… (Erster Teil)

Viele Suchmaschinen der ersten Stunden, wie etwa Lycos und Yahoo, waren nämlich nach dem alten Prinzip aufgebaut, das Google so erfolgreich zerschlagen sollte: Dem Versuch, das Internet und den Konsum desselben ausschließlich über das eigene Portal und die eigenen Inhalte, wie Nachrichten, Email-Postfächer und andere Dienstleistungen, wie etwa die ersten Spiele (Eine Entwicklung, die später als Social Games bekannt werden sollte) auf den Plattformen zu verbinden und so den Nutzer einen eigenen Ausschnitt des Internets zu präsentieren, der nach den eigenen Vorstellungen gestaltet. Viele User haben diese an ihrer statt getroffene Vorauswahl an Informationen als nur allzu unbefriedigend empfunden und schon früh über die Verwendung alternativer Proxy-Server und eigener oder zumindest unabhängiger DNS-Server Auswege aus diesem goldenen Käfig gesucht.

– Durch neutrale Behandlung allen Content brachte Google die Netzneutralität voran –

Google war in diesem Sinne ein Befreiungsschlag gegen die vorherrschende Sandkasten-Mentalität der Internet Service Provider (ISPs) und die frühen Suchmaschinen-Dienstleister, denn zum ersten Mal wurde das Internet nach für alle Teilnehmer gleichen Kriterien indexiert und der breiten Öffentlichkeit über eine leichtgewichtige, schnell zu begreifende und von Nutzerkonten ungebundene Suchmaske mit einer direkt angeschlossenen, dynamisch nach aktuellsten Stand der Datenbank generierter Suchergebnisseite (SERP, Search Engine Result Page), einfach und unkompliziert zugänglich gemacht. Weiterer Vorteil des von Google in den Markt gebrachten Konzeptes – das schon in seiner Erprobungsphase (Beta-Stadium) sich großer Beliebtheit erfreut und damit den Weg des Erfolges als marktführenden Anbieters für Suchergebnisse im Internet eingeschlagen hatte, das eine inhaltliche Zensur der Suchergebnisse unter keinem Umstand mit Ausnahme einer durch gerichtlichen Verfügungen erwirkten Entfernung aus dem Suchregister aus rechtlichen gründen, stattfand und ausschließlich eine technische Bewertung der Webseite hinsichtlich der Zugänglichkeit und darauf folgend, ihrem Inhalt und der Katalogisierung des Content und seine Relevanz für inhaltsbezogene Suchbegriffe unterzogen wurde. Mit dem Hochhalten des in den Vereinigten Staaten verfassungsmäßig garantierten Recht auf freie Meinungsäußerung konnte die junge Google Inc. sowohl bei Endkunden als auch bei fachlich versierten Nutzern, dem späteren Kapital der Suchmaschine über die Mundpropaganda hinaus, effektiv punkten, versuchten doch diverse dienstleistende Unternehmen sowie anderweitige Initiativen, das Internet schon bei seinem Aufstieg als Kommunikationsmedium Nummer Eins in der westlichen Welt, entsprechend der eigenen Meinung und Moralvorstellung zu beschneiden, wenngleich sich diverse Content-Bereiche durch ihre unseriösen Methoden zur Suchmaschinenoptimierung und meist damit einhergehendem Spam (Spam, unerwünschte Werbe-Emails) umgehend durch die Verletzung der Nutzungspolitik der Google Inc. selbst aus dem Bereich der SERPs verbannten.

– Googles früher Erfolg: Mit unzensierten Suchergebnissen und einfachem Handling den Markt erobern –

Dem Anfangserfolg geschuldet, wurde die Google Search eine der zentralen Anlaufstellen für Nutzer des sich ausbreitenden Internets, das nun, um die Jahrtausendwende also auch die Mitte der Gesellschaft erreicht hatte, hier auch in Deutschland ob der Privatisierung der Telekommunikationsdienstleistungen und der Freigabe der Teledienste und der Liberalisierung der Nutzung mit dem entsprechenden Einbruch der Kosten und der Einführung der Ersten Flatrates für den Zugang zum Internet, womit der Grundstein für die explosionsartige Verbreitung des Internets als neues Medium gelegt wurde und so auch im deutschsprachigen Raum die Saat ausbrachte, aus der später die deutsche SEO-Community entwickeln sollte, die in ihren ersten Jahren als Online-Marketeer fungierte und weltumspannende Netzwerke aufbaute um die eigenen betreuten Objekte und Projekte an prominenter Stelle zu verlinken, dem damals einzigen Weg, innerhalb der digitalen Medien eine Zielgruppe anzusprechen und so entsprechende Page Visits ( Seitenbesuche einer Webseite ) für die Seiten zu generieren, was seine Spitze, vor der Übernahme der Suchmaschinen als zentrale Anlaufstellen für Internet-User, in den Bannertausch-Programmen und frühen formen des Onlinemarketings fand, die unter anderem später in der sogenannten Dot-Com-Blase in einem Feuerwerk verpuffen sollten, zumindest hat das Geschäftsmodell dieser Unternehmen sich nie wieder wirklich im Internet etablieren können, mit Ausnahmen derer, die dem Bauernfang auf den Leim gegangen sind.

– Erst die Privatisierung der TelKo-Märkte brachte europaweit den Durchbruch des Internets –

Im September 1998 erhob sich nun ein Stern über das Firmament des jungen Internets, das von den wissenschaftlichen Mitarbeitern der Stanford University, den Doktoranden Larry Page und Sergey Brin bereits im Jahr 1996 unter dem Projektnamen „BackRub“ wenig Erfolg verzeichnen konnte: Die Suchmaschine mit dem Kunstwort „Google“ als Namen war geboren. Als die ersten Google Crawler den Betrieb aufnahmen und das Internet kategorisch zu erfassen, sprangen diese scriptartigen, automatisierten Programme von Link zu Link, denn: Das frühe Internet kannte wie gesagt keine zentralen Indizes neben den Domain Name Servern die reine Verwaltung von Domainzuordnungen übernahmen – Also operierten die Spider über die Hyperlink-Verbindung von einer Seite zur nächsten, Sprung um Sprung über in der „Hyper Text Markup Language“ verfasste Webseiten, die in ihrer Jungfernzeit mehr oder minder Texte mit definierten Sprungmarken auf andere, wenn extern verlinkend, IP-Adressen oder Adressen der ersten Top Level Domains. Später würde dieses Verfahren der Verlinkung mit dem Begriff „Backlink“ versehen werden und anfangs des Suchmaschinenzeitalters essentielles Gewicht neben anderen Kriterien besitzen.

– Der Beginn einer Erfolgsgeschichte: Vom Start-Up zum Marktführer der Suchmaschinen –

… Fortsetzung folgt morgen!

Vom offenen Web zurück in die Sandbox – Teil 1

Eine Betrachtung auf die Entwicklung von Google und der SEO-Branche in drei Akten
In Vergangenheit, Gegenwart und Zukunft

Von der Vergangenheit…

Es war einmal das Internet – So beginnen viele Geschichten, vor allem derer, die sich an die Pionierzeit des Internets und dem Entstehen des WWW, des World Wide Web, miterlebt hatten. Ein kleines Netzwerk, von wenigen Servern getragen, die mit ihren DNS die langen Zahlenketten der IP-Adressen in für den Menschen einfacher zu verarbeitende Form brachte. So war das einst als dezentrales militärisches Netzwerk geplante Internet auch im zivilen angekommen. In diesen Tagen dachte noch niemand an den Durchschlagenden Erfolg des Internets und auch der Begriff der Suchmaschinenoptimierung war in weiter Ferne. Marketing fand ausschließlich im direkten Kontakt und durch Werbe- und Marketingmittel vorrangig im Bereich der analogen Printmedien statt, an Online-Marketing war zu dieser Zeit schon alleine aus Mangel einer geeigneten, homogenen Zielgruppe noch lange nicht zu denken. Die dominante Rolle die das Internet gut 50 Jahre nach dem Aufbau des Vorläufernetzwerkes und Urvater des World Wide Web, dem ARPANET (Advanced Research Projects Agency Network) im Jahre 1962 zeichnete sich hier noch nicht ab, alleine schon da eine Konsumentennutzung durch Endverbraucher in den Plänen der Luftwaffenmilitärs ursprünglich nicht vorgesehen war und die ersten Nutznießer der neuen Technologie der universitäre Bildungssektor war, der die Entwicklung zum Beispiel im Massachusetts Institute of Technology (M.I.T., eine amerikanische Elite-Universität) im Regierungsauftrag entwickelt und nach dem Fall des eisernen Vorhangs zivil weiter genutzt wurde.

– ARPANET: Aus dem militärischen Tele-Netzwerk entsteht die revolutionäre Datenautobahn der Zukunft –

In dieser Zeit musste man noch wissen, was man suchte, und die Internet-fähigen Terminals an den Mainframes der Universität waren längst keine Selbstverständlichkeit, geschweige denn die Bedienung dieser komplexen technologischen Neuerung. Anfang der 1990er Jahre, mit dem zunächst gemächlichen infrastrukturellen Aufwuchs des Internets gab es keine Suchmaschinen, die Entwickler der späteren Suchmaschine Google waren noch grüne Schuljungs und der Bedarf für einen automatisierten und SEO-tauglichen Index des Internets, wie es keine 10 Jahre später Google durchsetzen sollte, war bei einer Anzahl von Webseiten im Bereich von wenigen hundert Top-Level-Domains mit daran gekoppelten Webseiten zunächst nicht gegeben. In dieser Pionierzeit fehlte es schlicht am Entwicklungsdruck, da zu dieser Zeit ein sich durchsetzen des Internets über den Regierungs- und den Wissenschaftlichen- wie auch den Bildungssektor hinaus war längst nicht gesichert. Diese Entwicklung sollten vor allem von zivilen Dienstleistern voran getragen werden, denn der Zwang, das als dezentrales Kommunikationsnetzwerk militärischer Natur geplante ARPANET über den Status quo hinaus weiter zu entwickeln, um die Handlungsfähigkeit von Regierung und Militär im Notfall garantieren zu können, schwand mit dem Zusammenbruch der Sowjetunion, dem Fall der Berliner Mauer und dem damit verbundenen Kollaps des Warschauer Pakts, der seit Ausbruch des Kalten Krieges einen technologischen Wettlauf über die Überlegenheit heraus gefordert hatte.

– Wie die Universitäten das Internet retteten und den Grundstein für das WWW weiter entwickelten –

Erste Versuche, zentralisierte Anlaufstellen im Netz zu schaffen, gab es dennoch auch in dieser Entwicklungsstufe des WWW, vorrangig durch Telekommunikations-Anbieter wie CompuServe oder AOL (America Online) und auch hierzulande gab es entsprechende Versuche, die jedoch durch die wenigen Nutzer des Internets, dank der damals noch staatlichen Post, später der Telekom, nur ein kleiner Markt für das Internet, besser: Des World Wide Webs. Bildschirmtext, das war der Begriff für die meisten deutschen Nutzer von Telekommunikationsdienste, alles weit entfernt, was kaum 10 Jahre später eine ganze Industrie hervorbringen sollte, die sich ausschließlich mit der Suchmaschinenoptimierung, also der möglichst guten Aufbereitung von Inhalten im Internet für den Nutzer von den aufkommenden Suchmaschinen entwickeln sollte, inklusive der neuen Form des Marketings: dem Suchmaschinenmarketing, bestehend aus den Elementen SEO und SEA, dem Search Engine Advertising, das bereits heute, durch Google Updates wie aktuell „Penguin“ in seiner jetzigen Form bereits wieder auf dem Prüfstand steht und damit den beständigen Wandel der Bedingungen im World Wide Web demonstriert.

– DNS-Server als einzige Register des neuen Netzes: Bis zu Google ein langer Weg zu gehen –

Auf Mailboxen erreichbare Newsgroups und dem generischen Kettenbrief ähnliche Email-Listen waren über lange Zeiträume die verbreitetste Form der Netz-Betätigung, die über deutsche Kupferkabel durch das junge Weltnetz noch über klackende Relais in den Fernmeldeämtern und ihrer technischen Nebenstellen ihre Wege zu den Zielrufnummern führte. Auch hier musste nichts optimiert werden, denn entweder man kannte ein Register mit Mailboxen, oder eben nicht. Das dezentrale Internet kannte noch keinen Bedarf für Großkonzerne, und Mailboxen waren nicht selten selbst programmierte Oberflächen die über verschiedene Protokolle an den Nutzer gesendet wurden. Die „Suchmaschine“ dieser frühen Epoche des Internets war unzweifelhaft die Mundpropaganda, da zu diesem Zeitpunkt keine weitere Verwaltung von hinter TLD (Top Level Domains) zugeordneten IP-Adressen samt untergeordneter Subdomains etc. vorgesehen, als eben die Verwaltung durch den zuständigen Domain Name Server, der die Zahlenkolonnen schlichtweg mit der Domain koppelte.

– Mailboxen, BBS und Mailinglisten dominierten die frühe Kommunikation im Internet –

… Fortsetzung folgt morgen!