Stickiness – Teil 2

Eine klebrige Angelegenheit: Der Faktor Stickiness für das Ranking ihrer Webseite

Wie sie die Verweildauer durch intelligente Nutzerführung und Inhaltsdesign erhöhen

Teil 2 – Wie sie das Nutzerverhalten und die Markenwirkung ihrer Webseite positiv gestalten

Dieser Teil unseres Artikels behandelt einen Punkt, der zu den Grundpfeilern des Inhaltsdesigns zählt, die für eine erfolgreiche Kommunikation mit der Zielgruppe essentiell ist. Denn schon lange gewinnt man kaum mehr einen Konsumenten mit Content, welcher nicht die Erwartungen des Seitenbesuchers erfüllt und schon gar nicht gelingt es, denselben länger auf der Seite zu halten und ihn gegebenenfalls zu konvertieren und seinen Status vom Interessenten hin zum Kunden oder Konsumenten aufzuwerten und langfristigen Nutzen aus diesem Gewinn ziehen zu können.

Das Inhalte heute klar und Verständlich aufbereitet werden, ist eine Erkenntnis des Marketings, deren Analysen und Erkenntnisse sich mit der Verbreitung des Internets vermehrt auf Webseiten anwenden ließ, da sich die Zielgruppen, an denen man die Erkenntnisse auf Basis klassischer Medien gewonnen hatte, nun auch im Internet bewegten und somit die Erwartungshaltung an eine bestimmte Darreichung von Inhalten ins WWW trugen. Die wachsende Beachtung, die man diesem Umstand zuwendet, begründet sich nicht zuletzt den erweiterten Rankingfaktoren der Suchmaschine Google, die das Nutzerverhalten analysiert und die Feststellung des Erfolg dieser Konzepte mittel- und langfristig honoriert.

Inhaltliche Klarheit – Komplizierte Inhalte leicht verständlich aufbereitet

Die inhaltliche Klarheit ist der Faktor, der umschreibt, das alle ihre Inhalte nicht nur durch die Crawler der Suchmaschine Google erfolgreich aufgenommen werden können und technische Notwendigkeiten erfüllen, sondern auch semantisch und visuell ohne Barrieren umgehend vom Konsumenten aufgenommen werden können. Dies lädt den Seitenbesucher zum Verweilen und Konsumieren ein, er setzt sich länger mit dem Inhalt auseinander, „klebt“ also geradezu am Content, was sich für ihr Ranking positiv auswirkt.

Der Styleguide – Niederschrift der Grundlagen des markenbezogenen Inhaltsdesign

Ein gutes Konzept ist für den Erfolg einer Unternehmung bekanntermaßen bereits die halbe Miete. Den kommunikativen Erfolg ihres Online-Angebotes sichert die Definition und konsequente Anwendung eines Styleguide. Dieser beschreibt, wie zuvor ausgeführt, nicht nur die Rahmengabe der einheitlichen technischen Umsetzung eines in sich abgeschlossenen Projekts, sondern auch die sprachliche Gestaltung. Durch

Der Styleguide ist der Kern zur Bildung einer Corporate Identity, die aus der Anhäufung von thematisch miteinander verbundenen Content erst ein erlebbares Gesamtprodukt, mit welchem die kommunizierte Marke in den Verbindung gestellt wird. Der dadurch vom Nutzer empfundene Gesamteindruck bewirkt bei erfolgreicher Ansprache, das sich ein „Wohlfühlen“ durch eine Kontinuität in den konsumierten Inhalten beim Konsumenten einstellt und die Verweildauer begünstigt. Ein Styleguide ist als Grundlage für das Erlangen von „Stickiness“ der eigenen Inhalte von besonderer Bedeutung.

Bei der Markendarstellung in Form einer Webseite kommen hierbei folgende Faktoren zum tragen:

– Zielgruppenfestlegung; Jede Zielgruppe verlangt nach einem bestimmten Design der Inhalte in Wort und Bild. Indem sie diese Ansprüche erfüllen, verleiten sie zum Verweilen und Aufnehmen der angebotenen Informationen.

– Inhaltliche Schwerpunktlegung; Legen sie sich auf die Kernthemen, die ihre Marke berühren, fest. Ergänzen sie diese ausschließlich durch direkt angrenzende Themen, Sich nicht in einer zu hohen Komplexität und quantitativen Vielzahl der Inhalte zu verirren, ist bedeutend. Erhalten sie die Schärfe ihres Angebots und verkomplizieren den Konsum nicht durch den Versuch, ein allumfassendes Inhaltsangebot zu erreichen und damit Überforderung des Seitenbesuchers

– Sprachgebrauch; Ein einheitlicher Sprachgebrauch durch sich wiederholende Formulierungen und Benennungen, sogenanntes „Wording“ schafft inhaltlich eine Kontinuität bei der Auseinandersetzung des Visitor mit ihren Inhalten. Bringen sie ihren Claim in den Vordergrund und führen sie ihn im Wortgebrauch ihres Content weiter, wird der Besucher dies unterbewusst honorieren. Ein konsequentes Wording wirkt sich zudem positiv bei der Feststellung der schwerpunktmäßigen Keywords durch Google aus.

– Layout und Formatierung; In dem sie ihre Inhalte einheitlich strukturieren, schaffen sie Übersichtlichkeit für den Nutzer und begünstigen die Bewertung durch die Webcrawler. Einheitliche Formatierung und die Festlegung auf eine oder mehrere bestimmte Schriftarten runden den optischen Eindruck der Webseite ab. Der Gebrauch von Google Web Fonts erlaubt die native Einbindung aus einem Pool von Schriftarten, deren Anwendung sich garantiert nicht negativ auf das Crawling ihrer Webseite auswirkt, da es als eigenes Produkt von der Suchmaschine unterstützt wird.

– Unterstützte Plattformen; Internet spielt sich heute nicht mehr nur noch auf PCs und Laptops ab. Wägen sie ab, ihre Inhalte durch das Anbieten einer mobilen Version auch für Smartphones und Tablets in einem für diese Bedienkonzepte zugeschnittene Darreichungsform verfügbar zu machen.
Sollten sie Dienstleistungen auf ihrer Webseite anbieten, wäre es ebenso gegebenenfalls interessant, die Umsetzung ihres Contents in Form einer App in den Vertriebsplattformen „Apple App Store“ und dem „Google Play“, als Nachfolger des „Android Market“ anzubieten, um so den Mehrwert ihrer digitalen Präsenz mobil zu machen und die Bindung des Kunden an diese durch sich wiederholenden Konsum zu erhöhen.

Lesen Sie dazu unsere komplette Serie:

Veröffentlicht Google demnächst Quality-Guidelines?

In einem kürzlich veröffentlichten Webmaster-Video beantwortet Matt Cutts eine Frage zu der Einflussnahme von Googles menschlichen Qualitätsprüfern auf die SERPs. Darin stellt er klar, dass die Bewertung keinen direkten Einfluss auf das Ranking haben. Viel mehr dienen die Beurteilungen der Quality Rater dazu, die Algorithmen zu überprüfen und Verbesserungen zu entwickeln. Doch die interessantere Aussage macht er gegen Ende des Videoclips. So deutet er nämlich an, dass die Guidelines der „human quality rater“, nach denen diese Websites beurteilen, womöglich bald publiziert werden.

Zwar wurden diese, nach Cutts eigener Aussage, vor einiger Zeit teilweise „geleakt“, doch geschadet hat dies dem Konzern nicht. Warum also nicht offensiv mit dem Thema umgehen und die Guidelines öffentlich zugänglich machen? Die so genannten „Quality Rater’s Guidelines“ wären die ersten, die Google bewusst preisgeben. Sonst setzt der Suchmaschinen-Gigant eher auf strenge Geheimhaltung, wenn es um interne Arbeitsprozesse geht. Grund genug, sich die Tätigkeiten der menschlichen „Quality Rater“ einmal genauer anzuschauen.

Was genau tut ein Quality Rater?

Laut Matt Cutts dienen die Qualitätsprüfer nicht nur für die Überprüfung und Optimierung der Algorithmen. Viel mehr sollen sie mit gesundem Menschenverstand die Suchergebnisse beurteilen – sowohl innerhalb der Ergebnisliste als auch im Einzelnen. Dabei besuchen sie unter anderem Websites, die bei Suchanfragen angezeigt wurden, schätzen die inhaltliche Relevanz sowie die Strukturen der Inhalte ein und halten nach Spam Ausschau. Ihre Eindrücke geben sie anschließend an Googles Ingenieure weiter. Sie gehen also den Qualitätsproblemen auf den Grund und arbeiten eng mit den SEO-Experten von Google zusammen. Durch die Arbeit der Prüfer soll die Qualität der Suchergebnisse verbessert dauerhaft gewährleistet werden. Auch wenn kein direkter Einfluss auf die Resultate besteht, so ist doch ein passives Einwirken durch die manuelle Kontrolle vorhanden. Wer sich für den Job interessiert, kann sich übrigens bei Google bewerben. Die Aspiranten erwartet nach er Zusage eine interne Ausbildung, in denen sie die nötigen Fähigkeiten erwerben. Außerdem lernen sie die Maßstäbe für die Überprüfung kennen.

Bedeutung für die Suchmaschinenoptimierung

Die Qualitätsprüfer ergänzen die SEO-Maschinerie mit all ihren Algorithmen und Strukturen um eine menschliche Komponente. Sie sorgen dafür, dass Websites nicht für Suchmaschinen entwickelt werden, sondern für die Besucher. Das ist eine klare Ansage an die SEO-Branche. Es gilt auf die Qualität der Inhalte zu achten, einen hohen Mehrwert für die Besucher zu schaffen und mit legalen Mitteln die Sichtbarkeit der Homepage zu steigern. Sollten die Guidelines tatsächlich publiziert und somit für Website-Betreiber zugänglich gemacht werden, dann werden diese bedeutende Einblicke in die Wertevorstellungen von Google liefern. Auch das käme der Qualität von Webpräsenzen sicherlich zugute.

Weitere Infos (externe Seiten):

[related-links]

Stickiness – Teil 1

Eine klebrige Angelegenheit: Der Faktor Stickiness für das Ranking ihrer Webseite

Wie sie durch konsequentes „content design“ das Besucherverhalten zu ihren Gunsten beeinflussen, Konsumenten gewinnen und ihre Platzierungen langfristig verbessern

Teil 1 – Welche Faktoren begünstigen ihre Rankings durch die Verweildauer des Seitenbesuchers

Wie einfach die Welt noch vor einem Jahrzehnt war: Bewertungskriterien der Suchmaschinen waren einfach gestrickt und ergaben sich aus Faktoren wie der Backlink-Struktur, „Unique vistors“ oder „Page Impressions“, also Faktoren, die zwar über den Erfolg der Seite, Besuche zu generieren, honorieren doch nur wenig darüber aussagten, wie das tatsächliche Konsumerlebnis eines Besuchers ausfiel.

In dem Bestreben, die auf den Suchmaschinenergebnisseiten dargestellten Ergebnisse der, besser als Akronym SERP bekannten, Ausgabeseiten von Google zu verbessern, ist die Zahl der für die Entwicklung eines positiven Rankings relevanten Faktoren stark angestiegen. Dementsprechend wird heute durch Google verstärkt das „User behaviour“ neben den erfassten statistisch Zahlen als Kriterium in den Rankingprozess eingebunden.

Es ist vergleichsweise einfach, Besucher auf das eigene Angebot zu locken. Ihn dort zu halten jedoch ist ein unvergleichlich schwierigeres Unternehmen, denn der Internetnutzer von heute navigiert geradezu intuitiv durch das Weltnetz auf der Suche nach den von ihm gesuchten Informationen. Sie gehen selbst wie lebendige Crawler vor, bewerten in Sekundenschnelle Verfügbarkeit von Informationen und die Relevanz gemessen zu den von ihnen gesuchten Inhalten.

Einer der Bereiche, die hierbei Behandlung finden, ist die Gestaltung des Inhalts, sprichwörtlich in „Wort und Schrift“. Die Beachtung der Mechanismen, die dabei wirken, ist ausschlaggebend für den Erfolg ihrer Webseite in der Zielwirkung auf die angesprochene Zielgruppe.

Dabei begeben wir uns vor allem auch abseits klassischer Konzepte und Strategien die bei der Suchmaschinenoptimierung angewandt werden, die zumeist in der Vergangenheit eher technischer Natur waren und wenden uns der essentiellen Wichtigkeit der Methoden des Online-Marketings zu, die sich Schwerpunktmäßig auf die Psychologie der Kundenkommunikation und die Optimierung ihrer Inhalte auf diese Erkenntnisse hin, bezieht.

Bei ihrer Umsetzung arbeitet der Seitenbetreiber den Gewohnheiten im Konsumverhalten des Nutzer zu, bedient seine zielgruppenspezifischen Ansprüche an Inhalte, fördert nach einer erfolgreichen Adaption der Marke eine Festigung der Markenbindung und stellt nach einem initialen Erfolg in der Ansprache des Konsumenten die Dauerhaftigkeit der Bindung sicher welches schlussendlich dazu führt, das der Webseitenbesucher „konvertiert“.

Das bedeutet, das der Visitor die Marke auch in Zukunft konsumieren wird. Die damit einhergehenden Effekte aus dem Nutzerverhalten wirken sich auch auf das Suchmaschinenranking aus: Verweilen auf der Webseite, Wiederbesuch des Angebots, das Empfehlen der Seite durch „+1“ oder dem Verbreiten einzelner Pages der Webseite über die sozialen Netzwerke. Das sind kaum anders zu generierende Bonuspunkte in der Entwicklung ihres Google Rankings, die seit der Hinwendung der Bewertungskriterien zur Auswertung des Nutzerverhaltens mehr und mehr Gewichtung erlangen.

Es steht in diesem Artikel also der Inhalt im Mittelpunkt der Aufmerksamkeit, der die eigentliche Kommunikation zwischen Business und Client, dem Konzept „B2C“, darstellt. Denn Fehler im „Content Design“ sind aufgrund der statischen Erscheinungsform von Content oft unverzeihlich. Ein einmal verlorener Visitor kann nicht zurückgewonnen werden, es können Mängel in der Gestaltung nur für zukünftige Konsumenten ausgebessert werden und somit auch das Nutznießen der damit einhergehenden positiven Effekte, um die Ergebnisse ihrer Suchmaschinenoptimierung abzurunden.

Damit ist die ganzheitliche Konzeption des Inhalts, welche bereits in der Planungsphase einsetzt, von essentieller Bedeutung. Ebenso ist eine frequente und sorgfältige Qualitätssicherung, welche die Einhaltung der Faktoren überprüft, Mängel erkennt und ihre Behebung veranlasst.

Da sich die Adaption und Konversion von Konsumenten hin zu regelmäßigen Besuchern und Wandlung hin zum Kundenstatus sich schon mit den ersten Zeilen entscheidet.

Das Inhaltsdesign: Identität, Aussage, Textgestaltung

Seit der erste Mensch seine Produkte oder Dienstleistungen anbietet und in Konkurrenz zu anderen um die Aufmerksamkeit der Zielgruppe im Marktsegment steht, ist es das vorrangige Ziel von Unternehmern, Dienstleistern und Produzenten, sich erfolgreich von der Konkurrenz abzugrenzen und die eigene Marke, das eigene Produkt mithilfe visueller, akustischer oder semantischer Mittel im Gedächtnis seiner Zielgruppe dauerhaft zu platzieren und so eine Bindung zu erzeugen.

Die dafür geltenden Konzepte applizieren auch auf die Gestaltung der Inhalte, welche im Rahmen der technischen Umsetzung als Gesamtprodukt „Webseite“ transportiert und vom Seitenbesucher konsumiert werden. Die möglichst intensive Bindung des Visitor an die Inhalte wird als „Stickiness“ bezeichnet und ist neben der kommerziellen Auswirkung einer möglichen Konversion vom Interessenten zum zahlenden Kunden auch für das erfolgreiche Ranking auf den SERPs (Search Engine Result Pages) von Google relevant sind.

Für diesen Erfolg sind vor allem folgende drei Faktoren besonders gewichtig:

  • Inhaltliche Klarheit
  • Die Greifbarkeit der Inhalte
  • Das vermittelte Gefühl

Sie erfahren auf den kommenden Seiten also, wie sich diese drei Faktoren im Detail ausprägen und geben ihnen Anregung, welche Maßnahmen sie treffen können, um die Bedürfnisse dieser Konzepte und Notwendigkeiten der Gestaltung und Darreichungsform ihrer Inhalte zu erfüllen, um den maximalen Gewinn am Seitenbesucher zu erfahren und sich erfolgreich der Dynamik der Intelligenz des Schwarmes bedienen um die Reichweite und Popularität ihrer Marke erhöhen und aus diesen Faktoren positive Einflüsse auf ihr Google Ranking gewinnnen.

Lesen Sie dazu unsere komplette Serie:

Starthilfe: SEO in 10 Minuten – Teil 10

Analyse ihres Erfolgs mit Google Webmaster Tools

Was sich in der uns vorliegenden Präsentation so einfach in wenigen Stichworten zusammengefasst hat, hat auch sie, lieber Leser, zu einer ausführlichen Reihe an Artikeln geführt, in denen wir für sie aufbereitet haben was Maile Ohye, eine der technisch führenden Köpfe im Hause Google den Webmastern rund um den Globus wärmsten angeraten hat und es mag fast euphemistisch klingen, das sie von „SEO in 10 Minuten“ sprach, denn die erfolgreiche Optimierung ist auch mit ihren Tipps eben nicht „mal eben“ in unter einer Viertelstunde erledigt.

Und doch: Jeder Schritt war schnell zu erledigen und zeigt auf, dass das erfolgreiche Optimieren eines Webprojekts kein Hexenwerk ist und auch mit den immer diffiziler ausgearbeiteten Ranking-Kriterien der Suchmaschine durch Algorithmen und manuelle Bewertung in ihren Grundlagen auch von Laien zu schaffen ist – Gesetzt dem Fall, sich den sinnvollen Richtlinien zu unterwerfen!

Im Idealfall haben sie nun also alle Schritte, die wir ihnen an dieser Stelle schon verraten haben, umgesetzt und werden schon bald erste Ergebnisse auswerten wollen, um den Erfolg ihrer Maßnahmen bemessen zu können. Wie sie dies bewerkstelligen können, soll dieser letzte Artikel ihnen nahebringen.

Google-eigene Werkzeuge ermöglichen detaillierte Auswertungen und bieten Hilfestellungen

Mit den Google Webmaster Tools haben sie bereits Zugriff auf eine Quelle detaillierter Auswertungen zu ihrer Webseite. Hier finden sie zu allen Werkzeugen zusätzlich Tabellen zur Übersicht der Effektivität ihrer direkt in den Tools vorgenommenen Maßnahmen:

Webmaster Tools Dashboard: Bereits auf dem Eingangs ersichtlichen Dashboard der Tools erhalten sie eine Übersicht über ihre erfassten Page Impressions und der Klicks ihrer Besucher auf den Search Engine Result Pages. Zusätzlich werden ihnen hier umgehend aufgetretene Fehler angezeigt, die Google beim crawling ihrer Seite festgestellt hat. Alles was hier erscheint, sollte in ihrer Planung absolute Priorität erhalten, da sich jeder Fehler auf ihr Ranking auswirken wird, sobald er einen gewissen „Impact“ hat. Betrachten sie jeden Fehler genau und vergleichen sie durch Erfahrungswerte im Internet, wie schwer ihr Fehler wirkt und wie sie diesen entgegenwirken können.

HTML-Verbesserungen: Google analysiert für sie die META-Descriptions ihrer Pages und listet ihnen auf, welche Seite gleichlautende Titel haben oder etwa zu lange oder zu kurze Inhaltsbeschreibungen aufweisen. Dies ist aus Sicher der Suchmaschinenoptimierung nämlich Nachteilhaft und sie erhalten somit die Option, das Potential zur Nachbesserung zu erkennen und zu nutzen.

Strukturierte Daten: Via sogenannter „Rich Snippets“ können sie das Erscheinungsbild bestimmter Ergebnisse ihrer Seite in den Suchmaschinenergebnisseiten (SERPs) beeinflussen. Diese „Rich Snippets“ sind HTML-Fragmente, die direkt in den Seitencode eingebettet werden und von der Suchmaschine separat erfasst werden und ermöglicht die attraktivere Erscheinung im Ergebnisbereich. Unter „Andere Ressourcen“ finden sie zudem ein „Test-Tool für Rich Snippets“, das ihnen erlaubt, diese vor Einbau in ihre Seite auf Validität und Erscheinungsbild zu prüfen.

Sitemaps: Die Übersicht der von ihnen durch die von ihnen per XML-Sitemap hinterlegten (Eingereichten) Seiten und der tatsächlich von Google indexierten Pages. So können sie schnell erkennen, ob ihre Inhalte korrekt erfasst wurden oder sich vielleicht, etwa durch fehlerhafte Einstellungen eines möglicherweise verwendeten SEO-Plugins einige ihrer Seiten ungewollt als „noindex“ geflaggt sind. Idealzustand ist natürlich, wenn die beide Typen dieselbe Zahl wiedergeben. Dann ist alles, wie es sein sollte.

Content-Keywords: Um die korrekte Umsetzung ihres Inhaltskonzepts zu prüfen, hilft ihnen diese unscheinbar daherkommende Analyse der von Google als prägnant wahrgenommenen Keywords, die im Rahmen der Indexierung und Katalogisierung ihrer Webseite erfasst wurden. Die Ergebnisse müssen nicht unbedingt mit ihrem Konzept übereinstimmen, weshalb sie diese Liste als Anhalt nehmen sollten, um abweichende Suchbegriffe umzuformulieren. Tipp: Wenn sie auf den Begriff in der Liste klicken, erfahren sie, welche Variationen des Begriffs dabei gefunden wurden. Dies erleichtert den Prozess der „keyword clarity“ ungemein.

Die Google Webmaster Tools werden laufend erweitert und bieten über die aufgezählten Optionen hinweg weitere sinnvolle Möglichkeiten der SEO – Analytik. Es lohnt sich daher, mit diesem kostenlosen Werkzeug auf regelmäßiger Basis zu arbeiten und seine Entwicklung zu verfolgen!

Sinnvolle SEO-Tools

Wo ein Markt ist, da sind auch Anbieter, die diesen Markt bedienen wollen.
Die schiere Anzahl der am Markt verfügbaren Programme zur Unterstützung einer Optimierung als ganzes sowie spezialisierter Teilbereiche ist kaum zu überschauen und jeden Tag kommen neue Gadgets, Tools und ganze Entwicklungs- und Analyseumgebungen hinzu, so das wir Abstand davon nehmen, schon weil es den Rahmen dieses Artikels sprengen würde, ihnen eine Übersicht der besten SEO-Tools zu präsentieren.

Grundsätzlich ist die Wahl eines Tools immer Ergebnis eigener Ansprüche und dem Benutzerempfinden. Nehmen sie nur Abstand von Tools, die ihnen den Himmel auf Erden versprechen, jedoch keine Möglichkeit zum testen bieten: Hier lauern Betrüger und Anbieter von Schadsoftware!


Hiermit ist diese Artikelserie per heute, 24.10.2012, abgeschlossen. 

Hier finden Sie alle 10 Teile:

  1. Das erste Grundlagenwissen für ihre SEO-Erfolge
  2. Der Webserver als erster Steigbügelhalter zur glücklichen SEO-Optimierung
  3. Intelligente Textgestaltung als effiziente SEO-Maßnahme
  4. Einheitlicher Domainzugriff und Google Webmaster Tools erleichtern den Aufstieg
  5. Mail Forwarding in den Webmaster Tools zur Benachrichtigung nutzen
  6. Altlasten ihrer Domain klären und mit einfach mit Google die eigene Domain prüfen
  7. Strategische Grundlagen: Zielgruppendefinition, Design & Social Media
  8. Strategische Grundlagen: Content Management und Corporate Design
  9. Multimedia neu begriffen – Unterhaltung und Dienstleistung
  10. Analyse ihres Erfolgs mit Google Webmaster Tools
Die nächste Serie wird Sie über “Stickiness” informieren

 

 

Starthilfe: SEO in 10 Minuten – Teil 9

Multimedia neu begriffen – Unterhaltung und Dienstleistung

Im letzten Teil behandelten wir die Wichtigkeit der Festlegung auf eine Unternehmens- oder Projektidentität, die in ihrer Natur mehr den Kommunikationswissenschaften als dem Bereich der Suchmaschinenoptimierung zuzurechnen ist, doch sind solche Wissensbereiche gerade für den Erfolg einer Webseite in einem von Google katalogisierten Internet immer wichtiger, in dem die Relevanz von messbaren sozialen Trends mehr und mehr Gewicht zugesprochen wird. Grundlagenwissen zur Kommunikation und Querverweise aus dem Bereich des Marketing schaden hier keinesfalls.

Im Folgenden wenden wir uns dem letzten Element der inhaltlichen Gestaltung zu: Multimediale Elemente. Bedeutet Multimedia längst mehr als die in den 1990ern beschworene, an Sinneseindrücken überladene Welt von Animationen, Videos, Soundeffekten und Musik, ist die eigentliche Begrifflichkeit, Medienübergreifenden Content bereitzustellen, eine Hausnummer in der von Maile Ohye als Mitglied des technischen Entwicklerteams beschriebenen Entwicklung von Webseiten. Denn was Menschen gut finden, wird Google in Zukunft feststellen – und gut bewerten!

Multimedia ergänzt statische Inhalte und schafft ein Konsumerlebnis für den Seitenbesucher

Der Begriff „Multimedia“ erscheint anachronistisch, ist jedoch in seinem ursprünglichen Begriff nach wie vor sehr trefflich bei der Bereitstellung von Inhalten anzuwenden. Wurde er in den Pioniertagen der Computer exzessiv als Feature beworben und durch diesen Exzess für das Marketing verbrannt, beschreibt er bei der Inhaltsgestaltung einer Webseite die Multi-mediale, also die Medienübergreifende Form der Darreichung von Inhalten. Zielgerichtet eingesetzt, sind Multimedia-Elemente ein effektives Mittel, ihre Inhalte ansprechend zu ergänzen.

Mit der Bereitstellung von statischen Wüsten aus Texten lockt man heutzutage niemanden mehr hinter dem Ofen hervor. Es hat sich eine, dem Rhythmus des Internets angepasste, Aufmerksamkeitsspanne entwickelt, ein Bemessungszeitraum für Inhalte, der in mehreren Stufen in selten mehr als einer Minute bestimmt, ob ein Angebot interessant ist oder ob man in der Suche nach Informationen, Dienstleistungen oder Unterhaltung weiter im Netz surft. Dieses Zeitfenster gilt es zu nutzen und alle inhaltlichen Tipps dieser Serie zielen darauf ab. Multimedia ist längst präsent – und sie können durch den Einbau interaktiver Elemente die Aufmerksamkeit ihrer Besucher auf sich lenken.

Nicht nur Google hat mit seinem Dienstleistungsportfolio viele Adaptionsmöglichkeiten multimedialer Funktionserweiterungen geschaffen: Eine auf der Google Maps-API basierende Suchfunktion für ihre Niederlassungen, dem Einbinden ihrer Werbespots über YouTube, sie sind nur der Begriff einer Entwicklung aller Funktionen für ihre Seite, um einfach auf der Basis dieser Dienstleistungen bereits mit Google verbundene Funktionen zu ihrer Webseite hinzuzufügen.

Doch auch anderen Folgen diesem Konzept: Mit dem Nutzen der Schnittstellen des sozialen Netzwerks Facebook, etwa für Kommentar-Bereiche oder der bekannten „Like“-Funktion, eröffnen sie ihr Webangebot einer bereits bestehenden, weltweiten Nutzerbasis und können kulminierende Effekte des Multi-Platformings effizient ausnutzen.

Als Beispiele nennen wir hier zwei, im Internet weit verbreitete Technologien, im Multimediale Inhalte anzubieten und technisch umzusetzen, nämlich Adobe Flash sowie JavaScript und seine Weiterentwicklung, AJAX, die das Feld des Übergangs klassischer statischer Inhalte mit dem Konzept dynamischer und multimedialer Elemente verbinden und sich auf dem Markt durchgesetzt haben.

Adobe Flash, JavaScript und AJAX – Verbreitete Technologien für Multimedia im Internet

Adobe Flash erlaubt es interaktive Inhalte, wie Animationen, Sounds, Musik und Videos in einem eingebetteten Container auf dem Gerät des Nutzers auszuführen. Dies Bedeutet, das ein, in eine HTML-Seite eingebettete Flash-Datei übertragen und lokal ausgeführt wird. Auf Flash-Inhalten geeigneten Endgeräten ist es daher sehr einfach und unkompliziert attraktive Akzente zu setzen, wie etwa animierte Firmenlogos und interaktive Gestaltungselemente zur Abrundung des Konsumerlebnisses.

Weiterhin lassen sich mit Flash-Objekten wie etwa Video-Playern oder Bildergalerien auf unkomplizierte Weise grafisch ansprechende, interaktive Elemente einbinden. Das Format wird zudem oft für die Realisierung von im Browser ausgeführter Mini-Games verwendet. Die Vollständige Realisierung von Webprojekten als eingebettetes Flash-Objekt erlebte einen kurz anhaltenden Hype, am Ende der 2000er, konnte sich Aufgrund dessen, dass es das Suchmaschinenranking erschwerte, wenn nicht vollständig behinderte, nicht durchsetzen. Die Google Crawler registrieren zwar die Einbettung selbst, können aber das Flash-Objekt nicht durchsuchen.

Die Skriptsprache JavaScript bietet die Möglichkeit, durch die native Einbindung in HTML eine Interaktion mit dem Nutzer zu erlauben und Funktionalitäten einzubinden, die mit dem ausschließlichen Gebrauch von HTML selbst nicht möglich wären. Durch Missbrauch der Technologie ist die Verwendung von JavaScript in Verruf geraten, wird jedoch bis heute bei linear ablaufenden Webseitenelementen, etwa von Eingabeformularen, genutzt.

Das Konzept AJAX als Weiterentwicklung von JavaScript ist ein Akronym für „Asynchronous JavaScript and XML“ und ermöglicht das Nachladen von Informationen, ohne die Seite an sich, in der ein AJAX-Objekt eingebunden ist nachladen zu müssen. Dies ermöglicht komplexe Systeme mit hohem Gebrauchswert in generischen Browserumgebungen. Als Beispiel sei hier Google Mail genannt, das in AJAX umgesetzt wurde und einen vollwertigen Email-Client lokal im Browser ausführt und asynchron Daten mit dem Server austauscht.

Ob sie nun ihre Produkte mit Werbevideos untermalen, ihre Seite mit musikalischer Untermalung versehen wollen oder auf die Implementierung handfester Funktionalitäten setzen, achten sie stets auf die bereits beschriebenen Grundregeln zur Nutzerfreiheit. Keine Zwänge und Erschwernisse sollten dabei auftreten, dies gilt es immer und zu jeder Zeit zu beachten und immer wieder zu prüfen,um den Erfolg ihrer Webseite zu sichern!

Hier finden Sie alle 10 Teile:

  1. Das erste Grundlagenwissen für ihre SEO-Erfolge
  2. Der Webserver als erster Steigbügelhalter zur glücklichen SEO-Optimierung
  3. Intelligente Textgestaltung als effiziente SEO-Maßnahme
  4. Einheitlicher Domainzugriff und Google Webmaster Tools erleichtern den Aufstieg
  5. Mail Forwarding in den Webmaster Tools zur Benachrichtigung nutzen
  6. Altlasten ihrer Domain klären und mit einfach mit Google die eigene Domain prüfen
  7. Strategische Grundlagen: Zielgruppendefinition, Design & Social Media
  8. Strategische Grundlagen: Content Management und Corporate Design
  9. Multimedia neu begriffen – Unterhaltung und Dienstleistung
  10. Analyse ihres Erfolgs mit Google Webmaster Tools
Die nächste Serie wird Sie über “Stickiness” informieren

Starthilfe: SEO in 10 Minuten – Teil 8

Strategische Grundlagen: Content Management und Corporate Design

Den Betreibern der Suchmaschine Google wirft man nicht ganz zu unrecht immer wieder ein wenig Geheimnistuerei um die Funktionsweisen ihrer Algorithmen und Bewertungen vor. Wenn dann jedoch tatsächlich, aus dem Herzen der technischen Umsetzung eine Maile Ohye, ihres Zeichens „Developer Programs Tech Lead“, eine Insider-Präsentation veröffentlicht, sollte man umso hellhöriger werden.

Mit Teil 8 der Serie widmen wir und daher der Inhaltsgestaltung nach dem Motto „SEO in 10 Minuten“ und geben ihnen wertvolle Tipps aus dem Hause Google mit auf den Weg, um auch für die Platzierung in den SERPs immer wichtiger werdenden Ergebnisse aus der Auswertung sozialer Strukturen, man könnte sagen: „Google goes viral!“

Zielgruppengerechte Gestaltung ihres textbasierten Content und seine Aufbereitung

Jede Zielgruppe will anders angesprochen werden. Für die jeweiligen Milieus typische Formen der Kommunikation werden erwartet und sind Grundvoraussetzung zum Verweilen des Page Visitor auf ihrem Angebot. Ziel dieser Teildisziplin ist also, den „erwünschten“ Besucher korrekt anzusprechen und so auf ihrer Webseite zu halten.

Jugendliche Zielgruppen etwa bevorzugen ein gewisses Konsumerlebnis, wollen begeistert werden und suchen möglichst viel Information in wenig Worten, bevorzugen zudem multimediale Komponenten,ein Finanzinvestor hingegen sucht in den Inhalten bereits nach relevanten Informationen, um sich ein möglichst umfassendes Bild zu schaffen und so die mögliche Aufnahme eines Kontakts anzubahnen.

Dem Medienvertreter hingegen liegt es an einfach zu paraphrasierenden Inhalten, denn seine Recherche bedarf keiner Überzeugung: Er sucht bereits nach Informationen und bewertet unterbewusst positiv die arbeitssparende Aufbereitung auf ihrem Angebot und geschäftliche Interessenten aus anderen Unternehmen wollen natürlich möglichst sachlich präsentierte Inhalte vorfinden, die die Eigenschaften ihrer Produkte und Dienstleistungen möglichst präzise erfassen und darstellen.

Die konsequente Umsetzung einer Corporate Identity sichert den Wiedererkennungswert und schafft Werte

Viele Unternehmen investieren hohe Summen in den Aufbau einer sogenannten Corporate Identity. Einer Unternehmensidentität also. Dieser Begriff beschreibt die Festlegung eines Gesamtkonzeptes, einer Identität, mit der ein Projekt, sei es ein Unternehmen, ein Dienstleister oder eine anderweitig kommerziell agierende Figur sein Erscheinungsbild in der Außenwirkung definiert.

Das Umfasst neben dem Firmenlogo als hauptsächlich wahrgenommenen Indikator einer Marke und gedanklichen Anker im Gedächtnis der Zielgruppe auch die Erscheinung seiner Webseite in grafischer Gestaltung: Einheitliche Gestaltung in repräsentativen Farben, wie zum Beispiel die rot-weiße Farbkombination der Coca-Cola-Company als berühmtes Beispiel, die bereits Kleinkinder als Bezug zur Marke „Coca Cola“ nehmen und als Musterstück der Markenwahrnehmung gilt.

Jedoch fallen auch andere Begriffe in das corporate design, wie etwa dem sogenannten „Wording“, einer bestimmten Form der Textgestaltung, die für den Wiedererkennungswert von unternehmensbezogenem Content essentiell sind. Ziel des corporate design ist es, ein immer wieder zu replizierendes Erlebnis zu gewährleisten und in der Wahrnehmung des Konsumenten zu verankern.

Textgestaltung: Semantischer Feinschliff als Teil der Unternehmensidentität

Der Text ist die nicht zu ersetzende Grundlage einer Inhaltspräsentation.
Schon für die technische Erfassung für das Suchmaschinenranking ist das Vorhandensein von Text notwendig. Mit den Wörtern steht und fällt der Erfolg, eine Basis zum Konsumenten aufzubauen. Je mehr Inhalte ihre Besucher konsumieren, umso wichtiger ist es, in der strukturellen Gestaltung und der Wortwahl das Gefühl zu erzeugen, ein Gesamtprodukt zu erleben, da gerade die Zielgruppe der Endverbraucher zur Identifikation mit einer Marke neigt.

Gleichsam werden andere Zielgruppen von der Wirkung einer Marke angezogen, um von einer erfolgversprechenden Marke profitieren zu können. Dieser Effekt steigt exponentiell mit Bekanntheitsgrad und Prestige einer Marke an, als Beispiel sei das „iPhone“ von Apple genannt, das durch seine ursprüngliche Exklusivität allein starke Anziehung ausübt. Mit der Einbettung in das Gesamtbild des Produktportfolios und einheitlicher Gestaltung und Bedienungsmethoden wird das Nutzererlebnis positiv in Erinnerung behalten. Dies lässt sich so unverändert für ihre Webseite übernehmen.

Somit ist es das Ziel, auch ihre Texte in einem zielgruppengerechten Format zu gestalten. Wortwahl, Menge, Textform sind drei Grundpfeiler, die sie für jede Zielgruppe in unterschiedlichen Schwerpunkten umsetzen müssen, um den Anspruch an eine Saubere Text-CI (Corporate Identity) zu erfüllen. Diese Umsetzung auch im geschriebenen Wort ergänzt das übrige Design eines Webangebots auf direkter, kommunikativer Ebene und vertieft die Eindrücke einer Markenprägung effektiv, umso mehr wenn durch stimmige Textgestaltung der Eindruck eines Produkts „aus einem Guss“ entsteht, der dem Nutzer ein positives Bild vermittelt.

Die bei der Bildung einer starken und vitalen Marke auftretenden Effekte, von der digitalen Mundpropaganda bis hin zur Verlinkung des eigenen Angebots in externem Content – All das ist relevant für die Bewertung der Relevant in den Ranking-Algorithmen von Google, indem die Suchmaschine zunehmend die sozialen Komponenten für den Feinschliff seiner Erstellung von Suchergebnissen einbezieht. Eine Webseite, die daher in aller Munde ist, wird von diesem Umstand also nicht nur im Humanmarketing profitieren, sondern auch unter Aspekten des Suchmaschinenmarketings.

Hier finden Sie alle 10 Teile:

  1. Das erste Grundlagenwissen für ihre SEO-Erfolge
  2. Der Webserver als erster Steigbügelhalter zur glücklichen SEO-Optimierung
  3. Intelligente Textgestaltung als effiziente SEO-Maßnahme
  4. Einheitlicher Domainzugriff und Google Webmaster Tools erleichtern den Aufstieg
  5. Mail Forwarding in den Webmaster Tools zur Benachrichtigung nutzen
  6. Altlasten ihrer Domain klären und mit einfach mit Google die eigene Domain prüfen
  7. Strategische Grundlagen: Zielgruppendefinition, Design & Social Media
  8. Strategische Grundlagen: Content Management und Corporate Design
  9. Multimedia neu begriffen – Unterhaltung und Dienstleistung
  10. Analyse ihres Erfolgs mit Google Webmaster Tools
Die nächste Serie wird Sie über “Stickiness” informieren

Lange erwartet: SEO als Studienfach

Seit dem 1. September bildet die „afs“ Akademie angehende SEO-Spezialisten aus

Noch kein echtes Studium: Mit einem ersten Weiterbildungslehrgang zeichnet sich eine weitere Professionalisierung der deutschen SEO-Branche ab. Die Akademie für Fortbildung in SEO (Kurz: „afs“) hat mit dem erfolgreichen Start zum 1. September begonnen, für die zukünftige Entwicklung der Branche mit einer fachbezogenen Ausbildung Akzente zu setzen.

Ansätze für eine solche Entwicklung zeigten bereits einige konventionelle Studiengänge, deren Lehrplan schwerpunktmäßig die Suchmaschinenoptimierung beinhalteten, wie etwa die Fakultät für Informatik der Fachhochschule Würzburg-Schweinfurt mit ihrem Seminar „Besucherquelle Google“. Ebenso tragen Lehrberufe wie der FIAE (Fachinformatiker Anwendungsentwicklung) sowie die Ausbildung zum Kaufmann für Marketingkommunikation der Entwicklung unweigerlich folge und behandeln in Teilbereichen inhaltliche Aspekte des Thema SEO.

SEO ist längst Teil von IT-bezogenen Studienfächern und branchenverwandter Lehrberufe

Die „afs“ führt diese Ansätze weiter, zunächst mit dem Lehrgang der zum „Abschluss Fortbildung in Suchmaschinenoptimierung“ führt. Diese Fortbildung ist auf 6 Monate angesetzt und ist das als Fernstudium per e-Learning angelegt ist, welches von kurzen Präsenzphasen in Berlin ergänzt wird und über die Dauer der Fortbildung von insgesamt 22 aus der deutschen SEO-Branche stammenden Referenten unterstützt wird. Die Zertifizierung des Lehrgangs an der „afs“ erfolgt durch die staatliche Zentralstelle für Fernunterricht (ZFU), somit ist die Seriosität des Angebots wahrscheinlich gewährleistet.

Der Lehrplan für die angehenden Suchmaschinenoptimierer umfasst eine Gliederung in sechs, thematisch in sich geschlossene Module: SEO-Basics, Optimierung On- und Offpage-, SEO-Tools, Keywords und Marketing & Recht. Die Liste der an dieser Weiterbildung beteiligten Praxisvertreter ließt sich dabei wie das „Who-is-Who“ der Deutschen SEO-Szene, die man in dieser Konstellation wohl eher nicht erwartet hätte, was für die Lehrstätte und ihren Lehrplan spricht. Die Gesamtkosten für die Fortbildung werden mit 4.900€ inklusive aller Lehrmaterialien veranschlagt, so Gerald Steffens, dem Leiter der Akademie, der mit seinem „SOS SEO Blog“ selbst nicht unbekannt in der Szene ist und eine gewisse fachliche Reputation besitzt.

„afs“-Weiterbildung: Mitarbeiter von Unternehmen und Agenturen lernen SEO

Zielgruppe für die „Fortbildung in Suchmaschinenoptimierung“ sind vor allem Unternehmen, die keine eigenen Kapazitäten im Bereich SEO besitzen und diese Fähigkeiten bisher zukaufen mussten . Durch den erfolgreichen Abschluss des Lehrgangs erhielten die Unternehmen und Agenturen fachlich gut ausgebildete Mitarbeiter, so die Akademieleitung, die zudem durch die enge Zusammenarbeit mit den Referenten und ihrer Mitstudenten diesen Lehrgang sehr gut vernetzt absolvieren.

Platz für Zukunftsträume lässt dieser erste Lehrgang zur SEO-Zertifizierung bei entsprechender Akzeptanz durch die Branche durchaus. So haben bereits andere Berufsfelder längst den Schritt hin zu einer Festlegung und Normierung von Ausbildungen und Inhalten vollzogen, manche Bereiche sind als anerkannte Studienabschlüsse sogar im Master-Bachelor-System zu erwerben. Eine solche Entwicklung würde der deutschen SEO-Branche sehr gut stehen, da im Rahmen von Studienfächern und einer Definition der SEO-Wissenschaften ein akademischer Wind zwangsläufig Einzug halten wird.

SEO als Wissenschaft: Ein erster Schritt hin zu einem eigenen Masterstudium?

In einem Berufsfeld welches aufgrund der Formlosigkeit nach wie vor von Quereinsteigern und Autodidakten dominiert wird, könnte die Einrichtung eines Masterstudienganges den Markt nachhaltig professionalisieren. So bestünden endlich Möglichkeiten, SEO-Professionals anhand ihrer Qualifikation und nicht mehr nur nach der Reputation, die sie branchenintern genießen.

Somit würden erstmalig messbare Qualitätsstandards in der Branche hinsichtlich Wissen und Fertigkeiten Einzug finden und die Arbeit von schlechten Suchmaschinenoptimierern oder gar schwarzen Schafen in der Branche erschwert werden, bevor sie schaden anrichten können, da sie mangels Qualifikation bei Angebotsanfragen nicht mehr berücksichtigt werden.

Aus dem Buschfunk, der zu diesem Thema in der SEO-Branche und ihrer Blogosphäre dringt, lässt sich ein gemischtes Meinungsbild entnehmen, das sich nicht eindeutig in Befürworter und Ablehnende eingrenzen lässt. Allgemein geht man sehr reflektiert mit dieser Entwicklung um, jedoch fürchten etablierte SEO-Professionals neben einem de-facto Zwang zum Studium zusätzlich eine Formalisierung der Branche und den Verlust kreativer Leidenschaft durch das verstärkte Auftreten einer „Sakko“-Mentalität von leidenschaftslosen Technikern, die ihre Tätigkeit vorrangig als Beruf wahrnehmen.

SEO-Buschfunk: Etablierte Professionals fürchten Veränderung und Konkurrenz

In Anbetracht dessen, das die etablierte SEO-Branche in Deutschland nach wie vor aus Quereinsteigern rekrutiert, ist diese Befürchtung menschlich durchaus nachvollziehbar, da sie sich erst vor einem halben Jahrzehnt, im Zuge der zunehmenden Bedeutung von Suchmaschinenoptimierung in Deutschland auf kommerzieller Ebene aus einem überschaubaren Kreis SEO-affiner Nerds rekrutiert hat, die in dieser unstrukturierten Branche die Veränderung, selbst unausweichlich Alternd, fürchten wie der Teufel das Weihwasser. Es ist also quasi ein gelebter und angewandter Konservatismus, den sich so mancher eingestehen sollte.

Für den Kunden, der auf die Dienstleistungen der SEO-Professionals angewiesen ist jedoch, kann das Vorantreiben der einer beruflichen Einzäunung und Definition von Ausbildungsfeldern nur von Vorteil sein, da hier nachvollziehbare Qualifikationssysteme die Folge wären, die Transparenz bei der Wahl der Dienstleister erlauben und so manchen Griff in den Abort verhindern könnten.

Vorteile auf ganzer Linie: Seriöses Branchenbild, Einheitliche Standards, Transparenz für Kunden

Ebenso wird sich das Nachrücken des Nachwuchses in Form von „Young Professionals“, ob vorerst mit oder ohne Studienabschluss, für die Qualität und Seriosität der Branche positiv auswirken. Diese „Techniker“ bringen erfahrungsgemäß einen höheren Grad der Professionalisierung ihrem Beruf gegenüber auf, da sie ihn als solches begreifen. Diese Eigenschaft ist nur schwerlich durch Leidenschaft und Begeisterung aufzuwiegen. SEO bedeutet dynamisches Lernen und ein Berufsfeld, dessen Parameter sich regelmäßig ändern. Wer diesen Umständen als

Fazit zum Schluss

Egal worum es geht, die SEO-Branche isst vieles oft heißer, als sie sollte: Noch ist nichts spruchreif und das Ergebnis des Erfolgs des ersten Jahrgang derer die an der „afs“ die „Fortbildung in Suchmaschinenoptimierung“ absolvieren bleibt abzuwarten. In einem halben Jahr wird ersichtlich werden, ob sich das Weiterbildungskonzept der „Akademie für Fortbildung in SEO“ bewährt hat und sich branchenweit etablieren, gegebenenfalls sogar Erweitern kann. Bis dahin bleibt nur, sich von Lobpreisungen und Unkenrufen der jeweiligen Parteien nicht zu sehr einnehmen zu lassen und die Entwicklung der Branche und der offensichtlich angestrebten und gewünschten Modelle zur Qualifizierung für SEO-Professionals abzuwarten.

Starthilfe: SEO in 10 Minuten – Teil 7

Strategische Grundlagen: Zielgruppendefinition, Design & Social Media

Maile Ohye ließ uns mit ihrer Insiderpräsentation die Ansprüche der Suchmaschine Google wissen, wie zukünftig mit nur wenig Zeitaufwand das Ziel einer erfolgreichen Platzierung in der wichtigsten Suchmaschine des Internets zu erreichen ist. Die Regel dabei lautete: „SEO in unter 10 Minuten“, und mit dem siebten Teil unserer Serie stoßen wir die Aufstellung ihres Projekts im WWW hinsichtlich der Strategie ihres Vorgehens an, nachdem sie die technischen Stolperfallen und Kardinalfehler bei der Präsentation von neuen Webprojekten erfolgreich umgangen haben:

Suchmaschinenmarketing bedeutet auch: Zielgruppengerechtes Marketing

Für jede Marke und jedes Produkt gibt es bestimmte Zielgruppen, die sie mit ihrer Webseite erreichen wollen. Um möglichst konkrete Ergebnisse zu erreichen, ist es von absoluter Notwendigkeit den Geschmack, die Bedürfnisse und nicht zuletzt das Nutzerverhalten ihrer Zielgruppen zu ergründen, zu erkennen und ihr Angebot auf dieses Publikum auszurichten, um nach einer erfolgten Aufnahme in den Suchregister das geschaffene Erfolgspotential ihrer Unternehmung auch sprichwörtlich „an den Mann“ zu bringen.

Definieren sie daher zunächst die übergeordneten Zielgruppen, die sie mit ihrem Angebot ansprechen wollen: Ist ihr Webprojekt auf den Konsumenten und Endverbraucher ausgerichtet? Wollen sie den Kontakt zu Investoren anbahnen? Ist das Ziel ihrer Webseite die „vierte Macht“ im Staate, nämlich die Medienindustrie und die Presse? Wichtig: Der schmale Grat zwischen der zum scheitern verurteilten „eierlegenden Wollmilchsau“ und einem farblosen, langweiligen Portfolio will gemeistert werden.

Aus diesen Hauptgruppen können sie im nächsten Schritt präziser umrissene Besucherzielgruppen ableiten.Bleiben sie dabei jedoch strikt bei einer Hauptzielgruppe und den daraus abgeleiteten Publikumsgruppen und maximal einer artverwandten Zielgruppe. So gehen Endverbraucher stets einher mit der Ausrichtung auf das B2B, eine große Bekanntheit beim Konsumenten wiederum lockt Reseller und Wiederverkäufer für ihre Waren und Dienstleistungen an.

Denn: Ihr Produkt wird früher oder später den Endkunden erreichen, es wäre also effizient, eine gewisse Konsumentenausrichtung in ihren Inhalten zu berücksichtigen. Ebenso stehen Medienvertreter und Investoren korrelativ zueinander, denn der Medienvertreter aggregiert die von ihnen bereitgestellten Informationen, was wiederum die Aufmerksamkeit von Investmentunternehmen erregen kann.

Mit dem Ermitteln der Hauptzielgruppe und der mit ihr korrelierenden Begleitgruppe legen sie den Grundstein für eine virale und soziale Verbreitung ihres Angebots und dem Aufbau einer erstrebenswerten hohen Markenreichweite im Internet.

Das Design: Nicht nur für den Crawler, sondern auch für das Auge

Prüfen sie kritisch ob das Design ihrer Webseite und die Gestaltung der Inhalte die Bedürfnisse und dem Nutzerverhalten der von ihnen angepeilten Zielgruppen entspricht. So sind allen Gruppen aufgrund ihrer menschlichen Natur gemein, das sie binnen weniger Augenblicke über das Verweilen und Konsumieren der gebotenen Informationen entscheiden. Nichts ist für den Erfolg oder Misserfolg ihrer Seite so entscheidend wie dieser Punkt!

Überprüfen sie das Navigationskonzept ihrer Webseite! Bieten sie eine einheitliche und dem Fluss der Navigation zuträgliches Navigationssystem auf ihrer Webseite? Stimmt die kategorische Sortierung? Ist ihr Angebot barrierefrei angelegt, um auch Besuchern mit körperlichen Einschränkungen die Navigation zu ermöglichen? Können ihre Besucher ohne behindernde Hürden zwischen den Content- und Service-Bereichen wechseln?

Setzen sie einen Schwerpunkt auf das fließende Erreichen eines gewünschten Inhalts durch den Seitenbesucher mit kurzen Wegen. Vermeiden sie unnötige Klicks oder Weiterleitungen auf andere Bereiche ihrer Webseite. Stellen sie sicher, dass der vom Visitor gewünschte Content auf jeder Seite ihres Angebotes erreicht werden kann.

Gewünschtes Verhalten erreichen: Soziale Elemente und Belohnungen als Anreiz

Stecken sie sich Ziele, die sie an das Verhalten ihrer Zielgruppen stellen und gestalten sie das Nutzerlebnis entsprechend dieser Erwartung in zielführender Weise um das gewünschte Ergebnis zu erzielen. Solche Ziele können etwa sein: „Newsletter-Anmeldung“, „Produktkauf“, „Produktproben“ oder etwa bei Dienstleistungen das Mitteilen dieser, etwa in sozialen Netzwerken.

Zum Beispiel binden sie die Anmeldung für ihren Newsletter in das feste Framework ihrer Webseite ein und bieten die Funktionen für soziale Netzwerke, wie dem „Like“ von Facebook oder das „+1“ von Google+ in einem dafür reservierten Bereich ihres Designs an um größtmögliche Akzeptanz für die unterbewusste Kooperationsbereitschaft des Nutzers zu erreichen.

Moderne Elemente des Web 2.0 ermöglichen schnellste Gewinnung von Publikumsreichweite mit nur wenigen Mausklicks. Es kann daher, gerade bei auf B2B oder B2C (Business to Client) ausgerichteten Angeboten sinnvoll sein, die sozialen Elemente zu belohnen:

Schreiben sie Gewinnspiele aus, die ein „sharing“, also Teilen einer Verlinkung auf sozialen Plattformen auf Facebook oder Google Plus beinhalten. Darauf basierende Rabattsysteme wären auch denkbar Die Gestaltungsmöglichkeiten sind hier immens und sie sollten es nicht unterschätzen, wie stark positive Belohnungserlebnisse die Markenbindung beeinflussen.

Die wichtigste wichtigste Faustregel nochmals zum Abschluss:

Vermeiden sie konsequent das verkomplizieren bei der technischen Umsetzung! Sollten Anmeldeprozeduren notwendig sein, vereinfachen sie diese, indem sie etwa den Log-In über Schnittstellen mit sozialen Netzwerken ermöglichen. Solche Verfahren sollten nie länger als 30 Sekunden benötigen. Verzichten sie auf komplizierte Bestätigungsverfahren und setzen sie auf in den intuitiven Ablauf solcher Prozesse, wenn sie unabwendbar sind.

Zwingen sie den Nutzer niemals zu einer Handlung, Stören sie sein Surf-Erlebnis nicht durch Pop-Ups oder andere Unterbrechungen des „User Flow“.
Nehmen sie ihrem Besucher niemals das Gefühl, selbstbestimmt zu handeln!

Hier finden Sie alle 10 Teile:

  1. Das erste Grundlagenwissen für ihre SEO-Erfolge
  2. Der Webserver als erster Steigbügelhalter zur glücklichen SEO-Optimierung
  3. Intelligente Textgestaltung als effiziente SEO-Maßnahme
  4. Einheitlicher Domainzugriff und Google Webmaster Tools erleichtern den Aufstieg
  5. Mail Forwarding in den Webmaster Tools zur Benachrichtigung nutzen
  6. Altlasten ihrer Domain klären und mit einfach mit Google die eigene Domain prüfen
  7. Strategische Grundlagen: Zielgruppendefinition, Design & Social Media
  8. Strategische Grundlagen: Content Management und Corporate Design
  9. Multimedia neu begriffen – Unterhaltung und Dienstleistung
  10. Analyse ihres Erfolgs mit Google Webmaster Tools
Die nächste Serie wird Sie über “Stickiness” informieren

Neues Handbuch für Googles Qualitätsprüfer geleakt

Eine neue Ausgabe der „Page Quality Rating Guidelines“ ist im Netz aufgetaucht

Neben der algorithmischen Bewertung von Webseiten setzte die Suchmaschine Google bereits in der Vergangenheit menschliche Qualitätsprüfer, die sogenannten „Google Quality Rater“ ein, die den Rating-Prozess mithilfe eines umfangreichen Regelwerks aktiv unterstützten. Das die Institution einer Abteilung für menschliche Qualitätssicherung von Suchergebnissen permanenten Charakter hat, verrieten diverse Google-Offizielle bereits des öfteren manchmal mehr manches mal weniger direkt durch Blume. Mit dem Auftauchen einer aktuellen Ausgabe der „Page Quality Rating Guidelines“ können Interessierte sich nun in einem 161 Seiten starken, geleakten PDF über die Rating-Kriterien der menschlichen Unterstützer informieren.

Tatsächlich handfeste Rückschlüsse auf konkrete Zahlen und Methoden liefert die neue Guideline jedoch ebenso wenig wie die alte. Genau so wenig liefert das Dokument Aufschlüsse über Funktionsweisen von Algorithmen oder tiefergehende Einblicke in die Abhängigkeitsstrukturen der Bewertung durch Quality Rater. Es bleibt zu vermuten, das die im Dokument eingebetteten Links auf google-interne Netzwerkressourcen zu solchen Informationen führen, auf die von außen verständlicherweise kein Zugriff möglich ist.

Dennoch liefert das Schriftstück im ganzen eine gute Übersicht, wie es um die Intention bei der Bewertung von Teilbereichen steht, die sich aus dem im Dokument hinterlegten Formular ergibt. Einen Teil der Informationen möchten wir ihnen paraphrasiert in diesem Artikel vermitteln,

Was wirkt sich also Positiv auf das Ranking meiner Webseite aus?

– Webseiten über fachliche Themen sollten für eine positive Bewertung von fachlich qualifizierten Betreibern, sei es durch Beruf oder Studium, betrieben werden. So sollte eine Webseite über Krankheiten und Krankheitsbilder nur von Personen oder Organisationen betrieben werden, die wie etwa Ärzte oder Krankenhäuser, über das notwendige Hintergrundwissen verfügen. Die Texte sollten eine hohe Qualität und fachliche Aufbereitung aufweisen und stets aktuell sein.

– Webseiten, die ein etwa ein Hobby behandeln gibt es viele. Am hochwertigsten sind Seiten über Hobbys, die viel Zeit in Anspruch nehmen und entsprechenden Einsatz erfordern. Der Inhalt sollte aus dem Kontext her vermitteln, das über ein profundes Maß an Wissen und Talent verfügt wird. Diese Richtlinie erweitert sich quasi im Wortlaut gleich auch auf die Bewertung von Videos.

– Profile in sozialen Netzwerken erfüllen die Qualitätsrichtlinien, wenn sie folgende Kriterien erfüllen: Sie unterliege einer regelmäßigen Inhaltspflege; Verfügen über viele soziale Verknüpfungen; Enthalten viele Kommentare. Es wird Wert auf beiderseitige Kommunikation gelegt.

Was fällt hingegen negativ zur Last?
(Im Dokument sind Negative Fallbeispiele als Screenshots hinterlegt)

– Mangelhafte Inhaltsdarbietung
– Eine hohe Anzahl von grammatikalischen und Rechtschreibfehlern
– Falschinformationen im Content
– Aufgeblähte Inhalte mit wenig Substanz
– Fehlende Hinweise zum Autor; Bewertung von Expertise und Erfahrung nicht möglich
– Einbettung automatisch generierter Inhalte, etwa derer durch RSS-Feeds

Fazit nach eingehender Begutachtung

Es bleibt im Grunde alles wie es ist. Im Einzelne wurden die Richtlinien für die Google Quality Rater stellenweise detaillierter ausgearbeitet, offensichtlich um damit in der Vergangenheit aufgetretene Diskrepanzen bereits im Vorfeld zu vermeiden. Das erklärt auch die höhere Anzahl an Seiten des Dokuments.

Schwerpunkt das Google Ranking durch den Menschlichen Prüfer ist und bleibt das Kriterium der Qualität des Web Content in Darstellung, Inhalt und korrekter Rechtschreibung. Auf eine schwerpunktmäßige Forcierung dieser Punkte wird verstärkt hingearbeitet, wenn man die Entwicklung über die Zeit verfolgt.Ein Novum neueren Datums scheint aber die Betonung des Talents, der Erfahrung oder der beruflichen oder akademischen Qualifikation, da sich aus dem Inhalt ableiten lässt, das bei der Bewertung nur hochwertige Inhalte aus der Feder von fachlich qualifizierten Autoren einen Nutzwert für den Suchenden bietet.

Erst beim Zusammenkommen der Gesamtheit dieser Faktoren können theoretisch höchste Rankings erreicht werden. Dies bezieht sich auch auf Organisationen und jede Form von abstrakten Personen die, wie Projekten, NGOs, Interessengemeinschaften, Gewerkschaften oder ähnlichen Formen juristischer Personen. Jedoch ist nicht vollkommen ersichtlich, ob der Schwerpunkt nun auf der sachlichen Richtigkeit des Contents liegt oder eine positive Bewertung nur mittels einer angegebenen Qualifikation möglich ist. In jedem Fall jedoch hilft eine solche Qualifikation nicht dabei, schlechte Inhalte positiv zu beeinflussen.

Die Kampfansage an minderwertigen Content im WWW gilt also auch für Personen vom Fach wie auch für Organisationen, die keinen Persilschein erhalten und alleine aus grundsätzlicher Relevanz bevorzugt beim erteilen von positiven Bewertungen behandelt werden. Das sorgt für einen Anpassungsdruck von Betreibern von Webseiten, vor allem kommerzieller Natur, die bisher keine Abwertung für niedrige Substanz und schlechtes Design erhalten haben, was sich für die Auftragslage der SEO-Professionals deutlich auswirken dürfte, sofern der Algorithmus mit ähnlichen Maßstäben arbeitet.

Die Neuauflage der Page Quality Rating Guidelines für das Jahr 2012 ist also nichts neues, was nach den massiven Änderungen durch das Penguin-Update eine willkommene Konstante darstellt und das eine Radikalisierung der Bewertungskriterien nicht abzeichnet, wie zunächst von pessimistischen Zeitgenossen vermutet. Im Groben und ganzen vermittelt das Dokument die Arbeitsweise der Google Quality Rater, die behandelten Inhalte sollten jedoch bereits bekannt und verinnerlicht sein.

Gutes Ranking in den SERPs ergibt sich außerhalb der technischen Erfassungskriterien nach wie vor aus sauberem, sach- und fachlich relevanten Content mit regelmäßiger Inhaltspflege mit einer talentierten und/oder qualifizierten Person als Autor. In dieser Runde bleibt die Suchmaschine ihrer Linie treu.

Starthilfe: SEO in 10 Minuten – Teil 6

Altlasten ihrer Domain klären und mit einfach mit Google die eigene Domain prüfen!

Was uns die Bekannte Google-Entwicklerin Maile Ohye in einem wenige Seiten umfassenden Stichwort-Katalog zukommen ließ, geht nun in die sechste Runde, um ihnen das notwendige Grundlagenwissen über erfolgreiche SEO und dem zielführenden Marketing ihrer optimierten Seite zu vermitteln – oder aufzufrischen, falls sie bereits ein alter Hase sind, der sich Auffrischen will. Die SEM-Branche gehört nicht umsonst zu den Keilriemen des Internets und die Bildung profunden Wissens anhand unserer Serie mit SEO-Handgriffen, die einfach zu bewerkstelligen und in unter 10 Minuten erledigt sind, steht ihnen hier zur Seite!

Domains checken:
Wenn Altlasten ihr Ranking belasten – Prüfen sie den Hintergrund und die Geschichte ihrer Domain!

Sie haben ihre Wunsch-Domain von einem, auf den ersten Blick seriös erscheinenden, Domain-Reseller gekauft, weil sie perfekt ihrem Domainkonzept entsprochen hat und können sich nach dem Launch ihres Angebots einfach nicht erklären, wieso das Ranking ihrer Seite trotz aller Tipps und dem Befolgen der Google Webmaster Guidelines nicht aufsteigen will? Ein Grund, leider wahrscheinlicher, Grund dafür, der Vergangenheit ihrer Firmen-Domain auf den Zahn zu fühlen!

Oftmals werden zum Verkauf geparkte Webseiten mit zwielichtigen Internetseiten-Imitationen besetzt, deren einziger Zweck es ist, Anhand von Suchbegriffen, die thematisch zur jeweiligen Domain passen unter anderem einen hohen Google Pagerank zu generieren und mit Backlinks auf die zentralen Angebote des Verkäufers oder seiner Kunden diese für Google attraktiver erscheinen zu lassen. All diese Maßnahmen sehr grenzwertiger Suchmaschinenoptimierung hinterlassen ihre Spuren, vor allem in den Datenbanken von Google, die keine automatische Kenntnis von einem Besitzerwechsel nehmen und eine einmal registrierte Domain immer gleich behandeln.

So können im besten Fall die in den Google Webmaster Tools hinterlegten Haupt-Keywords für ihre Webseite noch auf den Begriffen des Vorbesitzers eingestellt sein. Wenn sie den vorherigen Teil unserer Serie gelesen haben, wird ihnen sicher spätestens jetzt bewusst, wie wichtig ein autorisierter Zugang zu ihrer Domainverwaltung in den Tools ist, da sie ausschließlich an dieser Stelle diese Einstellungen verändern können und auf diesen Zugriff angewiesen sind! Haben sie einmal die Kontrolle über ihre Domain im Verwaltungssystem übernommen, stellen sie sicher, das alle Keyword-relevanten Einstellungen sich mit ihrem Optimierungs-Konzept decken und so ihr volles Potential bei der Erfassung und Ranking-Bewertung ihrer Seite entfalten können.

Im schlimmsten Fall jedoch wurde ihre Domain in der Vergangenheit jedoch für schwarze SEO-Maßnahmen (Black-Hat SEO) genutzt und im Ranking abgestuft, oder erhielt durch den Algorithmus oder die Einschätzung der Google-Mitarbeiter ein sog. Flag als „Spam-Seite“, schlimmer noch, wurde die Seite als Malware-Schleuder identifiziert und auf die schwarze Liste der Suchmaschine gesetzt. Dieser Fall ist schwer wiegend und es empfiehlt sich, in diesem Fall eine, auf Suchmaschinenoptimierung spezialisierte Agentur für den Wiederaufbau der Domain zu Rate zu ziehen da hier die Erfahrungswerte im Umgang mit solchen, oft als „verbrannt“ abgeschriebenen TLD-Domains vorhanden ist und sie zielgerichtet beraten kann.

Der erste Schritt ist in jedem Fall, innerhalb der Google Webmaster Tools einen sogenannten „Reconsideration Request“ an das Google Team zu übermitteln. Hier haben sie die Möglichkeit, ihre Lage den Mitarbeitern der Suchmaschine zu schildern und können darauf hoffen, durch Glaubhaftmachen ihrer redlichen Absichten eine neuerliche Einschätzung vornehmen zu lassen und so von den Sperrlisten genommen zu werden und den Weg für ihre regelkonforme SEO zu öffnen. Sollte dieser Request jedoch abgewiesen werden, legen wir ihnen nahe, die Domain so schnell wie möglich abzustoßen und ihr Domainkonzept neu aufzustellen damit ihr Zeitverlust möglichst gering ausfällt, denn auch im Suchmaschinen-Business ist Zeit bekanntermaßen bares Geld und gerade eine saubere Domain-Reputation ist nahezu unbezahlbar!

Maßnahmen, die sie weiterhin ohne externe Tools vornehmen können, um einen Einblick zu erhalten, wie erfolgreich ihre Seite in der Suchmaschine erfasst wurde und sie entsprechend der Resultate ggf.in ihrem Content Concept, dem inhaltsbezogenen und auf Google optimierten Textkonzept, nachsteuern können, beginnen sie indem sie sich zunächst aus ihrem Google-Account ausloggen und die Google Search aufrufen. Das hat den Hintergrund, das ihnen nun nahezu unverfälschte, höchstens aufgrund ihrer IP bevorzugt regionale oder nationale Ergebnisse angezeigt werden und die Daten ihres Google-Accounts die Ergebnisse nicht verfälschen.

Durch eine sogenannte „domaingebundene Indexssuche“ erfahren sie, welche Seiten ihres Online-Angebots von der Suchmaschine erfasst wurden und welche es nicht in das Register von Google geschafft haben. Dazu geben sie ihre Suchanfrage nach folgendem Muster [Site:Ihredomain.at] ein. Nun wird ihnen auf der Google SERP (Search Engine Result Page) ausschließlich indexierte Seiten und Unterseiten ihrer Domain angezeigt. Hier erkennen sie schon früh, ob sich ausschließlich die von ihnen gewünschten Content Pages aufgenommen wurden. Bei Seiten, die sie nicht erfassen lassen wollen, editieren sie entweder die im Stammverzeichnis gelagerte „.robots.txt“-Datei für den betroffenen Bereich der Domain oder nehmen bei einzelnen Seiten oder in CMS (Content Management System) einen Eintrag in den META-Bereich unter „ROBOTS“ vor und ergänzen ihn um einen „Nofollow“-Eintrag. Dieser weist die Spider an, in Zukunft diesen Bereich zu übergehen. Einen aufschlussreichen und nützlichen Wikipedia-Eintrag hierzu finden sie unter folgender URL: http://de.wikipedia.org/wiki/Nofollow

Weiterhin können sie ebenfalls ohne weitere Tools mit einer Suchanfrage auf ihre Domain überprüfen, wie diese in der organischen Google Search ausfällt. Bester Indikator für die Gesundheit ihrer Seite ist bei einer Suchanfrage auf ihre Domain, z.B. „meinedomain.de“ selbstverständlich an erster Stelle zu stehen. Ist dem nicht der Fall, ist dies ein starker Indikator dafür, dass ihre Domain aufgrund eines Verstoßes gegen die Google Webmaster Guidelines entweder algorithmisch, also maschinell, oder durch eine manuellen Eingabe einer Sanktion in Form einer Ranking-Penalty unterliegt. In diesem Fall ist Handlungsbedarf in Form eines vollständigen Check-Ups ihres Onlineangebotes dringend angeraten, da nur ein Beheben des Verstoßes zur Aufhebung der Abwertung führt.

Machen sie bei bedeutenden Änderungen an Inhalten ihrer Schlüsselseiten Gebrauch von der, ebenfalls in die Google Webmaster Tools integrierte, Funktion des „Fetch as Google“, gebrauch. Indem sie entsprechende URLs gezielt zur Neuerfassung durch den Crawler anweisen, leiten sie eine gezielte Neuerfassung der Seiten ein. Beachten sie jedoch, dass sie nur eine Begrenzte Anzahl an Fetches zur Verfügung haben!

Hier finden Sie alle 10 Teile:

  1. Das erste Grundlagenwissen für ihre SEO-Erfolge
  2. Der Webserver als erster Steigbügelhalter zur glücklichen SEO-Optimierung
  3. Intelligente Textgestaltung als effiziente SEO-Maßnahme
  4. Einheitlicher Domainzugriff und Google Webmaster Tools erleichtern den Aufstieg
  5. Mail Forwarding in den Webmaster Tools zur Benachrichtigung nutzen
  6. Altlasten ihrer Domain klären und mit einfach mit Google die eigene Domain prüfen
  7. Strategische Grundlagen: Zielgruppendefinition, Design & Social Media
  8. Strategische Grundlagen: Content Management und Corporate Design
  9. Multimedia neu begriffen – Unterhaltung und Dienstleistung
  10. Analyse ihres Erfolgs mit Google Webmaster Tools
Die nächste Serie wird Sie über “Stickiness” informieren

Und es werde Ordnung! – Teil 2

Wie Google das Internet aus der Anarchie führte

Doch trotz all dieser Als Google seine ersten wackeligen Schritte im Web machte, waren sie längst Riesen. Unternehmen, die heute wie graue Gestalten einer längst vergangenen Epoche wirken und deren Namen doch jeder aufzählen kann: Firmen wie Compuserve, die schon zu Zeiten des Commodore 64, dem insgeheimen Urvater des „Personal Computing“, unabhängig von großen Mainframes für den Konsumenten erschwinglich machte und nun auch nun im World Wide Web dieses Ziel

Sie waren in diesem Feld natürlich nicht die ersten noch waren sie auch nur Vordenker dieser digitalen Dienstleistungsform, wohl doch aber mit dem notwendigen Kapital ausgestattet und mit der medialen Reichweite,

Die von den angeheuerten Marketingexperten geschickt platzierten und geplanten Werbekampagnen – Noch lange auf die „alten Medien“ angewiesen- reichten schon bald bis in die US-amerikanischen, später auch die weltweiten Wohnzimmer mit Zeitungen und Journalen trugen und die Verlockungen der leicht zugänglichen Informationen – der Entkoppelung von Druckereien aktuellste Informationen in bekömmlicher Form anpreisten, die dem Nutzer jederzeit zum Konsum verfügbar waren, nur einige Einwahltöne in die Telefonleitung entfernt in den Weiten des Internets.. Das diese Entwicklung Früchte trug, stand spätestens fest, als die ersten, zunächst Disketten und später CDs (Compact Discs) als Datenträger mit den Zugangsdaten und „Freiminuten“ für den Zugang in diese neue Welt sehr erfolgreich als Bedürfnis in der Bevölkerung weckten.

Nachteilig jedoch wirkte sich diese Konkurrenz dennoch für die Entwicklung des gesamten Webs aus, als diese zu kleinen Riesen in den neuartigen Medien rasch gewachsenen Unternehmen sich anschickten, ihre User und alle Informationen immer enger an ihre eigenen Portale zu binden und so in diesem freien Internet kleine Inseln schufen und zunehmend einhegende, mehr aber ausgrenzende, Mauern errichteten. durch die nur der Weg der Anmeldung bei den jeweiligen Diensten führte. Denn durch diese Entwicklung, ihre Dienstleistung in ihrer Zugänglichkeit zu verknappen und an eine Bindung an den Dienstleister zu binden verlor das Netz seine anfängliche Dynamik zu einem nicht geringen Anteil. denn der Schritt zum Web 2.0, der mit dem Erfolg der Suchmaschine Google sich abzeichnete, war nicht getan und statt sich zunächst zu einem kontribuierenden, Jedermann offenen, zur Teilhabe animierenden System im Geiste der Gründerväter des zivilen Internets, entwickelte sich zunächst eine Art polarisierende Kleingartengemeinschaft (Closed Networks) entstand.

Der Ausbruch aus dieser Entwicklung war tatsächlich mit dem schrittweisen Erreichen der Ziele von Google einher gegangen: Das Internet in seiner Gänze zu erfassen und durch seine Suchalgorithmen Lückenlos zu erfassen, was auf den Servern der Welt zu finden war, ganz gleich wie groß der Urheber oder Betreiber eines Angebotes war, zunächst vor allem neutral auf die Bewertung nach Suchbegriffen (Keywords) und der Relevanz dieser in den erfassten Inhalten, war es nunmehr zunehmend möglich, auch als Einzelner mit den eigenen Inhalten (Web Content) auch tatsächlich gefunden zu werden.

Dies war der erste Schritt in das „Web 2.0“, einem Begriff, der zuerst geprägt wurde, als die erste Spekulationsblase der neuen Märkte, des Internets und der Stimmung des Goldrausches, längst wieder verblasst war. Und doch konnte nur Google mit seiner Fokussierung auf eine spezielle Dienstleistung, dem Erbringen von präzisen Ergebnisseiten (SERPs, Search Engine Result Pages) auf die Nutzereingaben – ohne dem Trend zu folgen und sich selbst in ein Netz einer Vielzahl von diversen – oftmals schlicht aus dem Portfolio der Konkurrenz übernommenen, denn man musste ja vermeintlich „am Ball bleiben“, zu verstricken.

So war auch Google niemals das erste Webverzeichnis, noch die erste algorithmisch arbeitende Suchmaschine, doch verlor sich das junge Unternehmen niemals darin, sich in der eigenen Ambition zu verlieren, sondern sein Kernangebot stets zu verbessern. Um diese Verbesserung zu optimieren, definierte diese Suchmaschine alsbald Standards, die Richtlinien für die Erfassung und Aufnahme in den eigenen Suchindex und lichtete sobald das Chaos und die Anarchie des Internets in seiner Unordnung auf, wurde es doch sowohl für den Unternehmer als auch den privaten Anbieter von Web Content wichtiger, in den relevanten Suchbegriffen Googles zu erscheinen, war am eigenen Erfolg gelegen.

So deckten die Google Spider nach und nach die Wildnis zwischen Portalen wie Compuserve, AOL (America Online, in Deutschland seit jeher als „Alles OnLine“ beworben) auf und zeichneten eine detaillierte Karte des Internets und der interessanten Orte, die die Webseiten, die nun für jedermann ohne aufwendige Domaineingaben nach wenigen Tastendrücken und Klicks jedermann frei zugängig stehen sollte und damit den Schlüssel drehte, der die Tür der breiten Masse in das umfangreicher werdende Angebot des World Wide Web öffnete.

Und es werde Ordnung! – Teil 1

Wie Google das Internet aus der Anarchie führte

Wir befinden uns im August des Jahres 1998, Andreas von Bechtolsheim, einer der Mitbegründer der Sun Microsystems stellt einen Scheck über einhunderttausend Dollar auf den Namen eines Unternehmens aus, das zu dem Im nächsten Monat wird ein junges Start-Up zweier Informatikdoktoranden der renommierten Stanford University nach einer zweijährigen Pause ihres als „BackRub“ gestarteten Projekts unter neuem Namen zunächst außerhalb der USA kaum zur Kenntnis genommen, einen Auftritt in den Weiten des World Wide Web hinlegen der wie kaum ein anderer Launch einer Internetseite das noch junge Weltnetz verändern sollte.

Das Internet ist zu dieser Zeit noch ein, grob von einigen wenigen Privilegierten definierten und dennoch mehr oder minder eingehaltenen Standards definiertes Informationsnetzwerk, das sich an den Eckpunkten der noch vergleichsweise übersichtlichen Anzahl an Domain Name Servern als dezentrale Register für die am WWW teilnehmenden IP-Adressen über ein bereits früh definiertes Kommunikationsprotokoll organisiert und die Grundlagen einer weltumspannenden Plattform bildet, die, den Kulturen einer Petrischale gleich, eher chaotisch und doch ab der Mitte der 1990er Jahre auch ebenso ungehemmt sich entwickelte.

Die technischen Pionier-Tage sind zwar vergangen, in denen nahezu ausschließlich Wissenschaftler und Studenten die neue Telekommunikations-Infrastruktur nutzten, und doch herrscht in den Weiten des „wilden Internets“ bis auf einige wenige Standards nach wie vor eine große Anzahl von konkurrierenden Standards und Anpassungen derselben an die man sich nur Leger hält, denn „echte“ Regeln, wie die später einmal definierten Webmaster Guidelines waren noch längst nicht erdacht, vielleicht erträumt – und es gab niemanden, der diese Regeln der gemeinsamen Nutzung des sich auch als Konsumentenplattform etablierenden Internets wirklich durchsetzen konnte. Es herrschte eine Anarchie, die schon förmlich danach verlangte, als Potential von Google in eine Form gebracht zu werden, die diesem Chaos widersprechen sollte: Durch einen Zentralen, allen Nutzern des Internets zugänglichen, Registers, eine Suchmaschine.

HTML 4.0, also die vierte Ausgabe – Version – der „Hypertext Markup Language“ wurde gerade erst im vorigen Jahr durch das W3C-Konsortium als künftig gültiger Standard für die Darstellung von HTML-Seiten im WWW beschlossen und präsentiert und trotz der strukturellen Dezentralisierung des Internets und seinem wilden Charme, sowohl in der technischen Umsetzung – Ein Zustand, den das kleine Doktorandenprojekt aus Stanford unter dem Namen „Google“ schon bald ändern würde – als auch in der optischen Darbringung.

Private Webseiten waren bisher kaum mehr als unansehnliche Textdateien gewesen, in die der Autor dank der Auszeichnungssprache HTML die, schon im Namen definierten, Hypertext Markups – oder auch „Links“ genannt, miteinander verbinden konnte, die sich mangels der Interaktivität – entsprechende Technologien wie Flash, AJAX oder H.264 sollten sich erst mit dem Ausbau der Bandbreiten, lange nach dem Eintreffen des Internets in der Mitte der Gesellschaften der Welt, etablieren – häufig tatsächlich als Nachschlagewerke definieren, die fachlichen Bezug hatten, denn die Kommunikation fand weiterhin in den Newsgroups und Mailboxen statt, technisch einfacher, aber bereits seit beinahe zwanzig Jahren von den Pionieren als Standard etablierte und somit für eine Vielzahl der telekommunikationsfähigen Computer und Terminals verfügbaren Form zunächst außerhalb

Man war in Stanford damit nicht der Erfinder eines solchen Webseiten-Indexes, doch gerade der stattfindende Kampf der – vorrangig Amerikanischen – Webdienstleister stand diesem sinnvollen Ziel entgegen. Zwar bildeten diese Unternehmen, als Telefonanbieter sowohl für die Festnetze als auch den in den 80er Jahren in Mode gekommenen Mobilfunk-Dienstleistungen ein Oligopol in diesem Markt der ja gezwungenermaßen über ihre Drähte, Leitungen und Satelliten führen musste, doch bewiesen gerade diese

Dieser Markt würde, wie wir wissen die Google Inc. mit einem possierlichen Roboter, dem Google Android, kaum 15 Jahre später auf seine Weise als Anbieter eines auf einer Vielzahl von Herstellern vermarkteten Geräten betrieben Betriebssystems (OS, Operating System) erobern und damit die Suchmaschine – bis dahin längst zu einem weltumspannenden Unternehmen angewachsen, zum ersten Mal von der Bindung an die Kupferkabel und Glasfaserleitungen der Telekom-Konzerne wortwörtlich in die Hosentaschen ihrer Nutzer bringen sollte.

Doch bis zu diesen Erfolgen würden noch einige Jahre in das Land ziehen, in denen die Telekommunikationsmagnaten, Weltunternehmen wie AT&T, Bell oder Verizon ohne branchenfremde Einflüsse ihre Gewinne aus den kostspieligen – in der jungen gesamtdeutschen Bundesrepublik Deutschland beinahe kaum zu bezahlenden – Verbindungen

Lange jedoch ließ die Konkurrenz jedoch nicht auf sich warten, denn die ersten Portale des Internets – die später als Ära des Web 1.0 in die Geschichte eingehen sollten – begannen, von Unternehmensgruppen auch außerhalb der dem Internet angerechneten Branchen, die das Potential der Webtechnologien dazu zu verwend endeten, Informationen die noch am Anfang des Jahrzehnts von den Nutzern unter kryptischen Adressen – meist auf den Servern der Universitäten der Länder gespeichert (Hosting) – in statischer Form und für Außenstehende kaum zugänglich, in attraktiver Form für den wachsenden Markt der privaten Internetnutzer, auf Webseiten zusammenfassen und einer beständigen Pflege unterziehen sollten. „Tagesaktuell“ war von nun nicht mehr aktuell genug und bedeutete den Schritt weiteren Schritt in Richtung „Neue Medien“, die auf lange Sicht die klassischen Medien in die Bredouille bringen würden – und den Umgang der Bürger, zuerst in der westlichen Welt von Grund auf veränderte.

Lesen Sie bitte am 10.10. den 2ten Teil über “Und es werde Ordnung! – Teil 2”