Schlagwortarchiv für: suchmaschinenoptimierung

Neues Handbuch für Googles Qualitätsprüfer geleakt

Eine neue Ausgabe der „Page Quality Rating Guidelines“ ist im Netz aufgetaucht

Neben der algorithmischen Bewertung von Webseiten setzte die Suchmaschine Google bereits in der Vergangenheit menschliche Qualitätsprüfer, die sogenannten „Google Quality Rater“ ein, die den Rating-Prozess mithilfe eines umfangreichen Regelwerks aktiv unterstützten. Das die Institution einer Abteilung für menschliche Qualitätssicherung von Suchergebnissen permanenten Charakter hat, verrieten diverse Google-Offizielle bereits des öfteren manchmal mehr manches mal weniger direkt durch Blume. Mit dem Auftauchen einer aktuellen Ausgabe der „Page Quality Rating Guidelines“ können Interessierte sich nun in einem 161 Seiten starken, geleakten PDF über die Rating-Kriterien der menschlichen Unterstützer informieren.

Tatsächlich handfeste Rückschlüsse auf konkrete Zahlen und Methoden liefert die neue Guideline jedoch ebenso wenig wie die alte. Genau so wenig liefert das Dokument Aufschlüsse über Funktionsweisen von Algorithmen oder tiefergehende Einblicke in die Abhängigkeitsstrukturen der Bewertung durch Quality Rater. Es bleibt zu vermuten, das die im Dokument eingebetteten Links auf google-interne Netzwerkressourcen zu solchen Informationen führen, auf die von außen verständlicherweise kein Zugriff möglich ist.

Dennoch liefert das Schriftstück im ganzen eine gute Übersicht, wie es um die Intention bei der Bewertung von Teilbereichen steht, die sich aus dem im Dokument hinterlegten Formular ergibt. Einen Teil der Informationen möchten wir ihnen paraphrasiert in diesem Artikel vermitteln,

Was wirkt sich also Positiv auf das Ranking meiner Webseite aus?

– Webseiten über fachliche Themen sollten für eine positive Bewertung von fachlich qualifizierten Betreibern, sei es durch Beruf oder Studium, betrieben werden. So sollte eine Webseite über Krankheiten und Krankheitsbilder nur von Personen oder Organisationen betrieben werden, die wie etwa Ärzte oder Krankenhäuser, über das notwendige Hintergrundwissen verfügen. Die Texte sollten eine hohe Qualität und fachliche Aufbereitung aufweisen und stets aktuell sein.

– Webseiten, die ein etwa ein Hobby behandeln gibt es viele. Am hochwertigsten sind Seiten über Hobbys, die viel Zeit in Anspruch nehmen und entsprechenden Einsatz erfordern. Der Inhalt sollte aus dem Kontext her vermitteln, das über ein profundes Maß an Wissen und Talent verfügt wird. Diese Richtlinie erweitert sich quasi im Wortlaut gleich auch auf die Bewertung von Videos.

– Profile in sozialen Netzwerken erfüllen die Qualitätsrichtlinien, wenn sie folgende Kriterien erfüllen: Sie unterliege einer regelmäßigen Inhaltspflege; Verfügen über viele soziale Verknüpfungen; Enthalten viele Kommentare. Es wird Wert auf beiderseitige Kommunikation gelegt.

Was fällt hingegen negativ zur Last?
(Im Dokument sind Negative Fallbeispiele als Screenshots hinterlegt)

– Mangelhafte Inhaltsdarbietung
– Eine hohe Anzahl von grammatikalischen und Rechtschreibfehlern
– Falschinformationen im Content
– Aufgeblähte Inhalte mit wenig Substanz
– Fehlende Hinweise zum Autor; Bewertung von Expertise und Erfahrung nicht möglich
– Einbettung automatisch generierter Inhalte, etwa derer durch RSS-Feeds

Fazit nach eingehender Begutachtung

Es bleibt im Grunde alles wie es ist. Im Einzelne wurden die Richtlinien für die Google Quality Rater stellenweise detaillierter ausgearbeitet, offensichtlich um damit in der Vergangenheit aufgetretene Diskrepanzen bereits im Vorfeld zu vermeiden. Das erklärt auch die höhere Anzahl an Seiten des Dokuments.

Schwerpunkt das Google Ranking durch den Menschlichen Prüfer ist und bleibt das Kriterium der Qualität des Web Content in Darstellung, Inhalt und korrekter Rechtschreibung. Auf eine schwerpunktmäßige Forcierung dieser Punkte wird verstärkt hingearbeitet, wenn man die Entwicklung über die Zeit verfolgt.Ein Novum neueren Datums scheint aber die Betonung des Talents, der Erfahrung oder der beruflichen oder akademischen Qualifikation, da sich aus dem Inhalt ableiten lässt, das bei der Bewertung nur hochwertige Inhalte aus der Feder von fachlich qualifizierten Autoren einen Nutzwert für den Suchenden bietet.

Erst beim Zusammenkommen der Gesamtheit dieser Faktoren können theoretisch höchste Rankings erreicht werden. Dies bezieht sich auch auf Organisationen und jede Form von abstrakten Personen die, wie Projekten, NGOs, Interessengemeinschaften, Gewerkschaften oder ähnlichen Formen juristischer Personen. Jedoch ist nicht vollkommen ersichtlich, ob der Schwerpunkt nun auf der sachlichen Richtigkeit des Contents liegt oder eine positive Bewertung nur mittels einer angegebenen Qualifikation möglich ist. In jedem Fall jedoch hilft eine solche Qualifikation nicht dabei, schlechte Inhalte positiv zu beeinflussen.

Die Kampfansage an minderwertigen Content im WWW gilt also auch für Personen vom Fach wie auch für Organisationen, die keinen Persilschein erhalten und alleine aus grundsätzlicher Relevanz bevorzugt beim erteilen von positiven Bewertungen behandelt werden. Das sorgt für einen Anpassungsdruck von Betreibern von Webseiten, vor allem kommerzieller Natur, die bisher keine Abwertung für niedrige Substanz und schlechtes Design erhalten haben, was sich für die Auftragslage der SEO-Professionals deutlich auswirken dürfte, sofern der Algorithmus mit ähnlichen Maßstäben arbeitet.

Die Neuauflage der Page Quality Rating Guidelines für das Jahr 2012 ist also nichts neues, was nach den massiven Änderungen durch das Penguin-Update eine willkommene Konstante darstellt und das eine Radikalisierung der Bewertungskriterien nicht abzeichnet, wie zunächst von pessimistischen Zeitgenossen vermutet. Im Groben und ganzen vermittelt das Dokument die Arbeitsweise der Google Quality Rater, die behandelten Inhalte sollten jedoch bereits bekannt und verinnerlicht sein.

Gutes Ranking in den SERPs ergibt sich außerhalb der technischen Erfassungskriterien nach wie vor aus sauberem, sach- und fachlich relevanten Content mit regelmäßiger Inhaltspflege mit einer talentierten und/oder qualifizierten Person als Autor. In dieser Runde bleibt die Suchmaschine ihrer Linie treu.

Starthilfe: SEO in 10 Minuten – Teil 6

Altlasten ihrer Domain klären und mit einfach mit Google die eigene Domain prüfen!

Was uns die Bekannte Google-Entwicklerin Maile Ohye in einem wenige Seiten umfassenden Stichwort-Katalog zukommen ließ, geht nun in die sechste Runde, um ihnen das notwendige Grundlagenwissen über erfolgreiche SEO und dem zielführenden Marketing ihrer optimierten Seite zu vermitteln – oder aufzufrischen, falls sie bereits ein alter Hase sind, der sich Auffrischen will. Die SEM-Branche gehört nicht umsonst zu den Keilriemen des Internets und die Bildung profunden Wissens anhand unserer Serie mit SEO-Handgriffen, die einfach zu bewerkstelligen und in unter 10 Minuten erledigt sind, steht ihnen hier zur Seite!

Domains checken:
Wenn Altlasten ihr Ranking belasten – Prüfen sie den Hintergrund und die Geschichte ihrer Domain!

Sie haben ihre Wunsch-Domain von einem, auf den ersten Blick seriös erscheinenden, Domain-Reseller gekauft, weil sie perfekt ihrem Domainkonzept entsprochen hat und können sich nach dem Launch ihres Angebots einfach nicht erklären, wieso das Ranking ihrer Seite trotz aller Tipps und dem Befolgen der Google Webmaster Guidelines nicht aufsteigen will? Ein Grund, leider wahrscheinlicher, Grund dafür, der Vergangenheit ihrer Firmen-Domain auf den Zahn zu fühlen!

Oftmals werden zum Verkauf geparkte Webseiten mit zwielichtigen Internetseiten-Imitationen besetzt, deren einziger Zweck es ist, Anhand von Suchbegriffen, die thematisch zur jeweiligen Domain passen unter anderem einen hohen Google Pagerank zu generieren und mit Backlinks auf die zentralen Angebote des Verkäufers oder seiner Kunden diese für Google attraktiver erscheinen zu lassen. All diese Maßnahmen sehr grenzwertiger Suchmaschinenoptimierung hinterlassen ihre Spuren, vor allem in den Datenbanken von Google, die keine automatische Kenntnis von einem Besitzerwechsel nehmen und eine einmal registrierte Domain immer gleich behandeln.

So können im besten Fall die in den Google Webmaster Tools hinterlegten Haupt-Keywords für ihre Webseite noch auf den Begriffen des Vorbesitzers eingestellt sein. Wenn sie den vorherigen Teil unserer Serie gelesen haben, wird ihnen sicher spätestens jetzt bewusst, wie wichtig ein autorisierter Zugang zu ihrer Domainverwaltung in den Tools ist, da sie ausschließlich an dieser Stelle diese Einstellungen verändern können und auf diesen Zugriff angewiesen sind! Haben sie einmal die Kontrolle über ihre Domain im Verwaltungssystem übernommen, stellen sie sicher, das alle Keyword-relevanten Einstellungen sich mit ihrem Optimierungs-Konzept decken und so ihr volles Potential bei der Erfassung und Ranking-Bewertung ihrer Seite entfalten können.

Im schlimmsten Fall jedoch wurde ihre Domain in der Vergangenheit jedoch für schwarze SEO-Maßnahmen (Black-Hat SEO) genutzt und im Ranking abgestuft, oder erhielt durch den Algorithmus oder die Einschätzung der Google-Mitarbeiter ein sog. Flag als „Spam-Seite“, schlimmer noch, wurde die Seite als Malware-Schleuder identifiziert und auf die schwarze Liste der Suchmaschine gesetzt. Dieser Fall ist schwer wiegend und es empfiehlt sich, in diesem Fall eine, auf Suchmaschinenoptimierung spezialisierte Agentur für den Wiederaufbau der Domain zu Rate zu ziehen da hier die Erfahrungswerte im Umgang mit solchen, oft als „verbrannt“ abgeschriebenen TLD-Domains vorhanden ist und sie zielgerichtet beraten kann.

Der erste Schritt ist in jedem Fall, innerhalb der Google Webmaster Tools einen sogenannten „Reconsideration Request“ an das Google Team zu übermitteln. Hier haben sie die Möglichkeit, ihre Lage den Mitarbeitern der Suchmaschine zu schildern und können darauf hoffen, durch Glaubhaftmachen ihrer redlichen Absichten eine neuerliche Einschätzung vornehmen zu lassen und so von den Sperrlisten genommen zu werden und den Weg für ihre regelkonforme SEO zu öffnen. Sollte dieser Request jedoch abgewiesen werden, legen wir ihnen nahe, die Domain so schnell wie möglich abzustoßen und ihr Domainkonzept neu aufzustellen damit ihr Zeitverlust möglichst gering ausfällt, denn auch im Suchmaschinen-Business ist Zeit bekanntermaßen bares Geld und gerade eine saubere Domain-Reputation ist nahezu unbezahlbar!

Maßnahmen, die sie weiterhin ohne externe Tools vornehmen können, um einen Einblick zu erhalten, wie erfolgreich ihre Seite in der Suchmaschine erfasst wurde und sie entsprechend der Resultate ggf.in ihrem Content Concept, dem inhaltsbezogenen und auf Google optimierten Textkonzept, nachsteuern können, beginnen sie indem sie sich zunächst aus ihrem Google-Account ausloggen und die Google Search aufrufen. Das hat den Hintergrund, das ihnen nun nahezu unverfälschte, höchstens aufgrund ihrer IP bevorzugt regionale oder nationale Ergebnisse angezeigt werden und die Daten ihres Google-Accounts die Ergebnisse nicht verfälschen.

Durch eine sogenannte „domaingebundene Indexssuche“ erfahren sie, welche Seiten ihres Online-Angebots von der Suchmaschine erfasst wurden und welche es nicht in das Register von Google geschafft haben. Dazu geben sie ihre Suchanfrage nach folgendem Muster [Site:Ihredomain.at] ein. Nun wird ihnen auf der Google SERP (Search Engine Result Page) ausschließlich indexierte Seiten und Unterseiten ihrer Domain angezeigt. Hier erkennen sie schon früh, ob sich ausschließlich die von ihnen gewünschten Content Pages aufgenommen wurden. Bei Seiten, die sie nicht erfassen lassen wollen, editieren sie entweder die im Stammverzeichnis gelagerte „.robots.txt“-Datei für den betroffenen Bereich der Domain oder nehmen bei einzelnen Seiten oder in CMS (Content Management System) einen Eintrag in den META-Bereich unter „ROBOTS“ vor und ergänzen ihn um einen „Nofollow“-Eintrag. Dieser weist die Spider an, in Zukunft diesen Bereich zu übergehen. Einen aufschlussreichen und nützlichen Wikipedia-Eintrag hierzu finden sie unter folgender URL: http://de.wikipedia.org/wiki/Nofollow

Weiterhin können sie ebenfalls ohne weitere Tools mit einer Suchanfrage auf ihre Domain überprüfen, wie diese in der organischen Google Search ausfällt. Bester Indikator für die Gesundheit ihrer Seite ist bei einer Suchanfrage auf ihre Domain, z.B. „meinedomain.de“ selbstverständlich an erster Stelle zu stehen. Ist dem nicht der Fall, ist dies ein starker Indikator dafür, dass ihre Domain aufgrund eines Verstoßes gegen die Google Webmaster Guidelines entweder algorithmisch, also maschinell, oder durch eine manuellen Eingabe einer Sanktion in Form einer Ranking-Penalty unterliegt. In diesem Fall ist Handlungsbedarf in Form eines vollständigen Check-Ups ihres Onlineangebotes dringend angeraten, da nur ein Beheben des Verstoßes zur Aufhebung der Abwertung führt.

Machen sie bei bedeutenden Änderungen an Inhalten ihrer Schlüsselseiten Gebrauch von der, ebenfalls in die Google Webmaster Tools integrierte, Funktion des „Fetch as Google“, gebrauch. Indem sie entsprechende URLs gezielt zur Neuerfassung durch den Crawler anweisen, leiten sie eine gezielte Neuerfassung der Seiten ein. Beachten sie jedoch, dass sie nur eine Begrenzte Anzahl an Fetches zur Verfügung haben!

Hier finden Sie alle 10 Teile:

  1. Das erste Grundlagenwissen für ihre SEO-Erfolge
  2. Der Webserver als erster Steigbügelhalter zur glücklichen SEO-Optimierung
  3. Intelligente Textgestaltung als effiziente SEO-Maßnahme
  4. Einheitlicher Domainzugriff und Google Webmaster Tools erleichtern den Aufstieg
  5. Mail Forwarding in den Webmaster Tools zur Benachrichtigung nutzen
  6. Altlasten ihrer Domain klären und mit einfach mit Google die eigene Domain prüfen
  7. Strategische Grundlagen: Zielgruppendefinition, Design & Social Media
  8. Strategische Grundlagen: Content Management und Corporate Design
  9. Multimedia neu begriffen – Unterhaltung und Dienstleistung
  10. Analyse ihres Erfolgs mit Google Webmaster Tools
Die nächste Serie wird Sie über “Stickiness” informieren

Starthilfe: SEO in 10 Minuten – Teil 5

Mail Forwarding in den Webmaster Tools zur Benachrichtigung nutzen

Wir freuen uns, sie zum fünften Teil der SEO-Tricks, die uns aus dem sprichwörtlichen Nähkästchen der Google-Entwicklerin Maile Ohye zugespielt wurden und für sie in unserer ausführlichen Serie zum Thema „Wichtige SEO-relevanter-Maßnahmen, die sie weniger als 10 Minuten kosten“ aufzuarbeiten und auch den Anfängern im Suchmaschinen-Business einen Halm zu bieten, an dem sie sich orientieren können anhand der Tipps aus der Codeschmiede der Suchmaschine Google selbst. In diesem Teil dreht sich alles um das vollständige Ausnutzen des Email-Dienstes der Google Webmaster Tools, der sie automatisch benachrichtigen, wenn etwas nicht läuft, wie es sollte!

Google Webmaster Tools wohl nützlichstes Feature:
Praktische Benachrichtigungen bei Unregelmäßigkeiten – Mail Forwarding aktivieren!

Es empfiehlt sich dringlich das sogenannte Mail-Forwarding, also das Weiterleiten von Emails durch die Google Webmaster Tools an eine von ihnen hinterlegte Kontakt-Emailadresse zu erlauben um sie so rund um die Uhr über zeitkritische Ereignisse im Zusammenhang mit der Suchmaschine Google und ihrem Webseiten-Eintrag in derselben zu informieren. Diese Email-Adresse muss dabei nicht zwingend die Google-Mail-Adresse sein!

Etwa bei der Sperrung und dem damit verbundenen Entfernen aus der Google Search aufgrund von Malware-Befall, sprich dem Einnisten von Schadsoftware oder als schädigend klassifizierter Codefragmente etwa durch infizierte Werbebanner, Eindringen in ihr CMS durch Sicherheitslücken oder dem massiven Verlinken auf bereit gesperrte Domains. Ein solcher Vorfall hat den sofortigen und vollständigen Ausschluss aus dem Suchindex zur Folge (Vollsperrung und 100% Penalty) und ist das Wort-Case-Szenario jedes Webseitenbetreibers, da ebenfalls anhand der Google-Sperrlisten auch viele Internet-Browser, wie Google Chrome oder der Mozilla Firefox automatische Warnungen und Sicherheitsmeldungen an ihre Webseitenbesucher ausgeben, die versuchen die zu diesem Zeitpunkt befallene Webseite zu besuchen und auch aus Aspekten des Marketings schwere Schäden an ihrem Markenimage hinterlässt, da solche Meldungen sich per Mundpropaganda in Windeseile, gerade in Brancheninternen Konkurrenzkämpfen, verbreiten.

Es gilt die alte SEO-Faustregel: Jede Mail von Google ist wichtig und hat Priorität!

Auch im Falle eines vermuteten kriminellen Hacks ihrer Seite meldet sich das automatische Warnsystem von Google, das bei der Indexierung durch die Crawler und Spider verdächtige Anzeichen aus seiner Datenbank abgleicht und so entsprechende Einschätzungen mitteilt und ihnen so die Chance gibt, zeitnah auf diese Bedrohung ihrer Webseite zu reagieren und langfristige Schäden an ihrem Google Ranking oder gar dem Blacklisting – dem praktischen Todesstoß für ihre Webseite – zu verhindern.

Aber auch weniger bedrohliche, jedoch nicht weniger wichtige Status-Meldungen stellt ihnen das Forwarding zur Verfügung wie z.B. eventuell auftretende Probleme bei der Erfassung ihrer Webseite beim Vorgang des Indexieren ihrer Inhalte durch den Suchalgorithmus von Google, die allesamt eine hohe Relevanz für ihr erfolgreiches Ranking haben, da alle Inhalte die nicht erfasst werden können selbstverständlich in der Schlussfolge für das Ranking ihrer Webseite in den Google SERPs (Search Engine Result Pages) keinen Einfluss haben können und werden und für sie somit dringender Handlungsbedarf besteht.

Weiterhin ermöglicht ihnen diese Meldungen die technischen Fehler zu beheben und innerhalb der Google Webmaster Tools einen zeitnahen, erneuten Versuch der Suchmaschine zum Besuch ihrer Webseite zu veranlassen und so Verzögerungen zu vermeiden, da je nach Relevanz ein turnusmäßiges wiederkehren der Google Crawler bis zu einem Quartal dauern können und so ihren Erfolg bei der raschen Suchmaschinenoptimierung behindern mag.

Daher sollte die Mailing-Funktion eine der ersten Einstellungen sein, die sie in ihrem Google Webmaster Tools – Bereich einrichten sollten, auch um sich früh mit der Funktionsweise der Tools vertraut zu machen und nicht zu einem späteren Zeitpunkt diesen Mangel nachbessern zu müssen!

Mit dieser nützlichen Funktion der Google Webmaster Tools entlassen wir sie zunächst aus unserer Serie, doch bleiben sie auch im Folgeteil unserer Serie über die einfachsten SEO-Kniffe dabei und eignen sie sich Profi-Wissen an, aus den Händen der Suchmaschinenprofis!

Hier finden Sie alle 10 Teile:

  1. Das erste Grundlagenwissen für ihre SEO-Erfolge
  2. Der Webserver als erster Steigbügelhalter zur glücklichen SEO-Optimierung
  3. Intelligente Textgestaltung als effiziente SEO-Maßnahme
  4. Einheitlicher Domainzugriff und Google Webmaster Tools erleichtern den Aufstieg
  5. Mail Forwarding in den Webmaster Tools zur Benachrichtigung nutzen
  6. Altlasten ihrer Domain klären und mit einfach mit Google die eigene Domain prüfen
  7. Strategische Grundlagen: Zielgruppendefinition, Design & Social Media
  8. Strategische Grundlagen: Content Management und Corporate Design
  9. Multimedia neu begriffen – Unterhaltung und Dienstleistung
  10. Analyse ihres Erfolgs mit Google Webmaster Tools
Die nächste Serie wird Sie über “Stickiness” informieren

Starthilfe: SEO in 10 Minuten – Teil 4

Einheitlicher Domainzugriff und Google Webmaster Tools erleichtern den Aufstieg!

In unserem vierten Teil der informativen Serie rund um alle SEO-Maßnahmen die sich in weniger als 10 Minuten bewerkstelligen lassen, haben wir uns, wie bereits erwähnt, von einer Tipp-Geberin aus dem „Zentrum der Macht“, aus dem technischen Bereich der Suchmaschine Google inspirieren lassen, nämlich Maile Ohye, die als „Developer Programs Tech Lead“ bei der Umsetzung der Suchalgorithmen und der Vorgaben des Mutterkonzerns Google Inc. ganz vorne mit dabei ist – und auch hier wieder beweist, dass eine Suchmaschinenoptimierung für Google in den Grundlagen alles andere als ein kompliziertes Hexenwerk ist.

Eine einheitliche kanonische URL schützt vor Duplicate Content Penaltys

Es ist für die Duplikat-freie Erfassung ihres Unique Content von wichtigster operativer Bedeutung, das sie sich frühzeitig dafür entscheiden, wie genau ihre Webseite erreichbar sein soll: Entweder sie leiten ihren Besucherstrom ausschließlich über ihren Domainnamen mit dem „www.“ voran, oder eben ohne dieses, meist überflüssige Kürzel – Überflüssig deshalb, weil es für ihre Zielgruppe meist nur das World Wide Web als Plattform genutzt wird, geschweige denn bekannt ist auch wenn Ausnahmen bekanntlich die Regel bestätigen – Damit können sie umgehend vom Seiten-Launch an mit einer einheitlichen technischen Umsetzung arbeiten und diese Fehlerquelle für kommende Fehlersuchen, die auch in den besten Familien nicht ausbleiben, ausschließen.

Diese Entscheidung, wie sie ihren Website Traffic routen, geht für ihren Nutzer im Übrigen ohne Einbußen im Nutzererlebnis ihres Webangebots einher: Durch den, von Google erlaubten und anerkannten Trick, die Zugriffe durch einen Serverbefehl umzuleiten, wird ihr Kunde dank der serverseitigen Verarbeitung der Umleitung nicht mitbekommen, wie er umgeleitet wird. Stattdessen wird sich nach dem Aufruf der Seite nur in der Adresszeile des Browsers auf dem Besucher-PC entsprechend ändern. Alles geschieht also „unter der Haube“.

Mit „301“-Redirect sicher weiterleiten – Ihr Pagerank wandert mit!

Der dabei zu verwendende Befehl ist der sogenannte „301“-Befehl, der angibt dass der gewünschte Inhalt permanent auf eine andere Adresse umgezogen ist. Er wird auf ihrem Apache-Webserver in der „.htaccess“, die sie bereits in vorhergehenden Teilen konfiguriert haben, festgelegt. Wie ein solcher Eintrag auf ihrem Webserver aussehen kann, finden sie zum Beispiel hier: http://goo.gl/zSch

Warum ist ein korrekter 301-Redirect, also eine Umleitung, für ihr Erfolg in der Suchmaschine so wichtig? Das ist schnell erklärt: Google unterscheidet bei der Erfassung mit und ohne „www.“ die erfassten Inhalte als zweierlei unterschiedliche Domains. Bei einem Projekt, das diese Maßnahme nicht anwendet wird der Suchalgorithmus der Suchmaschine also zwangsläufig feststellen das sich der indizierte Inhalt mehrmals im WWW befindet und löst dementsprechend – Bis zur Lösung dieser Ursache eine schwere Penalty durch die Suchmaschine aus, die ihre Anfangserfolge umgehend einkassiert. Achten sie deswegen besonders, eine einheitliche kanonische URL für ihr Webangebot zu nutzen und verwenden sie niemals unterschiedliche Subdomains (Wie etwa: beispiel.webseite.de) für dieselbe Webseite, so verlockend es auch erscheinen mag!

Effiziente Google-Domainverwaltung durch die Google Webmaster Tools

Als nächsten technischen Hilfsgriff, um ihre SEO quasi „an der Quelle“ im Griff zu haben und die von Google erfassten Domains und Seitenbereiche zu steuern, gehen sie dazu über, ihre Domain durch ein einheitliches Authentifizierungsverfahren bei den Google Webmaster Tools, einem hilfreichen und mächtigen Werkzeug zur Verwaltung bei der Suchmaschinenoptimierung anzumelden.

Sie werden hier Schritt für Schritt durch das Verfahren geführt, das im Regelfall von ihnen verlangt, zwei von Google generiete Prüfdateien auf den ihrer Domain zugeordneten Webspace zu laden um sie zweifelsfrei als zur Verwaltung Berechtigten zu erkennen.

Weiteres hierzu finden sie unter folgendem Link direkt zum Angebot: www.google.com/webmasters/tools/?hl=de

Dreiergespann: Ein HTML-Editor, ein Google-Account und ein FTP-Zugang sind ihre Werkzeuge!

Alles was sie für die in diesem Artikel beschriebenen Schritte benötigen, ist ein FTP-Zugang zum Online-Speicher ihrer Webseite, einen gültigen, sprich aktivierten und nicht gesperrten Google-Account. Als Google-Account zählen auch Google+, Google Mail und alle anderen Accounts der im Frühjahr 2012 zusammengefassten Dienste der Suchmaschine unter dem Banner der Suchmaschine Google, so dass sie wahrscheinlich längst einen solchen Account besitzen und sofort loslegen können. Ansonsten können sie unkompliziert den für ihre Zwecke ohnehin unabdingbaren Google-Account in wenigen Klicks und Minuten für sich einrichten.

Für die Bearbeitung der „.htaccess“-Datei empfiehlt sich die Verwendung eines HTML-fähigen Editors, da sie bei einem solchen sicher sein können, das ihnen keine ungewollten Formatierungs-Daten in diese wichtige Konfigurationsdatei gespeichert werden, was mitunter bei der Verwendung von Office-Anwendungen zur Bearbeitung vorkommen kann.

Hierzu gibt es eine Reihe guter Freeware-Editoren, die Empfehlung der Redaktion ist der „HTML-Editor Phase“, der als bewährter Editor gilt und auch auf Seiten wie Chip.de eine eindeutige, uneingeschränkte, Empfehlung erhält. Beachten sie bei der Verwendung jedoch gegebenenfalls die Lizenz-Bedingungen ihrer Software, um sich auch rechtlich auf der sicheren Seite zu wissen.

Zu guter letzte nach viel Content und viel Wissen:
Ein Link zur YouTube zur Google-Video-Anleitung!

Zur Vertiefung ihres nun aufgenommenen Grundlagenwissens bezüglich der Webmaster Tools empfehlen wir den folgenden Link zum Thema „Using Google Webmaster Tools like a SEO“, in dem ihnen einfach und verständlich in einem Video der Umgang mit den Google-SEO-Werkzeug vermittelt wird: https://www.youtube.com/watch?v=tQQmq9X5lQw

Hier endet der vierte Teil unserer Serie und wir hoffen, sie auch für den kommenden fünften Teil unserer Grundlagen- und Auffrischungs-Reihe als Leser gewinnen zu können, damit sie auch morgen noch problemlos in der größten Suchmaschine, der Google Search, zu finden sind!

Hier finden Sie alle 10 Teile:

  1. Das erste Grundlagenwissen für ihre SEO-Erfolge
  2. Der Webserver als erster Steigbügelhalter zur glücklichen SEO-Optimierung
  3. Intelligente Textgestaltung als effiziente SEO-Maßnahme
  4. Einheitlicher Domainzugriff und Google Webmaster Tools erleichtern den Aufstieg
  5. Mail Forwarding in den Webmaster Tools zur Benachrichtigung nutzen
  6. Altlasten ihrer Domain klären und mit einfach mit Google die eigene Domain prüfen
  7. Strategische Grundlagen: Zielgruppendefinition, Design & Social Media
  8. Strategische Grundlagen: Content Management und Corporate Design
  9. Multimedia neu begriffen – Unterhaltung und Dienstleistung
  10. Analyse ihres Erfolgs mit Google Webmaster Tools
Die nächste Serie wird Sie über “Stickiness” informieren

Starthilfe: SEO in 10 Minuten – Teil 3

Intelligente Textgestaltung als effiziente SEO-Maßnahme

Hier geht es weiter mit unserer Reihe „SEO in 10 Minuten“, in der wir ihnen die wichtigsten Eckpunkte für eine erfolgreiche SEO-Grundsteinlegung verraten: Hochaktuell aus den Händen von Maile Ohye, ihres Zeichens als „Developer Programs Tech Lead“, der technischen Abteilung zur Entwicklung und technischen Umsetzung der aktuellsten Ranking Policies der Google Inc.!

Sie gibt aktuelle Tipps für einen erfolgreichen Launch ihres Unternehmens in Sachen Google-Ranking, daher haben wir die, an Lektionen nicht zu arme, Präsentation übersetzt und in dieser Serie für sie aufbereitet:

Die Textgestaltung im Wandel der Zeit

Dem Inhalt einer Webseite, dem sogenannten Content, wurde im vergangenen Jahrzehnt nur wenig Aufmerksamkeit beigemessen. Lange Zeit wurde inoffiziell die allgemeine Lehrmeinung vertreten, das Textinhalte ganz im Gegenteil zu optisch anziehenden Grafiken oder Flash-Animationen, vom Seitenbesucher im besten Falle nur oberflächlich Überflogen würde, sich aber nur ein zu vernachlässigender Anteil der Page Visitor tatsächlich mit dem Inhalt von Fließtexten auseinandersetzen würde und somit eine sorgfältige Gestaltung von Textinhalten eine ineffiziente Kostenstelle darstellen würde.

Dies hatte zur Folge, dass die Gestaltung von Content in Textform beinahe ein ganzes Jahrzehnt vielmehr als eine gestalterische Notwendigkeit betrachtet wurde, die den angenehmen Nebeneffekt mit sich brachte, über diesen Text alle die über den Quellcode hinaus gehenden Optimierungen von Suchbegriffen abwickeln zu können. Dementsprechend waren diese Inhalte oftmals mit haarsträubend eingesäten Kombinationen an Keywords gespickt, die den Lesefluss nachhaltig behinderten und sehr deutlich zur schau trugen, das sie für die Google Crawler und nicht für den Besucher geschrieben wurden.

Mit dem Einbeziehen der aus den von Google Plus-basierten Plug-ins gewonnenen Nutzerdaten über Verweildauer auf Landing Pages, Haupt- und Tochterseiten, Klickraten und der zusätzlich erfassten „+1“ und dem aktiven Teilen der Inhalte durch den User als zukünftig festem Bestandteil der Bewertungskriterien bilden ein Novum, das Google selbst als, frei übersetzt „Hinwendung der Erstellung von Textinhalten für die Maschine hin zur Erstellung für den Menschen“ beschreibt und das in der SEO-Branche als Schlüssel für zukünftige Erfolge in der Suchmaschinenoptimierung gehandelt wird.

Hier die heißesten Tipps für ihren erfolgreichen Einstieg in die Welt der Suchmaschine Google von den Machern selbst:

Grundsätzlich: Binden sie ihre Keywords thematisch sinnvoll und organisch in den fließenden Content ein!

Verzichten sie auf gekünstelte Formulierungen, über die der Nutzer beim Surfen stolpern könnte!
Im schlechtesten Fall wird der Nutzer rasch von ihrer Webseite Abstand nehmen, zumindest aber wird das aufdecken schlecht gemachter Keyword Placements einen – möglicherweise nur unterbewusst empfundenen – schlechten Eindruck hinterlassen, was sowohl die Verweildauer als auch den Aggregationseffekt der digitalen Mundpropaganda zu ihrem Nachteil beeinflussen!

Bei der weiteren Textgestaltung gilt grundsätzlich das K.I.S.S.-Prinzip: „Keep it simple and stupid“.
Orientieren sie sich beim setzen ihrer schwerpunktmäßig positionierten Schlagworte an möglichst generischen Ausdrucksweisen wie sie der gewöhnliche Internetnutzer bei seiner Suche nach einem passenden Ergebnis benutzen würde.

So formulieren sie etwa ihr Angebot für „Sportliches Schuhwerk“ eher in eine von ihren Produkten und Dienstleistungen abgedeckte Form von Suchworten, z.B. in „Sportschuhe“ oder „Laufschuhe“ um und entsprechen damit eher gängigen Suchbegriffen der breiten Masse der Google-Nutzer.

Vermeiden sie spezifische oder zu fachliche Termini um und entscheiden sie sich für eine Strategie, die einen möglichst hohen Anteil der für ihre Branche entsprechenden Suchanfragen unter Aufwendung von möglichst wenigen Keywords erreichen kann. So erhalten sie sich Optionen auf die Bildung weiterer Keyword-Schwerpunkte und können damit ohne Mehraufwand zeitnah weitere Bereiche der von ihnen angestrebten Suchanfragen abdecken und mit einfachem abgleichen der gefragtesten Suchbegriffe schnelle Expansion in Bereiche gewährleisten, in denen ihre direkte Konkurrenz am Ort oder im allgemeinen Geschäftsfeld ihnen eine Blöße offenbart haben.

Gerade eine nachteilig gewählte Aufstellung bei der Entwicklung einer langfristig angelegten Keyword-Strategie gehört unter den, selten von professionellen SEO-Agenturen begleiteten, Start-Ups im Internet. Vorschnell getroffene Schwerpunktentscheidungen ohne eine Analyse der Suchwortdichte für den eigenen Geschäftsbereich etwa durch Studie von Tools wie Google Trends und dem Abgleich der Konkurrenz im Bereich der organischen Google Search können sie in Sachen SEO um einige Größenordnungen zurückwerfen und gehören damit zu den Grundpfeilern einer erfolgversprechenden Aufstellung ihres Unternehmens im, durchaus zu recht gefürchteten, Online Marketing und dessen Schwerpunkt, dem Suchmaschinenmarketing (SEM).

Wissenswert: Beim Gebrauch der organischen Google Suche verhalten sich alle Zielgruppen in ihrem Individualverhalten ähnlich. Vom Endkunden bis zum Geschäftsführer gleichen sich die Nutzerprofile. Daher lässt sich aus unseren Ratschlägen zur Textgestaltung ihrer Content Pages und der darin eingebetteten Suchworte mit großer Abdeckung der Zielgruppen eine gewisse Allgemeingültigkeit ableiten, die für ihre Suchmaschinenoptimierung Berücksichtigung finden sollte um dem sprichwörtlichen Durchstarten ihres Online Start-Ups keine vermeidbaren Stolpersteine in den Weg zu legen!

Hier finden Sie alle 10 Teile:

  1. Das erste Grundlagenwissen für ihre SEO-Erfolge
  2. Der Webserver als erster Steigbügelhalter zur glücklichen SEO-Optimierung
  3. Intelligente Textgestaltung als effiziente SEO-Maßnahme
  4. Einheitlicher Domainzugriff und Google Webmaster Tools erleichtern den Aufstieg
  5. Mail Forwarding in den Webmaster Tools zur Benachrichtigung nutzen
  6. Altlasten ihrer Domain klären und mit einfach mit Google die eigene Domain prüfen
  7. Strategische Grundlagen: Zielgruppendefinition, Design & Social Media
  8. Strategische Grundlagen: Content Management und Corporate Design
  9. Multimedia neu begriffen – Unterhaltung und Dienstleistung
  10. Analyse ihres Erfolgs mit Google Webmaster Tools
Die nächste Serie wird Sie über “Stickiness” informieren

Starthilfe: SEO in 10 Minuten – Teil 2

Der Webserver als erster Steigbügelhalter zur glücklichen SEO-Optimierung

Mit diesem Teil setzen wir unsere Serie „Starthilfe: SEO in 10 Minuten“ nach dem positiven Feedback aus der Leserschaft gerne fort und folgen dabei weiter dem roten Faden der „Developer Programs Tech Lead“, Frau Maile Ohye aus dem Hause Google für uns in einer englischsprachigen Präsentation zusammengefassten Präsentation zusammengestellten Weichen, die sie in weniger als 10 Minuten stellen können, und so ihr System auf den Erfolgsweg zu ihrer erfolgreichen Platzierung in den Google-Suchergebnissen vorbereiten kann.

Mit ein wenig sanftem Druck die Entwicklung des Web bestimmend

Vielfach wird es unter den Tisch geschlagen, doch auch die korrekte Konfiguration eines Webservers auf dem naturgemäß eine Webseite gehostet wird, kann sich auf das Ranking in der Suchmaschine Google auswirken. In diesem Fall vielmehr eine fehlerhafte Konfiguration, die mit den Richtlinien der Suchmaschine unweigerlich kollidiert und konsequente Sanktionierung erfährt, mehr noch als vermeintlich eindeutigere und offensichtlichere Verstöße gegen die Google Webmaster Guidelines als absolutes „Kill Kriterium“ nicht direkt mit der Roten Karte, wohl aber ohne Verwarnung mit Gelb-Rot und einer Auszeit auf der Bank geahndet wird. Der Hintergrund dessen liegt in der chaotischen Vergangenheit des WWW, das mit seinen auf dem Papier zwar definierten Standards eine gemeinsame Grundlage Die Praxis jedoch zeigte, dass diese Richtlinien sowohl von Webmastern auf Anwenderseite, wie auch durch die Hersteller der Browser auf der Herstellerseite mitunter sehr abenteuerlich ausgelegt wurden und bis in Mitte der 2000er immer wieder zu inkompatibilitätsbedingten Einbußen in der User Experience führten. Die Unternehmen Microsoft, Netscape und Opera Software, die den überwiegenden Großteil des Browsermarktes bedienten, waren sogar ständige Mitglieder der W3C-Kommission und verstießen im Kampf um Marktanteile immer wieder gegen die HTML-Standards, etwa durch proprietäre Erweiterungen des Befehlssatzes.

Mit dem Aufstieg Googles als führende Suchmaschine des World Wide Webs jedoch war das Unternehmen auf möglichst einheitlich standardisierte Plattformen und den sich nach Standard verhaltenden Gegenstellen angewiesen um sein Geschäftsmodell, das gesamte Internet nicht nur zu indexieren, sondern nach der Relevanz im Verhältnis der abgefragten Suchbegriffe zu ordnen, einen barrierefreien Zugang zu den in HTML gebetteten Informationen durch seine Crawler zu erhalten. Ebenso war es notwendig, das die seinerseits noch lange nicht standardisierten Webserver, die teilweise noch in Eigenleistung als Projektarbeiten der Studiengänge der Informationstechnologie programmiert und verwendet wurden und in ihrem Funktionsumfang oftmals von den geltenden Standards abwichen und den umfassenden crawl des Internets behinderten.

Um diesem Problem langfristig Herr zu werden und einen Anpassungsdruck gegenüber den vom, freilich von Google veranschlagten, Standard abweichenden Webservern zu erzeugen – Seinerzeit war der Erfolg einer Seite nahezu ausschließlich in Page Impressions und Unique Visitors bemessen und generierte seine Popularität vor allem durch Verlinkungen auf Seiten mit hohem Publikumsverkehr, da die vorhandenen Suchmaschinen in ihrer unzähligen Vielfalt und den unterschiedlichen Erfassungskriterien eine breitbandige Optimierung verhinderten – begann Google mit der Anwendung strikter Sanktionen, die sich vor allem im Ausschluss der entsprechenden Webserver und der darauf gehosteten Webseiten manifestierten, oder gar nicht zu einer Aufnahme in den Index der Suchmaschine führte, die binnen kürzester Zeit eine ungeahnter Reichweite erzielte und schon bald die Ambition zur Marktführerschaft entwickelte.

Dieser rigorose Lock-Out führte zu einer raschen Anpassung an die technischen Richtlinien der nun Ton angebenden Suchmaschine Google, die damit eine Einhaltung der geforderten Standards durch Einsatz der Ellenbogen sicherstellte und den ersten, koordinierten Schritte zur Vereinheitlichung des WWW und seiner Technologien unternahm.

Wie die Konfiguration ihres Webservers ihre

„EntWWWeder oder“: Um bei der erstmaligen Erfassung durch die Google-Crawler nicht Gefahr zu laufen durch sogenannten Duplicated Content, also doppelter Inhalte die Google auf zwei unterschiedlichen URL indiziert, eine Penalty zur riskieren, sollten sie sich schon im Vorfeld im klaren sein ob ihre Webseite mit dem Präfix „www“ erfasst werden soll, oder ob sie darauf verzichten und in diesem Zuge die dafür notwendigen technischen Vorkehrungen in der Konfiguration ihres Treffen.

Dazu müssen sie die, im Root-Verzeichnis ihres Webservers hinterlegte Datei „.htaccess“ editieren. (Aufgrund der hohen Verbreitung des Apache-Webservers verzichten wie an dieser Stelle auf die Erläuterung des Prozedere für andere Webserver aus Relevanzgesichtspunkten)

Die Datei „.htaccess“ enthält Instruktionen zu einer bestimmten Verhaltensweise, die beim einem Zugriff auf das Heimatverzeichnis, in dem die Konfigurationsdatei abgelegt ist, ausgelöst werden und mittels der hinterlegten Befehle ein bestimmtes Verhalten des Servers erzwingt.

Beispielhaft könnte ihre „.htaccess“ etwa wie in diesem Beispiel aussehen:

RewriteEngine On
RewriteCond %{HTTP_HOST} !^www.ihredomain.de
RewriteCond %{HTTP_HOST} !^www.ihredomain.com
RewriteRule ^(.*)$ [L,R=301]

Damit haben sie bereits den wichtigsten Schritt getan und eine der häufigsten Fußangeln bei der Suchmaschinenoptimierung elegant umgangen und somit das Tor für die kommenden Teile unserer Serie zum Thema „Einfache Suchmaschinenoptimierung in 10 Minuten“, für SEO-Profis und Amateure aufgestoßen!

Hier finden Sie alle 10 Teile:

  1. Das erste Grundlagenwissen für ihre SEO-Erfolge
  2. Der Webserver als erster Steigbügelhalter zur glücklichen SEO-Optimierung
  3. Intelligente Textgestaltung als effiziente SEO-Maßnahme
  4. Einheitlicher Domainzugriff und Google Webmaster Tools erleichtern den Aufstieg
  5. Mail Forwarding in den Webmaster Tools zur Benachrichtigung nutzen
  6. Altlasten ihrer Domain klären und mit einfach mit Google die eigene Domain prüfen
  7. Strategische Grundlagen: Zielgruppendefinition, Design & Social Media
  8. Strategische Grundlagen: Content Management und Corporate Design
  9. Multimedia neu begriffen – Unterhaltung und Dienstleistung
  10. Analyse ihres Erfolgs mit Google Webmaster Tools
Die nächste Serie wird Sie über “Stickiness” informieren

Starthilfe: SEO in 10 Minuten – Teil 1

Das erste Grundlagenwissen für ihre SEO-Erfolge

In einer neuen Serie bringen wir für sie unter dem Stichwort „SEO in 10 Minuten“, die wichtigsten Eckpunkte für eine erfolgreiche SEO-Grundsteinlegung nahe: Hochaktuell aus den Händen von Maile Ohye, ihres Zeichens als „Developer Programs Tech Lead“, der technischen Abteilung zur Entwicklung und technischen Umsetzung der aktuellsten Ranking Policies der Google Inc.!

Sie gibt aktuelle Tipps für einen erfolgreichen Launch ihres Unternehmens in Sachen Google-Ranking, daher haben wir die, an Lektionen nicht zu arme, Präsentation übersetzt und in dieser Serie für sie aufbereitet:

Trotz einfacher CMS gelten die „goldenen Regeln“ des SEO unverändert weiter

In Zeiten einfach zu bedienender Content Management Systeme ist die Verlockung groß, die technischen Fundamente für einen erfolgreichen Einstieg in die Suchmaschinenoptimierung zu vernachlässigen und sich vom Funktionsumfang, den viele Open-Source CMS durch ihre rege gepflegten und ständig erweiterten Plug-In Bibliotheken bieten, von den grundsätzlich und allgemein gültigen „goldenen Regeln“ der effektiven SEO zu entfernen und so die Effizienz des eigenen Angebots und dem Ausschöpfen des vollen Potentials in der strategischen Positionierung im Online Marketing zu ihrem eigenen Nachteil verhindern.

Seit dem dem Einspielen des Penguin-Updates, das Google jüngst im Frühling als Beginn einer Reihe von Anpassungen in der Darstellung der SERPs, der Ranking-Kriterien zum bemessen des wichtigen Google Pagerank sowie der schrittweise erfolgenden Verzahnung der Suchmaschine mit Google+, dem google-eigenen Social Network liegt das hauptsächliche Augenmerk der Optimierung nicht mehr nur auf die barrierefreie Erfassung der Daten durch Googles automatischen Erfassungsprogrammen die tagtäglich das Internet durchsuchen, sondern auch mit dem wachsenden Einfluss derselben hin zum Konsum durch echte Menschen, da die Bewertungen und Empfehlungen sich auf die Platzierung auf den Google SERPs auswirken.

Da diese Serie sich vor allem an die in der Start-Up Phase befindlichen Onlineprojekte richtet, haben wir in den folgenden Teilen der Serie „SEO in 10 Minuten“ nur wenig neues für die erfahreneren SEO-Amateure und die Profis unter unseren Lesern zu berichten und doch schützt bekanntermaßen weder Alter noch Erfahrung vor dem Begehen von, als Anfängerfehler abgehakten kleinen Ausrutscher, weshalb wir auch den „alten Hasen“ des Onlinemarketings und der SEM-Profis eine kleine Frischzellenkur für die Grundlagen empfehlen und deshalb mit unserem Bericht über die besten Tipps und Grundlagen beginnen, die uns aus dem Zentrum des Google-Universums zugespielt und von uns ins Deutsche übersetzt und sinnvoll ergänzt wurden:

Aktuelles SEO-Grundlagenwissen kurz angerissen

Kurz und Bündig: Sowohl für die Usability durch den menschlichen Anwender als auch für die Erfassung durch die turnusmäßigen einkehrenden Google Crawler ist die Einhaltung einer flachen Seitenstruktur, die je Seite ein in sich abgeschlossenes Thema mit einem ungefähren Umfang von rund 1000 Worten als absolute Obergrenze, behandelt. Alle Werte, die darüber hinaus gehen, überfrachten nicht nur den menschlichen Besucher der Seite, man läuft ebenso Gefahr das die Seite nicht mehr zur Gänze erfasst wird und alle, im HTML-Code folgenden, unter Umständen für die SEO wichtigen Codefragmente im Seitenquelltext schlichtweg nicht erfasst werden und so dem erfolgreichen Crawling ihrer Inhalte und dem positiven Ranking durch eine folgende Penalty durch Google ausschließlich schadet: In der kürze liegt die Würze, daher teilen sie unvermeidbar große Textinhalte eher auf durch Pointer und Hyperlinks miteinander verbundene Einzelseiten als das sie durch überlange Texte einen Fehlschlag ihrer Mühen riskieren.

Strategische Schwerpunktbildung: Trennen sie sich von der Illusion, mit ihrer Onlinepräsenz den vollständigen Bereich der für sie thematisch relevanten Suchbegriffe, den sogenannten Keywords, abdecken zu können.Erst durch die Ausbildung eines oder mehrerer Schwerpunkte durch die von ihnen im Content verwendeten Schlagwörter werden sie für den gewöhnlichen Nutzer der Google Search auffindbar, da sie Anhand dieser sich häufenden Suchbegriffe erfasst, bewertet und einsortiert werden.

Um diesen Prozess, der neben der Definition ihrer Schwerpunkt-Suchbegriffe in den Webmaster Tools, aktiv zu stützen benötigen sie eine strategische Planung ihrer Suchbegriffe um eine Penalty, also eine Sanktionierung, durch Google bei Verdacht auf das spammen von Keywords automatisch erhalten und in ihrem Ranking herabgestuft werden. Halten sie daher sie ihren Fokus auf eine handvoll, für ihr Unternehmen zutreffende, jedoch möglichst generische, Suchbegriffe auf die ihre Textinhalte hin gestaltet werden.

Zum Beispiel wird eine Aufsplittung ihrer Content Pages mit jeweils schwerpunktmäßig anders gelagerten Inhalten bereits kurzfristig zu einem schlechteren Google Page Rank führen, als wenn sie ihren Inhalt über die gesamte Breite ihrer Inhalte auf das vorhandene Repertoire ihrer angepeilten Strategie hin ausrichten und so bei der Erfassung durch die Crawler eine thematisch geschlossene und fachlich relevante Webseite signalisieren, was durch Google positiv honoriert wird und sich umgehend in ihrer Platzierung in den Ergebnisseiten der Google Suche niederschlägt.

Fazit – Die Faustregel für die allgemeinen Richtlinien: Vermeiden sie es einzelne Seiten inhaltlich zu überladen und achten sie auf ein schlankes, auch für den Menschen übersichtliches Inhaltsdesign mit einer korrekten Formatierung der Textelemente!

Hier finden Sie alle 10 Teile:

  1. Das erste Grundlagenwissen für ihre SEO-Erfolge
  2. Der Webserver als erster Steigbügelhalter zur glücklichen SEO-Optimierung
  3. Intelligente Textgestaltung als effiziente SEO-Maßnahme
  4. Einheitlicher Domainzugriff und Google Webmaster Tools erleichtern den Aufstieg
  5. Mail Forwarding in den Webmaster Tools zur Benachrichtigung nutzen
  6. Altlasten ihrer Domain klären und mit einfach mit Google die eigene Domain prüfen
  7. Strategische Grundlagen: Zielgruppendefinition, Design & Social Media
  8. Strategische Grundlagen: Content Management und Corporate Design
  9. Multimedia neu begriffen – Unterhaltung und Dienstleistung
  10. Analyse ihres Erfolgs mit Google Webmaster Tools
Die nächste Serie wird Sie über “Stickiness” informieren

SEO – Wie man es eben nicht macht – Teil 3

Die 25 erfolgreichsten Wege, seine Webseite aus dem Top-Ranking der Suchmaschinen zu verbannen

In unserem dritten Teil der 25 besten Maßnahmen, der eigenen Seite in allen bekannten und unbekannten Suchmaschinen das eigenen Ranking mit einem vernichtenden Hieb zu schlagen, präsentieren wir ihnen die letzten 9 der brandheißen Tipps, die wir durch eine freie Übersetzung eines Artikels von Sujan Patel (Siehe erster Artikel) übernommen haben. Lehnen sie sich zurück, machen sie sich Notizen und schon kann es bei den Suchergebnissen bergab gehen!

Nummer 18: Bauen sie auf low-quality Links

Sicherheit beim abwerten ihrer Seite in allen Ranking-Systemen der Suchmaschinen erhalten sie durch den Aufbau von Links und Backlinks auf schlecht bewertete oder grundsätzlich ungepflegten und nicht optimierten Webseiten. So weiß der Spider umgehend, das alles, was zu diesem Netzwerk gehört, grundsätzlich erst einmal schlechtes Material ist und für den Nutzer mit hoher Wahrscheinlichkeit keine Verwendung finden kann. Also quasi Narrensicher!

Nummer 19: Bauen sie Verlinkungen mit schlechter Nachbarschaft

Es verhält sich ein wenig wie die Mietpreise im ghetto-artigen Umfeld. Wer in einem solchen einen Neubau wagt, der sollte sich nicht wundern, dass seine Mietpreise in etwa dem Umfeld entsprechen. Achten sie also darauf, dass sie ein möglichst negatives Umfeld für ihr Projekt wählen um so gar nicht erst in den Drang zu kommen, sich mit Besucherströmen und hohen Bewertungen durch die Suchmaschine ausgesetzt zu sehen! Linkfarmen und Spam-Seiten sind gute Gehilfen bei diesem Anliegen!

Nummer 20: Setzen sie alles auf eine Karte!

Google SEO setzt hohen Wert darauf, die Ergebnisse so darzureichen, als wenn sie von Nutzern gefunden wurden, also baut man in diesen Falle eine sehr weit gefächerte Linkstruktur auf und nimmt verschiedene Backlink-Typen zur Hand. Also nichts für sie: Fokussieren sie sich auf einen Backlink und setzen sie diesen exzessiv ein, damit ihre Seite umgehend als Black-Hatter erkannt wird!

Nummer 21: Überladen sie ihre Seite mit Plugins!

WordPress und andere Populäre CMS haben natürlich die große Eigenschaft, sehr adaptiv zu sein und viele Erweiterungen für seine Nutzer anzubieten. Diese Funktionalität bringt für sie in den meisten Fällen einen sehr positiven Effekt mit sich: Eine langsame Seite mit nicht auslesbaren Seitenbereichen! Geschenkte Erfolge für ihr Ziel, den Boden aller Suchmaschinen und SERPs zu durchbrechen!

Nummer 22: Webseitengeschwindigkeit ist Nebensache

Lassen sie sich nicht verwirren: Wenn ihre Webseite genau so schnell ist wie anno 1997, dann ist das gut so. Sie haben diesen übermäßig schnellen DSL-Leitungen ja sowieso niemals getraut, nicht wahr? Bewahren sie diese Haltung und überladen sie ihre Seite mit Plugins, Bannern und Grafiken, um auch den letzten Crawler von dem verdienten Ranking auf den hinteren Ergebnis-Seiten des Internets zu überzeugen.

Nummer 23: Code-Fehler sind ebenfalls Nebensache

HTML ist flexibel, Scriptsprachen auch. Es ist für ihre Zwecke kein wenig schlimm, das sich hier und da ein kleiner logischer Fehler oder eine tote Weiterleitung befindet. Das der Googlespider mit ihrem Spaghettiartigen Code, den ihr Counterstrike-ambitionierter Enkel am Wochenende mit Microsoft Frontpage 97 zusammengeschustert hat, nichts anfangen kann, liegt ausschließlich an der Blindheit der Moderne.

Nummer 24: Seiten-Uptime ist auch nebensächlich

Achten sie nicht darauf ob ihre Webseite online ist. Ihr Hoster wird das schon richten, nicht wahr? Schließlich geht doch jede Webseite mal offline, so etwas kann ja passieren. Und weil das so gnadenlos von den Crawlern bewertet wird, geben sie nichts über dieses kapitalistische Zwangssystem und lassen sich zielgerecht den Fluss abwärts treiben, auf dem Web in die Suchmaschinen-relevante Bedeutungslosigkeit der hinteren SERPs.

Nummer 25: Bloß nicht informiert sein!

SEO ist ein Tätigkeitsfeld, in dem sich die Variablen und Methoden zu jederzeit ändern können und meistens zum Leidwesen der Branche auch tatsächlich ändern. Lassen sie es also dabei, mit ihrer Ausgabe der CHIP oder anderen Computermagazinen mit dem Titel „So werden sie gefunden“ oder anderen Headlines, selbstverständlich aus der Zeit „vor dem Umbruch“, sprich etwa aus 1998 oder 1999, spätestens aber bis 2001. Das wird ihnen mit Sicherheit die neuesten Erkenntnisse verschlossen halten. Konservativ wählen, Konservativ SEO betreiben!

Wir danken ihnen herzlich für ihre drei Artikel lange Aufmerksamkeit und hoffen, mit dieser freien Übersetzung der humoristischen Aufarbeitung der wohl populärsten Bedienungsfehler in Sache Suchmaschinenoptimierung und Suchmaschinenmarketing ein wenig den Abend versüßt zu haben. Bitte beachten sie das ursprüngliche Werk von Sujan Patel, der dieses auf searchenginejournal.com veröffentlich hat.

[stextbox id=”info”]Sujan Patel ist der Mitgründer von Single Grain, einer SEO Agentur aus dem kalifornischen San Francisco. Single Grain hält seinen Fokus im Markt im Aufbau von Start-Ups und betreut derzeit rund 500 Firmen mit ihren Marketingstrategien für die neuen Medien.[/stextbox]

Weitere Infos (externe Seiten):

[related-links]

SEO – Wie man es eben nicht macht – Teil 2

Die 25 erfolgreichsten Wege, seine Webseite aus dem Top-Ranking der Suchmaschinen zu verbannen

Willkommen, lieber Leser zum zweiten Teil unserer Trilogie über die erfolgreichsten Wege, sämtliche Tips und Neuentwicklungen beiseite stehen zu lassen und auf handfeste, „gute Alte“ Weise Webseiten zu optimieren. Sie werden hier 8 weitere, äußerst Wertvolle Tipps aus der Feder von Sujan Patel finden, der diesen Artikel im englischen Original (Siehe Teil 1) auf dem SEOJournal veröffentlicht hat und den wir ihnen hier in freier Übersetzung zur Verfügung stellen, denn: So gute Tips bekommen sie so schnell nicht mehr, um ihre Webseite dorthin zu bringen, wo früher nur GeoCities und Lycos ihre Pages gerankt haben!

Nummer 9: Bilder über das Maß optimieren

Noch eine Penality der Suchmaschine gefällig? Dann probieren sie es doch einmal auf sehr erfolgreiche Weise, ihre ALT-Tags mit allen Suchbegriffen zu füllen, die ihre Webseite zu her gibt. Wenn sie dann noch in einem unter dreistelligen Bereich der SERPs erscheinen: Optimieren sie den Dateinamen! Es gibt kaum etwas erfolgreicheres, als durch diese Methode von Spidern als Black-Hat-Optimierer abgestempelt und erfolgreich abgewertet zu werden!

Nummer 10: Ignorieren sie Suchbegriff-Forschung und ihre Daten

Das Internet funktioniert über Verlinkungen und Suchbegriffe, die miteinander kumulieren. Kümmern sie sich darum, das ihre Webseite also auf keinen Fall auf die für ihr Angebot populären und relevanten Suchbegriffe optimiert ist. Diversion ist das neue Zielgerichtet. Sie bewerben eine KFZ-Werkstatt? Setzen sie auf Suchbegriffe der Stammzellenforschung und der Erfolg ist ihnen sicher.

Nummer 11: Bauen sie versteckten Text auf ihrer Seite ein

Der Klassiker des Internets, seit es Suchmaschinen gibt: Fügen sie eine obszöne Zahl an verborgenen Suchbegriffen in ihrer Webseite, wohl am besten noch in den unteren Dritteln ihrer Anzeige ein und sichern sie sich damit die Klassifizierung als SEO-Spammer! Diese Methode, die etwa das letzte mal um das Jahr 2001 zu einer positiven Rankingverbesserung geführt hat, wird ihnen für dieses Ziel gute Dienste erweisen.

Nummer 12: Stapeln sie ihre TITLE-Tags

Wenn ihnen wirklich daran gelegen ist, den Google-Bot zu irritieren, legen sie doch eine erfolgreiche falsche Fährte, in dem sie ihre TITLE-Tags im HTML-Code ihrer Webseite abändern und dazu noch weitere, also mehrere TITLE in diesen Code einbauen. So können sie sicher sein, das ganz bestimmt kein Erfolg von ihrem SEO-Projekt ausgeht.

Nummer 13: Verwenden sie Frames. Exessiv.

Nicht nur, das es den klassischen Charme des „good old Internet“ aus dem Jahre 1996 hat, es macht ihre Webseite gleichzeitig quasi unmöglich für Suchmaschinenspider zu navigieren. Wenn sie ihren Erfolg in der Dekonstruktion der Webseitenrankings erfolgreich unterstützen wollen, bauen sie die Frame-Inhalte aus unterschiedlichen IPs, besser noch, unterschiedlichen Domains auf um die gnadenlose Vergabe mehrfacher Penalties zu kassieren.

Nummer 14: Bauen sie ihre SEA auf fremden Markenzeichen auf

Sie sind der unterlegene Anbieter am Markt, aber sie haben eine vernichtende Strategie, die sie von ihren Programmierern umsetzen lassen wollen: Sie kapern die markenbezogenen Suchbegriffe ihrer Konkurrenz. Durch die entstehenden Urheberrechts-Verwicklungen und die darauf folgenden Klagen können sie davon ausgehen, das alle ihre Seiten, die auf den Keywords der Konkurrenz aufbauen, per Gerichtstitel aus den Suchmaschinen verschwinden.

Nummer 15: Halten sie die Clightrough-Rate so gering wie möglich

Stellen sie so sehr wie möglich den langweiligsten Inhalt, der die geringste fachliche Kompetenz vermissen lässt so in den Vordergrund, das er in den Snippets der SERPs (Suchmaschinen-Ergebnisseiten) erscheint und ihr Projekt schon alleine durch den mangelnden Durchgangsbesuch von Search Engine Usern nach unten rasselt und sie ihren Erfolg bei Sekt (Statt Champagner) feiern können. Alternativ auch Mineralwasser, je nach dem, was ihnen der Insolvenzbeauftragte lässt.

Nummer 16: Kaufen sie Links!

Wenn die „großen“ im SEO-Business das können und vor allem auch machen, warum dann nicht auch sie, oder? Achten sie dabei vor allem nicht darauf, mit wem sie sich ins Boot setzen. Das garantiert ein Derating und massive Penalties, und schon bald haben sie sich einen sicheren Platz auf dem Ranking 50 oder sogar darunter gesichert und ihr SEO-Ziel erreicht.

Nummer 17: Tauschen sie Links!

Linktausch-Programme, das haben sie doch schon mit ihrer privaten Webseite, etwa um 1995 gemacht, oder? Man wollte ja schließlich, dass das was man an Content erschafft, auch am Ende gelesen wird, nicht wahr? Heute unbedingt gültig für den Abstieg aus den Suchergebnissen, am besten über eine Zwei-Wege-Verlinkung, besser noch über einen Drei-Wege-Verlinkung. Um sicher zu gehen, sie verstehen?

Lesen sie am 18.7.2012 die letzten 9 brandheißen Tipps in unserem abschließenden Teil über die besten Wege, jede Maßnahme aus den Bereichen SEO (Suchmaschinenoptimierung), SEA (Suchmaschinenwerbung) und SEM (Suchmaschinenmarketing) zu unterminieren und sich auf alle Ewigkeit mit ihren Projekten aus den Suchregistern von Google & Co zu verbannen!

Weitere Infos (externe Seiten):

[related-links]

 

SEO – Wie man es eben nicht macht – Teil 1

Die 25 erfolgreichsten Wege, seine Webseite aus dem Top-Ranking der Suchmaschinen zu verbannen

Das bei der Suchmaschinenoptimierung eine vielzahl an Faktoren zusammenspielen, dürfte mittlerweile auch bis zum letzten Optimierer vorgedrungen sein. Trotz alledem scheint es so, als wenn sich viele, mittlerweile als überholt gekennzeichnete, Methoden der SEO noch immer hartnäckig in den Köpfen mancher Agents zu halten, die damit die von ihnen betreuten Projekte mit einer Menge an sich kumulierenden Penalties sprichwörtlich aus dem Rennen schießen. Sujan Patel vom SEOJournal hat in diesem (http://www.searchenginejournal.com/25-ways-to-decrease-your-rankings/42430/ ) Artikel eine humoristische Aufzählung der 25 Wege, sich am sichersten aus den Top-Rankings der Google SERPs zusammengefasst, auf deren einzelne Punkte wir hier einmal frei übersetzt wiedergeben wollen, natürlich ohne Garantie auf den Verlust ihrer wertvollen Rankings!

Nummer 1: Cloaking der eigenen Seite

Wer starkes Interesse daran hat, seine Seite für die Kriterien von Google in einem leichten auszusortieren, sollte auf das aktive Cloaking seines Projektes setzen: Generieren sie eine Umleitung die dem Google Spider eine vollkommen andere Seite darstellt, wie ihren menschlichen Nutzern!

Nummer 2: Landing Pages als Durchlaufseiten

Nichts verletzt die Ters of Service von Google einfacher, als das durchleiten von Nutzern auf mitauf bestimmte Keywords optimierten Durchgangsseiten, ein Verlust des sowieso nur lästigen Google Pageranks ist mit dieser Methode geradezu unabwendbar.

Nummer 3: Content anderer Seiten verwenden

Wem das generieren eigenen Contents zu mühselig erscheint, der kann sich darauf verlassen, dass das Übernehmen fremden Contents der zu früheren Zeitpunkten von Google und anderen Suchmaschinenspidern und Crawlern erfasst wurde, vollkommen zielgerichtet dazu führt, dass das eigene Projekt unter den Herkunftsseiten rangiert, von den sich auf tuenden juristisch relevanten urheberrechtlichen Fragen abgesehen, die dieses Erlebnis versüßen können.

Nummer 4: Gemeinfreie Inhalte ohne Revision online stellen

Gerade bei Fachinhalten aus den bekannten „Kaufe 10.000 Artikel, zahle 10“-Paketen der gemeinhin als „PLR“, also Private Label Rights gekennzeichneten Kauf-Inhalte, die schon auf gefühlten 100.000 anderen Webseiten verwendet werden, führen durch den Mangel an aktualität und unique-ness schnell dazu, aus den SERPs der gewünschten Zielgruppe von 1-5 zu fliegen und eher die hinteren 50 anzupeilen.

Nummer 5: Inhalte mit Keywords vollstopfen

Nichts, aber auch wirklich gar nichts sagt soviel über eine „effektive Optimierung“ aus, wie das gewaltsame Einfügen von für Suchmaschinen relevanten Suchbegriffen in den eigenen Content:
„Sie suchen Katzenstreu, das beste Streu für Katzen, der Jahressieger 2011 für Katzenstreu…usw.“

Nicht nur die Lesbarkeit leidet, auch der Pagerank. Für die Zielsetzung dieses Artikels als allerbeste Vorraussetzungen, diese Maßnahme konkret anzuwenden!

Nummer 6: Die Meta-Tags mit Keywords vollstopfen

Wer die gewünschten Erfolge nach dem Konsequenten anwenden der ersten fünf Schritte nicht erreicht hat, der wird noch einmal einen Blick auf seinen HTML-Header werfen: Mehr ist besser! Zumindest wenn man dem ironischen Grundsinn dieses Artikels folgen will. Der ursprüngliche Zweck, mit einigen wenigen Worten eine Webseite zu beschreiben ist kein Grund, die Meta-Tags nicht bis zum ganzen Auszureizen. Ihr Google Crawler wird es ihnen danken!

Nummer 7: Den Page-Footer mit SEO Copy versehen

Früher ein eindeutiges Zeichen für eine Webseite die definitiv „professionell“ von einem Unternehmen durch einen SEO-Prozess gejagt wurde, waren doch die Footer, am Ende der Seite wo niemand, schon gar nicht ein User, sie jemals finden würde, wohl aber die Suchmaschinen, weshalb diese „Texte“ alsdann auch mit Suchbegriffen bis zur Unleserlichkeit gefüllt wurden. Und weil früher eben alles besser war, kann man diese Technologie auch heute noch sehr erfolgreich anwenden!

Nummer 8: Textpräsentation in Grafiken oder Scripts
Das Projekt nähert sich dem Abschluss und kaum eine andere Maßnahme als die, seine Inhalte sicher vor jedem Crawler, in einer Grafik zu verstecken. Dazu braucht man auch nur eines: Einen Grafiker oder Gestalter, der von Suchmaschinenoptimierung nun so gar nichts versteht. Davon gibt es viele – also ran an den Speck: Nichts schickt sie schneller auf den Grund aller Search Engine Result Pages als die Feststellung bei der Indexierung, das es keinen verwertbaren Inhalt gibt!

Das war der erste Teil unserer dreiteiligen Dokumentation über die „erfolgreichsten“ Wege, seine Seite für Google und andere Suchmaschinen zu optimieren. Wir hoffen, wir haben sie mit dieser freien Übersetzung gut unterhalten können und freuen uns, sie im zweiten Teil (hier nachzulesen am 11.7.2012) als Leser wieder zu gewinnen, wenn es heißt: „Wie man es eben nicht macht“!

 

SEOkomm 2012

Am 23. November 2012 ist es wieder soweit: die SEOkomm findet in der Brandboxx in Salzburg statt. Nach dem riesigen Erfolg der letzten Jahre als Konferenz für Suchmaschinenoptimierung und der Wahl zum zweitbesten SEO Event bei den SEO Wahlen 2011 werden auch in diesem Jahr Experten zum Austausch von Fakten, Erfahrungen und Neuigkeiten erwartet. Die Brandboxx in Bergheim bei Salzburg hat in 2011 die Teilnehmer begeistert. So wurde diese Location auch für die SEOkomm im Jahr 2012 ausgewählt. Die Lage an der A1 Westautobahn an der Ausfahrt 288, ausreichend Parkplätze und die hervorragende technische Ausstattung mit kostenlosem WLAN für Internetzugriff und Konferenzschaltungen bieten beste Voraussetzungen für eine erfolgreiche Durchführung der SEOkomm 2012.

Weiterlesen

Google Updates der Algorithmen

Unlängst holte Google in einem lange vorbereiten Update seiner Suchalgorithmen zum vermeintlich großen Schlag gegen die Betreiber von Linkfarmen und Keyword-Stuffern aus und bearbeitet die Darstellung der Suche für eine bessere Bedienbarkeit der Suchmaske und der Ergebnisseite: Mit ganzen 52 Änderungen, darunter viele Anpassungen im Detail, wie etwa die im folgenden erwähnten Updates und Bugfixes für die Google-Suche:

Das Update „Raquel“ setzt eine höhere Gewichtung der Sprache in Suchergebnissen durch, die sich für die Betreiber mehrsprachiger Angebote mit landesspezifischen Domains als sehr nützlich erweisen wird, da ein deutscher Google-Nutzer selten etwas mit dem französischen Angebot von Online-Händlern wie etwa Amazon anfangen können, selbst wenn er zum Zeitpunkt der Suche über eine französische IP-Adresse im Internet surft, wie es etwa im Urlaub oder auf Geschäftsreisen der Fall sein kann.

„ImpOrgMap2“ ist der Codename für das Update, das bei international agierenden Organisationen, ähnlich dem „Raquel“-Update, eine höhere Gewichtung auf die Länder-TLDs legt. Durch das Update mit dem Arbeitstitel „Sudoku“ werden zukünftig dann nicht nur mehr TLDs und Kategorien von Webseiten für die regionale Bewertung und dem Erscheinen relevant sein, sondern auch einzelne statische wie dynamische Seiten zu dieser Bereitstellung regionaler und sprachlicher Inhalte für die entsprechende IP-Ranges.

Die Vermeidung von doppelten Inhalten in der Suche besorgt das Update-Paket „Xirtam3“, da Inhalte in der Vergangenheit bei gespiegelten Content für eine Redundanz innerhalb der Suchergebnis-Liste eventuell passender, andersartige Suchergebnisse auf die hinteren Seiten verdrängt haben. Damit die Inhalte einer gewissen Qualität bevorzugt werden und nicht mehr nur allein Pagerank und Aktualität schwerwiegendes Ranking-Kriterium sind, wirkt „NoRot“ auf den Suchalgorithmus ein, ausgenommen davon sind jedoch als News-Portal klassifizierte Seiten, die von den Google-Spidern als solche erkannt werden: Diese Profitieren von den Update-Paketen „Sep“ und „Citron“. Diese erhalten dadurch einen Vorrang nach Aktualität und Pagerank.

Weiterhin weist das neue Google-Update einige Verbesserungen und Änderungen im Bereich der Usability auf. So wird die Instant Preview verkleinert dargestellt und nicht mehr Seiten füllend wie zuvor. Die Option SafeSearch, die es erlaubt, ungewünschte Inhalte, die eventuell nicht angemessen für den Arbeitsplatz (NSFW) sind, oder eben Gewaltdarstellungen und anders geartete Inhalte, wurde ebenfalls überarbeitet, um die Webseiten- und Bildersuche mit besseren Suchergebnissen noch präziser auf den Nutzer-Suchbegriff einzurichten.

Eine Vielzahl von Nutzern begegnen diesen Änderungen am Suchalgorithmus sehr kritisch, da die personalisierte Suche bereits zu unterschiedlichen Ergebnissen auf gleichartigen Plattformen und Systemen bei gleichen Suchbegriffen und Keywords. Auch die Abwertung von Webseiten, die nach dem Ermessen der neuen Richtlinien von Google übermäßige Optimierung auf die Google-Spider aufweisen, führte zu einer regen Diskussion über die Beliebigkeit der Maßnahme, da bisher unklar ist, nach welchen Parametern nun eine Neubewertung vorgenommen wird. Das hat vor allem eine große Unsicherheit im Bereich der Suchmaschinenoptimierer zur Folge, die mit der Änderung frühzeitig auf ihre Portalen und Angeboten reagieren müssen, um nicht zu Riskieren dass die Jahrelang erarbeiteten Erfolge und Ranking-Platzierungen durch dieses Update zunichte gemacht werden.

Auch das Google weiter nicht von dem Ranking-Kriterium der Backlinks absehen will, sorgt für gespaltene Meinung im Lager der SEO und SEM-Unternehmern und Mitarbeitern. Gerade Matt Cutts, ein Google-Entwickler als Personifizierung des Konzerns im öffentlichen und offiziellen Google-Developement-Blog für die meisten Nutzer greifbar wurde, musste harsche Kritik einstecken, stellvertretend für das Unternehmen. So wird Kritisiert, das die Linkspam-Penalties ungerecht angewendet werden und weiterhin eine große Dominanz der Linkfarmen und Pseudo-Results-Generatoren sich auch nach dem Update in den vorderen Rängen der Suchergebnisse finden lassen, wenngleich einzelne Portale wie „dooyoo“ starke Einbrüche in den Resultate zu verzeichnen hatten, sind es doch nur „Tropfen auf den heißen Stein“ für die empörten Administratoren und SEO-Agents, die sich von Google auch durch die Nichtsanktionierung von AdSense-beinhaltenden Seiten besonders generiert.

Es bleibt also ein bitterer Beigeschmack nach dem Update, wenngleich die Verbesserungen im Bereich der Nutzerfreundlichkeit und Präzisierung der Suchmaschinenergebnisse ein kleiner Lichtblick sind, bleiben die professionellen Suchmaschinenoptimierer vorerst auf der Strecke und müssen mit herben Einbußen rechnen, wenn sie nicht am Google-eigenen Marketing AdSense teilnehmen, so das der Eindruck entstehen könnte, Google zielte darauf ab, die Besucher auf die gesponserten Suchergebnisse in den Anzeigen sowie der internen Angebote von Google umlenken will, was einen massiven Eingriff in die schon bisher als kritisch betrachteten Gleichwertigkeit von Suchergebnissen, quasi einer Verletzung der Netz-Neutralität im kleinen und einer Beschäftigungstherapie für SEO- und SEM-Marketer im großen, um diese ihrer Erfolge zu berauben.

Im Resümee bleibt es abzuwarten, wie die SEO-Branche auf diese neuerlichen Veränderungen reagieren wird und ob es gelingt, die derzeit stattfindende Kaffeesatzleserei und Mutmaßung über die neuen Bewertungskriterien der Suchmaschine in handfeste Ergebnisse und Maßnahmen, schlussendlich in Richtlinien für die Optimierung für das Erfassen durch Google-Spider umzusetzen. Im positivsten Fall bedeutet dass das Abdanken der Linkfarmen und Linkgrabber als dominierende search results und eine Umwandlung der Webseitengestaltung zurück auf den Nutzer, nicht mehr nur auf den Suchalgorithmus.