Beiträge

Ein halbes Jahr „Google Penguin“ – Teil 4

Teil 4 – Auch beim Pinguin bleibt verboten was bereits verboten war…

…und deshalb behält Herbert Grönemeyer wieder einmal Recht:“Es bleibt alles anders, du kannst nur Gewinnen!“.

Im Grunde nämlich liest sich die Aufzählung besonders hervor gehobener Punkte zunächst einmal nach nichts besonderem. Lediglich die Überoptimierung in den Sanktionierungs

Keywords als Stopfen für blankspace – Auch nach dem Update die schlechteste Alternative zu hochwertig designten Content

Der Ankertext ist eine beliebte Form der Suchmaschinenoptimierung, Jedoch birgt dieses Element großes Potential für dreierlei gleichermaßen:
Es folgt ein Beispiel zu Bildungszwecken! Für den Missbrauch als Waffe gegen ihre Konkurrenz, der sie mit widersinnigen Keywords im Ankertext den Ausbau der ihrer relevanten Keywords erschweren zum anderen als spitzenmäßige Chance aufgrund der Feststellung einer unnatürlichen Linkstruktur ihre ersten Erfolge im SEO schnellstmöglich postwendend wieder abzugeben oder aber indem sie nur wenig Fantasie beweisen und die geringe Variation in den von ihnen Platzieren Keywords in Ankertexten führt unweigerlich zum Feststellen der künstlichen Linkstruktur und somit auch zu einer Abwertung rechnen dürfen.

Wichtig ist bei der Verwendung von Ankertexten die beständige Ermahnung daran, dass die Schemata ihrer Optimierung per Ankertext immer und jeder Zeit darauf grundlegend basieren muss, das sie möglichst detailgetreu eine organische, das heißt natürliche, Linkstruktur zu imitieren versuchen um die positiven Effekte dieser Form der Formatierung von Schwerpunkten im fließenden Content auch auf mittlere bis lange Fristen halten zu können. Die Anzahl der von ihnen gefahrlos zu platzierenden Verlinkungen mit Ankertext hängt maßgeblich von dem Vertrauen ab, das ihnen per Algorithmus zugestanden wird und als „Trust“ bekannt ist.

Ankertexte und Analytik – das eine kennt die Schwächen des anderen Der Algorithmus erhält eine Datenbankschnittstelle zur Musterabgleichung

Weiters gehören zu die Verfeinerungen der mit dem „Penguin“-Update einhergehenden analytischen Fähigkeiten sowie der weiterentwickelten Indikationsmessung und Mustererkennung anhand dieser die Prüfroutine des Algorithmus mit äußerst hohen Erkennungsraten aufwartet und gerade bei, vor allem in der Zwischenzeit beliebt gewordenen, Methoden der relativen geringen Chance einer Aufklärung bis zur vorigen Iteration diesen illegalen Maßnahmen zur Manipulation der Suchergebnisse und Bewertungen nun einen Riegel vorschiebt.

Der gesteuerte Aufbau des PageRank ihrer Webseite durch die Planung und Umsetzung einer Backlink-Struktur von vorrangigen Webseiten, welche einen hohen PageRank von 7 oder 8 aufweisen. Da diese Backlinks der Vermutung nach selten durch eine natürliche Anbahnung zustande kommen setzen sie sich Gefahr aus, Aufgrund der Manipulation ihres PageRank neben der Abwertung auf einen niedrigen Wert der in krassen Fällen auch PR0 bedeuten kann, sondern liefern auch Anhaltspunkte für genauere Überprüfungen, sollten sich ihre Backlinks ausschließlich aus im Zuge von enttarnten Linkfarmen zum Verkauf von Backlinks zusammen stellen.

Der Öko-Pinguin: Aufbau von PageRank und Backlink-Strukturen: Bitte nur natürlich

Mit dem Abrutschen in ein eingeleitetes Bewertungsverfahren durch die Google Quality Rater setzen sie sich der Gefahr aus die bisher erreichten Erfolge durch negatives Feedback der Prüfer zu verlieren und können sich daher schnell am Anfang ihrer Bemühungen wiederfinden, bei der ihnen nur eines garantiert bleibt: Eine zeitgebundene Penalty für den Handel mit Backlinks, als deren Käufer sie entlarvt wurden. Beachten sie darüber hinaus, dass es wie bei der Analyse der Entwicklungskurve des Wachstums ihrer Backlink-Strukturen zum Standardprocedere der Prüfmethoden des „Penguin“-Algorithmus gehört. So besteht die Möglichkeit, das im Rahmen der regulären Prüfung der plötzlicher Anstieg ihres PageRank festgestellt wird, und dieser sich durch die Verlinkung von einer Vielzahl von thematisch nicht mit den auf ihrer Seite behandelten Themen verwandten Quellen schnell eine Penalty bis hin zur Abwertung des Rankings hageln kann.

Als guter Tipp für sie: Linkfarmen werden aufgrund überlegener Erfolgsraten bei der Erkennung oftmals schon im Aufbau aus dem Verkehr gezogen, im allgemeinen ist ihnen heutzutage generell keine lange Überlebensdauer beschert. Verschwenden sie daher ihr Geld nicht in die Investition von Backlinks aus der Hand von Linkverkäufern sondern setzen sie auf natürliche Entwicklung und versuchen durch eigene Leistung „saubere“ Backlinks für den Aufbau von PageRank und Backlink-Strukturen zu gewinnen. Diese haben zumeist vor allen Dingen eine höhere Lebensdauer, als die Links aus Linkfarmen die ihnen, wenn überhaupt für einen Turnus bis zur Neubewertung, bei der ihre gekauften Backlinks fehlen werden, versprochen, zu einem besseres Ergebnis verhelfen werde.

Die Zeit der Linkfarmen ist endgültig vorüber geblieben sind schnelllebige Betrüger – auf der Suche nach dem schnellen Geld

Mit der Anbindung an die hauseigenen Datenbanken, stehen die vollständigen Ergebnisse sämtlicher, jemals erfasster Webseiten zur Analytik zur Verfügung. Um sie für den Abgleich der Entwicklungen nutzen zu können, erhielt die Iteration des „Penguin“-Algorithmus einige mächtige Schnittstellen. Das man ihm zudem eine verbesserte Musterdatenbank für Manipulationsversuche verpasste, sollte der größte Clou werden: Dieser Crawler lernte nicht, er kombinierte. Und das mit Erfolg!

Diese Bereiche erfuhren nun mit, mit den Auswirkungen des Penguin-Update die vollen Breitseite der strikten Anwendung der Google Webmaster Guidelines und aller Maßnahmen zur Sanktionierung, die der neue Algorithmus hergab um die Neuordnung der Rankings in den SERPs von Google möglichst schnell vonstattengehen zu lassen. Man könnte fast von einem chirurgisch-präzisen Schnitt sprechen, der beim Roll-Out von Google durchgeführt wurde – Einem Schnitt, der sich vor allem gegen die eigenen Zöpfe richtete, derer man über die Jahre leidlich geworden war.

Das war der vierte und letzte  Teil unserer Serie Ein halbes Jahr „Google Penguin“.

Die komplette Serie finden Sie hier:

 

Ein halbes Jahr „Google Penguin“ – Teil 3

Teil 3 – Kaum auftretende Kollateralschäden aber eine Serie Volltreffer bei verborgenen Black-Hat SEOs – die sich dann auch noch beschweren!

Nachdem sich also der Staub gelegt hat und nach knapp einem Monat, der seit dem Beginn der operativen Phase des „Penguin“-Update verstrich bis die korrekte Kalibrierung und Nachsteuerung durch die Entwickler abschließen konnten und daraufhin langsam aber sicher wieder eine gewisse Normalität in den Alltag in der Arbeit mit der Suchmaschine einkehrte.

Entgegen der Unkenrufe blieb der große Crash, den so mancher Gegner des „Penguin“-Updates sich herbei wünschte, um wenigstens ein bisschen Genugtuung zu verspüren. Denn alles in allem war das gesamte Update erstaunlich geschmeidig über die Bühne gegangen. Bei der Umstellung aus die neue Iteration blieben größere Ausfälle aus, und bis auf wenige Stunden war Google lediglich zeitweise für wenige Minuten nicht zu erreichen, bzw. bearbeitete keine Anfragen über die AJAX-Oberfläche der Suchmaschine.

Ich halte daher fest: Die Erde rast noch immer in einem ganzen Stück durch den luftleeren Raum, sich dabei in einer ellipsenförmigen Bahn in Rund 365 Tagen pro gleichmäßig aufgrund der Achsrotation sich nach wie vor von allen Seiten bräunt, weder Saddam Hussein noch Kim-Jong Il aus ihren Gräbern auferstanden sind dürfte man wohl mit Fug und Recht behaupten: Mission accomplished. Dann können wir uns nun ja dem Welthungerproblem und der Heilung von Krebs und AIDS zuwenden, ja?

Kollateralschäden durch das Penguin-Update fielen verschwindend gering aus

Die tatsächlichen Kollateralschäden unter den Betroffenen der neuen Sanktionierungspolitik des Algorithmus, welche durch eine ungünstige Konstellation von zuvor vielleicht Ermahnten aber nicht bestraften Maßnahmen profitiert hatten, welche im Rahmen ihrer ersten Überprüfung nach den Vorgaben der neuen Richtlinien aber eine Querindikation gebildet hatten und diese als Manipulationsversuche angerechnet und den damit eintretende Konsequenzen ausgesetzt worden waren. Fälle, von denen man mit guten Willen von einer „Abwertung ohne Schuld“ hätte sprechen können. Sie sind tatsächlich die einzigen, die durch eine ungünstige Verstrickung, zwar mit eigenem Schuldanteil, dessen Umfang nicht verdiente, von einer organisierten Manipulation der SERPs zu reden, und in diesem Zuge echte Nachteile durch den Paradigmenwechsel hinnehmen mussten, meist aus heiterem Himmel.

Allerdings die Majorität der Projekte, welche sich Aufgrund der lang erwarteten und nun eingetretenen Sanktionierung von grauen bis dunkelgrauen Optimierungen ausgesetzt sahen, hatten auf der Basis einer vorsätzlichen Vorteilsnahme zugunsten des Rankings und im Wettbewerb um eine gute Platzierung ihrer Webseiten auf den keywordrelevanten SERPs der Suchmaschine die Folgen ihres Handelns ganz bewusst in Kauf genommen, als ihre Methoden noch als „narrensicher“ galten und im schlimmsten Falle ermahnt, nur selten jedoch tatsächlich bestraft wurden, wenn dann nur in symbolischen Rundumschlägen, die vorrangig durch die menschlichen Mitarbeiter der Google Inc. vorbereitet und geführt wurden.

Das vorläufige Ende einer goldenen Ära für Black-Hat SEOs – Auch „Grey Hat“-Maßnahmen werden zunehmend weg sanktioniert

Mit der Iteration der verbesserten Indikation und Feststellung von bisher unerkannten oder aufgrund der Fehlerquoten vergangenen Algorithmen zwangsweise tolerierten Maßnahmen, die rein nach den bisherigen Richtlinien für Webmaster weder ausgesprochen legal noch illegal waren, wurden nahezu alle Maßnahmen zur „Grey Hat-SEO“ als zu sanktionierende Verstöße gegen die Richtlinien klassifiziert. Dazu zählen die Verwendung von Techniken welche unter das „Cloaking „ fallen, insbesondere der „Cloaking Pages“, das Kaufen und Verkaufen von Links zum Aufbau künstlicher Backlink-Strukturen ebenso wie die Feststellung von Inhaltsduplikaten, bei denen festgestellt wird, das sie nicht die originale Quelle sind da der Inhalt an anderer Stelle bereits zu einem früheren Zeitpunkt von einem Crawler indiziert wurde.

„Keyword stuffing“ ist und bleibt weiterhin „Black-Hat“-SEO

Die, gerade in den frühen Jahren der Suchmaschinenoptimierung beliebte Technik des „keyword stuffing“ wird bei Feststellung eines Befundes grundsätzlich mit einer Penalty geahndet. Ob sich ein SEO-Professional des „keyword stuffing“, also der möglichst dominanten Platzierung von Keywords bis zur Ausprägung des wortwörtlichen „Vollstopfens“, schuldig gemacht hatte, wird anhand eines Wertes, welcher sich aus einer Berechnung der unter Verdacht des „stuffing“ stehenden Suchbegriffs und dem dazu im Verhältnis stehenden restlichen Menge Content in Textform.

Die Grenzen zwischen der professionellen Platzierung von Keywords und dem Übergang der als Methode des „Black Hat“-SEO betrachteten „keyword stuffing“ sind je nach Definition fließend, manche Quellen werten den Akt des „stuffing“ unter einer Bedingung als „weiße SEO“: Die Methode muss aus den richtigen – hier wohl gerechten – Gründen angewandt werden. Nichts desto trotz hat die Feststellung von „keyword stuffing“ eine automatisierte Sanktion zur Folge, weshalb sie die Verhältnismäßigkeit der von ihnen in den Content eingebetteten Suchbegriffen lieber zweimal Überprüfen, ehe sie ihn freigeben. Eine besondere Form dieser Violation bezieht sich auf das „vollstopfen“ der META-Bereiche mit einer übermäßigen Anzahl an Suchbegriffen. Diese Methode hat jedoch seit der ersten regelmäßigen Abstrafung der Ergebnisbezogenen Manipulation auf diesem Wege keine nennenswerte Verbreitung mehr erreicht, da sie zu offensichtlich ist.

Ja, lernen sie es denn einfach nicht?
Viele Violations der Webmaster Guidelines finden noch immer durch Maßnahmen im META-Bereich statt

Lesen Sie nächste Woche einen weiteren Teil der Serie Ein halbes Jahr „Google Penguin“

Die komplette Serie finden Sie hier:

Ein halbes Jahr „Google Penguin“ – Teil 2

Teil 2 – Die Klagementalität der Vollkasko-Deutschen/Österreicher & die Entschlossenheit hinter Penguin

Das die deutschsprachige SEO-Branche einen ausgeprägten Hang zur Klage auf hohem Niveau entwickelt hat, lässt sich bereits mit den ersten fünf Suchergebnissen, welche auf szenetypische Blogs verweisen, relativ schnell feststellen. Jedoch ist es schwer, ihnen genau das zu verübeln. Über Jahre hinweg konnten sie in weitgehender Symbiose mit der Suchmaschine Google ihre Dienstleistungen anbieten und es entwickelte sich aus Amateuren zunehmend ein Geschäftsfeld, das zumindest den Aufstieg zu semiprofessionellen Suchmaschinenoptimierern mit dem wachsenden Umfang ihrer Aufträge und der Wichtigkeit ihrer Tätigkeit einherging und diesen Pionieren fast ein ganzes Jahrzehnt lang ein auskömmliches Habitat geboten hatte.

Mit dem immer näher rückenden Termin für den Roll-Out der aktuellen Iteration des Google Suchalgorithmus mit dem Projektnamen „Penguin“, welcher im April 2012 in Betrieb genommen wurde, gewann die zunächst nur diffus wahrgenommene Nervosität immer deutlicher Gestalt an. An die Stelle der ausgearbeiteten Modelle zur technischen und inhaltlichen SEO würde ein Faktor treten, der sich durch seine Vielschichtigkeit und die in schon „per se“ unkontrollierbare Natur kaum zu einer ergebnisorientierten, messbaren Optimierung eignete: Der Faktor Mensch.

Der Mensch. Eine Variable ohne Konstante, eine unkontrollierbare Schwarmintelligenz und freie Radikale. Alleine der Gedanke an diese Umkehrung der Verhältnisse, die bis dato aus berechenbaren Konstanten bestanden hatte, trieb die Wut in die von einer bösen Ahnung gepackten SEO-Professionals. Eine Wut, der sie in Blogs und Kommentarspalten reichlich Dampf ließen und damit schnell die Grenze der Vernunft als auch der Glaubwürdigkeit überschritten – Spätestens mit dem Aufkommen der Verschwörungstheorien gegen die Branche begann der Ruf derselben in der Wahrnehmung Außenstehender zu leiden.

Google zeigt Zähne und signalisiert Entschlossenheit für die Umsetzung des „Penguin“. Unweigerlich als Folge dessen das Ende der klassischen Suchmaschinenoptimierung?

Von der anderen Seite betrachtet, die sich nicht mit einem gefälligen Wording umgab, stand der Umkehrschluss der neuen Ausrichtung der Kriterien von Google, die Matt Cutts als Chef der Qualitätssicherung in einem Interview ohne beschönigende Umschreibungen verdeutlichte, dass die Konsequenzen der Nonkonformität mit den zukünftigen Webmaster Guidelines und den Parametern der Erfassung, Indexierung und Bewertung von Webseiten nach Inbetriebnahme der neu entwickelten Iteration des Algorithmus spürbare Auswirkungen auf bestehende Rankings haben werden, ohne jeden Bestandsschutz.

Durch die im Vorfeld bereits deutlich von Google kommunizierten Maßnahmen, welche mit der Umsetzung der neuen Iteration des Suchalgorithmus einher gehen werden, äußert sich das Bestreben des Suchmaschinenbetreibers, durch frühe Konditionierung der Betreiber von Internetseiten und ihrer Webmaster um eine möglichst reibungslose Akzeptanz und Annahme der künftig teilweise sehr knapp definierten Grenzen und Toleranzen innerhalb derer eine Webseite sich bewegen kann und gleichzeitig die Einhaltung der Google Webmaster Guidelines gewährleistet ist.

Die Bereitstellung hochwertiger Qualitätsinhalte, welche in eine intuitiv zu bedienende Webseitenumgebung eingebettet werden, bildet das zukünftige Ideal einer erfolgreichen Webseite, deren Erfolg und Anerkennung durch die Nutzer sich ebenfalls in seinem Ranking widerspiegelt. Zur Bemessung eines Webseitenrankings werden zur neben bekannten Grundparametern unter anderem auch Datensätze mit Bezug auf das Nutzerverhalten hinsichtlich Verweildauer, abgerufener Pages, Empfehlung durch den „+1“-Button oder der Verbreitung über soziale Netzwerke bei der Ergebnisfestlegung berücksichtigt.

Ein neues Ideal wird definiert – SEO ade? Eine Webseite, welche ausschließlich für ihre Benutzer optimiert wird

Verstöße gegen die neue Agenda werden zumeist durch automatisierte Penaltys umgesetzt, welche umgehend nach Feststellung eines Verstoßes in Kraft treten und im Normalfall aufrecht erhalten werden, bis die Richtlinienverletzung durch Entfernen des dafür ursächlichen Elements behoben wurde. In Wiederholungsfällen oder im Falle von Webseiten, deren Domain erst vor kurzer Zeit angemeldet wurde, können höhere Eskalationen der Sanktionierung greifen. Webseiten, die notorisch in kurzer Zeit durch eine Vielzahl von Verstößen gegen die Webmaster Guidelines auffallen müssen mit der temporären oder permanenten Entfernung aus dem Suchregister von Google rechnen.

Der permanente Ausschluss aus dem Google-Index bezieht sich, nach wie vor, vor allem auf Verletzungen der Richtlinien zur Eindämmung der Manipulation von Ergebnissen auf Google SERPs, dem Bereitstellen und Vermitteln von Inhalten, welche als Anleitungen oder Planspiele erkannt wurden und die Methoden zur Anwendung illegaler Methoden zur Manipulation behandeln. Weiterhin kann führt eine Indikation, welche auf einen erfolgten Hackerangriff auf ihre Webseite und die potentielle Übernahme der Webseite zu einem sofortigen Ausschluss und zieht ein vorläufig permanentes Blacklisting ihrer Webseite nach sich.

Es wird erwartet das bereits wenige Stunden nach der Initialisierung der aktualisierten Iteration des Suchalgorithmus eine Vielzahl von Webseiten mit Sanktionen belegt werden, die im Vorfeld die Chance verstreichen haben lassen, vorhandene Altlasten der SEO ihrer Webseite zu entfernen oder Abzubauen, bevor die Umstellung auf die neue Sanktionierungspolitik und den erweiterten Richtlinienkatalog der Webmaster Guidelines abgeschlossen wurde.

Doch ein Google Quality Rater die Überprüfung im Einzelfall vorgenommen hatte. Man hatte sich schlichtweg zu sicher gefühlt. Eine trügerische Sicherheit, die nun in sich zusammen fiel.

Der neue Algorithmus kam, wie er angekündigt wurde: Hart und Schnell. Die konsequente Durchsetzung der Google Webmaster Guidelines wurde nun Realität

Viele Betroffene Webmaster berichten öffentlichkeitswirksam auf den Fach-Blogs, in Webforen und Kommentarspalten anderer Blogs, dass sie noch immer an den Folgen des Updates arbeiten um die automatisch auferlegten Penaltys und ihrer Vergabegründe zu beheben und klagen ihr Leid oftmals sehr unsachlich, dafür mit umso größere „Leidenschaft“, welche für sie bei der Ausübung ihrer Tätigkeit als Suchmaschinenoptimierer so hoch im Kurs steht.

Manche Vertreter der SEO-Branche ergehen sich gar in dem Herbeireden eines „Krieges der Suchmaschine gegen die SEO-Professionals“ und ähnlicher, haltloser Verschwörungstheorien welche seit April geradezu virale Ausbreitung erleben und derer sich selbst die Betreiber populärer SEO-Blogs nicht zu erwehren vermögen und dem Glauben an krude Strategien des Google-Konzerns zur Beseitigung der SEO-Branche als „Money leak“ zu erliegen. Bei genauerer Betrachtung jedoch ergibt sich schnell, dass die Webseiten der lautesten Klageführer gegen die neue Politik die Post-Penguin-Ära der Suchmaschine Google am gröbsten verstoßen haben.

Da Google Penguin jedoch ein reines Update des Algorithmus war, liefen ebenso alle „Reconsideration Requests“ an das Google Webspam Team folgerichtig mangels Zuständigkeit ins Leere und die Webmaster sind gezwungen – so sie denn am Erhalt der sanktionierten Domains interessiert sind – konsequent ihre erkauften und künstlich konstruierten Backlink-Strukturen abzubauen um am Ende dieses Prozesses bei einem Neubeginn des Aufbaus einer Reputation für ihr Projekt zu stehen.

Auf tönernen Füßen gebaut: Verbrannte Domains, verbrannte Träume. Viele Scheiterten an ihrem eigenen Hochmut und dem Glauben an ihre Unverletzbarkeit

Lesen Sie nächste Woche einen weiteren Teil der Serie Ein halbes Jahr „Google Penguin“

Die komplette Serie finden Sie hier:

Ein halbes Jahr „Google Penguin“ – Teil 1

Teil 1 – Was war, was ist: Wenig hat sich geändert.

Sechs Monate sind mittlerweile seit April verstrichen, seit dem Google zur Verbesserung seiner Suchergebnisseiten angesetzt hatte und mit dem Algorithmus-Update Penguin eine der größten Veränderungen seiner Bewertungskriterien und der Erfassung vollkommen neuer Relevanzkriterien den Schritt wagte, sowohl den grassierenden Manipulationen von Suchergebnissen durch „schwarze SEO“ eben wie dem Webspam den Kampf ansagte – und sich damit den Unmut eines nicht geringen Anteils der SEO-Branche zuzog welche für den Erhalt des Status quo skandierte, in dessen relativer Stabilität es sich die Optimierer gemütlich gemacht hatten.

Welchen Impact das Update auf die SEO-Branche tatsächlich hatte, das scheint bisher unausgesprochen, als traue sich niemand das Thema auch nur mit der Zange anzufassen.

Auch ist es um die Diskussionen, die noch bis in den späten Mai hinein die Gemüter in der SEO-affinen Blogosphäre erhitzten, erstaunlich still geworden und selbst Fälle des zu erwartenden Nachtretens einzelner Blogger gegen die überwältigende wie auch unausweichliche Veränderung, welche soviel Unmut und Unruhe bei vielen „Fachleuten“ erzeugte, blieb erstaunlicherweise aus.

Diese eigenartige Stille veranlasst mich, in den folgenden Artikeln eine mögliche These zur Ursächlichkeit dieser ausbleibenden Reaktion aufzustellen und nach einem halben Jahr Bilanz zu ziehen, wie sich die SEO unter den Richtlinien des Eingangs umstrittenen Algorithmus, der mit dem Roll-Out von Google Penguin in Betrieb genommen wurde, entwickelt hat, um Anhand der gewonnenen Erkenntnisse die Lage der SEO-Branche einzuschätzen.

Auf Worte folgen Taten – Google realisiert eine umfassende Erneuerung des Algorithmus dessen Auswirkungen lange vor Roll-Out bekannt waren

Das Google den Suchalgorithmus im Zuge des Roll-Out von Penguin anpassen würde, war bereits sei langem bekannt, denn bereits nach dem Panda-Update in 2011, dessen Schwerpunkt bereits im Kampf gegen den Webspam lag, wurde offen von der zukünftig tendenziell stärker ausfallenden Bekämpfung von Spam und den Methoden der „Black-Hat SEO“ gesprochen. Das Update kündigte immerhin einen Wechsel der Paradigmen in der bisherigen Funktionsweise und Schwerpunktlagerung der Suchmaschine an und Google machte daraus kein Geheimnis.

Es hatte, das konnte man der damaligen Reaktion weiter Teile der SEO-Branche entnehmen, nur schlichtweg niemand den Vertretern des Konzerns abgenommen. Niemand schien zu glauben, dass Google mit Penguin tatsächlich ernst machen würde, schließlich wurde eine Verschärfung von Richtlinien und Ranking-Kriterien quasi alljährlich mit jedem neuen Update angekündigt, doch blieb eine ausschlaggebende Veränderung im Tagesgeschäft für die Branche mit Ausnahme der kurzen Phase der Anpassung wenn es einmal doch zu einer Änderung kam, dessen Auswirkungen auch für die SEO-Professionals bei der Ausübung ihrer Arbeit spürbar waren.

Jene, die der erneuten Kampfansage keinen Glauben schenkten und dem Konzern nicht abnahmen endlich Konsequenz beim Umgang mit Webspam und illegitimer SEO zu zeigen, geschweige denn einer partiellen Neuausrichtung des Suchalgorithmus, waren es genau diese Zeitgenossen, welche in Folge am lautesten Klage gegen das Unternehmen führten, spätestens als sich die Änderungen am Suchalgorithmus dann auch in den Rankings und auf den SERPs bemerkbar machten. Und sie feststellen mussten: „Dieses Mal macht Google ernst!“.

Mit einer Portion Empathie für die revoltierenden SEO-Professionals und die Situation aus deren Augen betrachtet erscheint die Ablehnung tiefgreifender Änderungen in einem über Jahre hinweg nahezu unveränderten beruflichen Umfeld als wenig attraktiv. Ziehe ich einen gewissen Hochmut mit ein, hatte man doch schließlich die Branche erst durch seine Arbeit definiert, ja geradezu Erfunden, fällt es mir leicht, die Gefühlswallungen als Mensch zu verstehen, wenngleich ich sie aus professioneller Sicht strikt ablehne.

Es bleibt subjektives Mitgefühl für die revoltierenden SEO-Professionals. Objektiv ist Penguin jedoch eine alternativlose Notwendigkeit für die Zukunft

Jedoch vom Standpunkt einer objektiven und möglichst wertfreien Warte waren die vorgebrachten Argumente der offiziellen Repräsentanten des Suchmaschinenkonzerns schlagend und ergeben sich als logische Weiterentwicklung der Algorithmen als vollkommen selbstverständlich, da sich mit den neuen Technologien der vergangenen Jahre und der Etablierung dieser, auch vollkommen neue Möglichkeiten einer immer präzisieren und durchdachten Methodik zur Erbringung von Suchergebnissen in höheren Qualitäten auftaten, welche die Auswertung der Daten sozialer Netzwerke bis auf die Individualebene hinab erlaubte, die in künftigen Ausgaben auf Suchergebnisseiten Berücksichtigung finden sollte.

Umso sinnvoller erscheint es daher, im nächsten Schritt die bisherigen Inhaltskonzepte abzulösen, da diese sich ausnahmslos an den Notwendigkeiten einer größtmöglichen Anpassung der optimalen Indexierung durch die Suchmaschine ausgesetzt sah. Der eigentliche Konsument, der Mensch, fiel bei diesem Konzept nämlich auf die hinteren Plätze zurück, weshalb die Ablösung der technischen Inhaltsgestaltung nur durch eine Neuausrichtung der Content-Gestaltung mit dem menschlichen Nutzer als Mittelpunkt der Aufmerksamkeit zwingend erfolgen musste.

Förderung der Qualität von bereitgestelltem Content als zukunftssicheres Modell. Das Vorgehen gegen Webspam und Black-Hat SEO wird konsequent in die Tat umgesetzt

Diesem Konzept folgte sodann die Verlagerung der im Rahmen des Rankingprozesses neu definierten Relevanz-Kriterien bei der Bewertung von Web Content, der die Ausrichtung auf hochwertige und keyword-relevante Inhalte, besonders aus fachkundiger oder anderweitig qualifizierten Quellen mit einer positiven Entwicklung der Platzierung in den SERPs, zuzüglich von Modifikatoren durch soziale Elemente wie Empfehlungen, Verweilzeit und Teilen der Inhalte auf Plattformen sozialer Netzwerke, anhand derer eine Prädiktion der Relevanz des bereitgestellten Inhalts präziser dargestellt werde könnte. Gleichzeitig würde mit dieser Änderung in der Verfahrensweise ein sanfter, wenngleich unausweichlicher Anpassungsdruck hin zur neuen Inhaltskonzeption erzeugt, der die Zielsetzung in einen greifbaren Zeitraum fassbar werden ließ und somit Erfolg in der Umsetzung versprach.

Durch den Einsatz weiterentwickelter Prüfmethoden würde der Suchalgorithmus mit höchsten Erkennungsraten und Fehlindikationen im niedrigen Promillebereich in die Lage versetzt den neuartigen Formen der Manipulation von Suchergebnisplatzierungen, die vorherige Versionen nicht zweifelsfrei feststellen konnte, erfolgreich entgegen zu wirken. Automatisierte Prozesse führten sodann nach Feststellung eines Manipulationsversuches in Echtzeit zur Einleitung von Sanktionen, gegebenenfalls auch der Übergabe an die Prüfer des Google Webspam Team um eine langfristige oder permanente Ausgliederung der Erfassten Webseite aus dem Suchindex von Google zu veranlassen.

Eine fehlerfreie Erkennung von Manipulationsversuchen und unnatürlicher Entwicklungsmuster verbessert die Konsistenz der Google SERPs

Mittels Datenabgleichs würde der Algorithmus in der Lage sein, eine zuverlässige Erkennung von unnatürlichen Entwicklungsmustern beim Aufbau der Backlink-Strukturen zu prüfender Webseiten durchzuführen und somit jede Form von Manipulationsversuch bereits im Entwicklungsstadium zu erkennen noch bevor die zur Manipulation ausgerichtete Webseite einen Einfluss auf die Qualität der Suchergebnisse im vom Optimierer angestrebten Zielbereich nehmen könnte.

So präsentierte sich mir der langfristige Plan zur Entwicklung zeitgemäßer Erhebungsmethoden und Verhinderung von manipulativen Einflussnahmen, die das Gebrauchserlebnis als unausweichliche Schnittmenge der Google zugrunde liegenden Methode schmälerte. Ein Plan, der hinter den eingreifenden Veränderungen unter dem Projektnamen „Penguin“ steckte und die Konkurrenzfähigkeit und Qualitätssicherung der von Google bereitgestellten Suchergebnisse auch in naher Zukunft sichern sollte.

Lesen Sie nächste Woche einen weiteren Teil der Serie Ein halbes Jahr „Google Penguin“

Die komplette Serie finden Sie hier:

Die 30er-Zone des SEO – Backlink-Strukturen

Die „natürlichen“ Wachstumsraten von Backlink-Strukturen

30iger Zone fuer SEOsDas Wachstum der Backlinks sind seit „Penguin“ bildlich gesprochen die 30km/h-Zone der SEO, doch dabei bleibt es nicht: Mit Radarfallen, Blitzern und fest Installierten Bodenkrallen. Maßnahmen, die jeden Temposünder entweder teuer zu stehen kommen oder von 100 auf 0 zum Stillstand bringen.

2012 war für die Webspammer ein Jahr hart am Wind – Mit einer besonderen Erbarmungslosigkeit geht man auf Seiten von Google gegen sie vor, nachdem sie in der Vergangenheit immer wieder die Ergebnisseiten der Suchmaschine durch manipulierte PageRanks und Backlink-Strukturen manipuliert hatten. Ihr kommen und gehen, welches von tage- und wochenlangem Chaos in den SERPs von Google begleitet wurde, ertrug man auf ähnliche Weise, wie ein Bauer auf einer Hallig die Gezeiten und ihre Unbillen ertragen würde: Als gegebenen Umstand. Bis ein Pinguin diesen Umstand ändern würde.

Der PageRank, früher Herzstück des Ranking-Verfahrens der Google Suche ist ebenso wie das Erzeugen einer wachsenden Relevanz von Webseiten mittels des Aufbau von Backlink-Strukturen seit jeher Brot und Butter jedes SEO-Professionals. Unbestreitbar jedoch auch zum „täglich‘ Brot“ zwielichtiger Linkverkäufer und Online-Betrüger. Diese machten sich die Fehler im Design der Ranking-Faktoren zunutze und verdienten sich durch den Verkauf von abgehenden Backlinks manipulierter Webseiten eine goldene Nase.

Das geschah zum Leidwesen der Verbraucher als auch Professioneller gleichermaßen. Über Jahre hinweg waren doch die Lücken bekannt und mehr als plakative Aktionen in Form von regelmäßigen Massen-Lock-outs eindeutig manipulierter Webseiten blieben die einzige Form, deren Wirksamkeit verschwindend gering ausfiel. So erschien es wie das Anpreisen von altem Wein in neuen Schläuchen, als Google auch vor dem „Penguin“-Update wie üblich den großen Schlag gegen die Manipulation des PageRank und unnatürlichen Entwicklungen von Backlink-Strukturen auszuholen. Das gelangweilte Gähnen wich spätestens am 24.April 2012 einem erschrockenen Ausruf: Nach dem Roll-out wurde klar, dass Google es dieses Mal ernst meinte.

Angekündigt: Ja! – Erwartet: Nein! – Erschrockene Reaktionen, als Google mit seinem „Penguin“ für Ordnung sorgte

Seit dem Roll-out der 2012er-Iteration des Kernstück der Suchmaschine findet eine neue, strengere Überprüfung statt: Das Wachstum von Backlink-Strukturen wird in einem Abgleich mit vergangenen Werten verglichen. Verlässt die festgestellte Wachstumsrate dabei einen von Google definierten Normbereich abzüglich der Toleranzwerte, spricht man Seitens Google von einem „unnatürlichen Wachstum“, welches mit einem Manipulationsversuch gleichgesetzt wird und zu einer automatisierten Sanktionierung der betroffenen Webseite führt. Zumeist werden diese Penaltys nach einem Rückbau auf das von Google vorgesehene Maß und dem Absitzen einer Zeitstrafe wieder aufgehoben.

Im besten Falle. Denn bei der Eskalation ist noch reichlich Luft nach oben: Denn in Fällen extremer Abweichungen kann es dabei durchaus zur vorläufigen Komplettsperrung einer Domain und ihrem Ausschluss aus dem Index der Google Suche kommen, da hier vermeintlich Zweifelsfrei von einem Manipulationsversuch ausgegangen werden kann. Ein solches Verhalten führt entsprechend der Google Webmaster Guidelines zu einer Vollsperrung samt Ausschluss aus dem Suchindex und

Ein halbes Jahr Bewährung – „Sandbox“ heißt die Stille Ecke, in die zu strebsame Start-Ups gestellt werden

Denn unter besonders scharfer Beobachtung stehen jene Domains, welche zum Zeitpunkt des erstmaligen Crawls ein Alter aufweisen, welches kleiner als ein halbes Jahr ist. Sie erleben in ihrer Entwicklung einen „Sandbox“ genannten Penalty-artigen Effekt, welcher als Maßnahme zur Eindämmung der grassierenden Flut an Spam-Bots früherer Tage dient. Diese autark agierenden Scripts und Bot-Netze richteten in der Vergangenheit immer wieder neue Domains und Spam-Webseiten ein und erhielten durch den umgehenden Eingang von Backlinks aus einem Pool an Domains, was unmittelbar zur Vergabe eines hohen PageRank führte – Unberechtigterweise, versteht sich.

Um die Kontrolle über diese massiven Manipulationen zu gewinnen, wird das Wachstum der Backlinkstrukturen von jungen Domains den Zeitraum von etwa 6 Monaten besonders streng beobachtet. Registriert Google bereits geringste Abweichungen im Wachstum der Backlinkstruktur, wird diese zumeist umgehend in eine „Sandbox“ verschoben. Somit ist diese Seite bis zum Zeitpunkt einer neuerlichen Freigabe nicht im Suchindex aufzufinden. Von offizieller Seite unbestätigt, geht das Gerücht um das sich die Zeitspanne des Verweilens in der „Sandbox“ durch den unmittelbaren Rückbau des bestehenden Linkaufbaus betroffener Webseiten auf „Null“ in Verbindung mit vorsichtigen Eingängen von Backlinks hochwertig gerankter Webseiten verringern.

„Den Letzten beißen die Hunde“ – Doch wer zu schnell ist, den beißt Google. Wortwörtlich.

Es ist bekannt, dass die Firmenpolitik der Betreiber von Google keinerlei Verhandlungsspielraum bei der Anwendung und Umsetzung einmal von ihnen beschlossener Richtlinien gegenüber den Betreibern von Webseiten einräumen. Daher bleibt jeder Protest vermutlich ungehört, auch wenn Google mit diesem Maßnahmenpaket eine Verlangsamung in der Entwicklung neuer Webseiten erzwingt, die in den Markt nachrücken, aber auch das spontane Wachstum von bereits bestehenden Webseiten zu einer Art „Russisch‘ Roulette für SEOs“ machen.

Der beste Rat, welchen man jedem Betreiber aufstrebender oder junger Online-Projekte und Start-Ups nur wärmstens ans Herz legen kann, ist vermutlich: „Lassen sie es langsam angehen.“. Bleiben sie bei einer konstanten Entwicklung des Wachstums ihrer Backlink-Strukturen und legen sie die dadurch freigegebene Zeit stattdessen in die Optimierung ihrer Webseite „On-Page“ an, denn: Für guten Content hat bisher noch niemand eine Penalty erhalten!