Schlagwortarchiv für: google

Ein halbes Jahr „Google Penguin“ – Teil 3

Teil 3 – Kaum auftretende Kollateralschäden aber eine Serie Volltreffer bei verborgenen Black-Hat SEOs – die sich dann auch noch beschweren!

Nachdem sich also der Staub gelegt hat und nach knapp einem Monat, der seit dem Beginn der operativen Phase des „Penguin“-Update verstrich bis die korrekte Kalibrierung und Nachsteuerung durch die Entwickler abschließen konnten und daraufhin langsam aber sicher wieder eine gewisse Normalität in den Alltag in der Arbeit mit der Suchmaschine einkehrte.

Entgegen der Unkenrufe blieb der große Crash, den so mancher Gegner des „Penguin“-Updates sich herbei wünschte, um wenigstens ein bisschen Genugtuung zu verspüren. Denn alles in allem war das gesamte Update erstaunlich geschmeidig über die Bühne gegangen. Bei der Umstellung aus die neue Iteration blieben größere Ausfälle aus, und bis auf wenige Stunden war Google lediglich zeitweise für wenige Minuten nicht zu erreichen, bzw. bearbeitete keine Anfragen über die AJAX-Oberfläche der Suchmaschine.

Ich halte daher fest: Die Erde rast noch immer in einem ganzen Stück durch den luftleeren Raum, sich dabei in einer ellipsenförmigen Bahn in Rund 365 Tagen pro gleichmäßig aufgrund der Achsrotation sich nach wie vor von allen Seiten bräunt, weder Saddam Hussein noch Kim-Jong Il aus ihren Gräbern auferstanden sind dürfte man wohl mit Fug und Recht behaupten: Mission accomplished. Dann können wir uns nun ja dem Welthungerproblem und der Heilung von Krebs und AIDS zuwenden, ja?

Kollateralschäden durch das Penguin-Update fielen verschwindend gering aus

Die tatsächlichen Kollateralschäden unter den Betroffenen der neuen Sanktionierungspolitik des Algorithmus, welche durch eine ungünstige Konstellation von zuvor vielleicht Ermahnten aber nicht bestraften Maßnahmen profitiert hatten, welche im Rahmen ihrer ersten Überprüfung nach den Vorgaben der neuen Richtlinien aber eine Querindikation gebildet hatten und diese als Manipulationsversuche angerechnet und den damit eintretende Konsequenzen ausgesetzt worden waren. Fälle, von denen man mit guten Willen von einer „Abwertung ohne Schuld“ hätte sprechen können. Sie sind tatsächlich die einzigen, die durch eine ungünstige Verstrickung, zwar mit eigenem Schuldanteil, dessen Umfang nicht verdiente, von einer organisierten Manipulation der SERPs zu reden, und in diesem Zuge echte Nachteile durch den Paradigmenwechsel hinnehmen mussten, meist aus heiterem Himmel.

Allerdings die Majorität der Projekte, welche sich Aufgrund der lang erwarteten und nun eingetretenen Sanktionierung von grauen bis dunkelgrauen Optimierungen ausgesetzt sahen, hatten auf der Basis einer vorsätzlichen Vorteilsnahme zugunsten des Rankings und im Wettbewerb um eine gute Platzierung ihrer Webseiten auf den keywordrelevanten SERPs der Suchmaschine die Folgen ihres Handelns ganz bewusst in Kauf genommen, als ihre Methoden noch als „narrensicher“ galten und im schlimmsten Falle ermahnt, nur selten jedoch tatsächlich bestraft wurden, wenn dann nur in symbolischen Rundumschlägen, die vorrangig durch die menschlichen Mitarbeiter der Google Inc. vorbereitet und geführt wurden.

Das vorläufige Ende einer goldenen Ära für Black-Hat SEOs – Auch „Grey Hat“-Maßnahmen werden zunehmend weg sanktioniert

Mit der Iteration der verbesserten Indikation und Feststellung von bisher unerkannten oder aufgrund der Fehlerquoten vergangenen Algorithmen zwangsweise tolerierten Maßnahmen, die rein nach den bisherigen Richtlinien für Webmaster weder ausgesprochen legal noch illegal waren, wurden nahezu alle Maßnahmen zur „Grey Hat-SEO“ als zu sanktionierende Verstöße gegen die Richtlinien klassifiziert. Dazu zählen die Verwendung von Techniken welche unter das „Cloaking „ fallen, insbesondere der „Cloaking Pages“, das Kaufen und Verkaufen von Links zum Aufbau künstlicher Backlink-Strukturen ebenso wie die Feststellung von Inhaltsduplikaten, bei denen festgestellt wird, das sie nicht die originale Quelle sind da der Inhalt an anderer Stelle bereits zu einem früheren Zeitpunkt von einem Crawler indiziert wurde.

„Keyword stuffing“ ist und bleibt weiterhin „Black-Hat“-SEO

Die, gerade in den frühen Jahren der Suchmaschinenoptimierung beliebte Technik des “keyword stuffing” wird bei Feststellung eines Befundes grundsätzlich mit einer Penalty geahndet. Ob sich ein SEO-Professional des „keyword stuffing“, also der möglichst dominanten Platzierung von Keywords bis zur Ausprägung des wortwörtlichen „Vollstopfens“, schuldig gemacht hatte, wird anhand eines Wertes, welcher sich aus einer Berechnung der unter Verdacht des „stuffing“ stehenden Suchbegriffs und dem dazu im Verhältnis stehenden restlichen Menge Content in Textform.

Die Grenzen zwischen der professionellen Platzierung von Keywords und dem Übergang der als Methode des „Black Hat“-SEO betrachteten „keyword stuffing“ sind je nach Definition fließend, manche Quellen werten den Akt des „stuffing“ unter einer Bedingung als „weiße SEO“: Die Methode muss aus den richtigen – hier wohl gerechten – Gründen angewandt werden. Nichts desto trotz hat die Feststellung von „keyword stuffing“ eine automatisierte Sanktion zur Folge, weshalb sie die Verhältnismäßigkeit der von ihnen in den Content eingebetteten Suchbegriffen lieber zweimal Überprüfen, ehe sie ihn freigeben. Eine besondere Form dieser Violation bezieht sich auf das „vollstopfen“ der META-Bereiche mit einer übermäßigen Anzahl an Suchbegriffen. Diese Methode hat jedoch seit der ersten regelmäßigen Abstrafung der Ergebnisbezogenen Manipulation auf diesem Wege keine nennenswerte Verbreitung mehr erreicht, da sie zu offensichtlich ist.

Ja, lernen sie es denn einfach nicht?
Viele Violations der Webmaster Guidelines finden noch immer durch Maßnahmen im META-Bereich statt

Lesen Sie nächste Woche einen weiteren Teil der Serie Ein halbes Jahr „Google Penguin“

Die komplette Serie finden Sie hier:

Ein halbes Jahr „Google Penguin“ – Teil 2

Teil 2 – Die Klagementalität der Vollkasko-Deutschen/Österreicher & die Entschlossenheit hinter Penguin

Das die deutschsprachige SEO-Branche einen ausgeprägten Hang zur Klage auf hohem Niveau entwickelt hat, lässt sich bereits mit den ersten fünf Suchergebnissen, welche auf szenetypische Blogs verweisen, relativ schnell feststellen. Jedoch ist es schwer, ihnen genau das zu verübeln. Über Jahre hinweg konnten sie in weitgehender Symbiose mit der Suchmaschine Google ihre Dienstleistungen anbieten und es entwickelte sich aus Amateuren zunehmend ein Geschäftsfeld, das zumindest den Aufstieg zu semiprofessionellen Suchmaschinenoptimierern mit dem wachsenden Umfang ihrer Aufträge und der Wichtigkeit ihrer Tätigkeit einherging und diesen Pionieren fast ein ganzes Jahrzehnt lang ein auskömmliches Habitat geboten hatte.

Mit dem immer näher rückenden Termin für den Roll-Out der aktuellen Iteration des Google Suchalgorithmus mit dem Projektnamen „Penguin“, welcher im April 2012 in Betrieb genommen wurde, gewann die zunächst nur diffus wahrgenommene Nervosität immer deutlicher Gestalt an. An die Stelle der ausgearbeiteten Modelle zur technischen und inhaltlichen SEO würde ein Faktor treten, der sich durch seine Vielschichtigkeit und die in schon „per se“ unkontrollierbare Natur kaum zu einer ergebnisorientierten, messbaren Optimierung eignete: Der Faktor Mensch.

Der Mensch. Eine Variable ohne Konstante, eine unkontrollierbare Schwarmintelligenz und freie Radikale. Alleine der Gedanke an diese Umkehrung der Verhältnisse, die bis dato aus berechenbaren Konstanten bestanden hatte, trieb die Wut in die von einer bösen Ahnung gepackten SEO-Professionals. Eine Wut, der sie in Blogs und Kommentarspalten reichlich Dampf ließen und damit schnell die Grenze der Vernunft als auch der Glaubwürdigkeit überschritten – Spätestens mit dem Aufkommen der Verschwörungstheorien gegen die Branche begann der Ruf derselben in der Wahrnehmung Außenstehender zu leiden.

Google zeigt Zähne und signalisiert Entschlossenheit für die Umsetzung des „Penguin“. Unweigerlich als Folge dessen das Ende der klassischen Suchmaschinenoptimierung?

Von der anderen Seite betrachtet, die sich nicht mit einem gefälligen Wording umgab, stand der Umkehrschluss der neuen Ausrichtung der Kriterien von Google, die Matt Cutts als Chef der Qualitätssicherung in einem Interview ohne beschönigende Umschreibungen verdeutlichte, dass die Konsequenzen der Nonkonformität mit den zukünftigen Webmaster Guidelines und den Parametern der Erfassung, Indexierung und Bewertung von Webseiten nach Inbetriebnahme der neu entwickelten Iteration des Algorithmus spürbare Auswirkungen auf bestehende Rankings haben werden, ohne jeden Bestandsschutz.

Durch die im Vorfeld bereits deutlich von Google kommunizierten Maßnahmen, welche mit der Umsetzung der neuen Iteration des Suchalgorithmus einher gehen werden, äußert sich das Bestreben des Suchmaschinenbetreibers, durch frühe Konditionierung der Betreiber von Internetseiten und ihrer Webmaster um eine möglichst reibungslose Akzeptanz und Annahme der künftig teilweise sehr knapp definierten Grenzen und Toleranzen innerhalb derer eine Webseite sich bewegen kann und gleichzeitig die Einhaltung der Google Webmaster Guidelines gewährleistet ist.

Die Bereitstellung hochwertiger Qualitätsinhalte, welche in eine intuitiv zu bedienende Webseitenumgebung eingebettet werden, bildet das zukünftige Ideal einer erfolgreichen Webseite, deren Erfolg und Anerkennung durch die Nutzer sich ebenfalls in seinem Ranking widerspiegelt. Zur Bemessung eines Webseitenrankings werden zur neben bekannten Grundparametern unter anderem auch Datensätze mit Bezug auf das Nutzerverhalten hinsichtlich Verweildauer, abgerufener Pages, Empfehlung durch den „+1“-Button oder der Verbreitung über soziale Netzwerke bei der Ergebnisfestlegung berücksichtigt.

Ein neues Ideal wird definiert – SEO ade? Eine Webseite, welche ausschließlich für ihre Benutzer optimiert wird

Verstöße gegen die neue Agenda werden zumeist durch automatisierte Penaltys umgesetzt, welche umgehend nach Feststellung eines Verstoßes in Kraft treten und im Normalfall aufrecht erhalten werden, bis die Richtlinienverletzung durch Entfernen des dafür ursächlichen Elements behoben wurde. In Wiederholungsfällen oder im Falle von Webseiten, deren Domain erst vor kurzer Zeit angemeldet wurde, können höhere Eskalationen der Sanktionierung greifen. Webseiten, die notorisch in kurzer Zeit durch eine Vielzahl von Verstößen gegen die Webmaster Guidelines auffallen müssen mit der temporären oder permanenten Entfernung aus dem Suchregister von Google rechnen.

Der permanente Ausschluss aus dem Google-Index bezieht sich, nach wie vor, vor allem auf Verletzungen der Richtlinien zur Eindämmung der Manipulation von Ergebnissen auf Google SERPs, dem Bereitstellen und Vermitteln von Inhalten, welche als Anleitungen oder Planspiele erkannt wurden und die Methoden zur Anwendung illegaler Methoden zur Manipulation behandeln. Weiterhin kann führt eine Indikation, welche auf einen erfolgten Hackerangriff auf ihre Webseite und die potentielle Übernahme der Webseite zu einem sofortigen Ausschluss und zieht ein vorläufig permanentes Blacklisting ihrer Webseite nach sich.

Es wird erwartet das bereits wenige Stunden nach der Initialisierung der aktualisierten Iteration des Suchalgorithmus eine Vielzahl von Webseiten mit Sanktionen belegt werden, die im Vorfeld die Chance verstreichen haben lassen, vorhandene Altlasten der SEO ihrer Webseite zu entfernen oder Abzubauen, bevor die Umstellung auf die neue Sanktionierungspolitik und den erweiterten Richtlinienkatalog der Webmaster Guidelines abgeschlossen wurde.

Doch ein Google Quality Rater die Überprüfung im Einzelfall vorgenommen hatte. Man hatte sich schlichtweg zu sicher gefühlt. Eine trügerische Sicherheit, die nun in sich zusammen fiel.

Der neue Algorithmus kam, wie er angekündigt wurde: Hart und Schnell. Die konsequente Durchsetzung der Google Webmaster Guidelines wurde nun Realität

Viele Betroffene Webmaster berichten öffentlichkeitswirksam auf den Fach-Blogs, in Webforen und Kommentarspalten anderer Blogs, dass sie noch immer an den Folgen des Updates arbeiten um die automatisch auferlegten Penaltys und ihrer Vergabegründe zu beheben und klagen ihr Leid oftmals sehr unsachlich, dafür mit umso größere „Leidenschaft“, welche für sie bei der Ausübung ihrer Tätigkeit als Suchmaschinenoptimierer so hoch im Kurs steht.

Manche Vertreter der SEO-Branche ergehen sich gar in dem Herbeireden eines „Krieges der Suchmaschine gegen die SEO-Professionals“ und ähnlicher, haltloser Verschwörungstheorien welche seit April geradezu virale Ausbreitung erleben und derer sich selbst die Betreiber populärer SEO-Blogs nicht zu erwehren vermögen und dem Glauben an krude Strategien des Google-Konzerns zur Beseitigung der SEO-Branche als „Money leak“ zu erliegen. Bei genauerer Betrachtung jedoch ergibt sich schnell, dass die Webseiten der lautesten Klageführer gegen die neue Politik die Post-Penguin-Ära der Suchmaschine Google am gröbsten verstoßen haben.

Da Google Penguin jedoch ein reines Update des Algorithmus war, liefen ebenso alle „Reconsideration Requests“ an das Google Webspam Team folgerichtig mangels Zuständigkeit ins Leere und die Webmaster sind gezwungen – so sie denn am Erhalt der sanktionierten Domains interessiert sind – konsequent ihre erkauften und künstlich konstruierten Backlink-Strukturen abzubauen um am Ende dieses Prozesses bei einem Neubeginn des Aufbaus einer Reputation für ihr Projekt zu stehen.

Auf tönernen Füßen gebaut: Verbrannte Domains, verbrannte Träume. Viele Scheiterten an ihrem eigenen Hochmut und dem Glauben an ihre Unverletzbarkeit

Lesen Sie nächste Woche einen weiteren Teil der Serie Ein halbes Jahr „Google Penguin“

Die komplette Serie finden Sie hier:

Ein halbes Jahr „Google Penguin“ – Teil 1

Teil 1 – Was war, was ist: Wenig hat sich geändert.

Sechs Monate sind mittlerweile seit April verstrichen, seit dem Google zur Verbesserung seiner Suchergebnisseiten angesetzt hatte und mit dem Algorithmus-Update Penguin eine der größten Veränderungen seiner Bewertungskriterien und der Erfassung vollkommen neuer Relevanzkriterien den Schritt wagte, sowohl den grassierenden Manipulationen von Suchergebnissen durch „schwarze SEO“ eben wie dem Webspam den Kampf ansagte – und sich damit den Unmut eines nicht geringen Anteils der SEO-Branche zuzog welche für den Erhalt des Status quo skandierte, in dessen relativer Stabilität es sich die Optimierer gemütlich gemacht hatten.

Welchen Impact das Update auf die SEO-Branche tatsächlich hatte, das scheint bisher unausgesprochen, als traue sich niemand das Thema auch nur mit der Zange anzufassen.

Auch ist es um die Diskussionen, die noch bis in den späten Mai hinein die Gemüter in der SEO-affinen Blogosphäre erhitzten, erstaunlich still geworden und selbst Fälle des zu erwartenden Nachtretens einzelner Blogger gegen die überwältigende wie auch unausweichliche Veränderung, welche soviel Unmut und Unruhe bei vielen „Fachleuten“ erzeugte, blieb erstaunlicherweise aus.

Diese eigenartige Stille veranlasst mich, in den folgenden Artikeln eine mögliche These zur Ursächlichkeit dieser ausbleibenden Reaktion aufzustellen und nach einem halben Jahr Bilanz zu ziehen, wie sich die SEO unter den Richtlinien des Eingangs umstrittenen Algorithmus, der mit dem Roll-Out von Google Penguin in Betrieb genommen wurde, entwickelt hat, um Anhand der gewonnenen Erkenntnisse die Lage der SEO-Branche einzuschätzen.

Auf Worte folgen Taten – Google realisiert eine umfassende Erneuerung des Algorithmus dessen Auswirkungen lange vor Roll-Out bekannt waren

Das Google den Suchalgorithmus im Zuge des Roll-Out von Penguin anpassen würde, war bereits sei langem bekannt, denn bereits nach dem Panda-Update in 2011, dessen Schwerpunkt bereits im Kampf gegen den Webspam lag, wurde offen von der zukünftig tendenziell stärker ausfallenden Bekämpfung von Spam und den Methoden der „Black-Hat SEO“ gesprochen. Das Update kündigte immerhin einen Wechsel der Paradigmen in der bisherigen Funktionsweise und Schwerpunktlagerung der Suchmaschine an und Google machte daraus kein Geheimnis.

Es hatte, das konnte man der damaligen Reaktion weiter Teile der SEO-Branche entnehmen, nur schlichtweg niemand den Vertretern des Konzerns abgenommen. Niemand schien zu glauben, dass Google mit Penguin tatsächlich ernst machen würde, schließlich wurde eine Verschärfung von Richtlinien und Ranking-Kriterien quasi alljährlich mit jedem neuen Update angekündigt, doch blieb eine ausschlaggebende Veränderung im Tagesgeschäft für die Branche mit Ausnahme der kurzen Phase der Anpassung wenn es einmal doch zu einer Änderung kam, dessen Auswirkungen auch für die SEO-Professionals bei der Ausübung ihrer Arbeit spürbar waren.

Jene, die der erneuten Kampfansage keinen Glauben schenkten und dem Konzern nicht abnahmen endlich Konsequenz beim Umgang mit Webspam und illegitimer SEO zu zeigen, geschweige denn einer partiellen Neuausrichtung des Suchalgorithmus, waren es genau diese Zeitgenossen, welche in Folge am lautesten Klage gegen das Unternehmen führten, spätestens als sich die Änderungen am Suchalgorithmus dann auch in den Rankings und auf den SERPs bemerkbar machten. Und sie feststellen mussten: „Dieses Mal macht Google ernst!“.

Mit einer Portion Empathie für die revoltierenden SEO-Professionals und die Situation aus deren Augen betrachtet erscheint die Ablehnung tiefgreifender Änderungen in einem über Jahre hinweg nahezu unveränderten beruflichen Umfeld als wenig attraktiv. Ziehe ich einen gewissen Hochmut mit ein, hatte man doch schließlich die Branche erst durch seine Arbeit definiert, ja geradezu Erfunden, fällt es mir leicht, die Gefühlswallungen als Mensch zu verstehen, wenngleich ich sie aus professioneller Sicht strikt ablehne.

Es bleibt subjektives Mitgefühl für die revoltierenden SEO-Professionals. Objektiv ist Penguin jedoch eine alternativlose Notwendigkeit für die Zukunft

Jedoch vom Standpunkt einer objektiven und möglichst wertfreien Warte waren die vorgebrachten Argumente der offiziellen Repräsentanten des Suchmaschinenkonzerns schlagend und ergeben sich als logische Weiterentwicklung der Algorithmen als vollkommen selbstverständlich, da sich mit den neuen Technologien der vergangenen Jahre und der Etablierung dieser, auch vollkommen neue Möglichkeiten einer immer präzisieren und durchdachten Methodik zur Erbringung von Suchergebnissen in höheren Qualitäten auftaten, welche die Auswertung der Daten sozialer Netzwerke bis auf die Individualebene hinab erlaubte, die in künftigen Ausgaben auf Suchergebnisseiten Berücksichtigung finden sollte.

Umso sinnvoller erscheint es daher, im nächsten Schritt die bisherigen Inhaltskonzepte abzulösen, da diese sich ausnahmslos an den Notwendigkeiten einer größtmöglichen Anpassung der optimalen Indexierung durch die Suchmaschine ausgesetzt sah. Der eigentliche Konsument, der Mensch, fiel bei diesem Konzept nämlich auf die hinteren Plätze zurück, weshalb die Ablösung der technischen Inhaltsgestaltung nur durch eine Neuausrichtung der Content-Gestaltung mit dem menschlichen Nutzer als Mittelpunkt der Aufmerksamkeit zwingend erfolgen musste.

Förderung der Qualität von bereitgestelltem Content als zukunftssicheres Modell. Das Vorgehen gegen Webspam und Black-Hat SEO wird konsequent in die Tat umgesetzt

Diesem Konzept folgte sodann die Verlagerung der im Rahmen des Rankingprozesses neu definierten Relevanz-Kriterien bei der Bewertung von Web Content, der die Ausrichtung auf hochwertige und keyword-relevante Inhalte, besonders aus fachkundiger oder anderweitig qualifizierten Quellen mit einer positiven Entwicklung der Platzierung in den SERPs, zuzüglich von Modifikatoren durch soziale Elemente wie Empfehlungen, Verweilzeit und Teilen der Inhalte auf Plattformen sozialer Netzwerke, anhand derer eine Prädiktion der Relevanz des bereitgestellten Inhalts präziser dargestellt werde könnte. Gleichzeitig würde mit dieser Änderung in der Verfahrensweise ein sanfter, wenngleich unausweichlicher Anpassungsdruck hin zur neuen Inhaltskonzeption erzeugt, der die Zielsetzung in einen greifbaren Zeitraum fassbar werden ließ und somit Erfolg in der Umsetzung versprach.

Durch den Einsatz weiterentwickelter Prüfmethoden würde der Suchalgorithmus mit höchsten Erkennungsraten und Fehlindikationen im niedrigen Promillebereich in die Lage versetzt den neuartigen Formen der Manipulation von Suchergebnisplatzierungen, die vorherige Versionen nicht zweifelsfrei feststellen konnte, erfolgreich entgegen zu wirken. Automatisierte Prozesse führten sodann nach Feststellung eines Manipulationsversuches in Echtzeit zur Einleitung von Sanktionen, gegebenenfalls auch der Übergabe an die Prüfer des Google Webspam Team um eine langfristige oder permanente Ausgliederung der Erfassten Webseite aus dem Suchindex von Google zu veranlassen.

Eine fehlerfreie Erkennung von Manipulationsversuchen und unnatürlicher Entwicklungsmuster verbessert die Konsistenz der Google SERPs

Mittels Datenabgleichs würde der Algorithmus in der Lage sein, eine zuverlässige Erkennung von unnatürlichen Entwicklungsmustern beim Aufbau der Backlink-Strukturen zu prüfender Webseiten durchzuführen und somit jede Form von Manipulationsversuch bereits im Entwicklungsstadium zu erkennen noch bevor die zur Manipulation ausgerichtete Webseite einen Einfluss auf die Qualität der Suchergebnisse im vom Optimierer angestrebten Zielbereich nehmen könnte.

So präsentierte sich mir der langfristige Plan zur Entwicklung zeitgemäßer Erhebungsmethoden und Verhinderung von manipulativen Einflussnahmen, die das Gebrauchserlebnis als unausweichliche Schnittmenge der Google zugrunde liegenden Methode schmälerte. Ein Plan, der hinter den eingreifenden Veränderungen unter dem Projektnamen „Penguin“ steckte und die Konkurrenzfähigkeit und Qualitätssicherung der von Google bereitgestellten Suchergebnisse auch in naher Zukunft sichern sollte.

Lesen Sie nächste Woche einen weiteren Teil der Serie Ein halbes Jahr „Google Penguin“

Die komplette Serie finden Sie hier:

SEO: Don’t become evil, Google! Teil 3 – Wir spielen ein Gedankenspiel

Verdachtsmomente einer Verschleierungstaktik von Google über die Zukunft des SEO in Verbindung mit der Suchmaschine

Teil 3 – Wie sähe eine Eskalation der Ansätze der Suchmaschine zum Ausbooten der SEOs aus? Wir spielen ein Gedankenspiel.

Es bleiben zu dieser Teilbetrachtung der Figur des „Over optimizating“-SEO nur die Widerlegung der mit der Kriminalisierung einer, von Google als übermäßig erklärten Ausschöpfung von Potential: Ist der Webmaster unfähig, schadet er nur sich selbst. Ist der Webmaster begabt, verletzt er keine Richtlinien und nutzt die Mechanismen, die durch Google selbst durch die unterschiedliche Bewertung von Webseiten erst bereitgestellt hat. Müsste es nicht sogar das Ziel jedes SEO-Professionals sein, einmal im Leben, ob als Gesellenstück oder Meisterwerk, sich genau an ein solches Projekt zu setzen? Und zuletzt bleibt noch die Frage: “Mr. Cutts, welches Problem haben sie mit der SEO sowohl als Berufsfeld als auch als Konzept?“

Um diese Frage zu beantworten, haben wir die einige Aussagen des Abteilungsleiters für Ergebnisqualität übersetzt und Anhand des verwendeten Wording von Matt Cutts erlauben wir uns, die gezeigten Ansätze weiterzudenken:

„Es wird im Zuge des Roll-Out des „Penguin“-Updates ein Spielfeld planiert, welches zwar nach wie vor von einer gut aufgestellten und trainierten Fußballmannschaft genutzt wird. Da gibt es keine Widerrede, denn das gehört unverrückbar zur weiteren Planung der Entwicklung der von uns erwünschten Ergänzung der Vielfalt der Mitspieler, die bald zwangsläufig in die Fußballmannschaft integriert werden

Es wird unweigerlich in dieser Form stattfinden, in Zukunft werden dort bevorzugte Sportler gefördert, die von uns durch die Behinderung mittels bleierner Fußmanschetten der ursprünglich dort Trainierenden zunächst auf dem Niveau der neuen Trainingskameraden anzupassen und eine Chancengleichheit herzustellen. Außerdem wird der Verein von einem Fußballclub zu einem Pilates Fitness Club umgewidmet.

Als werden Platzwart unseren neuen Mitgliedern freieren Zugang zu unseren Sportanlagen gewähren und als einziges Mitglied der Jury ihre Leistungen vermehrt positiv bewerten, wenn notwendig indem wir die Bewertungen zu ihren Gunsten ändern. Sie mögen kein Pilates? Das tut uns leid, aber vielleicht können sie sich ja durch Teilnahme am Training in der Sporthalle gefallen an der neuen sportlichen Ausrichtung ihres Vereins gewinnen!“

Auf welches Spielfeld sich Matt Cutts bei dieser, als Sinnbild kommunizierten Ankündigung bezieht, ist leicht zu erkennen wenn man den Kontext einer großen Änderung vieler bisher gültiger Regeln bis hin Sanktionierung einer vermeintlichen „Übermäßigen Suchmaschinenoptimierung“ betrachtet.

Bei dem zur Planierung vorgesehenen Spielfeld handelt es sich um den auf die Ergebnisseiten der Google Suche, auf der zur Zeit noch der rege Wettbewerb des Ringens der SEO-Professionals um die optimale Positionierung ihrer Inhalte auf der ersten Seite der für ihre keywordrelevanten SERPs abspielt.

Doch welchem Zweck würde eine solche Planierung eines Spielfelds und der damit einhergehenden Zerstörung der darauf gewachsenen Strukturen dienen, sollte die Auslegung der Worte des Chefs der Google-internen Qualitätssicherung zutreffen? Um das besser zu verstehen, ist es angeraten sich näher mit der Umstellung zukünftiger Gestaltungs- und Inhaltskonzepte auf die Bedürfnisse des menschlichen Konsumenten zu beschäftigen, welcher die heute vorherrschenden Formgebung von technischer und inhaltlicher Realisierung von Webseiten, bei der vorrangig bestimmend die Ausschöpfung des größtmöglichen Faktors einer positiven Gesamtbewertung durch den Suchalgorithmus von Google, dem klassischen SEO also, ersetzen soll und in Zukunft dessen Platz einnehmen soll. Das daran ein Funken Wahrheit stecken könnte, findet man auch im vorhergehenden Satz aus dem Zitat von Matt Cutts zum Thema „Over optimization“:

„[..] those people […] have been […] “overly” doing their SEO, compared to the people who are just making great content and trying to make a fantastic site,“

Es klingt zunächst sympathisch, was Cutts hier von sich gibt, oder? Fast schon, als handle es sich um den biblischen Kampf zwischen dem kreativen, doch zu klein geratenen David und dem „overly“ agierenden Riesen Goliath, bei dem Google nun für den kreativen Underdog Partei ergreifen will. Doch hinter dieser Aussage steckt zunächst einmal nur eine weitere Ankündigung: Wie sich eine „Überoptimierung“ gestaltet, lässt sich variabel bestimmen und dass es so kommt, verrät der Google-Offizielle mit Hauptauftrag „Search Quality“ nur zwei Sätze später auf eine freundliche und harmlos anmutende Weise:

[…] We try to make our relevance more adaptive so that people don’t do SEO….we handle that […]

Hatte ich noch am Anfang dieser Bilanzierung über die ausgebrochene Hysterie unter den deutschen SEO-Professionals ein inneres Oktoberfest gefeiert, so lässt sich die Gesamtheit der Aussagen, die im Kontext dieses Gesprächsauszuges fallen, fast unweigerlich als etwas anderes als die Kriegserklärung der Google Inc. gegen die SEO-Branche verstehen, deren erster Schritt der Roll-Out des unter dem Projektnamen„Penguin“ Update des Google-Algorithmus verstanden werden müsste, wenn man nicht jeden Glauben in das inoffizielle Motto des Konzerns stecken würde: „Don’t be evil!“.

Das war nun der letzte Beitrag dieser 3teiligen Mini Serie.

Auf Ihre Kommentare dazu freue ich mich!

Hier eine Auflistung der kompletten Serie:

 

Dies ist ein Artikel von Jan Hinzer

SEO: Don’t become evil, Google! Teil 2 – Gute Miene zum Bösen Spiel

Verdachtsmomente einer Verschleierungstaktik von Google über die Zukunft des SEO in Verbindung mit der Suchmaschine

Teil 2 – Gute Miene zum Bösen Spiel – Folgt nun eine schrittweise Erhöhung der Sanktionen für professionell technisch optimierte Webseiten?

Auf einmal war es in aller Munde. Seit Matt es verdeutlichte, das eine Überoptimierung von Webseiten einen Penalty auslösen würde, brodelte die Gerüchteküche ebenso wie die Gemüter der Betroffenen SEO-Agents. Dabei war bis zur öffentlichkeitswirksamen Präsentation des auf den „Panda“ folgenden Update, welches unter dem Projektnamen „Penguin“ bekannt geworden ist, wurde diese noch nie offiziell aufgegriffene Problematik nun zu einem Problem von so großem Ausmaß, das es notwendig sein sollte, es durch die Vergabe von Penaltys zu bekämpfen?

Und überhaupt: Wem entstand überhaupt ein Schaden aufgrund einer übermäßigen Optimierung einer Webseite? Schaden für Außenstehende droht dadurch keiner und ebenso wenig wird dadurch der Versuch unternommen, vorhandene Lücken innerhalb der Architektur des Algorithmus zur Manipulation auszunutzen. Darf ein Webmaster sich selbst schädigen? Steht ihm grundsätzlich das Recht zur Unfähigkeit zu? Nach meinem Verständnis hat der Beispiel-Webmaster alles Recht der Welt, seine Webseite den unsinnigsten und sinnlosesten Maßnahmen auszusetzen, solange er daran gefallen findet.

Eine tatsächliche übermäßige Nutzung von Maßnahmen zur Optimierung hätte im schlimmsten Fall eine Abwertung zur Folge, die im Zuge der Erkennung einer forcierten künstlichen Linkstruktur auf der Webseite hätte allerhöchstens das Gesamtranking derselben herunter gezogen. Einziger Geschädigter wäre in diesem und jedem anderen Fall alleine der ungeschickte Webmaster der Seite, der für sein Handeln Alleinverantwortlichkeit trägt, solange die sich daraus ableitenden Auswirkungen niemand anderen zu Schaden kommen lassen. Solange diese Grenze unberührt bleibt, hat auch eine Google Incorporated sich nicht in die Belange anderer Einzumischen, wenn diese auf ihren eigenen Servern stattfinden.

Dann hält es nämlich Google ganz anders, welches in Form seiner Crawler ungefragt durch die digitale Haustür des Webservers als unberufener Gast herein kommt, und alles was er in der Wohnung vorfindet bis ins Detail anglotzt und aufschreibt und sich sogar Notizen darüber macht, sobald er eines Buches oder von mir verfasster Schriftstücke habhaft werden kann. Er fasst einfach alles an, was man nicht schon im Vorfeld vor ihm hinter Schloss und Riegel verstecken könnte, einfach alles und trotz dicker Schlösser vor Tresor, Schrank und Tür: Einmal probierte er es immer. „Man kann ja nie wissen, ob sich nicht dennoch ein Türchen öffnet“, so schien es sein Motto zu sein

Moralisch gesehen ist diese Abstraktion des Handelns der Suchmaschine verwerflicher als das des Webmasters, insbesondere da sie der dedizierten Willensäußerung eines oder mehrerer Menschen, manifestiert in der Niederschrift seiner Formeln und Algorithmen stattfand, welche in ihrer Gesamtheit genau eben jenes Verhalten aufweisen, welches ihnen der schöpferische Wille des Erschaffers aufgetragen hat, womit das Entwicklerteam der Iterationen der Algorithmen der Google Inc. die Verantwortung für das Handeln ihrer Kreatur tragen, das alltäglich den Versuch unternimmt, durch Tür zu treten, die ihm auf seinem Weg begegnet und damit wohl ein Meister des digitalen Hausfriedensbruchs sein dürfte.

Und im Gegensatz zu beiderlei der Aspekte des Webmasters, den Matt Cutts so trefflich als negatives Beispiel brandmarken wollte, hat dazu im Vergleich das Verhalten der weltlichen Manifestation des Willens eines Entwicklerteams, nämlich der von Google täglich in die weiten des Internets entsandten Crawler, die Türe zu meinem Haus ungefragt durchschritten und damit meinen Wunsch, nicht von ihm besucht zu werden, potentiell verletzt. Selbst wenn ihn nun hinaus werfe und ihm lebenslanges Hausverbot erteile, bleibt doch die Erinnerung an das unerwünschte Eindringen in meinem Besitz, weder in folge einer Einladung noch einem offenen Treffen. Der Google Crawler führt den Willen aus, den man ihm bei seiner Programmierung auftrug und ihn dazu anwies, jeden Tag und jede Nacht an jeder Haustüre des Internets zu rütteln um zu sehen, ob die Türe sich öffnet, nur damit er sich an den Dingen ergötzen kann, die er dort vorfindet, sie sich einprägt und aller Schrift welcher er habhaft werden kann zu lesen beginnt, ungeachtet von der Achtung vor fremden Besitz oder gar dem Postgeheimnis.

Und nun frage ich sie, lieber Leser:
„Was hat der Webmaster anderen getan, das er für sein Handeln bestraft wird?“

Das einzige Gedankenmodell, das in diesem Kontext Sinn machen würde, wäre aber unweigerlich mit dem möglicherweise zu Zwecken der Diskreditierung vorsätzlichen falschen Gebrauch des Begriffs „Übermäßig“ verbunden. Hier würde es sich nämlich um einen Webmaster handeln, der das auf seine Webseite angewandte Gesamtkonzept der Suchmaschinenoptimierung bis ins feinste Detail ausgearbeitet hat. Der Webmaster, der ein solch vollumfängliches Konzept fehlerfrei in die Praxis umsetzt, gehört eher umgehend und auf schnellstem in eine SEO-Agentur auf einen Managerposten und nicht in die offensichtliche emotionale Entladung einer ranghohen Führungskraft der Marktführenden Suchmaschine im Rahmen einer in einem schlechten Beispiel verborgenen Krypto-Verleumdung dafür, das er von, ihm zur Verfügung stehenden Werkzeugen Gebrauch gemacht hat.

Auf Ihre Kommentare dazu freue ich mich!

Hier eine Auflistung der kompletten Serie:

 

Dies ist ein Artikel von Jan Hinzer

SEO: Don’t become evil, Google! Teil 1 – Die neuen Schwerpunkte

Verdachtsmomente einer Verschleierungstaktik von Google über die Zukunft des SEO in Verbindung mit der Suchmaschine

Teil 1 – Die neuen Schwerpunkte:
als ersten Schritt zu einem in sich geschlossenen Googlenet?

Schöne neue Zukunftsmusik mit Google. Genauere Ergebnisse durch bessere Algorithmen, höhere Wertung von Inhalten vor technischer Optimierung, alles würde noch besser, sprichwörtlich blühende Landschaften warteten auf das Internet, wollte man den Aussagen des Konzerns glauben schenken.

Doch das alles verliert seinen Glanz, je länger man sich mit den Kommentaren zur Entwicklung auseinandersetzt, nur eben das sie auf freundliche Worte verzichten und ohne die geschickte Inhaltspräsentation des „Penguin“-Updates in Fragmenten gesammelt und dokumentiert wurden, auskommen mussten.

Die von den Google-Officials in Interviews getätigten Aussagen, vorrangig aber Matt Cutts, dessen Abteilung mit der Umsetzung der neuen Richtlinien betraut war und welcher sehr häufig und oftmals ohne „Blatt vor dem Mund“ im Klartext sprach, wenn es um die Thematik der Zukunft der Suchmaschinenoptimierung für die Google Suche ging.Und das mit einer an den Tag gelegten Deutlichkeit die man so in den, von positivem Wording und der Hochglanzpräsentation Pressemeldungen des „niemals böse werdenden“ Konzerns nicht findet.

Google, das mit seinen als Innovationen daherkommenden Veränderungen die Erschließung neuen Datenminen und der Ausbeutung bereits vorhandener Datenberge schönredet und Innovationen, von denen jede einzelne bekanntermaßen einen Offenbarungseid bedeutet

gegenüber dem Fernmeldegeheimnis und dem Handling vertraulicher Daten und Verlusterklärung an ihre Datenhoheit darstellt und auf den Servern der Suchmaschine zu einer personengebundenen Kollektion aller jemals von ihnen erfassten Daten eine digitale Autobiographie ihrer selbst zusammengefügt wird, auf welche die erfassten Individuen niemals Zugriff erhalten würden.

Hatte man sich nicht im Vorfeld über die vermeintlichen Verschwörungstheorien jener SEOs lustig gemacht, welche sich in Artikel und Kommentarspalten in die digitale Öffentlichkeit wagten,

Das man seitens Google einen Krieg gegen die Suchmaschinenoptimierer führen würde, klang vor zwei Tagen noch wie hanebüchener Unsinn und gerade jetzt wurde meine Überzeugung durch den Ausschnitt einer Stellungnahme von Cutts zum Thema der neuerdings mit einer Penalty versehenen „Überoptimierung“ von Webseiten konfrontiert, in denen das, was ich von anderen gehört und gelesen hatte, in dicken, gedruckten Lettern zwischen den Zeilen vor mir liegen hatte. Was mich beunruhigte?

Das Projekt „Penguin“ vermutlich als ersten Schritt einer Serie sauberer „Cutts“ , vor allem aber der einseitigen Ausgrenzung der SEOs

Matt Cutts, der Leiter der Google-internen Search Quality, trat im Rahmen der SXSW in April dieses Jahres in Austin (TX), als Redner auf. Durch die erneute Änderung der Spielregeln der Suchmaschine und der seit dem „Panda“-Update in 2011 erschien es, als würde der Markt keine Ruhe in Ermangelung von sich einpendelnden Ergebnissen finden. Entsprechend schroff scheint der Ton ausgefallen zu sein, der dem Repräsentanten der Google Inc. entgegen schlug und ihm scheinbar für einen Augenblick die Kontrolle entglitt und er sich zu einer Aussage hinreißen ließ, welche bei korrekter Deutung einer direkten Absage gegenüber den versammelten SEO-Experten gleichgekommen sein musste.

Auf den ersten Blick handelt es sich nur um eine wenig formelle Erklärung wie in Zukunft mit dem, seit „Penguin“ offensichtlich wahrgenommen, zumindest aber erst seit dieser Iteration offen kommunizierten Problems der sogenannten „Over optimization“, welche durch den neuen, zu diesem Zeitpunkt bereits kurz vor dem Roll-Out befindlichen Algorithmus rigoros sanktioniert werden würde.

Soweit so gut, denn „zu viel“, das wissen all jene, die mit der SEO vertraut sind, ist schließlich unbestreitbar eine gute Maßnahme für den Erfolg einer „On-Page“-Optimierung, wie könnte man Cutts also widersprechen? Ich bin mir sicher, den tieferen Sinn seiner Worte und die Wahrnehmung wird ohnehin durch die aufgebrachten Anwesenden nicht ganz auf das Rednerpult fokussiert gewesen sein. Doch wieder einmal sollte es sich bestätigen, das man Männern, die wie Matt Cutts am oberen Ende eines Konzerns sitzen, ganz genau zuhören sollte wenn sie reden.

Denn im Verlauf des Gespräches auf der SXSW schien der Repräsentanten der Suchmaschine selbst nicht ganz bei der Sache gewesen zu sein, denn im Verlauf seiner Ansage gegen den übermäßigen Einsatz von SEO-Maßnahmen schien er sich von seinem inneren emotionalen Aufruhr bei der Wahl der Worte leiten zu lassen. Diese werde ich im folgenden aus dramatischen Gründen in Teilzitaten behandeln:

“[….]We want to sort of make that playing field a little bit more level. So that’s the sort of thing where we try to make[…]„, Matt Cutts – Google Inc.

Diesen Satz muss man vor allem in seinem Kontext lesen, vielleicht auch diesen Schritt einige Male wiederholen um ihn dann auf sich wirken lassen. Gefallen sind diese Worte im bereits angerissenen Kontext der Abwertung von Webseiten durch die Vergabe eines algorithmischen Penalty aufgrund von „Over optimization“.

Auf Ihre Kommentare dazu freue ich mich!

Hier eine Auflistung der kompletten Serie:

 

Dies ist ein Artikel von Jan Hinzer

Veröffentlicht Google demnächst Quality-Guidelines?

In einem kürzlich veröffentlichten Webmaster-Video beantwortet Matt Cutts eine Frage zu der Einflussnahme von Googles menschlichen Qualitätsprüfern auf die SERPs. Darin stellt er klar, dass die Bewertung keinen direkten Einfluss auf das Ranking haben. Viel mehr dienen die Beurteilungen der Quality Rater dazu, die Algorithmen zu überprüfen und Verbesserungen zu entwickeln. Doch die interessantere Aussage macht er gegen Ende des Videoclips. So deutet er nämlich an, dass die Guidelines der „human quality rater“, nach denen diese Websites beurteilen, womöglich bald publiziert werden.

Zwar wurden diese, nach Cutts eigener Aussage, vor einiger Zeit teilweise „geleakt“, doch geschadet hat dies dem Konzern nicht. Warum also nicht offensiv mit dem Thema umgehen und die Guidelines öffentlich zugänglich machen? Die so genannten „Quality Rater’s Guidelines“ wären die ersten, die Google bewusst preisgeben. Sonst setzt der Suchmaschinen-Gigant eher auf strenge Geheimhaltung, wenn es um interne Arbeitsprozesse geht. Grund genug, sich die Tätigkeiten der menschlichen „Quality Rater“ einmal genauer anzuschauen.

Was genau tut ein Quality Rater?

Laut Matt Cutts dienen die Qualitätsprüfer nicht nur für die Überprüfung und Optimierung der Algorithmen. Viel mehr sollen sie mit gesundem Menschenverstand die Suchergebnisse beurteilen – sowohl innerhalb der Ergebnisliste als auch im Einzelnen. Dabei besuchen sie unter anderem Websites, die bei Suchanfragen angezeigt wurden, schätzen die inhaltliche Relevanz sowie die Strukturen der Inhalte ein und halten nach Spam Ausschau. Ihre Eindrücke geben sie anschließend an Googles Ingenieure weiter. Sie gehen also den Qualitätsproblemen auf den Grund und arbeiten eng mit den SEO-Experten von Google zusammen. Durch die Arbeit der Prüfer soll die Qualität der Suchergebnisse verbessert dauerhaft gewährleistet werden. Auch wenn kein direkter Einfluss auf die Resultate besteht, so ist doch ein passives Einwirken durch die manuelle Kontrolle vorhanden. Wer sich für den Job interessiert, kann sich übrigens bei Google bewerben. Die Aspiranten erwartet nach er Zusage eine interne Ausbildung, in denen sie die nötigen Fähigkeiten erwerben. Außerdem lernen sie die Maßstäbe für die Überprüfung kennen.

Bedeutung für die Suchmaschinenoptimierung

Die Qualitätsprüfer ergänzen die SEO-Maschinerie mit all ihren Algorithmen und Strukturen um eine menschliche Komponente. Sie sorgen dafür, dass Websites nicht für Suchmaschinen entwickelt werden, sondern für die Besucher. Das ist eine klare Ansage an die SEO-Branche. Es gilt auf die Qualität der Inhalte zu achten, einen hohen Mehrwert für die Besucher zu schaffen und mit legalen Mitteln die Sichtbarkeit der Homepage zu steigern. Sollten die Guidelines tatsächlich publiziert und somit für Website-Betreiber zugänglich gemacht werden, dann werden diese bedeutende Einblicke in die Wertevorstellungen von Google liefern. Auch das käme der Qualität von Webpräsenzen sicherlich zugute.

Weitere Infos (externe Seiten):

[related-links]

Was sind Google Web Fonts und wo und wie wendet man sie an ?

Google standardisiert das Internet – Das ist eine Erkenntnis, der man sich nur schwerlich entziehen kann. Durch eine Vielzahl an Projekten und der Mitarbeit in vielen Gremien hat das Unternehmen seit seiner Gründung Mitte der 1990er für eine klare Standardisierung des Internets in vielen Belangen, von der Definition von HTML bis hin zur Einführung neuer Technologien zur Darstellung multimedialer Inhalte gewirkt, zum Vorteil aller.

Dieses Ziel, neue Standards zu setzen, hat sich auch in den Google Webfonts niedergeschlagen: Wo früher einheitliche Fonts verwendet wurden, ermöglicht der Service den Gestaltern heute die Nutzung einer Breiten Palette von Schriftarten bei der Gestaltung ihrer Webseiten, ohne dabei Plattform-gebundene proprietäre Fonts nutzen zu müssen, die die Gestaltung gerade dynamisch generierter Inhalte beeinflussen würde.

Was sind also Google Webfonts, so im genauen? Google stellt mit diesem Projekt eine Reihe zur kostenlosen Verwendung freier Fonts zur Verfügung die sie bei der Gestaltung ihrer Webseite nutzen können. Seit sich die CSS3-Funktion „@font-face“ auch bei Mozilla Firefox durchgesetzt hat, erlebt diese eine wahre Hochphase, da es durch diesen Befehl möglich ist, extern und ohne Zutun des Nutzers möglich ist, externe Schriftarten in das eigene Design einzubinden und so auch dynamische Texte in Schriftarten einzubinden, die gar nicht lokal beim User vorliegen, sondern nach Bedarf, hier bei den Quell-Repositories von Google nachgeladen werden.

Der Vorteil liegt vor allem bei der Lizenzierung der Schriftarten: Da viele kommerzielle Fonts nicht für die Bereitstellung durch ebensolche Funktionen wie „@Font-Face“ vorgesehen sind, stößt Google in eine Marktlücke, in der sie eigene Fonts verbreitet, über deren Lizenzierung das Unternehmen sicherstellt, dass sie frei verwendet werden können, ohne dabei den Designer mit untragbaren Lizenzgebühren zu belasten. Hierfür spricht auch das Motto von Google Webfonts: „Making the web beautiful“ – „Wir machen das Web schöner“

Das trifft durchaus zu, denn durch die mehr als 500 Fonts, die Google in diesem Projekt zur Nutzung bereit stellt, bietet sich eine große Fülle an gestalterischen Möglichkeiten, die auch von der Community genutzt werden, wie die Vielzahl an Adobe Photoshop Plug-Ins sehr deutlich beweist. Das Programm, das aktuell den faktischen Standard in Sachen Webdesign darstellt – da in allen größeren Agenturen als Werkzeug für das Design von Internetseiten genutzt, ermöglicht es durch diese Plug-Ins, valide Google Webfonts in die Gestaltung einzubinden und später korrekt bei der Darstellung als fertige Webseite auszugeben.

Damit die Datenübertragung besonders gering bleibt – viele Fonts haben in ihren mindestens 3 Formaten für die unterschiedlichen Plattformen durchaus ein Volumen an 1 Megabyte und mehr – werden die Fonts an der Schnittstelle Seitens Google komprimiert übertragen und erst auf dem Zielgerät entpackt: So ist ein schneller Seitenaufbau garantiert und die Verwendung von Webfonts nicht nur auf die Theorie beschränkt, die an den nicht überall verfügbaren Breitbandanschlüssen scheitert. Besonders gut arbeitet in diesem Zusammenhang das Projekt mit dem hauseigenen Browser Google Chrome zusammen, der sich nach und nach zum eindeutigen Marktführer auf allen x86- und x64-Plattformen entwickelt und damit das Tempo und die Richtung für die Konkurrenz vorgibt, seit der Mozilla Firefox durch einige Projektfehler vom Schnellstarter Chrome abgelöst wurde.

Die Google Webfonts sind aber nicht nur auf stationären Geräten Verfügbar: Durch die Google Fint API wurde es ermöglicht, die Schriftarten auch ebenso einfach in die beliebten Apps der Mobilen Geräte auf der Plattform Android einzubinden, denn die Gestaltung der Mini-Programme auf den mobilen Begleitern erfolgt im Regelfall ebenfalls durch das hochaktuelle CSS3, und die API stellt eine konkrete Möglichkeit da, die Corporate Identity auch in den mobilen Angeboten ihrer Kunden und Projekten zu gewährleisten. Das funktioniert so gut, das es sogar auf der Konkurrenzplattform iOS funktioniert, da die API intelligent auf die verwendete Plattform reagiert und so auch für die Apple-Nutzer stets den richtigen Font unkompliziert bereitstellt und sich so ganz neue Möglichkeiten in der Gestaltung mobiler Anwendungen und Webseiten ergeben.

Die Zielsetzung, der Quasi-Standard der Branche bei der Einbindung von systemfremden Schriftarten zu werden, ist noch nicht ganz erreicht, doch scheint in Anbetracht der massiven Vereinfachung der Zugänglichkeit und vor allem des langfristigen Hostings der Schriftarten durch Google nur noch eine Frage der Zeit zu sein, da die vielen Nischenlösungen, wie etwa das eigene Hosting von Free Fonts entfällt und schlichtweg auf das Angebot von Google zurück gegriffen wird, denn eines ist sicher: An Rechenleistung und Speicherplatz mangelt es dem Internetriesen Google ganz sicher nicht. Das lässt auf einen neuen, einfachen Webstandard vorausblicken, der das Internet eben doch ein wenig schöner machen wird, ganz nach dem eigenen Motto für Google Webfonts.

Bing sagt Google den Kampf an

Seit Microsoft Mitte 2009 die Suchmaschine „Bing“ gestartet hat, konnte sich der Onlinedienst zu einem gut durchdachten Werkzeug entwickeln. Dennoch blieb er in puncto Marktanteile bisher immer weit hinter seinem Rivalen Google liegen. Wie drastisch die Unterschiede in der Kundennutzung sind, haben wir in einem unserer letzten Artikel gezeigt. Doch nun bläst Microsoft (mal wieder) zum Gegenangriff. Der Software-Konzern plant die Integration von Social Content in die Suchergebnisse. Das bedeutet, dass relevante Inhalte von sozialen Netzwerken wie Facebook und Twitter bei Suchanfragen angezeigt werden. Damit würde Bing den Usern mehr Informationen bereitstellen als Google und idealerweise an Attraktivität gewinnen. Zusätzlich will Bing neue Algorithmen einführen, die eine höhere Treffsicherheit ermöglichen sollen. Mit diesen Neuerungen könnte Suchmaschinenoptimierung in sozialen Netzwerken an Bedeutung gewinnen. Zugleich soll es auch Veränderungen im Bereich Funktionalität geben. So soll der Service in Zukunft nicht einfach mehr nur der Suche bzw. dem Finden von Inhalten dienen, sondern auch aktiv an der Handlungsplanung der User beteiligt sein. Und auch die Facebook-Freunde werden aktiv in de Suchprozess einbezogen.

Neue Funktionen, neuer Seitenaufbau

Diese neue „soziale“ Schiene bringt auch ein neues Layout mit sich. Im „neuen“ Bing ist die Ergebnisliste in drei Spalten eingeteilt. In einer Spalte befinden sich die Treffer zur Anfrage, in der mittleren Spalte namens „Snapshot“ werden lokale Angebote angezeigt, die für die direkte Anwendung genutzt werden können – etwa Hotelreservierungen oder Ticketkauf. Die dritte Spalte, die sogenannte „Sidebar“, zeigt relevante Inhalte aus dem persönlichen Netzwerk auf Facebook & Co. Doch damit nicht genug, denn die Sidebar fördert auch die Interaktivität mit Freunden – ebenfalls eine Innovation für Suchmaschinen. Wie Microsoft in einem Blogbeitrag erklärt, will Bing die Meinungen und Kaufempfehlungen von Freunden in die Ergebnislisten einbeziehen. Schließlich hören die Verbraucher vor allem auf die Meinung ihrer Freunde und Familie, statt auf anonyme Informationen.

So kann der Nutzer beispielsweise seine Suchanfragen posten und die eigenen Kontakte um Rat fragen. Es wird bei der Suche also nicht nur auf die rationalen Algorithmen gebaut, sondern auch auf die persönliche Kommunikation zwischen den Usern. Einer der wichtigsten Indikatoren sind die „Likes“, welche die Facebook-User vergeben. Die „Gefällt mir“-Angaben von Freunden werden von Bing durchsucht, gefiltert und sortiert. Angezeigt werden dann die Ergebnisse, die den meisten Nutzen im Sinne der Suchanfrage bringen. Mit diesem Schritt will die „Entscheidungsmaschine“, wie Microsoft den Suchservice nennt, seinem Namen alle Ehre machen und die Wahl beim Shopping erleichtern.

Microsoft und Facebook – zwei Unternehmen mit gemeinsamer Geschichte

Dass Microsoft Bing die Nähe zu Facebook & Co. sucht, ist nicht neu. Bereits im Oktober 2010 verkündeten beide Unternehmen eine geplante Zusammenarbeit. Damals integrierte Facebook unter anderem den Karten-Dienst der Suchmaschine, um den Standort von Facebook-Mitgliedern anzuzeigen. Außerdem profitierte Microsoft von der üppigen Datensammlung, die Facebook zu seinen nunmehr 800 Millionen Nutzern weltweit angelegt hat. Das Thema „Social Search“ stand schon damals als Leitmotiv im Vordergrund. Für den Durchbruch Bings hat das nicht gereicht, Google bleib weiterhin stärker. Nun also erfolgt ein weiterer Angriff auf den Konkurrenten. Ab Juni wird sich zeigen, ob die Strategie aufgeht.

Weitere Infos (externe Seiten):

[related-links]

Wettbewerb der Suchmaschinen: Google weiterhin vorne, Yahoo verliert Anteile

Die Suchmaschinenbranche ist ein hart umkämpfter Markt, der von einigen großen Namen angeführt wird. Dazu zählen in erster Linie Yahoo, Bing und Google. Doch das Kräfteverhältnis zwischen den Anbietern ist nicht ausgeglichen, nicht alle bekommen ein gleich großes Stück vom „Markt“-Kuchen. Das lässt sich sehr gut lässt anhand der USA belegen. Laut Angaben des Marktforschungsunternehmens ComScore gaben die Menschen dort im Jahr 2011 insgesamt 17.106 Milliarden (!) Anfragen in die Suchmaschinen ein. 66,5 Prozent der Anfragen im April liefen über Google. Damit hängt der Internet-Riese seine Konkurrenz locker ab: Auf Platz 2 folgen die Microsoft-Angebote mit lediglich 15, 4 % der Suchanfragen. Yahoo, Ask und andere Anbieter müssen sich mit noch geringeren Werten zufrieden geben. Zum Vergleich: in Deutschland ist die Situation ähnlich eindeutig, wenn nicht sogar noch drastischer aus. Wie das Focus-Magazin berichtet, konnte Google hier seinen Marktanteil in den vergangenen Jahren auf rund 96 Prozent ausbauen. Bing hingegen hat von seinem ohnehin schon geringen Anteil von 2,7 Prozent innerhalb eines Jahres noch 1,6 Prozent verloren. Auch Yahoos Relevanz sinkt von 1,9 auf 0,9 Prozent. Die Ergebnisse basieren ebenfalls auf Untersuchungen von ComScore.

Googles clevere Strategie

Das Google auf dem internationalen Web-Parkett so erfolgreich ist, kommt nicht von ungefähr. Der Internetkonzern fährt nicht nur eine sehr offensive Werbestrategie in den Medien, sondern ist auch weltweit Partner zahlreicher großer Online-Portale. So ist die Googlesuche im deutschsprachigen Raum unter anderem bei Web.de, T-Online und Freenet.de eingebunden. Dabei setzte laut Focus.de letzterer Dienst bis vor Kurzem noch auf die Yahoo. Weiterhin bietet Google neben der Websuche eine Vielzahl an praktischen Diensten wie den Freemail-Service Gmail, das SEO-Tool Google Analytics, Google Maps oder auch YouTube. Der neueste Coup „Google+“ erfreut sich ebenfalls bereits großer Beliebtheit bei den Usern weltweit – sowohl bei Privatpersonen als auch bei Unternehmen. Gegen diese Omnipräsenz haben Bing & Co. kaum eine Chance. Der Spruch „Die Welt ist eine Google.“ enthält im Web-Universum schon einen wahren Kern. Und so sehr sich Googles Konkurrenten auch bemühen, sie können Googles Wachstum nicht aufhalten. Stattdessen stehlen sie sich gegenseitig die Marktanteile. Aktuell schadet zum Beispiel Bing den Wettbewerber Yahoo, der seine Kundschaft vor allem an den Microsoft-Dienst verliert.

Imagewandel und Konkurrenz-Qualität könnte Markt verändern

Die scheinbar unverrückbare Dominanz von Google wird vielleicht nicht ewig währen, denn im Moment scheint sich ein Sinneswandel bei den Usern zu vollziehen. Der Grund dafür ist eben genannte Allgegenwärtigkeit, welche die Menschen verunsichert. Offene Fragen zum Datenschutz, stetes Sammeln von Userinformationen und monopolistische Züge – all das schadet dem farbenfrohen Image von Google. Zudem bieten auch andere Suchmaschinen wie Bing qualitativ hochwertige Leistungen, die bei den Nutzern gut ankommen. Doch wie auch immer sich der Markt in Zukunft entwickelt, eines bleibt: die Suchmaschinenoptimierung. Bei der Masse an Suchanfragen ist und bleibt SEO für Unternehmen weiterhin eine lohnenswerte Maßnahme, um den eigenen Bekanntheitsgrad im Web zu steigern.

Weitere Infos (externe Seiten):

[related-links]

Google Updates der Algorithmen

Unlängst holte Google in einem lange vorbereiten Update seiner Suchalgorithmen zum vermeintlich großen Schlag gegen die Betreiber von Linkfarmen und Keyword-Stuffern aus und bearbeitet die Darstellung der Suche für eine bessere Bedienbarkeit der Suchmaske und der Ergebnisseite: Mit ganzen 52 Änderungen, darunter viele Anpassungen im Detail, wie etwa die im folgenden erwähnten Updates und Bugfixes für die Google-Suche:

Das Update „Raquel“ setzt eine höhere Gewichtung der Sprache in Suchergebnissen durch, die sich für die Betreiber mehrsprachiger Angebote mit landesspezifischen Domains als sehr nützlich erweisen wird, da ein deutscher Google-Nutzer selten etwas mit dem französischen Angebot von Online-Händlern wie etwa Amazon anfangen können, selbst wenn er zum Zeitpunkt der Suche über eine französische IP-Adresse im Internet surft, wie es etwa im Urlaub oder auf Geschäftsreisen der Fall sein kann.

„ImpOrgMap2“ ist der Codename für das Update, das bei international agierenden Organisationen, ähnlich dem „Raquel“-Update, eine höhere Gewichtung auf die Länder-TLDs legt. Durch das Update mit dem Arbeitstitel „Sudoku“ werden zukünftig dann nicht nur mehr TLDs und Kategorien von Webseiten für die regionale Bewertung und dem Erscheinen relevant sein, sondern auch einzelne statische wie dynamische Seiten zu dieser Bereitstellung regionaler und sprachlicher Inhalte für die entsprechende IP-Ranges.

Die Vermeidung von doppelten Inhalten in der Suche besorgt das Update-Paket „Xirtam3“, da Inhalte in der Vergangenheit bei gespiegelten Content für eine Redundanz innerhalb der Suchergebnis-Liste eventuell passender, andersartige Suchergebnisse auf die hinteren Seiten verdrängt haben. Damit die Inhalte einer gewissen Qualität bevorzugt werden und nicht mehr nur allein Pagerank und Aktualität schwerwiegendes Ranking-Kriterium sind, wirkt „NoRot“ auf den Suchalgorithmus ein, ausgenommen davon sind jedoch als News-Portal klassifizierte Seiten, die von den Google-Spidern als solche erkannt werden: Diese Profitieren von den Update-Paketen „Sep“ und „Citron“. Diese erhalten dadurch einen Vorrang nach Aktualität und Pagerank.

Weiterhin weist das neue Google-Update einige Verbesserungen und Änderungen im Bereich der Usability auf. So wird die Instant Preview verkleinert dargestellt und nicht mehr Seiten füllend wie zuvor. Die Option SafeSearch, die es erlaubt, ungewünschte Inhalte, die eventuell nicht angemessen für den Arbeitsplatz (NSFW) sind, oder eben Gewaltdarstellungen und anders geartete Inhalte, wurde ebenfalls überarbeitet, um die Webseiten- und Bildersuche mit besseren Suchergebnissen noch präziser auf den Nutzer-Suchbegriff einzurichten.

Eine Vielzahl von Nutzern begegnen diesen Änderungen am Suchalgorithmus sehr kritisch, da die personalisierte Suche bereits zu unterschiedlichen Ergebnissen auf gleichartigen Plattformen und Systemen bei gleichen Suchbegriffen und Keywords. Auch die Abwertung von Webseiten, die nach dem Ermessen der neuen Richtlinien von Google übermäßige Optimierung auf die Google-Spider aufweisen, führte zu einer regen Diskussion über die Beliebigkeit der Maßnahme, da bisher unklar ist, nach welchen Parametern nun eine Neubewertung vorgenommen wird. Das hat vor allem eine große Unsicherheit im Bereich der Suchmaschinenoptimierer zur Folge, die mit der Änderung frühzeitig auf ihre Portalen und Angeboten reagieren müssen, um nicht zu Riskieren dass die Jahrelang erarbeiteten Erfolge und Ranking-Platzierungen durch dieses Update zunichte gemacht werden.

Auch das Google weiter nicht von dem Ranking-Kriterium der Backlinks absehen will, sorgt für gespaltene Meinung im Lager der SEO und SEM-Unternehmern und Mitarbeitern. Gerade Matt Cutts, ein Google-Entwickler als Personifizierung des Konzerns im öffentlichen und offiziellen Google-Developement-Blog für die meisten Nutzer greifbar wurde, musste harsche Kritik einstecken, stellvertretend für das Unternehmen. So wird Kritisiert, das die Linkspam-Penalties ungerecht angewendet werden und weiterhin eine große Dominanz der Linkfarmen und Pseudo-Results-Generatoren sich auch nach dem Update in den vorderen Rängen der Suchergebnisse finden lassen, wenngleich einzelne Portale wie „dooyoo“ starke Einbrüche in den Resultate zu verzeichnen hatten, sind es doch nur „Tropfen auf den heißen Stein“ für die empörten Administratoren und SEO-Agents, die sich von Google auch durch die Nichtsanktionierung von AdSense-beinhaltenden Seiten besonders generiert.

Es bleibt also ein bitterer Beigeschmack nach dem Update, wenngleich die Verbesserungen im Bereich der Nutzerfreundlichkeit und Präzisierung der Suchmaschinenergebnisse ein kleiner Lichtblick sind, bleiben die professionellen Suchmaschinenoptimierer vorerst auf der Strecke und müssen mit herben Einbußen rechnen, wenn sie nicht am Google-eigenen Marketing AdSense teilnehmen, so das der Eindruck entstehen könnte, Google zielte darauf ab, die Besucher auf die gesponserten Suchergebnisse in den Anzeigen sowie der internen Angebote von Google umlenken will, was einen massiven Eingriff in die schon bisher als kritisch betrachteten Gleichwertigkeit von Suchergebnissen, quasi einer Verletzung der Netz-Neutralität im kleinen und einer Beschäftigungstherapie für SEO- und SEM-Marketer im großen, um diese ihrer Erfolge zu berauben.

Im Resümee bleibt es abzuwarten, wie die SEO-Branche auf diese neuerlichen Veränderungen reagieren wird und ob es gelingt, die derzeit stattfindende Kaffeesatzleserei und Mutmaßung über die neuen Bewertungskriterien der Suchmaschine in handfeste Ergebnisse und Maßnahmen, schlussendlich in Richtlinien für die Optimierung für das Erfassen durch Google-Spider umzusetzen. Im positivsten Fall bedeutet dass das Abdanken der Linkfarmen und Linkgrabber als dominierende search results und eine Umwandlung der Webseitengestaltung zurück auf den Nutzer, nicht mehr nur auf den Suchalgorithmus.

Google Analytics plant Tools zur Messung des Social ROI

In der modernen Internet-Ära findet immer häufiger die Verbindung von klassischem Webauftritt und Social-Media-Präsenz statt. Unternehmen und Privatpersonen teilen Inhalte ihrer Blogs und Homepages regelmäßig bei Facebook, Twitter & Co. Gleichzeitig implementieren sie Social Widgets auf den Websites, um den Präsentationskreis zu schließen. Spätestens seit Google mit seinem Network-Service Google+ selbst einen Fuß ins Social Web gesetzt hat, ist die Relevanz von Website und Social Media offiziell. Nun öffnet sich der Internetkonzern dem Thema Social Marketing noch ein Stück mehr und will in der Statistik-Software Google Analytics Reportfunktionen zur Messung des Return of Investment (ROI) bei Social Media-Diensten launchen.

Neue Funktionen sind gewohnt vielseitig

Wie Google auf dem Blog des Analyse-Tools berichtet, sind diverse Berichte geplant, die Websitebetreibern dabei helfen, den gesamten Traffic – sowohl auf der Website als auch bei Social Media-Diensten zu überblicken. Infolge dessen dienen die Berichte gleichzeitig der Optimierung des Unternehmensauftritts im Social Web. Neben dem reinen Traffic sollen die Messungen auch andere Aspekte erfassen. Zu diesen zählen unter anderem Social Plugins, Quellen, Conversions und der Social Data Hub. Die neuen Reportfunktionen sollen nicht nur Momentaufnahmen des Traffics messen, sondern auch die Entwicklung desselben protokollieren.

Zudem können Ziele festgelegt werden, die in den Berichten berücksichtigt werden. So erkennen Social-Media-Verantwortliche, ob und wann die unternehmerischen Ziele erreicht wurden. Mit dieser Funktion lässt sich die Wirkung veränderter Strategien in jeder einzelnen sozialen Quelle nachvollziehen. Insgesamt bieten die Berichte viele nützliche Funktionen, die KMU viel Geld sparen – oder im Idealfall – viel Geld einbringen können.

Zusammengefasst werden die Messungen im Google Analytics-Account unter einem eigenen Reiter mit der Bezeichnung „Soziale Netzwerke“. Somit können Nutzer mit einem Klick auf alle relevanten Ergebnisse zugreifen. Die Resultate werden in unterschiedlichen Diagrammen dargestellt und ermöglichen so einen schnellen Überblick über relevante Daten.

SEM, SEO und Social Media rücken näher zusammen

Die neue Verknüpfung von Website und Social Web bei Google Analytics beweist, dass Social Media im Marketing immer mehr mit SEO und SEM gleichzieht. Eine einzelne Strategie zu verfolgen genügt nicht mehr, denn die freie Marktwirtschaft kämpft mittlerweile mit allen Vertriebskanälen. Ein gesunder Mix aus Suchmaschinenoptimierung, Suchmaschinenmarketing und Social Media ermöglicht kleinen und mittleren Unternehmen eine ausgewogene Online-Präsenz. Das Monitoring erfolgt dank der neuen Berichte von einer zentralen Einrichtung – dem Google Analytics-Account.

Ein weiterer positiver Punkt: Bisher war es sehr umständlich für Unternehmen und Agenturen, das ROI von Social Media zu messen. Dieses Hindernis scheint mit den neuen Funktionen der Statistik-Anwendung nun überwunden. Die neuen Berichte sollen in den kommenden Wochen für alle Nutzer aktiviert werden.

Weitere Infos (externe Seiten):