Schlagwortarchiv für: google

Ein halbes Jahr „Google Penguin“ – Teil 1

Teil 1 – Was war, was ist: Wenig hat sich geändert.

Sechs Monate sind mittlerweile seit April verstrichen, seit dem Google zur Verbesserung seiner Suchergebnisseiten angesetzt hatte und mit dem Algorithmus-Update Penguin eine der größten Veränderungen seiner Bewertungskriterien und der Erfassung vollkommen neuer Relevanzkriterien den Schritt wagte, sowohl den grassierenden Manipulationen von Suchergebnissen durch „schwarze SEO“ eben wie dem Webspam den Kampf ansagte – und sich damit den Unmut eines nicht geringen Anteils der SEO-Branche zuzog welche für den Erhalt des Status quo skandierte, in dessen relativer Stabilität es sich die Optimierer gemütlich gemacht hatten.

Welchen Impact das Update auf die SEO-Branche tatsächlich hatte, das scheint bisher unausgesprochen, als traue sich niemand das Thema auch nur mit der Zange anzufassen.

Auch ist es um die Diskussionen, die noch bis in den späten Mai hinein die Gemüter in der SEO-affinen Blogosphäre erhitzten, erstaunlich still geworden und selbst Fälle des zu erwartenden Nachtretens einzelner Blogger gegen die überwältigende wie auch unausweichliche Veränderung, welche soviel Unmut und Unruhe bei vielen „Fachleuten“ erzeugte, blieb erstaunlicherweise aus.

Diese eigenartige Stille veranlasst mich, in den folgenden Artikeln eine mögliche These zur Ursächlichkeit dieser ausbleibenden Reaktion aufzustellen und nach einem halben Jahr Bilanz zu ziehen, wie sich die SEO unter den Richtlinien des Eingangs umstrittenen Algorithmus, der mit dem Roll-Out von Google Penguin in Betrieb genommen wurde, entwickelt hat, um Anhand der gewonnenen Erkenntnisse die Lage der SEO-Branche einzuschätzen.

Auf Worte folgen Taten – Google realisiert eine umfassende Erneuerung des Algorithmus dessen Auswirkungen lange vor Roll-Out bekannt waren

Das Google den Suchalgorithmus im Zuge des Roll-Out von Penguin anpassen würde, war bereits sei langem bekannt, denn bereits nach dem Panda-Update in 2011, dessen Schwerpunkt bereits im Kampf gegen den Webspam lag, wurde offen von der zukünftig tendenziell stärker ausfallenden Bekämpfung von Spam und den Methoden der „Black-Hat SEO“ gesprochen. Das Update kündigte immerhin einen Wechsel der Paradigmen in der bisherigen Funktionsweise und Schwerpunktlagerung der Suchmaschine an und Google machte daraus kein Geheimnis.

Es hatte, das konnte man der damaligen Reaktion weiter Teile der SEO-Branche entnehmen, nur schlichtweg niemand den Vertretern des Konzerns abgenommen. Niemand schien zu glauben, dass Google mit Penguin tatsächlich ernst machen würde, schließlich wurde eine Verschärfung von Richtlinien und Ranking-Kriterien quasi alljährlich mit jedem neuen Update angekündigt, doch blieb eine ausschlaggebende Veränderung im Tagesgeschäft für die Branche mit Ausnahme der kurzen Phase der Anpassung wenn es einmal doch zu einer Änderung kam, dessen Auswirkungen auch für die SEO-Professionals bei der Ausübung ihrer Arbeit spürbar waren.

Jene, die der erneuten Kampfansage keinen Glauben schenkten und dem Konzern nicht abnahmen endlich Konsequenz beim Umgang mit Webspam und illegitimer SEO zu zeigen, geschweige denn einer partiellen Neuausrichtung des Suchalgorithmus, waren es genau diese Zeitgenossen, welche in Folge am lautesten Klage gegen das Unternehmen führten, spätestens als sich die Änderungen am Suchalgorithmus dann auch in den Rankings und auf den SERPs bemerkbar machten. Und sie feststellen mussten: „Dieses Mal macht Google ernst!“.

Mit einer Portion Empathie für die revoltierenden SEO-Professionals und die Situation aus deren Augen betrachtet erscheint die Ablehnung tiefgreifender Änderungen in einem über Jahre hinweg nahezu unveränderten beruflichen Umfeld als wenig attraktiv. Ziehe ich einen gewissen Hochmut mit ein, hatte man doch schließlich die Branche erst durch seine Arbeit definiert, ja geradezu Erfunden, fällt es mir leicht, die Gefühlswallungen als Mensch zu verstehen, wenngleich ich sie aus professioneller Sicht strikt ablehne.

Es bleibt subjektives Mitgefühl für die revoltierenden SEO-Professionals. Objektiv ist Penguin jedoch eine alternativlose Notwendigkeit für die Zukunft

Jedoch vom Standpunkt einer objektiven und möglichst wertfreien Warte waren die vorgebrachten Argumente der offiziellen Repräsentanten des Suchmaschinenkonzerns schlagend und ergeben sich als logische Weiterentwicklung der Algorithmen als vollkommen selbstverständlich, da sich mit den neuen Technologien der vergangenen Jahre und der Etablierung dieser, auch vollkommen neue Möglichkeiten einer immer präzisieren und durchdachten Methodik zur Erbringung von Suchergebnissen in höheren Qualitäten auftaten, welche die Auswertung der Daten sozialer Netzwerke bis auf die Individualebene hinab erlaubte, die in künftigen Ausgaben auf Suchergebnisseiten Berücksichtigung finden sollte.

Umso sinnvoller erscheint es daher, im nächsten Schritt die bisherigen Inhaltskonzepte abzulösen, da diese sich ausnahmslos an den Notwendigkeiten einer größtmöglichen Anpassung der optimalen Indexierung durch die Suchmaschine ausgesetzt sah. Der eigentliche Konsument, der Mensch, fiel bei diesem Konzept nämlich auf die hinteren Plätze zurück, weshalb die Ablösung der technischen Inhaltsgestaltung nur durch eine Neuausrichtung der Content-Gestaltung mit dem menschlichen Nutzer als Mittelpunkt der Aufmerksamkeit zwingend erfolgen musste.

Förderung der Qualität von bereitgestelltem Content als zukunftssicheres Modell. Das Vorgehen gegen Webspam und Black-Hat SEO wird konsequent in die Tat umgesetzt

Diesem Konzept folgte sodann die Verlagerung der im Rahmen des Rankingprozesses neu definierten Relevanz-Kriterien bei der Bewertung von Web Content, der die Ausrichtung auf hochwertige und keyword-relevante Inhalte, besonders aus fachkundiger oder anderweitig qualifizierten Quellen mit einer positiven Entwicklung der Platzierung in den SERPs, zuzüglich von Modifikatoren durch soziale Elemente wie Empfehlungen, Verweilzeit und Teilen der Inhalte auf Plattformen sozialer Netzwerke, anhand derer eine Prädiktion der Relevanz des bereitgestellten Inhalts präziser dargestellt werde könnte. Gleichzeitig würde mit dieser Änderung in der Verfahrensweise ein sanfter, wenngleich unausweichlicher Anpassungsdruck hin zur neuen Inhaltskonzeption erzeugt, der die Zielsetzung in einen greifbaren Zeitraum fassbar werden ließ und somit Erfolg in der Umsetzung versprach.

Durch den Einsatz weiterentwickelter Prüfmethoden würde der Suchalgorithmus mit höchsten Erkennungsraten und Fehlindikationen im niedrigen Promillebereich in die Lage versetzt den neuartigen Formen der Manipulation von Suchergebnisplatzierungen, die vorherige Versionen nicht zweifelsfrei feststellen konnte, erfolgreich entgegen zu wirken. Automatisierte Prozesse führten sodann nach Feststellung eines Manipulationsversuches in Echtzeit zur Einleitung von Sanktionen, gegebenenfalls auch der Übergabe an die Prüfer des Google Webspam Team um eine langfristige oder permanente Ausgliederung der Erfassten Webseite aus dem Suchindex von Google zu veranlassen.

Eine fehlerfreie Erkennung von Manipulationsversuchen und unnatürlicher Entwicklungsmuster verbessert die Konsistenz der Google SERPs

Mittels Datenabgleichs würde der Algorithmus in der Lage sein, eine zuverlässige Erkennung von unnatürlichen Entwicklungsmustern beim Aufbau der Backlink-Strukturen zu prüfender Webseiten durchzuführen und somit jede Form von Manipulationsversuch bereits im Entwicklungsstadium zu erkennen noch bevor die zur Manipulation ausgerichtete Webseite einen Einfluss auf die Qualität der Suchergebnisse im vom Optimierer angestrebten Zielbereich nehmen könnte.

So präsentierte sich mir der langfristige Plan zur Entwicklung zeitgemäßer Erhebungsmethoden und Verhinderung von manipulativen Einflussnahmen, die das Gebrauchserlebnis als unausweichliche Schnittmenge der Google zugrunde liegenden Methode schmälerte. Ein Plan, der hinter den eingreifenden Veränderungen unter dem Projektnamen „Penguin“ steckte und die Konkurrenzfähigkeit und Qualitätssicherung der von Google bereitgestellten Suchergebnisse auch in naher Zukunft sichern sollte.

Lesen Sie nächste Woche einen weiteren Teil der Serie Ein halbes Jahr „Google Penguin“

Die komplette Serie finden Sie hier:

SEO: Don’t become evil, Google! Teil 3 – Wir spielen ein Gedankenspiel

Verdachtsmomente einer Verschleierungstaktik von Google über die Zukunft des SEO in Verbindung mit der Suchmaschine

Teil 3 – Wie sähe eine Eskalation der Ansätze der Suchmaschine zum Ausbooten der SEOs aus? Wir spielen ein Gedankenspiel.

Es bleiben zu dieser Teilbetrachtung der Figur des „Over optimizating“-SEO nur die Widerlegung der mit der Kriminalisierung einer, von Google als übermäßig erklärten Ausschöpfung von Potential: Ist der Webmaster unfähig, schadet er nur sich selbst. Ist der Webmaster begabt, verletzt er keine Richtlinien und nutzt die Mechanismen, die durch Google selbst durch die unterschiedliche Bewertung von Webseiten erst bereitgestellt hat. Müsste es nicht sogar das Ziel jedes SEO-Professionals sein, einmal im Leben, ob als Gesellenstück oder Meisterwerk, sich genau an ein solches Projekt zu setzen? Und zuletzt bleibt noch die Frage: “Mr. Cutts, welches Problem haben sie mit der SEO sowohl als Berufsfeld als auch als Konzept?“

Um diese Frage zu beantworten, haben wir die einige Aussagen des Abteilungsleiters für Ergebnisqualität übersetzt und Anhand des verwendeten Wording von Matt Cutts erlauben wir uns, die gezeigten Ansätze weiterzudenken:

„Es wird im Zuge des Roll-Out des „Penguin“-Updates ein Spielfeld planiert, welches zwar nach wie vor von einer gut aufgestellten und trainierten Fußballmannschaft genutzt wird. Da gibt es keine Widerrede, denn das gehört unverrückbar zur weiteren Planung der Entwicklung der von uns erwünschten Ergänzung der Vielfalt der Mitspieler, die bald zwangsläufig in die Fußballmannschaft integriert werden

Es wird unweigerlich in dieser Form stattfinden, in Zukunft werden dort bevorzugte Sportler gefördert, die von uns durch die Behinderung mittels bleierner Fußmanschetten der ursprünglich dort Trainierenden zunächst auf dem Niveau der neuen Trainingskameraden anzupassen und eine Chancengleichheit herzustellen. Außerdem wird der Verein von einem Fußballclub zu einem Pilates Fitness Club umgewidmet.

Als werden Platzwart unseren neuen Mitgliedern freieren Zugang zu unseren Sportanlagen gewähren und als einziges Mitglied der Jury ihre Leistungen vermehrt positiv bewerten, wenn notwendig indem wir die Bewertungen zu ihren Gunsten ändern. Sie mögen kein Pilates? Das tut uns leid, aber vielleicht können sie sich ja durch Teilnahme am Training in der Sporthalle gefallen an der neuen sportlichen Ausrichtung ihres Vereins gewinnen!“

Auf welches Spielfeld sich Matt Cutts bei dieser, als Sinnbild kommunizierten Ankündigung bezieht, ist leicht zu erkennen wenn man den Kontext einer großen Änderung vieler bisher gültiger Regeln bis hin Sanktionierung einer vermeintlichen „Übermäßigen Suchmaschinenoptimierung“ betrachtet.

Bei dem zur Planierung vorgesehenen Spielfeld handelt es sich um den auf die Ergebnisseiten der Google Suche, auf der zur Zeit noch der rege Wettbewerb des Ringens der SEO-Professionals um die optimale Positionierung ihrer Inhalte auf der ersten Seite der für ihre keywordrelevanten SERPs abspielt.

Doch welchem Zweck würde eine solche Planierung eines Spielfelds und der damit einhergehenden Zerstörung der darauf gewachsenen Strukturen dienen, sollte die Auslegung der Worte des Chefs der Google-internen Qualitätssicherung zutreffen? Um das besser zu verstehen, ist es angeraten sich näher mit der Umstellung zukünftiger Gestaltungs- und Inhaltskonzepte auf die Bedürfnisse des menschlichen Konsumenten zu beschäftigen, welcher die heute vorherrschenden Formgebung von technischer und inhaltlicher Realisierung von Webseiten, bei der vorrangig bestimmend die Ausschöpfung des größtmöglichen Faktors einer positiven Gesamtbewertung durch den Suchalgorithmus von Google, dem klassischen SEO also, ersetzen soll und in Zukunft dessen Platz einnehmen soll. Das daran ein Funken Wahrheit stecken könnte, findet man auch im vorhergehenden Satz aus dem Zitat von Matt Cutts zum Thema „Over optimization“:

„[..] those people […] have been […] “overly” doing their SEO, compared to the people who are just making great content and trying to make a fantastic site,“

Es klingt zunächst sympathisch, was Cutts hier von sich gibt, oder? Fast schon, als handle es sich um den biblischen Kampf zwischen dem kreativen, doch zu klein geratenen David und dem „overly“ agierenden Riesen Goliath, bei dem Google nun für den kreativen Underdog Partei ergreifen will. Doch hinter dieser Aussage steckt zunächst einmal nur eine weitere Ankündigung: Wie sich eine „Überoptimierung“ gestaltet, lässt sich variabel bestimmen und dass es so kommt, verrät der Google-Offizielle mit Hauptauftrag „Search Quality“ nur zwei Sätze später auf eine freundliche und harmlos anmutende Weise:

[…] We try to make our relevance more adaptive so that people don’t do SEO….we handle that […]

Hatte ich noch am Anfang dieser Bilanzierung über die ausgebrochene Hysterie unter den deutschen SEO-Professionals ein inneres Oktoberfest gefeiert, so lässt sich die Gesamtheit der Aussagen, die im Kontext dieses Gesprächsauszuges fallen, fast unweigerlich als etwas anderes als die Kriegserklärung der Google Inc. gegen die SEO-Branche verstehen, deren erster Schritt der Roll-Out des unter dem Projektnamen„Penguin“ Update des Google-Algorithmus verstanden werden müsste, wenn man nicht jeden Glauben in das inoffizielle Motto des Konzerns stecken würde: „Don’t be evil!“.

Das war nun der letzte Beitrag dieser 3teiligen Mini Serie.

Auf Ihre Kommentare dazu freue ich mich!

Hier eine Auflistung der kompletten Serie:

 

Dies ist ein Artikel von Jan Hinzer

SEO: Don’t become evil, Google! Teil 2 – Gute Miene zum Bösen Spiel

Verdachtsmomente einer Verschleierungstaktik von Google über die Zukunft des SEO in Verbindung mit der Suchmaschine

Teil 2 – Gute Miene zum Bösen Spiel – Folgt nun eine schrittweise Erhöhung der Sanktionen für professionell technisch optimierte Webseiten?

Auf einmal war es in aller Munde. Seit Matt es verdeutlichte, das eine Überoptimierung von Webseiten einen Penalty auslösen würde, brodelte die Gerüchteküche ebenso wie die Gemüter der Betroffenen SEO-Agents. Dabei war bis zur öffentlichkeitswirksamen Präsentation des auf den „Panda“ folgenden Update, welches unter dem Projektnamen „Penguin“ bekannt geworden ist, wurde diese noch nie offiziell aufgegriffene Problematik nun zu einem Problem von so großem Ausmaß, das es notwendig sein sollte, es durch die Vergabe von Penaltys zu bekämpfen?

Und überhaupt: Wem entstand überhaupt ein Schaden aufgrund einer übermäßigen Optimierung einer Webseite? Schaden für Außenstehende droht dadurch keiner und ebenso wenig wird dadurch der Versuch unternommen, vorhandene Lücken innerhalb der Architektur des Algorithmus zur Manipulation auszunutzen. Darf ein Webmaster sich selbst schädigen? Steht ihm grundsätzlich das Recht zur Unfähigkeit zu? Nach meinem Verständnis hat der Beispiel-Webmaster alles Recht der Welt, seine Webseite den unsinnigsten und sinnlosesten Maßnahmen auszusetzen, solange er daran gefallen findet.

Eine tatsächliche übermäßige Nutzung von Maßnahmen zur Optimierung hätte im schlimmsten Fall eine Abwertung zur Folge, die im Zuge der Erkennung einer forcierten künstlichen Linkstruktur auf der Webseite hätte allerhöchstens das Gesamtranking derselben herunter gezogen. Einziger Geschädigter wäre in diesem und jedem anderen Fall alleine der ungeschickte Webmaster der Seite, der für sein Handeln Alleinverantwortlichkeit trägt, solange die sich daraus ableitenden Auswirkungen niemand anderen zu Schaden kommen lassen. Solange diese Grenze unberührt bleibt, hat auch eine Google Incorporated sich nicht in die Belange anderer Einzumischen, wenn diese auf ihren eigenen Servern stattfinden.

Dann hält es nämlich Google ganz anders, welches in Form seiner Crawler ungefragt durch die digitale Haustür des Webservers als unberufener Gast herein kommt, und alles was er in der Wohnung vorfindet bis ins Detail anglotzt und aufschreibt und sich sogar Notizen darüber macht, sobald er eines Buches oder von mir verfasster Schriftstücke habhaft werden kann. Er fasst einfach alles an, was man nicht schon im Vorfeld vor ihm hinter Schloss und Riegel verstecken könnte, einfach alles und trotz dicker Schlösser vor Tresor, Schrank und Tür: Einmal probierte er es immer. „Man kann ja nie wissen, ob sich nicht dennoch ein Türchen öffnet“, so schien es sein Motto zu sein

Moralisch gesehen ist diese Abstraktion des Handelns der Suchmaschine verwerflicher als das des Webmasters, insbesondere da sie der dedizierten Willensäußerung eines oder mehrerer Menschen, manifestiert in der Niederschrift seiner Formeln und Algorithmen stattfand, welche in ihrer Gesamtheit genau eben jenes Verhalten aufweisen, welches ihnen der schöpferische Wille des Erschaffers aufgetragen hat, womit das Entwicklerteam der Iterationen der Algorithmen der Google Inc. die Verantwortung für das Handeln ihrer Kreatur tragen, das alltäglich den Versuch unternimmt, durch Tür zu treten, die ihm auf seinem Weg begegnet und damit wohl ein Meister des digitalen Hausfriedensbruchs sein dürfte.

Und im Gegensatz zu beiderlei der Aspekte des Webmasters, den Matt Cutts so trefflich als negatives Beispiel brandmarken wollte, hat dazu im Vergleich das Verhalten der weltlichen Manifestation des Willens eines Entwicklerteams, nämlich der von Google täglich in die weiten des Internets entsandten Crawler, die Türe zu meinem Haus ungefragt durchschritten und damit meinen Wunsch, nicht von ihm besucht zu werden, potentiell verletzt. Selbst wenn ihn nun hinaus werfe und ihm lebenslanges Hausverbot erteile, bleibt doch die Erinnerung an das unerwünschte Eindringen in meinem Besitz, weder in folge einer Einladung noch einem offenen Treffen. Der Google Crawler führt den Willen aus, den man ihm bei seiner Programmierung auftrug und ihn dazu anwies, jeden Tag und jede Nacht an jeder Haustüre des Internets zu rütteln um zu sehen, ob die Türe sich öffnet, nur damit er sich an den Dingen ergötzen kann, die er dort vorfindet, sie sich einprägt und aller Schrift welcher er habhaft werden kann zu lesen beginnt, ungeachtet von der Achtung vor fremden Besitz oder gar dem Postgeheimnis.

Und nun frage ich sie, lieber Leser:
„Was hat der Webmaster anderen getan, das er für sein Handeln bestraft wird?“

Das einzige Gedankenmodell, das in diesem Kontext Sinn machen würde, wäre aber unweigerlich mit dem möglicherweise zu Zwecken der Diskreditierung vorsätzlichen falschen Gebrauch des Begriffs „Übermäßig“ verbunden. Hier würde es sich nämlich um einen Webmaster handeln, der das auf seine Webseite angewandte Gesamtkonzept der Suchmaschinenoptimierung bis ins feinste Detail ausgearbeitet hat. Der Webmaster, der ein solch vollumfängliches Konzept fehlerfrei in die Praxis umsetzt, gehört eher umgehend und auf schnellstem in eine SEO-Agentur auf einen Managerposten und nicht in die offensichtliche emotionale Entladung einer ranghohen Führungskraft der Marktführenden Suchmaschine im Rahmen einer in einem schlechten Beispiel verborgenen Krypto-Verleumdung dafür, das er von, ihm zur Verfügung stehenden Werkzeugen Gebrauch gemacht hat.

Auf Ihre Kommentare dazu freue ich mich!

Hier eine Auflistung der kompletten Serie:

 

Dies ist ein Artikel von Jan Hinzer

SEO: Don’t become evil, Google! Teil 1 – Die neuen Schwerpunkte

Verdachtsmomente einer Verschleierungstaktik von Google über die Zukunft des SEO in Verbindung mit der Suchmaschine

Teil 1 – Die neuen Schwerpunkte:
als ersten Schritt zu einem in sich geschlossenen Googlenet?

Schöne neue Zukunftsmusik mit Google. Genauere Ergebnisse durch bessere Algorithmen, höhere Wertung von Inhalten vor technischer Optimierung, alles würde noch besser, sprichwörtlich blühende Landschaften warteten auf das Internet, wollte man den Aussagen des Konzerns glauben schenken.

Doch das alles verliert seinen Glanz, je länger man sich mit den Kommentaren zur Entwicklung auseinandersetzt, nur eben das sie auf freundliche Worte verzichten und ohne die geschickte Inhaltspräsentation des „Penguin“-Updates in Fragmenten gesammelt und dokumentiert wurden, auskommen mussten.

Die von den Google-Officials in Interviews getätigten Aussagen, vorrangig aber Matt Cutts, dessen Abteilung mit der Umsetzung der neuen Richtlinien betraut war und welcher sehr häufig und oftmals ohne „Blatt vor dem Mund“ im Klartext sprach, wenn es um die Thematik der Zukunft der Suchmaschinenoptimierung für die Google Suche ging.Und das mit einer an den Tag gelegten Deutlichkeit die man so in den, von positivem Wording und der Hochglanzpräsentation Pressemeldungen des „niemals böse werdenden“ Konzerns nicht findet.

Google, das mit seinen als Innovationen daherkommenden Veränderungen die Erschließung neuen Datenminen und der Ausbeutung bereits vorhandener Datenberge schönredet und Innovationen, von denen jede einzelne bekanntermaßen einen Offenbarungseid bedeutet

gegenüber dem Fernmeldegeheimnis und dem Handling vertraulicher Daten und Verlusterklärung an ihre Datenhoheit darstellt und auf den Servern der Suchmaschine zu einer personengebundenen Kollektion aller jemals von ihnen erfassten Daten eine digitale Autobiographie ihrer selbst zusammengefügt wird, auf welche die erfassten Individuen niemals Zugriff erhalten würden.

Hatte man sich nicht im Vorfeld über die vermeintlichen Verschwörungstheorien jener SEOs lustig gemacht, welche sich in Artikel und Kommentarspalten in die digitale Öffentlichkeit wagten,

Das man seitens Google einen Krieg gegen die Suchmaschinenoptimierer führen würde, klang vor zwei Tagen noch wie hanebüchener Unsinn und gerade jetzt wurde meine Überzeugung durch den Ausschnitt einer Stellungnahme von Cutts zum Thema der neuerdings mit einer Penalty versehenen „Überoptimierung“ von Webseiten konfrontiert, in denen das, was ich von anderen gehört und gelesen hatte, in dicken, gedruckten Lettern zwischen den Zeilen vor mir liegen hatte. Was mich beunruhigte?

Das Projekt „Penguin“ vermutlich als ersten Schritt einer Serie sauberer „Cutts“ , vor allem aber der einseitigen Ausgrenzung der SEOs

Matt Cutts, der Leiter der Google-internen Search Quality, trat im Rahmen der SXSW in April dieses Jahres in Austin (TX), als Redner auf. Durch die erneute Änderung der Spielregeln der Suchmaschine und der seit dem „Panda“-Update in 2011 erschien es, als würde der Markt keine Ruhe in Ermangelung von sich einpendelnden Ergebnissen finden. Entsprechend schroff scheint der Ton ausgefallen zu sein, der dem Repräsentanten der Google Inc. entgegen schlug und ihm scheinbar für einen Augenblick die Kontrolle entglitt und er sich zu einer Aussage hinreißen ließ, welche bei korrekter Deutung einer direkten Absage gegenüber den versammelten SEO-Experten gleichgekommen sein musste.

Auf den ersten Blick handelt es sich nur um eine wenig formelle Erklärung wie in Zukunft mit dem, seit „Penguin“ offensichtlich wahrgenommen, zumindest aber erst seit dieser Iteration offen kommunizierten Problems der sogenannten „Over optimization“, welche durch den neuen, zu diesem Zeitpunkt bereits kurz vor dem Roll-Out befindlichen Algorithmus rigoros sanktioniert werden würde.

Soweit so gut, denn „zu viel“, das wissen all jene, die mit der SEO vertraut sind, ist schließlich unbestreitbar eine gute Maßnahme für den Erfolg einer „On-Page“-Optimierung, wie könnte man Cutts also widersprechen? Ich bin mir sicher, den tieferen Sinn seiner Worte und die Wahrnehmung wird ohnehin durch die aufgebrachten Anwesenden nicht ganz auf das Rednerpult fokussiert gewesen sein. Doch wieder einmal sollte es sich bestätigen, das man Männern, die wie Matt Cutts am oberen Ende eines Konzerns sitzen, ganz genau zuhören sollte wenn sie reden.

Denn im Verlauf des Gespräches auf der SXSW schien der Repräsentanten der Suchmaschine selbst nicht ganz bei der Sache gewesen zu sein, denn im Verlauf seiner Ansage gegen den übermäßigen Einsatz von SEO-Maßnahmen schien er sich von seinem inneren emotionalen Aufruhr bei der Wahl der Worte leiten zu lassen. Diese werde ich im folgenden aus dramatischen Gründen in Teilzitaten behandeln:

“[….]We want to sort of make that playing field a little bit more level. So that’s the sort of thing where we try to make[…]„, Matt Cutts – Google Inc.

Diesen Satz muss man vor allem in seinem Kontext lesen, vielleicht auch diesen Schritt einige Male wiederholen um ihn dann auf sich wirken lassen. Gefallen sind diese Worte im bereits angerissenen Kontext der Abwertung von Webseiten durch die Vergabe eines algorithmischen Penalty aufgrund von „Over optimization“.

Auf Ihre Kommentare dazu freue ich mich!

Hier eine Auflistung der kompletten Serie:

 

Dies ist ein Artikel von Jan Hinzer

Veröffentlicht Google demnächst Quality-Guidelines?

In einem kürzlich veröffentlichten Webmaster-Video beantwortet Matt Cutts eine Frage zu der Einflussnahme von Googles menschlichen Qualitätsprüfern auf die SERPs. Darin stellt er klar, dass die Bewertung keinen direkten Einfluss auf das Ranking haben. Viel mehr dienen die Beurteilungen der Quality Rater dazu, die Algorithmen zu überprüfen und Verbesserungen zu entwickeln. Doch die interessantere Aussage macht er gegen Ende des Videoclips. So deutet er nämlich an, dass die Guidelines der „human quality rater“, nach denen diese Websites beurteilen, womöglich bald publiziert werden.

Zwar wurden diese, nach Cutts eigener Aussage, vor einiger Zeit teilweise „geleakt“, doch geschadet hat dies dem Konzern nicht. Warum also nicht offensiv mit dem Thema umgehen und die Guidelines öffentlich zugänglich machen? Die so genannten „Quality Rater’s Guidelines“ wären die ersten, die Google bewusst preisgeben. Sonst setzt der Suchmaschinen-Gigant eher auf strenge Geheimhaltung, wenn es um interne Arbeitsprozesse geht. Grund genug, sich die Tätigkeiten der menschlichen „Quality Rater“ einmal genauer anzuschauen.

Was genau tut ein Quality Rater?

Laut Matt Cutts dienen die Qualitätsprüfer nicht nur für die Überprüfung und Optimierung der Algorithmen. Viel mehr sollen sie mit gesundem Menschenverstand die Suchergebnisse beurteilen – sowohl innerhalb der Ergebnisliste als auch im Einzelnen. Dabei besuchen sie unter anderem Websites, die bei Suchanfragen angezeigt wurden, schätzen die inhaltliche Relevanz sowie die Strukturen der Inhalte ein und halten nach Spam Ausschau. Ihre Eindrücke geben sie anschließend an Googles Ingenieure weiter. Sie gehen also den Qualitätsproblemen auf den Grund und arbeiten eng mit den SEO-Experten von Google zusammen. Durch die Arbeit der Prüfer soll die Qualität der Suchergebnisse verbessert dauerhaft gewährleistet werden. Auch wenn kein direkter Einfluss auf die Resultate besteht, so ist doch ein passives Einwirken durch die manuelle Kontrolle vorhanden. Wer sich für den Job interessiert, kann sich übrigens bei Google bewerben. Die Aspiranten erwartet nach er Zusage eine interne Ausbildung, in denen sie die nötigen Fähigkeiten erwerben. Außerdem lernen sie die Maßstäbe für die Überprüfung kennen.

Bedeutung für die Suchmaschinenoptimierung

Die Qualitätsprüfer ergänzen die SEO-Maschinerie mit all ihren Algorithmen und Strukturen um eine menschliche Komponente. Sie sorgen dafür, dass Websites nicht für Suchmaschinen entwickelt werden, sondern für die Besucher. Das ist eine klare Ansage an die SEO-Branche. Es gilt auf die Qualität der Inhalte zu achten, einen hohen Mehrwert für die Besucher zu schaffen und mit legalen Mitteln die Sichtbarkeit der Homepage zu steigern. Sollten die Guidelines tatsächlich publiziert und somit für Website-Betreiber zugänglich gemacht werden, dann werden diese bedeutende Einblicke in die Wertevorstellungen von Google liefern. Auch das käme der Qualität von Webpräsenzen sicherlich zugute.

Weitere Infos (externe Seiten):

[related-links]

Was sind Google Web Fonts und wo und wie wendet man sie an ?

Google standardisiert das Internet – Das ist eine Erkenntnis, der man sich nur schwerlich entziehen kann. Durch eine Vielzahl an Projekten und der Mitarbeit in vielen Gremien hat das Unternehmen seit seiner Gründung Mitte der 1990er für eine klare Standardisierung des Internets in vielen Belangen, von der Definition von HTML bis hin zur Einführung neuer Technologien zur Darstellung multimedialer Inhalte gewirkt, zum Vorteil aller.

Dieses Ziel, neue Standards zu setzen, hat sich auch in den Google Webfonts niedergeschlagen: Wo früher einheitliche Fonts verwendet wurden, ermöglicht der Service den Gestaltern heute die Nutzung einer Breiten Palette von Schriftarten bei der Gestaltung ihrer Webseiten, ohne dabei Plattform-gebundene proprietäre Fonts nutzen zu müssen, die die Gestaltung gerade dynamisch generierter Inhalte beeinflussen würde.

Was sind also Google Webfonts, so im genauen? Google stellt mit diesem Projekt eine Reihe zur kostenlosen Verwendung freier Fonts zur Verfügung die sie bei der Gestaltung ihrer Webseite nutzen können. Seit sich die CSS3-Funktion „@font-face“ auch bei Mozilla Firefox durchgesetzt hat, erlebt diese eine wahre Hochphase, da es durch diesen Befehl möglich ist, extern und ohne Zutun des Nutzers möglich ist, externe Schriftarten in das eigene Design einzubinden und so auch dynamische Texte in Schriftarten einzubinden, die gar nicht lokal beim User vorliegen, sondern nach Bedarf, hier bei den Quell-Repositories von Google nachgeladen werden.

Der Vorteil liegt vor allem bei der Lizenzierung der Schriftarten: Da viele kommerzielle Fonts nicht für die Bereitstellung durch ebensolche Funktionen wie „@Font-Face“ vorgesehen sind, stößt Google in eine Marktlücke, in der sie eigene Fonts verbreitet, über deren Lizenzierung das Unternehmen sicherstellt, dass sie frei verwendet werden können, ohne dabei den Designer mit untragbaren Lizenzgebühren zu belasten. Hierfür spricht auch das Motto von Google Webfonts: „Making the web beautiful“ – „Wir machen das Web schöner“

Das trifft durchaus zu, denn durch die mehr als 500 Fonts, die Google in diesem Projekt zur Nutzung bereit stellt, bietet sich eine große Fülle an gestalterischen Möglichkeiten, die auch von der Community genutzt werden, wie die Vielzahl an Adobe Photoshop Plug-Ins sehr deutlich beweist. Das Programm, das aktuell den faktischen Standard in Sachen Webdesign darstellt – da in allen größeren Agenturen als Werkzeug für das Design von Internetseiten genutzt, ermöglicht es durch diese Plug-Ins, valide Google Webfonts in die Gestaltung einzubinden und später korrekt bei der Darstellung als fertige Webseite auszugeben.

Damit die Datenübertragung besonders gering bleibt – viele Fonts haben in ihren mindestens 3 Formaten für die unterschiedlichen Plattformen durchaus ein Volumen an 1 Megabyte und mehr – werden die Fonts an der Schnittstelle Seitens Google komprimiert übertragen und erst auf dem Zielgerät entpackt: So ist ein schneller Seitenaufbau garantiert und die Verwendung von Webfonts nicht nur auf die Theorie beschränkt, die an den nicht überall verfügbaren Breitbandanschlüssen scheitert. Besonders gut arbeitet in diesem Zusammenhang das Projekt mit dem hauseigenen Browser Google Chrome zusammen, der sich nach und nach zum eindeutigen Marktführer auf allen x86- und x64-Plattformen entwickelt und damit das Tempo und die Richtung für die Konkurrenz vorgibt, seit der Mozilla Firefox durch einige Projektfehler vom Schnellstarter Chrome abgelöst wurde.

Die Google Webfonts sind aber nicht nur auf stationären Geräten Verfügbar: Durch die Google Fint API wurde es ermöglicht, die Schriftarten auch ebenso einfach in die beliebten Apps der Mobilen Geräte auf der Plattform Android einzubinden, denn die Gestaltung der Mini-Programme auf den mobilen Begleitern erfolgt im Regelfall ebenfalls durch das hochaktuelle CSS3, und die API stellt eine konkrete Möglichkeit da, die Corporate Identity auch in den mobilen Angeboten ihrer Kunden und Projekten zu gewährleisten. Das funktioniert so gut, das es sogar auf der Konkurrenzplattform iOS funktioniert, da die API intelligent auf die verwendete Plattform reagiert und so auch für die Apple-Nutzer stets den richtigen Font unkompliziert bereitstellt und sich so ganz neue Möglichkeiten in der Gestaltung mobiler Anwendungen und Webseiten ergeben.

Die Zielsetzung, der Quasi-Standard der Branche bei der Einbindung von systemfremden Schriftarten zu werden, ist noch nicht ganz erreicht, doch scheint in Anbetracht der massiven Vereinfachung der Zugänglichkeit und vor allem des langfristigen Hostings der Schriftarten durch Google nur noch eine Frage der Zeit zu sein, da die vielen Nischenlösungen, wie etwa das eigene Hosting von Free Fonts entfällt und schlichtweg auf das Angebot von Google zurück gegriffen wird, denn eines ist sicher: An Rechenleistung und Speicherplatz mangelt es dem Internetriesen Google ganz sicher nicht. Das lässt auf einen neuen, einfachen Webstandard vorausblicken, der das Internet eben doch ein wenig schöner machen wird, ganz nach dem eigenen Motto für Google Webfonts.

Bing sagt Google den Kampf an

Seit Microsoft Mitte 2009 die Suchmaschine „Bing“ gestartet hat, konnte sich der Onlinedienst zu einem gut durchdachten Werkzeug entwickeln. Dennoch blieb er in puncto Marktanteile bisher immer weit hinter seinem Rivalen Google liegen. Wie drastisch die Unterschiede in der Kundennutzung sind, haben wir in einem unserer letzten Artikel gezeigt. Doch nun bläst Microsoft (mal wieder) zum Gegenangriff. Der Software-Konzern plant die Integration von Social Content in die Suchergebnisse. Das bedeutet, dass relevante Inhalte von sozialen Netzwerken wie Facebook und Twitter bei Suchanfragen angezeigt werden. Damit würde Bing den Usern mehr Informationen bereitstellen als Google und idealerweise an Attraktivität gewinnen. Zusätzlich will Bing neue Algorithmen einführen, die eine höhere Treffsicherheit ermöglichen sollen. Mit diesen Neuerungen könnte Suchmaschinenoptimierung in sozialen Netzwerken an Bedeutung gewinnen. Zugleich soll es auch Veränderungen im Bereich Funktionalität geben. So soll der Service in Zukunft nicht einfach mehr nur der Suche bzw. dem Finden von Inhalten dienen, sondern auch aktiv an der Handlungsplanung der User beteiligt sein. Und auch die Facebook-Freunde werden aktiv in de Suchprozess einbezogen.

Neue Funktionen, neuer Seitenaufbau

Diese neue „soziale“ Schiene bringt auch ein neues Layout mit sich. Im „neuen“ Bing ist die Ergebnisliste in drei Spalten eingeteilt. In einer Spalte befinden sich die Treffer zur Anfrage, in der mittleren Spalte namens „Snapshot“ werden lokale Angebote angezeigt, die für die direkte Anwendung genutzt werden können – etwa Hotelreservierungen oder Ticketkauf. Die dritte Spalte, die sogenannte „Sidebar“, zeigt relevante Inhalte aus dem persönlichen Netzwerk auf Facebook & Co. Doch damit nicht genug, denn die Sidebar fördert auch die Interaktivität mit Freunden – ebenfalls eine Innovation für Suchmaschinen. Wie Microsoft in einem Blogbeitrag erklärt, will Bing die Meinungen und Kaufempfehlungen von Freunden in die Ergebnislisten einbeziehen. Schließlich hören die Verbraucher vor allem auf die Meinung ihrer Freunde und Familie, statt auf anonyme Informationen.

So kann der Nutzer beispielsweise seine Suchanfragen posten und die eigenen Kontakte um Rat fragen. Es wird bei der Suche also nicht nur auf die rationalen Algorithmen gebaut, sondern auch auf die persönliche Kommunikation zwischen den Usern. Einer der wichtigsten Indikatoren sind die „Likes“, welche die Facebook-User vergeben. Die „Gefällt mir“-Angaben von Freunden werden von Bing durchsucht, gefiltert und sortiert. Angezeigt werden dann die Ergebnisse, die den meisten Nutzen im Sinne der Suchanfrage bringen. Mit diesem Schritt will die „Entscheidungsmaschine“, wie Microsoft den Suchservice nennt, seinem Namen alle Ehre machen und die Wahl beim Shopping erleichtern.

Microsoft und Facebook – zwei Unternehmen mit gemeinsamer Geschichte

Dass Microsoft Bing die Nähe zu Facebook & Co. sucht, ist nicht neu. Bereits im Oktober 2010 verkündeten beide Unternehmen eine geplante Zusammenarbeit. Damals integrierte Facebook unter anderem den Karten-Dienst der Suchmaschine, um den Standort von Facebook-Mitgliedern anzuzeigen. Außerdem profitierte Microsoft von der üppigen Datensammlung, die Facebook zu seinen nunmehr 800 Millionen Nutzern weltweit angelegt hat. Das Thema „Social Search“ stand schon damals als Leitmotiv im Vordergrund. Für den Durchbruch Bings hat das nicht gereicht, Google bleib weiterhin stärker. Nun also erfolgt ein weiterer Angriff auf den Konkurrenten. Ab Juni wird sich zeigen, ob die Strategie aufgeht.

Weitere Infos (externe Seiten):

[related-links]

Wettbewerb der Suchmaschinen: Google weiterhin vorne, Yahoo verliert Anteile

Die Suchmaschinenbranche ist ein hart umkämpfter Markt, der von einigen großen Namen angeführt wird. Dazu zählen in erster Linie Yahoo, Bing und Google. Doch das Kräfteverhältnis zwischen den Anbietern ist nicht ausgeglichen, nicht alle bekommen ein gleich großes Stück vom „Markt“-Kuchen. Das lässt sich sehr gut lässt anhand der USA belegen. Laut Angaben des Marktforschungsunternehmens ComScore gaben die Menschen dort im Jahr 2011 insgesamt 17.106 Milliarden (!) Anfragen in die Suchmaschinen ein. 66,5 Prozent der Anfragen im April liefen über Google. Damit hängt der Internet-Riese seine Konkurrenz locker ab: Auf Platz 2 folgen die Microsoft-Angebote mit lediglich 15, 4 % der Suchanfragen. Yahoo, Ask und andere Anbieter müssen sich mit noch geringeren Werten zufrieden geben. Zum Vergleich: in Deutschland ist die Situation ähnlich eindeutig, wenn nicht sogar noch drastischer aus. Wie das Focus-Magazin berichtet, konnte Google hier seinen Marktanteil in den vergangenen Jahren auf rund 96 Prozent ausbauen. Bing hingegen hat von seinem ohnehin schon geringen Anteil von 2,7 Prozent innerhalb eines Jahres noch 1,6 Prozent verloren. Auch Yahoos Relevanz sinkt von 1,9 auf 0,9 Prozent. Die Ergebnisse basieren ebenfalls auf Untersuchungen von ComScore.

Googles clevere Strategie

Das Google auf dem internationalen Web-Parkett so erfolgreich ist, kommt nicht von ungefähr. Der Internetkonzern fährt nicht nur eine sehr offensive Werbestrategie in den Medien, sondern ist auch weltweit Partner zahlreicher großer Online-Portale. So ist die Googlesuche im deutschsprachigen Raum unter anderem bei Web.de, T-Online und Freenet.de eingebunden. Dabei setzte laut Focus.de letzterer Dienst bis vor Kurzem noch auf die Yahoo. Weiterhin bietet Google neben der Websuche eine Vielzahl an praktischen Diensten wie den Freemail-Service Gmail, das SEO-Tool Google Analytics, Google Maps oder auch YouTube. Der neueste Coup „Google+“ erfreut sich ebenfalls bereits großer Beliebtheit bei den Usern weltweit – sowohl bei Privatpersonen als auch bei Unternehmen. Gegen diese Omnipräsenz haben Bing & Co. kaum eine Chance. Der Spruch „Die Welt ist eine Google.“ enthält im Web-Universum schon einen wahren Kern. Und so sehr sich Googles Konkurrenten auch bemühen, sie können Googles Wachstum nicht aufhalten. Stattdessen stehlen sie sich gegenseitig die Marktanteile. Aktuell schadet zum Beispiel Bing den Wettbewerber Yahoo, der seine Kundschaft vor allem an den Microsoft-Dienst verliert.

Imagewandel und Konkurrenz-Qualität könnte Markt verändern

Die scheinbar unverrückbare Dominanz von Google wird vielleicht nicht ewig währen, denn im Moment scheint sich ein Sinneswandel bei den Usern zu vollziehen. Der Grund dafür ist eben genannte Allgegenwärtigkeit, welche die Menschen verunsichert. Offene Fragen zum Datenschutz, stetes Sammeln von Userinformationen und monopolistische Züge – all das schadet dem farbenfrohen Image von Google. Zudem bieten auch andere Suchmaschinen wie Bing qualitativ hochwertige Leistungen, die bei den Nutzern gut ankommen. Doch wie auch immer sich der Markt in Zukunft entwickelt, eines bleibt: die Suchmaschinenoptimierung. Bei der Masse an Suchanfragen ist und bleibt SEO für Unternehmen weiterhin eine lohnenswerte Maßnahme, um den eigenen Bekanntheitsgrad im Web zu steigern.

Weitere Infos (externe Seiten):

[related-links]

Google Updates der Algorithmen

Unlängst holte Google in einem lange vorbereiten Update seiner Suchalgorithmen zum vermeintlich großen Schlag gegen die Betreiber von Linkfarmen und Keyword-Stuffern aus und bearbeitet die Darstellung der Suche für eine bessere Bedienbarkeit der Suchmaske und der Ergebnisseite: Mit ganzen 52 Änderungen, darunter viele Anpassungen im Detail, wie etwa die im folgenden erwähnten Updates und Bugfixes für die Google-Suche:

Das Update „Raquel“ setzt eine höhere Gewichtung der Sprache in Suchergebnissen durch, die sich für die Betreiber mehrsprachiger Angebote mit landesspezifischen Domains als sehr nützlich erweisen wird, da ein deutscher Google-Nutzer selten etwas mit dem französischen Angebot von Online-Händlern wie etwa Amazon anfangen können, selbst wenn er zum Zeitpunkt der Suche über eine französische IP-Adresse im Internet surft, wie es etwa im Urlaub oder auf Geschäftsreisen der Fall sein kann.

„ImpOrgMap2“ ist der Codename für das Update, das bei international agierenden Organisationen, ähnlich dem „Raquel“-Update, eine höhere Gewichtung auf die Länder-TLDs legt. Durch das Update mit dem Arbeitstitel „Sudoku“ werden zukünftig dann nicht nur mehr TLDs und Kategorien von Webseiten für die regionale Bewertung und dem Erscheinen relevant sein, sondern auch einzelne statische wie dynamische Seiten zu dieser Bereitstellung regionaler und sprachlicher Inhalte für die entsprechende IP-Ranges.

Die Vermeidung von doppelten Inhalten in der Suche besorgt das Update-Paket „Xirtam3“, da Inhalte in der Vergangenheit bei gespiegelten Content für eine Redundanz innerhalb der Suchergebnis-Liste eventuell passender, andersartige Suchergebnisse auf die hinteren Seiten verdrängt haben. Damit die Inhalte einer gewissen Qualität bevorzugt werden und nicht mehr nur allein Pagerank und Aktualität schwerwiegendes Ranking-Kriterium sind, wirkt „NoRot“ auf den Suchalgorithmus ein, ausgenommen davon sind jedoch als News-Portal klassifizierte Seiten, die von den Google-Spidern als solche erkannt werden: Diese Profitieren von den Update-Paketen „Sep“ und „Citron“. Diese erhalten dadurch einen Vorrang nach Aktualität und Pagerank.

Weiterhin weist das neue Google-Update einige Verbesserungen und Änderungen im Bereich der Usability auf. So wird die Instant Preview verkleinert dargestellt und nicht mehr Seiten füllend wie zuvor. Die Option SafeSearch, die es erlaubt, ungewünschte Inhalte, die eventuell nicht angemessen für den Arbeitsplatz (NSFW) sind, oder eben Gewaltdarstellungen und anders geartete Inhalte, wurde ebenfalls überarbeitet, um die Webseiten- und Bildersuche mit besseren Suchergebnissen noch präziser auf den Nutzer-Suchbegriff einzurichten.

Eine Vielzahl von Nutzern begegnen diesen Änderungen am Suchalgorithmus sehr kritisch, da die personalisierte Suche bereits zu unterschiedlichen Ergebnissen auf gleichartigen Plattformen und Systemen bei gleichen Suchbegriffen und Keywords. Auch die Abwertung von Webseiten, die nach dem Ermessen der neuen Richtlinien von Google übermäßige Optimierung auf die Google-Spider aufweisen, führte zu einer regen Diskussion über die Beliebigkeit der Maßnahme, da bisher unklar ist, nach welchen Parametern nun eine Neubewertung vorgenommen wird. Das hat vor allem eine große Unsicherheit im Bereich der Suchmaschinenoptimierer zur Folge, die mit der Änderung frühzeitig auf ihre Portalen und Angeboten reagieren müssen, um nicht zu Riskieren dass die Jahrelang erarbeiteten Erfolge und Ranking-Platzierungen durch dieses Update zunichte gemacht werden.

Auch das Google weiter nicht von dem Ranking-Kriterium der Backlinks absehen will, sorgt für gespaltene Meinung im Lager der SEO und SEM-Unternehmern und Mitarbeitern. Gerade Matt Cutts, ein Google-Entwickler als Personifizierung des Konzerns im öffentlichen und offiziellen Google-Developement-Blog für die meisten Nutzer greifbar wurde, musste harsche Kritik einstecken, stellvertretend für das Unternehmen. So wird Kritisiert, das die Linkspam-Penalties ungerecht angewendet werden und weiterhin eine große Dominanz der Linkfarmen und Pseudo-Results-Generatoren sich auch nach dem Update in den vorderen Rängen der Suchergebnisse finden lassen, wenngleich einzelne Portale wie „dooyoo“ starke Einbrüche in den Resultate zu verzeichnen hatten, sind es doch nur „Tropfen auf den heißen Stein“ für die empörten Administratoren und SEO-Agents, die sich von Google auch durch die Nichtsanktionierung von AdSense-beinhaltenden Seiten besonders generiert.

Es bleibt also ein bitterer Beigeschmack nach dem Update, wenngleich die Verbesserungen im Bereich der Nutzerfreundlichkeit und Präzisierung der Suchmaschinenergebnisse ein kleiner Lichtblick sind, bleiben die professionellen Suchmaschinenoptimierer vorerst auf der Strecke und müssen mit herben Einbußen rechnen, wenn sie nicht am Google-eigenen Marketing AdSense teilnehmen, so das der Eindruck entstehen könnte, Google zielte darauf ab, die Besucher auf die gesponserten Suchergebnisse in den Anzeigen sowie der internen Angebote von Google umlenken will, was einen massiven Eingriff in die schon bisher als kritisch betrachteten Gleichwertigkeit von Suchergebnissen, quasi einer Verletzung der Netz-Neutralität im kleinen und einer Beschäftigungstherapie für SEO- und SEM-Marketer im großen, um diese ihrer Erfolge zu berauben.

Im Resümee bleibt es abzuwarten, wie die SEO-Branche auf diese neuerlichen Veränderungen reagieren wird und ob es gelingt, die derzeit stattfindende Kaffeesatzleserei und Mutmaßung über die neuen Bewertungskriterien der Suchmaschine in handfeste Ergebnisse und Maßnahmen, schlussendlich in Richtlinien für die Optimierung für das Erfassen durch Google-Spider umzusetzen. Im positivsten Fall bedeutet dass das Abdanken der Linkfarmen und Linkgrabber als dominierende search results und eine Umwandlung der Webseitengestaltung zurück auf den Nutzer, nicht mehr nur auf den Suchalgorithmus.

Google Analytics plant Tools zur Messung des Social ROI

In der modernen Internet-Ära findet immer häufiger die Verbindung von klassischem Webauftritt und Social-Media-Präsenz statt. Unternehmen und Privatpersonen teilen Inhalte ihrer Blogs und Homepages regelmäßig bei Facebook, Twitter & Co. Gleichzeitig implementieren sie Social Widgets auf den Websites, um den Präsentationskreis zu schließen. Spätestens seit Google mit seinem Network-Service Google+ selbst einen Fuß ins Social Web gesetzt hat, ist die Relevanz von Website und Social Media offiziell. Nun öffnet sich der Internetkonzern dem Thema Social Marketing noch ein Stück mehr und will in der Statistik-Software Google Analytics Reportfunktionen zur Messung des Return of Investment (ROI) bei Social Media-Diensten launchen.

Neue Funktionen sind gewohnt vielseitig

Wie Google auf dem Blog des Analyse-Tools berichtet, sind diverse Berichte geplant, die Websitebetreibern dabei helfen, den gesamten Traffic – sowohl auf der Website als auch bei Social Media-Diensten zu überblicken. Infolge dessen dienen die Berichte gleichzeitig der Optimierung des Unternehmensauftritts im Social Web. Neben dem reinen Traffic sollen die Messungen auch andere Aspekte erfassen. Zu diesen zählen unter anderem Social Plugins, Quellen, Conversions und der Social Data Hub. Die neuen Reportfunktionen sollen nicht nur Momentaufnahmen des Traffics messen, sondern auch die Entwicklung desselben protokollieren.

Zudem können Ziele festgelegt werden, die in den Berichten berücksichtigt werden. So erkennen Social-Media-Verantwortliche, ob und wann die unternehmerischen Ziele erreicht wurden. Mit dieser Funktion lässt sich die Wirkung veränderter Strategien in jeder einzelnen sozialen Quelle nachvollziehen. Insgesamt bieten die Berichte viele nützliche Funktionen, die KMU viel Geld sparen – oder im Idealfall – viel Geld einbringen können.

Zusammengefasst werden die Messungen im Google Analytics-Account unter einem eigenen Reiter mit der Bezeichnung „Soziale Netzwerke“. Somit können Nutzer mit einem Klick auf alle relevanten Ergebnisse zugreifen. Die Resultate werden in unterschiedlichen Diagrammen dargestellt und ermöglichen so einen schnellen Überblick über relevante Daten.

SEM, SEO und Social Media rücken näher zusammen

Die neue Verknüpfung von Website und Social Web bei Google Analytics beweist, dass Social Media im Marketing immer mehr mit SEO und SEM gleichzieht. Eine einzelne Strategie zu verfolgen genügt nicht mehr, denn die freie Marktwirtschaft kämpft mittlerweile mit allen Vertriebskanälen. Ein gesunder Mix aus Suchmaschinenoptimierung, Suchmaschinenmarketing und Social Media ermöglicht kleinen und mittleren Unternehmen eine ausgewogene Online-Präsenz. Das Monitoring erfolgt dank der neuen Berichte von einer zentralen Einrichtung – dem Google Analytics-Account.

Ein weiterer positiver Punkt: Bisher war es sehr umständlich für Unternehmen und Agenturen, das ROI von Social Media zu messen. Dieses Hindernis scheint mit den neuen Funktionen der Statistik-Anwendung nun überwunden. Die neuen Berichte sollen in den kommenden Wochen für alle Nutzer aktiviert werden.

Weitere Infos (externe Seiten):

B2B-Studie: Die Hitliste der wichtigsten Social-Media-Dienste

Das Social Web bietet eine große Auswahl an Netzwerk-Plattformen, die den Kontakt unter Unternehmen fördern. Welche aktuell zu den beliebtesten Diensten in der B2B-Kommunikation zählen, klärt der Social Media Relevanz Monitor 2012 (SRM) von SF eBusiness.

Anhand von 30 Bewertungskriterien, zu denen unter anderem die allgemeine Marktrelevanz, Relevanz für Marketing & Vertrieb, Relevanz für Employee Recruiting sowie Content Qualität umfasst, überprüft das Unternehmen rund 80 internationale Social-Media-Dienste. Mithilfe der Kriterien lässt sich ein Ranking der Angebote erstellen, das Unternehmen dabei unterstützt, die Relevanz der Dienste zu erkennen.

Nur wenige überraschende Ergebnisse

Zu den Gewinnern im internationalen Vergleich zählen

1. Facebook
2. LinkedIn und
3. XING.

Sie belegen in dieser Reihenfolge die vordersten Plätze der Hitliste. Damit liegt XING bei der weltweiten Verwendung noch vor YouTube, welches „nur“ den vierten Platz einnimmt.

Die folgenden Plattformen komplettieren die Top 10 der relevantesten Social-Media-Dienste:

5. Twitter
6. Google+
7. Wikipedia
8. Scribd
9.Slideshare und
10. Vimeo.

Neben der Gegenüberstellung auf internationaler Ebene, hält die Studie auch Vergleiche in einzelnen Ländern bereit. In diesen variieren die Ergebnisse des internationalen Rankings entsprechend. So liegt im deutschsprachigen Raum zwar ebenfalls Facebook auf dem ersten Platz, allerdings ist das Treppchen sonst anders belegt. Auf Platz 2 befindet sich YouTube, Platz 3 wird von XING eingenommen. LinkedIn trifft man hier nicht mal unter den Top 5 der Hitliste an.

Der SRM 2012 stellt jedoch nicht nur Ranglisten bereit, sondern auch Zukunftsprognosen für die Bedeutungsänderung der wichtigsten Social Networks. Hier sieht der Monitor ganz klar Facebook, Twitter, Google+ und LinkedIn als Gewinner im weltweiten Vergleich. Sie werden demnach auch in nächster Zeit noch wichtiger für die B2B-Kommunikation.

Die richtige Wahl im Social Web treffen

Mithilfe der Studie können KMU, die den Schritt in die sozialen Netzwerke noch vor sich haben, eine passende Strategie planen. Sowohl für die nationale als auch internationale Kommunikation eignet sich zum Beispiel eine Fanpage auf Facebook hervorragend. Wer den persönlichen Kontakt zu Geschäftspartnern und potenziellen Kunden im deutschsprachigen Raum sucht, der ist bei XING an der richtigen Adresse.

Für weltweit agierende Unternehmen lohnt sich zusätzlich ein Auftritt bei LinkedIn – das multinationale Pendant zu XING. Ebenfalls im Trend und laut Prognose der SRM 2012 auch zukünftig im Kommen ist Google+. Je nach Branche bietet ein Kanal auf YouTube ebenfalls einen Vertriebskanal mit hoher Reichweite. Allerdings eignet sich dieser vor allem für KMU mit audiovisuellem Tätigkeitsfeld oder entsprechender Werbung. Da die meisten Social-Media-Dienste kostenlos genutzt werden dürfen, können Unternehmen einfach experimentieren und so die ideale Nutzung von Angeboten im Social Web erfahren. Eine hohe Reichweite sowie flexible und zeitnahe Funktionen bieten alle relevanten Dienste, die in den Top 10 des Social Media Relevanz Monitor 2012 stehen.

Weitere Infos (externe Seiten):

  • Relevanteste Social Media Dienste in der B2B Kommunikation

Die 30er-Zone des SEO – Backlink-Strukturen

Die „natürlichen“ Wachstumsraten von Backlink-Strukturen

Das Wachstum der Backlinks sind seit „Penguin“ bildlich gesprochen die 30km/h-Zone der SEO, doch dabei bleibt es nicht: Mit Radarfallen, Blitzern und fest Installierten Bodenkrallen. Maßnahmen, die jeden Temposünder entweder teuer zu stehen kommen oder von 100 auf 0 zum Stillstand bringen.

2012 war für die Webspammer ein Jahr hart am Wind – Mit einer besonderen Erbarmungslosigkeit geht man auf Seiten von Google gegen sie vor, nachdem sie in der Vergangenheit immer wieder die Ergebnisseiten der Suchmaschine durch manipulierte PageRanks und Backlink-Strukturen manipuliert hatten. Ihr kommen und gehen, welches von tage- und wochenlangem Chaos in den SERPs von Google begleitet wurde, ertrug man auf ähnliche Weise, wie ein Bauer auf einer Hallig die Gezeiten und ihre Unbillen ertragen würde: Als gegebenen Umstand. Bis ein Pinguin diesen Umstand ändern würde.

Der PageRank, früher Herzstück des Ranking-Verfahrens der Google Suche ist ebenso wie das Erzeugen einer wachsenden Relevanz von Webseiten mittels des Aufbau von Backlink-Strukturen seit jeher Brot und Butter jedes SEO-Professionals. Unbestreitbar jedoch auch zum „täglich‘ Brot“ zwielichtiger Linkverkäufer und Online-Betrüger. Diese machten sich die Fehler im Design der Ranking-Faktoren zunutze und verdienten sich durch den Verkauf von abgehenden Backlinks manipulierter Webseiten eine goldene Nase.

Das geschah zum Leidwesen der Verbraucher als auch Professioneller gleichermaßen. Über Jahre hinweg waren doch die Lücken bekannt und mehr als plakative Aktionen in Form von regelmäßigen Massen-Lock-outs eindeutig manipulierter Webseiten blieben die einzige Form, deren Wirksamkeit verschwindend gering ausfiel. So erschien es wie das Anpreisen von altem Wein in neuen Schläuchen, als Google auch vor dem „Penguin“-Update wie üblich den großen Schlag gegen die Manipulation des PageRank und unnatürlichen Entwicklungen von Backlink-Strukturen auszuholen. Das gelangweilte Gähnen wich spätestens am 24.April 2012 einem erschrockenen Ausruf: Nach dem Roll-out wurde klar, dass Google es dieses Mal ernst meinte.

Angekündigt: Ja! – Erwartet: Nein! – Erschrockene Reaktionen, als Google mit seinem „Penguin“ für Ordnung sorgte

Seit dem Roll-out der 2012er-Iteration des Kernstück der Suchmaschine findet eine neue, strengere Überprüfung statt: Das Wachstum von Backlink-Strukturen wird in einem Abgleich mit vergangenen Werten verglichen. Verlässt die festgestellte Wachstumsrate dabei einen von Google definierten Normbereich abzüglich der Toleranzwerte, spricht man Seitens Google von einem „unnatürlichen Wachstum“, welches mit einem Manipulationsversuch gleichgesetzt wird und zu einer automatisierten Sanktionierung der betroffenen Webseite führt. Zumeist werden diese Penaltys nach einem Rückbau auf das von Google vorgesehene Maß und dem Absitzen einer Zeitstrafe wieder aufgehoben.

Im besten Falle. Denn bei der Eskalation ist noch reichlich Luft nach oben: Denn in Fällen extremer Abweichungen kann es dabei durchaus zur vorläufigen Komplettsperrung einer Domain und ihrem Ausschluss aus dem Index der Google Suche kommen, da hier vermeintlich Zweifelsfrei von einem Manipulationsversuch ausgegangen werden kann. Ein solches Verhalten führt entsprechend der Google Webmaster Guidelines zu einer Vollsperrung samt Ausschluss aus dem Suchindex und

Ein halbes Jahr Bewährung – „Sandbox“ heißt die Stille Ecke, in die zu strebsame Start-Ups gestellt werden

Denn unter besonders scharfer Beobachtung stehen jene Domains, welche zum Zeitpunkt des erstmaligen Crawls ein Alter aufweisen, welches kleiner als ein halbes Jahr ist. Sie erleben in ihrer Entwicklung einen „Sandbox“ genannten Penalty-artigen Effekt, welcher als Maßnahme zur Eindämmung der grassierenden Flut an Spam-Bots früherer Tage dient. Diese autark agierenden Scripts und Bot-Netze richteten in der Vergangenheit immer wieder neue Domains und Spam-Webseiten ein und erhielten durch den umgehenden Eingang von Backlinks aus einem Pool an Domains, was unmittelbar zur Vergabe eines hohen PageRank führte – Unberechtigterweise, versteht sich.

Um die Kontrolle über diese massiven Manipulationen zu gewinnen, wird das Wachstum der Backlinkstrukturen von jungen Domains den Zeitraum von etwa 6 Monaten besonders streng beobachtet. Registriert Google bereits geringste Abweichungen im Wachstum der Backlinkstruktur, wird diese zumeist umgehend in eine „Sandbox“ verschoben. Somit ist diese Seite bis zum Zeitpunkt einer neuerlichen Freigabe nicht im Suchindex aufzufinden. Von offizieller Seite unbestätigt, geht das Gerücht um das sich die Zeitspanne des Verweilens in der „Sandbox“ durch den unmittelbaren Rückbau des bestehenden Linkaufbaus betroffener Webseiten auf „Null“ in Verbindung mit vorsichtigen Eingängen von Backlinks hochwertig gerankter Webseiten verringern.

„Den Letzten beißen die Hunde“ – Doch wer zu schnell ist, den beißt Google. Wortwörtlich.

Es ist bekannt, dass die Firmenpolitik der Betreiber von Google keinerlei Verhandlungsspielraum bei der Anwendung und Umsetzung einmal von ihnen beschlossener Richtlinien gegenüber den Betreibern von Webseiten einräumen. Daher bleibt jeder Protest vermutlich ungehört, auch wenn Google mit diesem Maßnahmenpaket eine Verlangsamung in der Entwicklung neuer Webseiten erzwingt, die in den Markt nachrücken, aber auch das spontane Wachstum von bereits bestehenden Webseiten zu einer Art „Russisch‘ Roulette für SEOs“ machen.

Der beste Rat, welchen man jedem Betreiber aufstrebender oder junger Online-Projekte und Start-Ups nur wärmstens ans Herz legen kann, ist vermutlich: „Lassen sie es langsam angehen.“. Bleiben sie bei einer konstanten Entwicklung des Wachstums ihrer Backlink-Strukturen und legen sie die dadurch freigegebene Zeit stattdessen in die Optimierung ihrer Webseite „On-Page“ an, denn: Für guten Content hat bisher noch niemand eine Penalty erhalten!