Beiträge

SEO ohne Backlinks – Ist das die Zukunft?

Die Suchmaschinenoptimierung nimmt einen festen Platz in den Marketingstrategien vieler Unternehmen ein. Dazu gehört, will man den unzähligen SEO-Agenturen glauben, ein Content-Marketing ganz ohne Backlinks. Andere behaupten, nur die Manipulation von Backlinks würde zu strategischen Zielen führen. Die Betreiber der Suchmaschinen hingegen versuchen, den Missbrauch von Backlinks einzudämmen. Ist es demnächst so weit, dass Links wirklich keinen Einfluss mehr auf das Ranking haben? Funktioniert SEO überhaupt ohne Backlinks? Und was sagt Matt Cutts zu dem Thema?

Weiterlesen

Google Phantom Update

Anfang Mai 2015 tauchte seit langer Zeit wieder einmal das Gerücht eines Google Phantom Updates auf (zuletzt 2013). Google hat dies so nicht bestätigt, allerdings gilt mittlerweile als sicher das Google am  ein Update des Core Algorithmus durchgeführt hat. Aktuell sind scheinbar doch viele Webprojekte davon betroffen. Auch einige große Portale haben etliches an Plätzen verloren. Aber auch kleine und mittlere „Größen“.

Weiterlesen

Panda 4.0-Update: alles Wissenswerte

 

Vor einigen Tagen wurde wieder einmal mit der Version 4.0 ein neues Panda-Update veröffentlicht. Panda ist der Codename für Updates an Googles Ranking Algorithmus. Es handelt sich hierbei um einen Filter, welcher auf den Google-Index angewandt wird und die Sichtbarkeit schlechter Webseiten herabsetzt. Die Version 4.0 hat nun den Schwierigkeitsgrad deutlich erhöht. Welche Rückschlüsse daraus nun für das SEO zu ziehen sind, wird nachfolgend umfassend erläutert.

Weiterlesen

Ideale Beitragslänge für Tweets und sonstige Social-Media-Postings

 

Die Thematik der optimalen Beitragslänge beschäftigt schon länger Social Media Manager, Autoren und Redakteure. Wie lang darf der perfekte Online-Beitrag nun sein? Um erfolgreich zu sein, müssen alle Inhalte optimal auf die jeweiligen Netzwerke angepasst werden.

Ideale Länge eines Tweets beträgt 100 Zeichen

Eine Studie von Buddy Medien über die effektivste Tweet-Länge ergab, dass 100 Zeichen das beste Ergebnis für einen Tweet erzielte. So sind bei Twitter mobile Textnachrichten auf 140 Zeichen beschränkt, damit sie auch unterwegs konsumiert werden können. Die Studie ergab zudem, dass kürzere Tweets unter 100 Zeichen eine bis zu 15 Prozent höher Interaktionsrate besaßen.

Ähnliche Studien über die 100 bekanntesten Marken auf Twitter bestätigten das Ergebnis der Buddy-Medienforschung. Track Sozial fand heraus, dass Beiträge mit mittlerer Länge zwischen 71 bis 100 Zeichen erfolgreichsten waren und am häufigsten retweetet wurden.

Die ideale Länge eines Facebook-Beitrags liegt unter 40 Zeichen

Vierzig Zeichen sind nicht gerade viel. (Die obige Überschrift beträgt 54 Zeichen). Doch 40 ist gemäß Jeff Bullas die magische Zahl. Er maß die Interaktion von Beiträgen bekannter Einzelhandelsmarken auf Facebook und stellte fest, dass 40-Zeichen-Beiträge 86 Prozent mehr Interaktion erhalten als andere. Posts mit 80 Zeichen oder weniger erhalten eine immerhin noch um 66 Prozent höhere Interaktionsrate.

Die ideale Länge einer Google+ Überschrift beträgt weniger als 60 Zeichen

Um die Lesbarkeit und das Aussehen von Google+ Beiträgen zu optimieren, sollte eine Schlagzeile 60 Zeichen nicht überschreiten, da so kein Zeilenumbruch geschieht und der Beitrag deutlich lesbarer ist.
Nach einer Layout-Änderung von Google erscheinen nur noch die ersten drei Zeilen des ursprünglichen Beitrags. Diese sollten möglichst als Teaser genutzt werden, um die Leser zum Weiterlesen zu animieren.

Die ideale Länge einer Überschrift beträgt 6 Wörter

Wissenschaftler fanden heraus, dass Menschen dazu neigen, nur die ersten und letzten drei Wörter einer Überschrift genau zu lesen. Die Chance, dass eine Schlagzeile also insgesamt gelesen wird steigt, wenn eine Überschrift nur sechs Worte lang ist.

Wem dies zu kurz ist, sollte die Überschrift möglichst so wählen, dass die wichtigsten Aussagen in den ersten drei und letzten drei Wörtern stehen.

Die ideale Länge eines Blog-Posts beträgt 1.600 Worte und 7 Minuten

Auf einem Blog ist die Verweildauer der Leser das Kriterium, um die Aufmerksamkeit zu bewerten, und nicht die Anzahl der Klicks. Experten errechneten, dass der ideale Blog-Beitrag sieben Minuten lang ist.
Um dies zu erreichen, sollte der Text 1.600 Wörter lang sein. Wird der Text noch mit Grafiken und Bildern gefüllt, liegt die ideale Wortzahl bei 980 Wörtern.

Die ideale Breite eines Absatzes beträgt 40 bis 55 Zeichen

Die ideale Absatzlänge ermöglicht dem Leser, den Beitrag einfacher zu lesen. Um eine maximale Verständlichkeit zu erreichen, liegt die perfekte Länge zwischen 40 und 55 Zeichen pro Zeile, oder in anderen Worten, sollte eine Spalte, abhängig von Schriftart und Schriftgröße, zwischen 250 bis 350 Pixel liegen. 40 bis 55 Zeichen pro Zeile ergeben etwa acht bis elf Wörter.

Die ideale Länge einer Betreff-Zeile in einer E-Mail liegt zwischen 28 bis 39 Zeichen

Forscher fanden keinen signifikanten Vorteil für kurze oder lange Betreffzeilen in E-Mails. Die Anzahl der Klicks oder der Öffnung der Mails war weitgehend gleich.
Eine Statistik kam zu folgendem Ergebnis:

  • 4 – 15 Zeichen: 15,2 Prozent öffneten, 3,1 Prozent klickten
  • 16 – 27 Zeichen: 11,6 Prozent öffneten, 3,8 Prozent klickten
  • 28 – 39 Zeichen: 12,2 Prozent öffneten, 4,0 Prozent klickten
  • 40 – 50 Zeichen: 11,9 Prozent öffneten, 2,8 Prozent klickten
  • 50 + Zeichen: 10,4 Prozent öffneten, 1,8 Prozent klickten

Diese Statistik ist einer der wenigen ihrer Art, die Unterschied in der Betreff-Zeilen-Länge feststellte.

Die ideale Länge einer Präsentation liegt bei 18 Minuten

Wissenschaftler fanden heraus, dass in einem Bereich zwischen 10 bis 18 Minuten sich die meisten Menschen am besten konzentrieren können. Wird diese Grenze überschritten, werden die Informationen wieder schnell vergessen.

Die ideale Länge einer Titel-Tag beträgt 55 Zeichen

Title-Tags sind die Textstücke, die in den Google-Suchergebnislisten angezeigt werden. Die letzte Design-Änderung bei Google ergab, dass die maximale Länge für Titel bei rund 60 Zeichen liegt. Überschreitet der Titel diese Anzahl, wird er abgeschnitten.
Da jedoch auch die verwendeten Buchstaben verantwortlich für die maximale Länge sind (ein i ist schmaler als beispielsweise ein w), ist man mit 55 Zeichen auf der sicheren Seite.

Die ideale Länge eines Domain-Namens liegt bei 8 Zeichen

Ein erfolgreicher Domain-Name hängt von folgenden Kriterien ab:

  • kurz
  • einprägsam
  • leicht zu buchstabieren
  • beschreibend oder Markenname
  • keine Bindestriche und Zahlen enthalten

Hashtags optimal eingesetzt

 

Mit dem Begriff Hashtag wird ein Schlagwort oder eine Wortgruppe bezeichnet, bei der ohne Leerzeichen das Rautezeichen (#) vorangestellt wird. Mithilfe des #-Zeichens wird es als potenzieller Suchbegriff markiert und durch anklicken werden verwandte Inhalte angezeigt. darüber haben wir ja hier schon geschrieben.

Was sind Hashtags (noch)?

Durch ein Hashtag können aber auch eigene Marken hervorgehoben werden, damit Kunden schneller zum Produkt finden. Bis vor Kurzem war der Einsatz von Hashtags ausschließlich bei Twitter möglich, Facebook und Google+ folgten erst später.

Eine Faustregel für den effektiven Einsatz von Hashtags lautet: Nicht jedes Wort sollte mit Hashtags hervorgehoben werden. Stattdessen ist der Einsatz vor kurzen und prägnanten Sätzen deutlich besser. Eine Mitteilung oder ein einzigartiger Aushänger kann ein Hashtag sein und nicht viele Wörter hintereinander, vor denen das #-Zeichen gesetzt wurde. Soll ein Begriff besonders hervorgehoben werden, sollten besser Großbuchstaben verwendet werden.

Der richtige Einsatz von Hashtags auf Twitter

Eine Studie von Buddy Media ergab, dass ein Einsatz von Hashtags auf Twitter die Interaktionsrate verdoppelte – allerdings nur dann, wenn ausschließlich ein einziger Hashtag verwendet wird. Bei mehr als zwei Hashtags sinkt die Rate auf 17 Prozent. Auch eine eigene Studie von Twitter kam zu einem ähnlichen Ergebnis: Tweets mit einem oder mehreren Hashtags werden zu 55 Prozent eher retweetet.

Hashtags auf Facebook

Was ist nun mit Facebook? Hier ist die Empfehlung etwas schwieriger: Auf Facebook können Kommentare ohne Hashtags besser abschneiden als solche mit einem Hashtag. Erst seit Juni 2013 ist die Verwendung von Hashtags auf Facebook überhaupt möglich. Im September 2013 stellten eine Studie von Edgerank Checker fest, dass auf Facebook Hashtags überhaupt keinen Einfluss auf die Reichweite haben. Beiträge ohne Hashtags übertreffen Kommentare ohne Hashtags.

Sollten deshalb auf Facebook lieber keine Hashtags gesetzt werden? Dies ist vermutlich die beste Lösung. Doch die Analysen und Studien bezüglich Hashtags und deren Erfolg sind noch lange nicht abgeschlossen. Nur eines ist sicher: zu viele Hashtags sollten unbedingt vermieden werden.

Hashtag Einsatz auf Google+

Auf Google+ werden Hashtags automatisch eingefügt. Doch diese können auch bearbeitet oder eigene hinzugefügt werden. Ebenfalls einzigartig bei Google+ ist die Möglichkeit, Hashtag in die eigenen Kommentare hinzuzufügen, um so Doppelposts zu finden.

In dem sozialen Netzwerk Google+ werden die Hashtags rechts in den Google-Suchanfragen eingebaut. Wird in der Suche ein Hashtag eingegeben, werden die normalen Suchergebnisse sowie eine Google+ Seitenleiste mit allen relevanten Beiträgen angezeigt. Bei Google+ sind Hashtags also wirklich angekommen.

Hashtags auf Instagram

Instagram ist ein weiterer Hotspot für Hashtags, und insbesondere für diejenigen interessant, die gerne ausgiebig Fotos markieren. Interaktionen sind bei Instagram Beiträgen mit über 11 Hashtags am höchsten. Bei Instagram sollte also beim Einsatz von Hashtags nicht gegeizt werden.

Wichtige Hilfsmittel und Tools, um Hashtags zu finden und zu verwalten

Mit den richtigen Werkzeugen können Hashtags als Organisations-System für Social-Media-Kampagnen verwendet werden. Eines der wichtigsten Tools ist Hashtagify.me. Mithilfe dieses hilfreichen Werkzeugs können Unmengen von Daten analysiert werden und ähnliche Hashtags gefunden sowie ihre Popularität überprüft werden. Nach Eingabe eines Hashtags zeigt Hashtagify.me an, wie beliebt er ist und ob er eng mit dem ursprünglichen korreliert.

RiteTag ist ein Werkzeug, welches sicherstellt, dass die verwendeten Tags gut gewählt sind. Das Ergebnis wird als farbiges Balkendiagramm angezeigt – toll um einen schnellen Überblick zu erhalten.
Tagboard überprüft Hashtags auf mehreren Netzwerken: Twitter, Instagram, Facebook, Google+, App.net und Vine.

Twitalyzer ist kein spezielles Tool für Hashtags. Es zeigt im Rahmen der Suche nach Twitter-Konten an, welche Hashtags am häufigsten verwendet werden.

Vier Schritte, um die richtigen Hashtags zu verwenden

  • Schritt 1: Mit den zuvor genannten Tools können die optimalen Hashtags ermittelt werden. Twitalyzer bildet für die Suche danach eine gute Grundlage.
  • Schritt 2: Mit einer Ideen-Liste bewaffnet kann mit dem Tool Hashtagify.me überprüft werden, welche Hashtags beliebt sind.
  • Schritt 3: Die Popularität ist ein guter Indikator für den Wert von Hashtags.
  • Eine tiefere Analyse, beispielsweise mit RiteTag verhilft, einen Überblick über die Reichweite zu erhalten.
  • Schritt 4: Ein letzter Check ist die Überprüfung des gewählten Hashtags, ob es bereits an anderer Stelle in einem gänzlich anderen Zusammenhang verwendet wird.

Fazit: Die Faustregel sagt, dass nicht mehr als ein bis drei Tags benutzt werden sollten – und dies im Idealfall auf verschiedenen Plattformen verteilt. Bei Google+ ist der Einsatz wohl am wichtigsten, denn es generiert die Tags automatisch. Auf Facebook wiederum ist ein Einsatz von Hashtags sinnlos.

 

Tools und Tipps für Google+ (Einführung)

Google+ ist das zweitgrößte soziale Netzwerk – Grund genug, um sich mit Google Plus optimal mit seiner Zielgruppe zu vernetzen. Das neu erwachte Interesse am neuen Dienst kommt nicht grundlos, denn im Gegensatz zum Platzhirschen Facebook lassen sich Inhalte deutlich individueller teilen!

Wie Google+ effektiv genutzt wird und welche hilfreiche Tools es dazu gibt, wird nachfolgend erläutert.

Warum ein Google+ Profil so wichtig ist

343 Millionen Nutzer können sich nicht täuschen – Google+ sagt Facebook den Kampf an!

Mit über 25 Millionen neue Mitglieder gleich im ersten Monat legte Google+ einen grandiosen Start hin. Das Google-Netz macht so einiges anders als der Konkurrent Facebook. So können beispielsweise alle Kontakte anstatt in Freundeslisten in den sogenannten Kreisen verwaltet werden. Dadurch lassen sich die Inhalte vollkommen individuell teilen und wer die einzelnen Beiträge lesen darf, kann deutlich besser reguliert werden.

Einige Funktionen wird der Facebook Nutzer jedoch in Google+ vermissen. So lassen sich Beiträge nicht als Favoriten speichern oder Facebook-Freunde nicht auf Knopfdruck einfach nach Google+ übernehmen. Diese Lücken lassen sich jedoch mit Add-ons und Tools schließen.

Google ist nach wie vor die wichtigste Suchmaschine im Internet. Wer nun möchte, dass seine Webseite von dieser auch gefunden wird, sollte sich unbedingt ein Google+ Profil zulegen und dieses mit wichtigen Informationen „füttern“.

Warum das so ist? Google filtert seine Suchergebnisse anhand verschiedener Kriterien aus der breiten Masse an Angeboten heraus. Dazu zählen auch Aktionen und Kommentare der Social Media Plattformen. Daher liegt es sehr nahe, dass auch Google+ in diesen Algorithmus mit einfließen wird.

Aufgrund der ständigen Anpassungen der Suchergebnisse ist gut zu erkennen, dass Google Plus immer stärker an Bedeutung gewinnt. Wer daher auch zukünftig an der Spitze der Google Suchergebnisse stehen will, sollte sich unbedingt eine Gmail-Adresse zulegen und ein kostenloses Google+ Konto eröffnen.

Tipps für das Google+ Profil

 

Tipp 1 – Hochwertige Inhalte und unique Content publizieren

Entsprechend einem Blog sollte das Google+ Konto / Profil regelmäßig um unique Content erweitert werden. Dazu sind ausschließlich hochwertige Artikel mit einem Mehrwert für den Leser hilfreich. Durch die angebotenen Informationen wird die Zielgruppe auf das entsprechende Profil gelockt. Werden dann noch Links zu der Homepage oder einem Blog veröffentlicht, ist die Wahrscheinlichkeit sehr groß, dass die Leser diese auch anklicken.

Leser, die die veröffentlichen Texte gut finden, äußern dies durch Kommentare und Pluseinsen oder teilen diese weiter. Dadurch werden die Informationen viral verbreitet und auch die Suchmaschine Google merkt das und lässt dies in den Bewertungsalgorithmus mit einfließen.

Tipp 2 – Zielgruppe definieren

Auf Google+ sind überwiegend Unternehmen vertreten, während Facebook auch von sehr vielen Privatpersonen genutzt wird. Dies ist bei der Auswahl der Texte und der Zielgruppe zu beachten.
Technische Hilfsmittel wie beispielsweise Plug-ins oder Add-ons für Browser tragen dazu bei, die Inhalte automatisch zu verteilen. Aber Vorsicht: Unbedingt auf unique Content achten, denn ein Klonen der Texte wird sofort erkannt und von den Lesern abgestraft.

Tipp 3 – Texte durch Fotos und Videos aufwerten

Fotos sind enorme Eyecatcher und von Emotionen getragen – aber auch Videos sorgen für ein pushen des Profils. Aktionen, oftmals in Verbindung mit Gewinnspielen, verleiten zum Teilen der Google+ Seite. Aber auch Gutscheinaktionen sind hilfreich, damit mehr Leser auf das Profil schauen.

Achten Sie aber unbedingt auf darauf ob sie die grafiken / Videos usw. auch wirklich verwenden dürfen. Wer Stockphotos  benutzt kann hier eventuell zur Kasse gebeten werden!!!

Tipp 4 – regelmäßige Google+ Posts

Google misst ständig, wie aktuell das Profil bedient wird. Doch anstatt einfach etwas Belangloses zu posten, damit die Seite nicht ins Abseits rutscht, sollte lieber überhaupt nichts veröffentlicht werden – die Qualität der Texte muss stetig erhalten bleiben. Daher muss das Profil unbedingt regelmäßig mit neuen Artikeln aufgewertet werden, deren Überschrift zum Lesen verleitet.

Die 4 besten Google+ Tools

 

Google+me – Kommentare sortieren

Wer sehr viele mitteilsame Kontakte in seinen Google+ Kreisen hat, kann schnell den Überblick über die Nachrichten verlieren. G+me ist eine Google Chrome Browsererweiterung, die Kommentare und Posts in abgekürzter Forum auflistet. Die Langfasung des Beitrags wird eingeblendet, sobald man mit dem Mauszeiger über den gekürzten Beitrag fährt.

PlusFeed – RSS-Feeds abonnieren

Der Webdienst PlusFeed ermöglicht das bislang von Google+ noch nicht angebotene abonnieren per RSS-Feed. Der Dienst generiert einen RSS-Feed für alle Posts des gewählten Nutzers, wenn die Profilnummer an die URL gehangen wird. Die Profilnummer befindet sich in der URL des Google+ Profils.

Recommended Users – Interessante Nutzer finden

Um die auf Google+ interessante Personen zu finden, hilft der Webdienst Recommended Users. Ein sehr hilfreiches Tool, denn der Nutzen eines sozialen Netzes ist abhängig von den dort angemeldeten Personen, die man jedoch auch zuvor finden muss. Das Tool listet Nutzer auf, die in verschiedenen Kategorien eingeteilt sind und auf ihrem Bereich, wie beispielsweise Journalisten, schon über viele Follower verfügen oder einen guten Ruf besitzen. Allerdings unterstützt die Seite bislang ausschließlich englischsprachige Nutzer.

+1 Button – einfach Pluseinsen

+1 Button ist ebenfalls eine Chrome Browser Erweiterung. Sie fügt der Adresszeile des Browsers einen +1 Button hinzu, durch die sich eine aktuell besuchte Webseite bequem pluseinsen lässt – auch wenn diese nicht selber einen Google+1 Button anbietet oder in den Google Ergebnislisten erscheint. Die nützliche Erweiterung zeigt bei einem Verweilen über dem Button auch die Gesamtzahl der abgegebenen Stimmen an.


 

Wir helfen gerne um Ihr Unternehmen in Sozialen Netzwerken bekannter zu machen!


 

Social Signs und SEO – Rankingfaktoren

Viele Unternehmer nutzen Facebook und Twitter deshalb nicht, weil damit nur wenig Umsatz generiert wird. Doch die sozialen Netzwerke haben eine zumeist unterschätzte Auswirkung auf das Rating bei Google und Bing. Denn die durch das Drücken der Buttons entstandenen Nutzerempfehlungen bestimmen unter anderem das Pageranking.

Die Auswirkung von Social Signs auf das Google-Ranking

Das Ranking einer Webseite bei Google wird von über 200 verschiedenen Signalen beeinflusst. Die klassischen Optimierungs-Methoden sind beispielsweise:

  • Backlinks
  • interne Verlinkung
  • Auswahl der richtigen Meta-Tags
  • Qualität der Inhalte
  • Relevanz der Inhalte
  • Domainalter
  • Aktualität der Inhalte
  •  ausgehende Links
  • doppelter Content
  • Keyworddichte

Das Alter des Contents, der Grad der Inhaltsveränderung, die Entwicklung der auf des Contents verweisende Quellen und noch viele weitere Faktoren werden durch Google ständig neu berechnet. Zu den neueren Ranking Faktoren gehören auch die Ladezeit der Webseite und die Social Signals, die aus Empfehlungen der sozialen Netzwerke entstehen.

Social Signals sind Shares und Tweets, die durch das Drücken des Like- oder Teilen-Buttons in Facebook & Co. als Empfehlung entstehen. Wenn der Leser auf Facebook, Google+ oder Twitter einen Text oder ein Foto interessant und gut findet, drückt er den Social-Sign-Button.

Diese sozialen Signale erzeugen Aufmerksamkeit und bringen Besucher. Facebook ist nach Google zu einer der bedeutendsten Traffic-Quellen geworden. Gemäß einer Studie des Statistikportals Statista sind alleine aus Deutschland rund 26 Millionen Nutzer dort angemeldet – und viele davon nutzen das soziale Netz sehr intensiv. Jedes Teilen, jeder Kommentar und Like erreicht weitere potenzielle Besucher. Und auf diese Aufmerksamkeit sollte kein Unternehmer oder keine Internetseite verzichten.

Die bereits zuvor genannten klassischen Faktoren, um das Suchmaschinen-Ranking zu verbessern, bekommen nun also Zuwachs von Facebook & Co. Denn diese Social Signals werden auch in den Algorithmen von Bing oder Google analysiert. Doch der genaue Einfluss auf diese neuen Ranking-Faktoren ist nicht klar erkennbar, da sich Google bekannterweise nicht in den Such-Algorithmus schauen lässt.

Zusammenhang zwischen hohem Ranking und sozialen Signalen bestätigt

Eine Infografik „Wie soziale Signale Ranken“ hat in einem Versuch mit sechs Internetseiten herausgefunden, dass 100 Google+ Followers die Seite um 14,63 Prozent nach oben brachten. Drückten dreihundert Menschen 1+, rutschte die Seite immerhin noch um 9,44 Prozent nach oben. Und 70-mal Facebook Teilen und 50-mal Facebook Like sorgten für ein besseres Ranking von 6,9 Prozent.

Eine weitere Studie des SEO-Anbieters Searchmetrics zeigt ein ähnliches Ergebnis. Hier wurden 10.000 Keywords analysiert und mit der Anzahl der Facebook-Signale verglichen. Demnach hatten Internetseiten in guten Positionen auch immer viele Shares und Likes auf Facebook. Jack Menzel, Product Management Director Google Search äußert sich zu diesem Thema ähnlich. Er gab an, dass Links nach wie vor wichtig bleiben, aber soziale Signale bedeutender werden.Ein Zusammenhang zwischen den Social Signs und einem hohen Ranking ist also durchaus vorhanden und Google räumt den Social Signals eine immer stärkere Bedeutung zu. Doch von außen ist der kausale Zusammenhang kaum zu ermitteln, denn Seiten mit einer guten Position haben fast immer auch gleichzeitig viele Besucher, die wiederum den Seiteninhalt vielfach in die sozialen Netze weiterleiten.

Sind Social Signs nun Ursache, Wirkung oder gar beides?

Die zuvor genannten Statistiken sagen aber auch aus, dass eine Erwähnung bei Google+ mehr Erfolg verspricht als bei Facebook. Doch warum bringt eine Erwähnung in den sozialen Netzwerken überhaupt solch einen Erfolg beim Suchmaschinen-Ranking?

Webseitenbetreiber können Links kaufen, tauschen, mieten oder anwerben – dies ist bei Social Signs nur im geringen Umfang möglich. Daher bewertet Google diese als Nutzersignale, die nur sehr schwer zu manipulieren sind. Auch sind sie stets aktuell und auch hier heißt es: Qualität statt Quantität. Die Menge alleine entscheidet nicht – wesentlich bedeutender ist, welche Personen und Quellen beteiligt sind.

Fazit: Social Signs werden Links nie vollständig ersetzen, doch deren Bedeutung wird als Ergänzung in Zukunft stark zunehmen. Gerade für Internetseiten, die auf Aktualität angewiesen sind, wie Online-Zeitschriften und News-Portale, werden soziale Signale immer wichtiger. Denn sie haben Einfluss darauf, mit welcher Freshness Google die Seite einstuft.

Wie David gegen Goliath – Die Verlage gg. Google

Wie einst David gegen Goliath – Die deutschen Verleger gegen den Google-Konzern

Wie auch die deutschen Medienhäuser ihren Anteil am Kuchen der „Google-Industrie“ erhöhen wollen.

Das es um die Printmedien in der westlichen Welt nicht unbedingt gut bestellt ist, das ist längst kein Geheimnis mehr. Was anfangs als technologisches Strohfeuer abgetan wurde, hat sich zu einer weltweiten Medienlandschaft entwickelt, die über Landesgrenzen hinweg im Internet miteinander in Konkurrenz stehen. Das Online-Marketing läuft heute über die Suchmaschine Google und wie niemals zuvor, stehen klassische Medienanbieter unter dem Druck, Einnahmen zu generieren. Sich quasi „an der Quelle des Internets“ bedienen zu wollen, scheint den Medienhäusern die bequemste Möglichkeit, was sie jetzt mit einem Gesetz festsetzen wollen. Bahnt sich hier ein Schuss ins eigene Knie an? Wir betrachten die Situation im folgenden Artikel.

Das Vorgehen der deutschen Medienhäuser – Ein verzweifelter Griff nach dem goldenen Strohhalm?

Die Medienhäuser kämpfen seit 2008 mit massiven Einbrüchen in den Umsätzen durch Werbe-Platzierungen, gerade in den Printmedien stagnieren die Umsätze in gleichem Maße, wie die Abwanderung der Konsumenten auf digitale Plattformen an Zuwachs gewinnt. Die Verbreitung von immer neuen, nutzerfreundlichen und sehr erschwinglichen Mobilgeräten, die es auch „on the go“ ermöglichen es nahezu unabhängig von klassischen Vertriebswegen, digitale Medien im Internet aus vielen Quellen zu konsumieren. Kurzum: Die Verleger haben die Chance, die ihnen die neue Technologie geboten hat, verstreichen lassen und sieht nun ihre Felle davonschwimmen.

Die vorgebrachten Argumente sind wenig stichhaltig – Nur ein Vorwand für neue Geldquellen?

Argumentiert wird hierbei damit, dass die News-Aggregatoren wie Google News sich unberechtigt an den Inhalten der Online-Angebote bereichert, da die sogenannten „Snippets“, also die Auszüge aus indexierten, katalogisierten und aus der Plattform bereitgestellten Vorausansichten der Artikel der Online-Präsenzen der Verlagshäuser dazu führe, das der Nutzerfluss nicht mehr auf dem eigentlichen Angebot der Medienhäuser führe und somit die Einnahmen durch Werbung, etwa durch Anzeigenschaltung und Produktplatzierung, Einbußen hinnehmen müssten, was man vom Suchmaschinenkonzern künftig in barer Münze vergolten sehen möchte. Notfalls per Gesetz.

Belgien und Brasilien : Die Medien-Giganten im Kampf um die Fleischtöpfe mit dem Titanen des Internets – mit und ohne Lösung

Zwei mahnende Beispiele für den Fehlschlag solcher Grabenkämpfe im Online-Marketing sind hierbei Brasilien und Belgien, in denen jeweils auf anderem Wege die Verlage anstreben, für ihre Inhalte in Google News eine Vergütung zu erhalten. Während in Brasilien insgesamt 154 Tageszeitungen gemeinsam beschlossen haben, ihre Inhalte nicht mehr für Google News bereit zu stellen. In Belgien sind die Vertreter der Medienbranche zunächst einen „deutschen“ Weg gegangen und haben ihr „Recht“ 2011 vor Gericht erstritten – Und den Zuschlag der Judikative erhalten. Daraufhin entfernte Google die bestrittenen Online-Medien aus seinem Index, was binnen Tagesfrist eine empörte Reaktion der Verleger zu Folge hatte, denn ein Ausschluss aus dem Index der Suchmaschine bedeutet die faktische Bedeutungslosigkeit. Ein Einbruch der Besucherzahlen war unmittelbare Folge. Erst die Zusicherung, keine Strafzahlungen aufgrund von Verletzungen des Urheberrechts einzufordern führte dazu, die Online-Magazine und Angebote wieder in den Index aufzunehmen.

So könnte auch in Deutschland ein Mittelweg aussehen – Doch lenken die Verlage ein?

Das sollte der deutschen Verlagswirtschaft Beispiel genug sein, das ein Angriff auf den weltgrößten Suchmaschinenanbieter, über den rund 80% aller Suchanfragen direkt auf die Angebote der Verlage geleitet werden, in einer aggressiven Form zu keinem Ergebnis führen kann und wird. Das unterstreicht auch der Streit der deutschen Rechteverwerter-Vertretung GEMA, die seit Jahren das Online-Videoportal YouTube bestreitet und eine Einigung über Abgaben für urheberrechtlich geschützte Werke unmöglich macht und dem Streben der deutschen Verleger ähnlich sieht: Man will den ganzen Arm, wo Google die Hand reicht. Denn in den meisten Ländern hat eine solche Einigung längst stattgefunden, während in deutschen Landen die Anzeige „Das tut uns Leid“, mit dem Hinweis der Unverfügbarkeit in Deutschland auf jedes Video gelegt wird, welches auch nur annähernd Anspruch auf eine Vertretung durch die GEMA hat und seit jeher Unmut bei den Verbrauchern aufruft, welche das Konsumerlebnis haben. Grund dafür: Die deutschen Rechtevertreter sind schlichtweg zu gierig, ihre Forderungen zu hoch. Doch wie führt ein Weg aus dieser Lage heraus?

Kooperation statt Kampfansage: Der gescheiterte Angriff der belgischen Medienhäuser zeigt den Weg

Die Einigung der belgischen Medienlandschaft mit der Google Inc. zeigt jedoch auch, wie die Vernunft über den Weg der Kooperation Sieger werden könnte und mit einem Kompromiss beide Seiten ins Reine miteinander bringen könnte: Statt durch per nationaler Gesetzgebung eine erzwungene und unflexible Abgabenerhebung einzuführen, einigten sich die Parteien darauf, dass Google seine Dienstleistungen für die Bewerbung der Medien der „Copiepresse“, dem klagenden Verband, bereitstellen wird und die Verleger im Gegenzug zukünftig für ihr Online-Marketing die Werbedienste wie Google AdWords einsetzt, um die eigene Reichweite zu erhöhen. Weiterhin wird Google sein Know-How bereitstellen, um durch Abonnenten-Systeme und Paywalls den Verlagen die Mittel an die Hand zu geben, um ihre Inhalte besser vermarkten zu können.

Fazit: Google kann und will, wenn das Angebot stimmt. Siegt die Vernunft auch in Deutschland?

Diese Lösung könnte für den Krieg um die Klicks im Online-Marketing der einzige gangbare Weg werden, bei dem ein Kräftemessen mit dem Suchmaschinenbetreiber Google ausbleibt und es zu keiner Eskalation kommt, die wie im Beispiel von Brasilien und Belgien im Endeffekt nur das Streitobjekt, den Nutzer, darunter leiden muss, dessen Benutzererlebnis durch die Ausschlüsse und die Unverfügbarkeiten deutlich leidet. Fakt ist: Google hat in diesem Kampf auf internationaler Ebene schlicht den längeren Atem – Daran wird die deutsche Gesetzgebung nichts ändern. Wir hoffen auf eine einvernehmliche Lösung, welches die Medienwelt wie gehabt belässt und nicht aus Gier und Neid den Kampf um die Einnahmen aus dem Online-Marketing eskalieren lässt.

Ein halbes Jahr „Google Penguin“ – Teil 4

Teil 4 – Auch beim Pinguin bleibt verboten was bereits verboten war…

…und deshalb behält Herbert Grönemeyer wieder einmal Recht:“Es bleibt alles anders, du kannst nur Gewinnen!“.

Im Grunde nämlich liest sich die Aufzählung besonders hervor gehobener Punkte zunächst einmal nach nichts besonderem. Lediglich die Überoptimierung in den Sanktionierungs

Keywords als Stopfen für blankspace – Auch nach dem Update die schlechteste Alternative zu hochwertig designten Content

Der Ankertext ist eine beliebte Form der Suchmaschinenoptimierung, Jedoch birgt dieses Element großes Potential für dreierlei gleichermaßen:
Es folgt ein Beispiel zu Bildungszwecken! Für den Missbrauch als Waffe gegen ihre Konkurrenz, der sie mit widersinnigen Keywords im Ankertext den Ausbau der ihrer relevanten Keywords erschweren zum anderen als spitzenmäßige Chance aufgrund der Feststellung einer unnatürlichen Linkstruktur ihre ersten Erfolge im SEO schnellstmöglich postwendend wieder abzugeben oder aber indem sie nur wenig Fantasie beweisen und die geringe Variation in den von ihnen Platzieren Keywords in Ankertexten führt unweigerlich zum Feststellen der künstlichen Linkstruktur und somit auch zu einer Abwertung rechnen dürfen.

Wichtig ist bei der Verwendung von Ankertexten die beständige Ermahnung daran, dass die Schemata ihrer Optimierung per Ankertext immer und jeder Zeit darauf grundlegend basieren muss, das sie möglichst detailgetreu eine organische, das heißt natürliche, Linkstruktur zu imitieren versuchen um die positiven Effekte dieser Form der Formatierung von Schwerpunkten im fließenden Content auch auf mittlere bis lange Fristen halten zu können. Die Anzahl der von ihnen gefahrlos zu platzierenden Verlinkungen mit Ankertext hängt maßgeblich von dem Vertrauen ab, das ihnen per Algorithmus zugestanden wird und als „Trust“ bekannt ist.

Ankertexte und Analytik – das eine kennt die Schwächen des anderen Der Algorithmus erhält eine Datenbankschnittstelle zur Musterabgleichung

Weiters gehören zu die Verfeinerungen der mit dem „Penguin“-Update einhergehenden analytischen Fähigkeiten sowie der weiterentwickelten Indikationsmessung und Mustererkennung anhand dieser die Prüfroutine des Algorithmus mit äußerst hohen Erkennungsraten aufwartet und gerade bei, vor allem in der Zwischenzeit beliebt gewordenen, Methoden der relativen geringen Chance einer Aufklärung bis zur vorigen Iteration diesen illegalen Maßnahmen zur Manipulation der Suchergebnisse und Bewertungen nun einen Riegel vorschiebt.

Der gesteuerte Aufbau des PageRank ihrer Webseite durch die Planung und Umsetzung einer Backlink-Struktur von vorrangigen Webseiten, welche einen hohen PageRank von 7 oder 8 aufweisen. Da diese Backlinks der Vermutung nach selten durch eine natürliche Anbahnung zustande kommen setzen sie sich Gefahr aus, Aufgrund der Manipulation ihres PageRank neben der Abwertung auf einen niedrigen Wert der in krassen Fällen auch PR0 bedeuten kann, sondern liefern auch Anhaltspunkte für genauere Überprüfungen, sollten sich ihre Backlinks ausschließlich aus im Zuge von enttarnten Linkfarmen zum Verkauf von Backlinks zusammen stellen.

Der Öko-Pinguin: Aufbau von PageRank und Backlink-Strukturen: Bitte nur natürlich

Mit dem Abrutschen in ein eingeleitetes Bewertungsverfahren durch die Google Quality Rater setzen sie sich der Gefahr aus die bisher erreichten Erfolge durch negatives Feedback der Prüfer zu verlieren und können sich daher schnell am Anfang ihrer Bemühungen wiederfinden, bei der ihnen nur eines garantiert bleibt: Eine zeitgebundene Penalty für den Handel mit Backlinks, als deren Käufer sie entlarvt wurden. Beachten sie darüber hinaus, dass es wie bei der Analyse der Entwicklungskurve des Wachstums ihrer Backlink-Strukturen zum Standardprocedere der Prüfmethoden des „Penguin“-Algorithmus gehört. So besteht die Möglichkeit, das im Rahmen der regulären Prüfung der plötzlicher Anstieg ihres PageRank festgestellt wird, und dieser sich durch die Verlinkung von einer Vielzahl von thematisch nicht mit den auf ihrer Seite behandelten Themen verwandten Quellen schnell eine Penalty bis hin zur Abwertung des Rankings hageln kann.

Als guter Tipp für sie: Linkfarmen werden aufgrund überlegener Erfolgsraten bei der Erkennung oftmals schon im Aufbau aus dem Verkehr gezogen, im allgemeinen ist ihnen heutzutage generell keine lange Überlebensdauer beschert. Verschwenden sie daher ihr Geld nicht in die Investition von Backlinks aus der Hand von Linkverkäufern sondern setzen sie auf natürliche Entwicklung und versuchen durch eigene Leistung „saubere“ Backlinks für den Aufbau von PageRank und Backlink-Strukturen zu gewinnen. Diese haben zumeist vor allen Dingen eine höhere Lebensdauer, als die Links aus Linkfarmen die ihnen, wenn überhaupt für einen Turnus bis zur Neubewertung, bei der ihre gekauften Backlinks fehlen werden, versprochen, zu einem besseres Ergebnis verhelfen werde.

Die Zeit der Linkfarmen ist endgültig vorüber geblieben sind schnelllebige Betrüger – auf der Suche nach dem schnellen Geld

Mit der Anbindung an die hauseigenen Datenbanken, stehen die vollständigen Ergebnisse sämtlicher, jemals erfasster Webseiten zur Analytik zur Verfügung. Um sie für den Abgleich der Entwicklungen nutzen zu können, erhielt die Iteration des „Penguin“-Algorithmus einige mächtige Schnittstellen. Das man ihm zudem eine verbesserte Musterdatenbank für Manipulationsversuche verpasste, sollte der größte Clou werden: Dieser Crawler lernte nicht, er kombinierte. Und das mit Erfolg!

Diese Bereiche erfuhren nun mit, mit den Auswirkungen des Penguin-Update die vollen Breitseite der strikten Anwendung der Google Webmaster Guidelines und aller Maßnahmen zur Sanktionierung, die der neue Algorithmus hergab um die Neuordnung der Rankings in den SERPs von Google möglichst schnell vonstattengehen zu lassen. Man könnte fast von einem chirurgisch-präzisen Schnitt sprechen, der beim Roll-Out von Google durchgeführt wurde – Einem Schnitt, der sich vor allem gegen die eigenen Zöpfe richtete, derer man über die Jahre leidlich geworden war.

Das war der vierte und letzte  Teil unserer Serie Ein halbes Jahr „Google Penguin“.

Die komplette Serie finden Sie hier:

Ein halbes Jahr „Google Penguin“ – Teil 3

Teil 3 – Kaum auftretende Kollateralschäden aber eine Serie Volltreffer bei verborgenen Black-Hat SEOs – die sich dann auch noch beschweren!

Nachdem sich also der Staub gelegt hat und nach knapp einem Monat, der seit dem Beginn der operativen Phase des „Penguin“-Update verstrich bis die korrekte Kalibrierung und Nachsteuerung durch die Entwickler abschließen konnten und daraufhin langsam aber sicher wieder eine gewisse Normalität in den Alltag in der Arbeit mit der Suchmaschine einkehrte.

Entgegen der Unkenrufe blieb der große Crash, den so mancher Gegner des „Penguin“-Updates sich herbei wünschte, um wenigstens ein bisschen Genugtuung zu verspüren. Denn alles in allem war das gesamte Update erstaunlich geschmeidig über die Bühne gegangen. Bei der Umstellung aus die neue Iteration blieben größere Ausfälle aus, und bis auf wenige Stunden war Google lediglich zeitweise für wenige Minuten nicht zu erreichen, bzw. bearbeitete keine Anfragen über die AJAX-Oberfläche der Suchmaschine.

Ich halte daher fest: Die Erde rast noch immer in einem ganzen Stück durch den luftleeren Raum, sich dabei in einer ellipsenförmigen Bahn in Rund 365 Tagen pro gleichmäßig aufgrund der Achsrotation sich nach wie vor von allen Seiten bräunt, weder Saddam Hussein noch Kim-Jong Il aus ihren Gräbern auferstanden sind dürfte man wohl mit Fug und Recht behaupten: Mission accomplished. Dann können wir uns nun ja dem Welthungerproblem und der Heilung von Krebs und AIDS zuwenden, ja?

Kollateralschäden durch das Penguin-Update fielen verschwindend gering aus

Die tatsächlichen Kollateralschäden unter den Betroffenen der neuen Sanktionierungspolitik des Algorithmus, welche durch eine ungünstige Konstellation von zuvor vielleicht Ermahnten aber nicht bestraften Maßnahmen profitiert hatten, welche im Rahmen ihrer ersten Überprüfung nach den Vorgaben der neuen Richtlinien aber eine Querindikation gebildet hatten und diese als Manipulationsversuche angerechnet und den damit eintretende Konsequenzen ausgesetzt worden waren. Fälle, von denen man mit guten Willen von einer „Abwertung ohne Schuld“ hätte sprechen können. Sie sind tatsächlich die einzigen, die durch eine ungünstige Verstrickung, zwar mit eigenem Schuldanteil, dessen Umfang nicht verdiente, von einer organisierten Manipulation der SERPs zu reden, und in diesem Zuge echte Nachteile durch den Paradigmenwechsel hinnehmen mussten, meist aus heiterem Himmel.

Allerdings die Majorität der Projekte, welche sich Aufgrund der lang erwarteten und nun eingetretenen Sanktionierung von grauen bis dunkelgrauen Optimierungen ausgesetzt sahen, hatten auf der Basis einer vorsätzlichen Vorteilsnahme zugunsten des Rankings und im Wettbewerb um eine gute Platzierung ihrer Webseiten auf den keywordrelevanten SERPs der Suchmaschine die Folgen ihres Handelns ganz bewusst in Kauf genommen, als ihre Methoden noch als „narrensicher“ galten und im schlimmsten Falle ermahnt, nur selten jedoch tatsächlich bestraft wurden, wenn dann nur in symbolischen Rundumschlägen, die vorrangig durch die menschlichen Mitarbeiter der Google Inc. vorbereitet und geführt wurden.

Das vorläufige Ende einer goldenen Ära für Black-Hat SEOs – Auch „Grey Hat“-Maßnahmen werden zunehmend weg sanktioniert

Mit der Iteration der verbesserten Indikation und Feststellung von bisher unerkannten oder aufgrund der Fehlerquoten vergangenen Algorithmen zwangsweise tolerierten Maßnahmen, die rein nach den bisherigen Richtlinien für Webmaster weder ausgesprochen legal noch illegal waren, wurden nahezu alle Maßnahmen zur „Grey Hat-SEO“ als zu sanktionierende Verstöße gegen die Richtlinien klassifiziert. Dazu zählen die Verwendung von Techniken welche unter das „Cloaking „ fallen, insbesondere der „Cloaking Pages“, das Kaufen und Verkaufen von Links zum Aufbau künstlicher Backlink-Strukturen ebenso wie die Feststellung von Inhaltsduplikaten, bei denen festgestellt wird, das sie nicht die originale Quelle sind da der Inhalt an anderer Stelle bereits zu einem früheren Zeitpunkt von einem Crawler indiziert wurde.

Keyword stuffing“ ist und bleibt weiterhin „Black-Hat“-SEO

Die, gerade in den frühen Jahren der Suchmaschinenoptimierung beliebte Technik des „keyword stuffing“ wird bei Feststellung eines Befundes grundsätzlich mit einer Penalty geahndet. Ob sich ein SEO-Professional des „keyword stuffing“, also der möglichst dominanten Platzierung von Keywords bis zur Ausprägung des wortwörtlichen „Vollstopfens“, schuldig gemacht hatte, wird anhand eines Wertes, welcher sich aus einer Berechnung der unter Verdacht des „stuffing“ stehenden Suchbegriffs und dem dazu im Verhältnis stehenden restlichen Menge Content in Textform.

Die Grenzen zwischen der professionellen Platzierung von Keywords und dem Übergang der als Methode des „Black Hat“-SEO betrachteten „keyword stuffing“ sind je nach Definition fließend, manche Quellen werten den Akt des „stuffing“ unter einer Bedingung als „weiße SEO“: Die Methode muss aus den richtigen – hier wohl gerechten – Gründen angewandt werden. Nichts desto trotz hat die Feststellung von „keyword stuffing“ eine automatisierte Sanktion zur Folge, weshalb sie die Verhältnismäßigkeit der von ihnen in den Content eingebetteten Suchbegriffen lieber zweimal Überprüfen, ehe sie ihn freigeben. Eine besondere Form dieser Violation bezieht sich auf das „vollstopfen“ der META-Bereiche mit einer übermäßigen Anzahl an Suchbegriffen. Diese Methode hat jedoch seit der ersten regelmäßigen Abstrafung der Ergebnisbezogenen Manipulation auf diesem Wege keine nennenswerte Verbreitung mehr erreicht, da sie zu offensichtlich ist.

Ja, lernen sie es denn einfach nicht?
Viele Violations der Webmaster Guidelines finden noch immer durch Maßnahmen im META-Bereich statt

Lesen Sie nächste Woche einen weiteren Teil der Serie Ein halbes Jahr „Google Penguin“

Die komplette Serie finden Sie hier:

Ein halbes Jahr „Google Penguin“ – Teil 2

Teil 2 – Die Klagementalität der Vollkasko-Deutschen/Österreicher & die Entschlossenheit hinter Penguin

Das die deutschsprachige SEO-Branche einen ausgeprägten Hang zur Klage auf hohem Niveau entwickelt hat, lässt sich bereits mit den ersten fünf Suchergebnissen, welche auf szenetypische Blogs verweisen, relativ schnell feststellen. Jedoch ist es schwer, ihnen genau das zu verübeln. Über Jahre hinweg konnten sie in weitgehender Symbiose mit der Suchmaschine Google ihre Dienstleistungen anbieten und es entwickelte sich aus Amateuren zunehmend ein Geschäftsfeld, das zumindest den Aufstieg zu semiprofessionellen Suchmaschinenoptimierern mit dem wachsenden Umfang ihrer Aufträge und der Wichtigkeit ihrer Tätigkeit einherging und diesen Pionieren fast ein ganzes Jahrzehnt lang ein auskömmliches Habitat geboten hatte.

Mit dem immer näher rückenden Termin für den Roll-Out der aktuellen Iteration des Google Suchalgorithmus mit dem Projektnamen „Penguin“, welcher im April 2012 in Betrieb genommen wurde, gewann die zunächst nur diffus wahrgenommene Nervosität immer deutlicher Gestalt an. An die Stelle der ausgearbeiteten Modelle zur technischen und inhaltlichen SEO würde ein Faktor treten, der sich durch seine Vielschichtigkeit und die in schon „per se“ unkontrollierbare Natur kaum zu einer ergebnisorientierten, messbaren Optimierung eignete: Der Faktor Mensch.

Der Mensch. Eine Variable ohne Konstante, eine unkontrollierbare Schwarmintelligenz und freie Radikale. Alleine der Gedanke an diese Umkehrung der Verhältnisse, die bis dato aus berechenbaren Konstanten bestanden hatte, trieb die Wut in die von einer bösen Ahnung gepackten SEO-Professionals. Eine Wut, der sie in Blogs und Kommentarspalten reichlich Dampf ließen und damit schnell die Grenze der Vernunft als auch der Glaubwürdigkeit überschritten – Spätestens mit dem Aufkommen der Verschwörungstheorien gegen die Branche begann der Ruf derselben in der Wahrnehmung Außenstehender zu leiden.

Google zeigt Zähne und signalisiert Entschlossenheit für die Umsetzung des „Penguin“. Unweigerlich als Folge dessen das Ende der klassischen Suchmaschinenoptimierung?

Von der anderen Seite betrachtet, die sich nicht mit einem gefälligen Wording umgab, stand der Umkehrschluss der neuen Ausrichtung der Kriterien von Google, die Matt Cutts als Chef der Qualitätssicherung in einem Interview ohne beschönigende Umschreibungen verdeutlichte, dass die Konsequenzen der Nonkonformität mit den zukünftigen Webmaster Guidelines und den Parametern der Erfassung, Indexierung und Bewertung von Webseiten nach Inbetriebnahme der neu entwickelten Iteration des Algorithmus spürbare Auswirkungen auf bestehende Rankings haben werden, ohne jeden Bestandsschutz.

Durch die im Vorfeld bereits deutlich von Google kommunizierten Maßnahmen, welche mit der Umsetzung der neuen Iteration des Suchalgorithmus einher gehen werden, äußert sich das Bestreben des Suchmaschinenbetreibers, durch frühe Konditionierung der Betreiber von Internetseiten und ihrer Webmaster um eine möglichst reibungslose Akzeptanz und Annahme der künftig teilweise sehr knapp definierten Grenzen und Toleranzen innerhalb derer eine Webseite sich bewegen kann und gleichzeitig die Einhaltung der Google Webmaster Guidelines gewährleistet ist.

Die Bereitstellung hochwertiger Qualitätsinhalte, welche in eine intuitiv zu bedienende Webseitenumgebung eingebettet werden, bildet das zukünftige Ideal einer erfolgreichen Webseite, deren Erfolg und Anerkennung durch die Nutzer sich ebenfalls in seinem Ranking widerspiegelt. Zur Bemessung eines Webseitenrankings werden zur neben bekannten Grundparametern unter anderem auch Datensätze mit Bezug auf das Nutzerverhalten hinsichtlich Verweildauer, abgerufener Pages, Empfehlung durch den „+1“-Button oder der Verbreitung über soziale Netzwerke bei der Ergebnisfestlegung berücksichtigt.

Ein neues Ideal wird definiert – SEO ade? Eine Webseite, welche ausschließlich für ihre Benutzer optimiert wird

Verstöße gegen die neue Agenda werden zumeist durch automatisierte Penaltys umgesetzt, welche umgehend nach Feststellung eines Verstoßes in Kraft treten und im Normalfall aufrecht erhalten werden, bis die Richtlinienverletzung durch Entfernen des dafür ursächlichen Elements behoben wurde. In Wiederholungsfällen oder im Falle von Webseiten, deren Domain erst vor kurzer Zeit angemeldet wurde, können höhere Eskalationen der Sanktionierung greifen. Webseiten, die notorisch in kurzer Zeit durch eine Vielzahl von Verstößen gegen die Webmaster Guidelines auffallen müssen mit der temporären oder permanenten Entfernung aus dem Suchregister von Google rechnen.

Der permanente Ausschluss aus dem Google-Index bezieht sich, nach wie vor, vor allem auf Verletzungen der Richtlinien zur Eindämmung der Manipulation von Ergebnissen auf Google SERPs, dem Bereitstellen und Vermitteln von Inhalten, welche als Anleitungen oder Planspiele erkannt wurden und die Methoden zur Anwendung illegaler Methoden zur Manipulation behandeln. Weiterhin kann führt eine Indikation, welche auf einen erfolgten Hackerangriff auf ihre Webseite und die potentielle Übernahme der Webseite zu einem sofortigen Ausschluss und zieht ein vorläufig permanentes Blacklisting ihrer Webseite nach sich.

Es wird erwartet das bereits wenige Stunden nach der Initialisierung der aktualisierten Iteration des Suchalgorithmus eine Vielzahl von Webseiten mit Sanktionen belegt werden, die im Vorfeld die Chance verstreichen haben lassen, vorhandene Altlasten der SEO ihrer Webseite zu entfernen oder Abzubauen, bevor die Umstellung auf die neue Sanktionierungspolitik und den erweiterten Richtlinienkatalog der Webmaster Guidelines abgeschlossen wurde.

Doch ein Google Quality Rater die Überprüfung im Einzelfall vorgenommen hatte. Man hatte sich schlichtweg zu sicher gefühlt. Eine trügerische Sicherheit, die nun in sich zusammen fiel.

Der neue Algorithmus kam, wie er angekündigt wurde: Hart und Schnell. Die konsequente Durchsetzung der Google Webmaster Guidelines wurde nun Realität

Viele Betroffene Webmaster berichten öffentlichkeitswirksam auf den Fach-Blogs, in Webforen und Kommentarspalten anderer Blogs, dass sie noch immer an den Folgen des Updates arbeiten um die automatisch auferlegten Penaltys und ihrer Vergabegründe zu beheben und klagen ihr Leid oftmals sehr unsachlich, dafür mit umso größere „Leidenschaft“, welche für sie bei der Ausübung ihrer Tätigkeit als Suchmaschinenoptimierer so hoch im Kurs steht.

Manche Vertreter der SEO-Branche ergehen sich gar in dem Herbeireden eines „Krieges der Suchmaschine gegen die SEO-Professionals“ und ähnlicher, haltloser Verschwörungstheorien welche seit April geradezu virale Ausbreitung erleben und derer sich selbst die Betreiber populärer SEO-Blogs nicht zu erwehren vermögen und dem Glauben an krude Strategien des Google-Konzerns zur Beseitigung der SEO-Branche als „Money leak“ zu erliegen. Bei genauerer Betrachtung jedoch ergibt sich schnell, dass die Webseiten der lautesten Klageführer gegen die neue Politik die Post-Penguin-Ära der Suchmaschine Google am gröbsten verstoßen haben.

Da Google Penguin jedoch ein reines Update des Algorithmus war, liefen ebenso alle „Reconsideration Requests“ an das Google Webspam Team folgerichtig mangels Zuständigkeit ins Leere und die Webmaster sind gezwungen – so sie denn am Erhalt der sanktionierten Domains interessiert sind – konsequent ihre erkauften und künstlich konstruierten Backlink-Strukturen abzubauen um am Ende dieses Prozesses bei einem Neubeginn des Aufbaus einer Reputation für ihr Projekt zu stehen.

Auf tönernen Füßen gebaut: Verbrannte Domains, verbrannte Träume. Viele Scheiterten an ihrem eigenen Hochmut und dem Glauben an ihre Unverletzbarkeit

Lesen Sie nächste Woche einen weiteren Teil der Serie Ein halbes Jahr „Google Penguin“

Die komplette Serie finden Sie hier:

Ein halbes Jahr „Google Penguin“ – Teil 1

Teil 1 – Was war, was ist: Wenig hat sich geändert.

Sechs Monate sind mittlerweile seit April verstrichen, seit dem Google zur Verbesserung seiner Suchergebnisseiten angesetzt hatte und mit dem Algorithmus-Update Penguin eine der größten Veränderungen seiner Bewertungskriterien und der Erfassung vollkommen neuer Relevanzkriterien den Schritt wagte, sowohl den grassierenden Manipulationen von Suchergebnissen durch „schwarze SEO“ eben wie dem Webspam den Kampf ansagte – und sich damit den Unmut eines nicht geringen Anteils der SEO-Branche zuzog welche für den Erhalt des Status quo skandierte, in dessen relativer Stabilität es sich die Optimierer gemütlich gemacht hatten.

Welchen Impact das Update auf die SEO-Branche tatsächlich hatte, das scheint bisher unausgesprochen, als traue sich niemand das Thema auch nur mit der Zange anzufassen.

Auch ist es um die Diskussionen, die noch bis in den späten Mai hinein die Gemüter in der SEO-affinen Blogosphäre erhitzten, erstaunlich still geworden und selbst Fälle des zu erwartenden Nachtretens einzelner Blogger gegen die überwältigende wie auch unausweichliche Veränderung, welche soviel Unmut und Unruhe bei vielen „Fachleuten“ erzeugte, blieb erstaunlicherweise aus.

Diese eigenartige Stille veranlasst mich, in den folgenden Artikeln eine mögliche These zur Ursächlichkeit dieser ausbleibenden Reaktion aufzustellen und nach einem halben Jahr Bilanz zu ziehen, wie sich die SEO unter den Richtlinien des Eingangs umstrittenen Algorithmus, der mit dem Roll-Out von Google Penguin in Betrieb genommen wurde, entwickelt hat, um Anhand der gewonnenen Erkenntnisse die Lage der SEO-Branche einzuschätzen.

Auf Worte folgen Taten – Google realisiert eine umfassende Erneuerung des Algorithmus dessen Auswirkungen lange vor Roll-Out bekannt waren

Das Google den Suchalgorithmus im Zuge des Roll-Out von Penguin anpassen würde, war bereits sei langem bekannt, denn bereits nach dem Panda-Update in 2011, dessen Schwerpunkt bereits im Kampf gegen den Webspam lag, wurde offen von der zukünftig tendenziell stärker ausfallenden Bekämpfung von Spam und den Methoden der „Black-Hat SEO“ gesprochen. Das Update kündigte immerhin einen Wechsel der Paradigmen in der bisherigen Funktionsweise und Schwerpunktlagerung der Suchmaschine an und Google machte daraus kein Geheimnis.

Es hatte, das konnte man der damaligen Reaktion weiter Teile der SEO-Branche entnehmen, nur schlichtweg niemand den Vertretern des Konzerns abgenommen. Niemand schien zu glauben, dass Google mit Penguin tatsächlich ernst machen würde, schließlich wurde eine Verschärfung von Richtlinien und Ranking-Kriterien quasi alljährlich mit jedem neuen Update angekündigt, doch blieb eine ausschlaggebende Veränderung im Tagesgeschäft für die Branche mit Ausnahme der kurzen Phase der Anpassung wenn es einmal doch zu einer Änderung kam, dessen Auswirkungen auch für die SEO-Professionals bei der Ausübung ihrer Arbeit spürbar waren.

Jene, die der erneuten Kampfansage keinen Glauben schenkten und dem Konzern nicht abnahmen endlich Konsequenz beim Umgang mit Webspam und illegitimer SEO zu zeigen, geschweige denn einer partiellen Neuausrichtung des Suchalgorithmus, waren es genau diese Zeitgenossen, welche in Folge am lautesten Klage gegen das Unternehmen führten, spätestens als sich die Änderungen am Suchalgorithmus dann auch in den Rankings und auf den SERPs bemerkbar machten. Und sie feststellen mussten: „Dieses Mal macht Google ernst!“.

Mit einer Portion Empathie für die revoltierenden SEO-Professionals und die Situation aus deren Augen betrachtet erscheint die Ablehnung tiefgreifender Änderungen in einem über Jahre hinweg nahezu unveränderten beruflichen Umfeld als wenig attraktiv. Ziehe ich einen gewissen Hochmut mit ein, hatte man doch schließlich die Branche erst durch seine Arbeit definiert, ja geradezu Erfunden, fällt es mir leicht, die Gefühlswallungen als Mensch zu verstehen, wenngleich ich sie aus professioneller Sicht strikt ablehne.

Es bleibt subjektives Mitgefühl für die revoltierenden SEO-Professionals. Objektiv ist Penguin jedoch eine alternativlose Notwendigkeit für die Zukunft

Jedoch vom Standpunkt einer objektiven und möglichst wertfreien Warte waren die vorgebrachten Argumente der offiziellen Repräsentanten des Suchmaschinenkonzerns schlagend und ergeben sich als logische Weiterentwicklung der Algorithmen als vollkommen selbstverständlich, da sich mit den neuen Technologien der vergangenen Jahre und der Etablierung dieser, auch vollkommen neue Möglichkeiten einer immer präzisieren und durchdachten Methodik zur Erbringung von Suchergebnissen in höheren Qualitäten auftaten, welche die Auswertung der Daten sozialer Netzwerke bis auf die Individualebene hinab erlaubte, die in künftigen Ausgaben auf Suchergebnisseiten Berücksichtigung finden sollte.

Umso sinnvoller erscheint es daher, im nächsten Schritt die bisherigen Inhaltskonzepte abzulösen, da diese sich ausnahmslos an den Notwendigkeiten einer größtmöglichen Anpassung der optimalen Indexierung durch die Suchmaschine ausgesetzt sah. Der eigentliche Konsument, der Mensch, fiel bei diesem Konzept nämlich auf die hinteren Plätze zurück, weshalb die Ablösung der technischen Inhaltsgestaltung nur durch eine Neuausrichtung der Content-Gestaltung mit dem menschlichen Nutzer als Mittelpunkt der Aufmerksamkeit zwingend erfolgen musste.

Förderung der Qualität von bereitgestelltem Content als zukunftssicheres Modell. Das Vorgehen gegen Webspam und Black-Hat SEO wird konsequent in die Tat umgesetzt

Diesem Konzept folgte sodann die Verlagerung der im Rahmen des Rankingprozesses neu definierten Relevanz-Kriterien bei der Bewertung von Web Content, der die Ausrichtung auf hochwertige und keyword-relevante Inhalte, besonders aus fachkundiger oder anderweitig qualifizierten Quellen mit einer positiven Entwicklung der Platzierung in den SERPs, zuzüglich von Modifikatoren durch soziale Elemente wie Empfehlungen, Verweilzeit und Teilen der Inhalte auf Plattformen sozialer Netzwerke, anhand derer eine Prädiktion der Relevanz des bereitgestellten Inhalts präziser dargestellt werde könnte. Gleichzeitig würde mit dieser Änderung in der Verfahrensweise ein sanfter, wenngleich unausweichlicher Anpassungsdruck hin zur neuen Inhaltskonzeption erzeugt, der die Zielsetzung in einen greifbaren Zeitraum fassbar werden ließ und somit Erfolg in der Umsetzung versprach.

Durch den Einsatz weiterentwickelter Prüfmethoden würde der Suchalgorithmus mit höchsten Erkennungsraten und Fehlindikationen im niedrigen Promillebereich in die Lage versetzt den neuartigen Formen der Manipulation von Suchergebnisplatzierungen, die vorherige Versionen nicht zweifelsfrei feststellen konnte, erfolgreich entgegen zu wirken. Automatisierte Prozesse führten sodann nach Feststellung eines Manipulationsversuches in Echtzeit zur Einleitung von Sanktionen, gegebenenfalls auch der Übergabe an die Prüfer des Google Webspam Team um eine langfristige oder permanente Ausgliederung der Erfassten Webseite aus dem Suchindex von Google zu veranlassen.

Eine fehlerfreie Erkennung von Manipulationsversuchen und unnatürlicher Entwicklungsmuster verbessert die Konsistenz der Google SERPs

Mittels Datenabgleichs würde der Algorithmus in der Lage sein, eine zuverlässige Erkennung von unnatürlichen Entwicklungsmustern beim Aufbau der Backlink-Strukturen zu prüfender Webseiten durchzuführen und somit jede Form von Manipulationsversuch bereits im Entwicklungsstadium zu erkennen noch bevor die zur Manipulation ausgerichtete Webseite einen Einfluss auf die Qualität der Suchergebnisse im vom Optimierer angestrebten Zielbereich nehmen könnte.

So präsentierte sich mir der langfristige Plan zur Entwicklung zeitgemäßer Erhebungsmethoden und Verhinderung von manipulativen Einflussnahmen, die das Gebrauchserlebnis als unausweichliche Schnittmenge der Google zugrunde liegenden Methode schmälerte. Ein Plan, der hinter den eingreifenden Veränderungen unter dem Projektnamen „Penguin“ steckte und die Konkurrenzfähigkeit und Qualitätssicherung der von Google bereitgestellten Suchergebnisse auch in naher Zukunft sichern sollte.

Lesen Sie nächste Woche einen weiteren Teil der Serie Ein halbes Jahr „Google Penguin“

Die komplette Serie finden Sie hier: