Beiträge

SEO ohne Backlinks - kann das funktionieren

SEO ohne Backlinks – Ist das die Zukunft?

Die Suchmaschinenoptimierung nimmt einen festen Platz in den Marketingstrategien vieler Unternehmen ein. Dazu gehört, will man den unzähligen SEO-Agenturen glauben, ein Content-Marketing ganz ohne Backlinks. Andere behaupten, nur die Manipulation von Backlinks würde zu strategischen Zielen führen. Die Betreiber der Suchmaschinen hingegen versuchen, den Missbrauch von Backlinks einzudämmen. Ist es demnächst so weit, dass Links wirklich keinen Einfluss mehr auf das Ranking haben? Funktioniert SEO überhaupt ohne Backlinks? Und was sagt Matt Cutts zu dem Thema?

Weiterlesen

Google-Phantom-Update

Google Phantom Update

Anfang Mai 2015 tauchte seit langer Zeit wieder einmal das Gerücht eines Google Phantom Updates auf (zuletzt 2013). Google hat dies so nicht bestätigt, allerdings gilt mittlerweile als sicher das Google am  ein Update des Core Algorithmus durchgeführt hat. Aktuell sind scheinbar doch viele Webprojekte davon betroffen. Auch einige große Portale haben etliches an Plätzen verloren. Aber auch kleine und mittlere „Größen“.

Weiterlesen

Panda 4.0-Update: alles Wissenswerte

Panda-4-0-Update

Vor einigen Tagen wurde wieder einmal mit der Version 4.0 ein neues Panda-Update veröffentlicht. Panda ist der Codename für Updates an Googles Ranking Algorithmus. Es handelt sich hierbei um einen Filter, welcher auf den Google-Index angewandt wird und die Sichtbarkeit schlechter Webseiten herabsetzt. Die Version 4.0 hat nun den Schwierigkeitsgrad deutlich erhöht. Welche Rückschlüsse daraus nun für das SEO zu ziehen sind, wird nachfolgend umfassend erläutert.

Weiterlesen

Ideale Beitragslänge für Tweets und sonstige Social-Media-Postings

Social-Media

Die Thematik der optimalen Beitragslänge beschäftigt schon länger Social Media Manager, Autoren und Redakteure. Wie lang darf der perfekte Online-Beitrag nun sein? Um erfolgreich zu sein, müssen alle Inhalte optimal auf die jeweiligen Netzwerke angepasst werden.

Ideale Länge eines Tweets beträgt 100 Zeichen

Eine Studie von Buddy Medien über die effektivste Tweet-Länge ergab, dass 100 Zeichen das beste Ergebnis für einen Tweet erzielte. So sind bei Twitter mobile Textnachrichten auf 140 Zeichen beschränkt, damit sie auch unterwegs konsumiert werden können. Die Studie ergab zudem, dass kürzere Tweets unter 100 Zeichen eine bis zu 15 Prozent höher Interaktionsrate besaßen.

Ähnliche Studien über die 100 bekanntesten Marken auf Twitter bestätigten das Ergebnis der Buddy-Medienforschung. Track Sozial fand heraus, dass Beiträge mit mittlerer Länge zwischen 71 bis 100 Zeichen erfolgreichsten waren und am häufigsten retweetet wurden.

Die ideale Länge eines Facebook-Beitrags liegt unter 40 Zeichen

Vierzig Zeichen sind nicht gerade viel. (Die obige Überschrift beträgt 54 Zeichen). Doch 40 ist gemäß Jeff Bullas die magische Zahl. Er maß die Interaktion von Beiträgen bekannter Einzelhandelsmarken auf Facebook und stellte fest, dass 40-Zeichen-Beiträge 86 Prozent mehr Interaktion erhalten als andere. Posts mit 80 Zeichen oder weniger erhalten eine immerhin noch um 66 Prozent höhere Interaktionsrate.

Die ideale Länge einer Google+ Überschrift beträgt weniger als 60 Zeichen

Um die Lesbarkeit und das Aussehen von Google+ Beiträgen zu optimieren, sollte eine Schlagzeile 60 Zeichen nicht überschreiten, da so kein Zeilenumbruch geschieht und der Beitrag deutlich lesbarer ist.
Nach einer Layout-Änderung von Google erscheinen nur noch die ersten drei Zeilen des ursprünglichen Beitrags. Diese sollten möglichst als Teaser genutzt werden, um die Leser zum Weiterlesen zu animieren.

Die ideale Länge einer Überschrift beträgt 6 Wörter

Wissenschaftler fanden heraus, dass Menschen dazu neigen, nur die ersten und letzten drei Wörter einer Überschrift genau zu lesen. Die Chance, dass eine Schlagzeile also insgesamt gelesen wird steigt, wenn eine Überschrift nur sechs Worte lang ist.

Wem dies zu kurz ist, sollte die Überschrift möglichst so wählen, dass die wichtigsten Aussagen in den ersten drei und letzten drei Wörtern stehen.

Die ideale Länge eines Blog-Posts beträgt 1.600 Worte und 7 Minuten

Auf einem Blog ist die Verweildauer der Leser das Kriterium, um die Aufmerksamkeit zu bewerten, und nicht die Anzahl der Klicks. Experten errechneten, dass der ideale Blog-Beitrag sieben Minuten lang ist.
Um dies zu erreichen, sollte der Text 1.600 Wörter lang sein. Wird der Text noch mit Grafiken und Bildern gefüllt, liegt die ideale Wortzahl bei 980 Wörtern.

Die ideale Breite eines Absatzes beträgt 40 bis 55 Zeichen

Die ideale Absatzlänge ermöglicht dem Leser, den Beitrag einfacher zu lesen. Um eine maximale Verständlichkeit zu erreichen, liegt die perfekte Länge zwischen 40 und 55 Zeichen pro Zeile, oder in anderen Worten, sollte eine Spalte, abhängig von Schriftart und Schriftgröße, zwischen 250 bis 350 Pixel liegen. 40 bis 55 Zeichen pro Zeile ergeben etwa acht bis elf Wörter.

Die ideale Länge einer Betreff-Zeile in einer E-Mail liegt zwischen 28 bis 39 Zeichen

Forscher fanden keinen signifikanten Vorteil für kurze oder lange Betreffzeilen in E-Mails. Die Anzahl der Klicks oder der Öffnung der Mails war weitgehend gleich.
Eine Statistik kam zu folgendem Ergebnis:

  • 4 – 15 Zeichen: 15,2 Prozent öffneten, 3,1 Prozent klickten
  • 16 – 27 Zeichen: 11,6 Prozent öffneten, 3,8 Prozent klickten
  • 28 – 39 Zeichen: 12,2 Prozent öffneten, 4,0 Prozent klickten
  • 40 – 50 Zeichen: 11,9 Prozent öffneten, 2,8 Prozent klickten
  • 50 + Zeichen: 10,4 Prozent öffneten, 1,8 Prozent klickten

Diese Statistik ist einer der wenigen ihrer Art, die Unterschied in der Betreff-Zeilen-Länge feststellte.

Die ideale Länge einer Präsentation liegt bei 18 Minuten

Wissenschaftler fanden heraus, dass in einem Bereich zwischen 10 bis 18 Minuten sich die meisten Menschen am besten konzentrieren können. Wird diese Grenze überschritten, werden die Informationen wieder schnell vergessen.

Die ideale Länge einer Titel-Tag beträgt 55 Zeichen

Title-Tags sind die Textstücke, die in den Google-Suchergebnislisten angezeigt werden. Die letzte Design-Änderung bei Google ergab, dass die maximale Länge für Titel bei rund 60 Zeichen liegt. Überschreitet der Titel diese Anzahl, wird er abgeschnitten.
Da jedoch auch die verwendeten Buchstaben verantwortlich für die maximale Länge sind (ein i ist schmaler als beispielsweise ein w), ist man mit 55 Zeichen auf der sicheren Seite.

Die ideale Länge eines Domain-Namens liegt bei 8 Zeichen

Ein erfolgreicher Domain-Name hängt von folgenden Kriterien ab:

  • kurz
  • einprägsam
  • leicht zu buchstabieren
  • beschreibend oder Markenname
  • keine Bindestriche und Zahlen enthalten

Hashtags optimal eingesetzt

Hashtags

Mit dem Begriff Hashtag wird ein Schlagwort oder eine Wortgruppe bezeichnet, bei der ohne Leerzeichen das Rautezeichen (#) vorangestellt wird. Mithilfe des #-Zeichens wird es als potenzieller Suchbegriff markiert und durch anklicken werden verwandte Inhalte angezeigt. darüber haben wir ja hier schon geschrieben.

Was sind Hashtags (noch)?

Durch ein Hashtag können aber auch eigene Marken hervorgehoben werden, damit Kunden schneller zum Produkt finden. Bis vor Kurzem war der Einsatz von Hashtags ausschließlich bei Twitter möglich, Facebook und Google+ folgten erst später.

Eine Faustregel für den effektiven Einsatz von Hashtags lautet: Nicht jedes Wort sollte mit Hashtags hervorgehoben werden. Stattdessen ist der Einsatz vor kurzen und prägnanten Sätzen deutlich besser. Eine Mitteilung oder ein einzigartiger Aushänger kann ein Hashtag sein und nicht viele Wörter hintereinander, vor denen das #-Zeichen gesetzt wurde. Soll ein Begriff besonders hervorgehoben werden, sollten besser Großbuchstaben verwendet werden.

Der richtige Einsatz von Hashtags auf Twitter

Eine Studie von Buddy Media ergab, dass ein Einsatz von Hashtags auf Twitter die Interaktionsrate verdoppelte – allerdings nur dann, wenn ausschließlich ein einziger Hashtag verwendet wird. Bei mehr als zwei Hashtags sinkt die Rate auf 17 Prozent. Auch eine eigene Studie von Twitter kam zu einem ähnlichen Ergebnis: Tweets mit einem oder mehreren Hashtags werden zu 55 Prozent eher retweetet.

Hashtags auf Facebook

Was ist nun mit Facebook? Hier ist die Empfehlung etwas schwieriger: Auf Facebook können Kommentare ohne Hashtags besser abschneiden als solche mit einem Hashtag. Erst seit Juni 2013 ist die Verwendung von Hashtags auf Facebook überhaupt möglich. Im September 2013 stellten eine Studie von Edgerank Checker fest, dass auf Facebook Hashtags überhaupt keinen Einfluss auf die Reichweite haben. Beiträge ohne Hashtags übertreffen Kommentare ohne Hashtags.

Sollten deshalb auf Facebook lieber keine Hashtags gesetzt werden? Dies ist vermutlich die beste Lösung. Doch die Analysen und Studien bezüglich Hashtags und deren Erfolg sind noch lange nicht abgeschlossen. Nur eines ist sicher: zu viele Hashtags sollten unbedingt vermieden werden.

Hashtag Einsatz auf Google+

Auf Google+ werden Hashtags automatisch eingefügt. Doch diese können auch bearbeitet oder eigene hinzugefügt werden. Ebenfalls einzigartig bei Google+ ist die Möglichkeit, Hashtag in die eigenen Kommentare hinzuzufügen, um so Doppelposts zu finden.

In dem sozialen Netzwerk Google+ werden die Hashtags rechts in den Google-Suchanfragen eingebaut. Wird in der Suche ein Hashtag eingegeben, werden die normalen Suchergebnisse sowie eine Google+ Seitenleiste mit allen relevanten Beiträgen angezeigt. Bei Google+ sind Hashtags also wirklich angekommen.

Hashtags auf Instagram

Instagram ist ein weiterer Hotspot für Hashtags, und insbesondere für diejenigen interessant, die gerne ausgiebig Fotos markieren. Interaktionen sind bei Instagram Beiträgen mit über 11 Hashtags am höchsten. Bei Instagram sollte also beim Einsatz von Hashtags nicht gegeizt werden.

Wichtige Hilfsmittel und Tools, um Hashtags zu finden und zu verwalten

Mit den richtigen Werkzeugen können Hashtags als Organisations-System für Social-Media-Kampagnen verwendet werden. Eines der wichtigsten Tools ist Hashtagify.me. Mithilfe dieses hilfreichen Werkzeugs können Unmengen von Daten analysiert werden und ähnliche Hashtags gefunden sowie ihre Popularität überprüft werden. Nach Eingabe eines Hashtags zeigt Hashtagify.me an, wie beliebt er ist und ob er eng mit dem ursprünglichen korreliert.

RiteTag ist ein Werkzeug, welches sicherstellt, dass die verwendeten Tags gut gewählt sind. Das Ergebnis wird als farbiges Balkendiagramm angezeigt – toll um einen schnellen Überblick zu erhalten.
Tagboard überprüft Hashtags auf mehreren Netzwerken: Twitter, Instagram, Facebook, Google+, App.net und Vine.

Twitalyzer ist kein spezielles Tool für Hashtags. Es zeigt im Rahmen der Suche nach Twitter-Konten an, welche Hashtags am häufigsten verwendet werden.

Vier Schritte, um die richtigen Hashtags zu verwenden

  • Schritt 1: Mit den zuvor genannten Tools können die optimalen Hashtags ermittelt werden. Twitalyzer bildet für die Suche danach eine gute Grundlage.
  • Schritt 2: Mit einer Ideen-Liste bewaffnet kann mit dem Tool Hashtagify.me überprüft werden, welche Hashtags beliebt sind.
  • Schritt 3: Die Popularität ist ein guter Indikator für den Wert von Hashtags.
  • Eine tiefere Analyse, beispielsweise mit RiteTag verhilft, einen Überblick über die Reichweite zu erhalten.
  • Schritt 4: Ein letzter Check ist die Überprüfung des gewählten Hashtags, ob es bereits an anderer Stelle in einem gänzlich anderen Zusammenhang verwendet wird.

Fazit: Die Faustregel sagt, dass nicht mehr als ein bis drei Tags benutzt werden sollten – und dies im Idealfall auf verschiedenen Plattformen verteilt. Bei Google+ ist der Einsatz wohl am wichtigsten, denn es generiert die Tags automatisch. Auf Facebook wiederum ist ein Einsatz von Hashtags sinnlos.

Hashtags-in-sozialen-Netzwerken

Tools und Tipps für Google+ (Einführung)

Google+Google+ ist das zweitgrößte soziale Netzwerk – Grund genug, um sich mit Google Plus optimal mit seiner Zielgruppe zu vernetzen. Das neu erwachte Interesse am neuen Dienst kommt nicht grundlos, denn im Gegensatz zum Platzhirschen Facebook lassen sich Inhalte deutlich individueller teilen!

Wie Google+ effektiv genutzt wird und welche hilfreiche Tools es dazu gibt, wird nachfolgend erläutert.

Warum ein Google+ Profil so wichtig ist

343 Millionen Nutzer können sich nicht täuschen – Google+ sagt Facebook den Kampf an!

Mit über 25 Millionen neue Mitglieder gleich im ersten Monat legte Google+ einen grandiosen Start hin. Das Google-Netz macht so einiges anders als der Konkurrent Facebook. So können beispielsweise alle Kontakte anstatt in Freundeslisten in den sogenannten Kreisen verwaltet werden. Dadurch lassen sich die Inhalte vollkommen individuell teilen und wer die einzelnen Beiträge lesen darf, kann deutlich besser reguliert werden.

Einige Funktionen wird der Facebook Nutzer jedoch in Google+ vermissen. So lassen sich Beiträge nicht als Favoriten speichern oder Facebook-Freunde nicht auf Knopfdruck einfach nach Google+ übernehmen. Diese Lücken lassen sich jedoch mit Add-ons und Tools schließen.

Google ist nach wie vor die wichtigste Suchmaschine im Internet. Wer nun möchte, dass seine Webseite von dieser auch gefunden wird, sollte sich unbedingt ein Google+ Profil zulegen und dieses mit wichtigen Informationen „füttern“.

Warum das so ist? Google filtert seine Suchergebnisse anhand verschiedener Kriterien aus der breiten Masse an Angeboten heraus. Dazu zählen auch Aktionen und Kommentare der Social Media Plattformen. Daher liegt es sehr nahe, dass auch Google+ in diesen Algorithmus mit einfließen wird.

Aufgrund der ständigen Anpassungen der Suchergebnisse ist gut zu erkennen, dass Google Plus immer stärker an Bedeutung gewinnt. Wer daher auch zukünftig an der Spitze der Google Suchergebnisse stehen will, sollte sich unbedingt eine Gmail-Adresse zulegen und ein kostenloses Google+ Konto eröffnen.

Tipps für das Google+ Profil

 

Tipp 1 – Hochwertige Inhalte und unique Content publizieren

Entsprechend einem Blog sollte das Google+ Konto / Profil regelmäßig um unique Content erweitert werden. Dazu sind ausschließlich hochwertige Artikel mit einem Mehrwert für den Leser hilfreich. Durch die angebotenen Informationen wird die Zielgruppe auf das entsprechende Profil gelockt. Werden dann noch Links zu der Homepage oder einem Blog veröffentlicht, ist die Wahrscheinlichkeit sehr groß, dass die Leser diese auch anklicken.

Leser, die die veröffentlichen Texte gut finden, äußern dies durch Kommentare und Pluseinsen oder teilen diese weiter. Dadurch werden die Informationen viral verbreitet und auch die Suchmaschine Google merkt das und lässt dies in den Bewertungsalgorithmus mit einfließen.

Tipp 2 – Zielgruppe definieren

Auf Google+ sind überwiegend Unternehmen vertreten, während Facebook auch von sehr vielen Privatpersonen genutzt wird. Dies ist bei der Auswahl der Texte und der Zielgruppe zu beachten.
Technische Hilfsmittel wie beispielsweise Plug-ins oder Add-ons für Browser tragen dazu bei, die Inhalte automatisch zu verteilen. Aber Vorsicht: Unbedingt auf unique Content achten, denn ein Klonen der Texte wird sofort erkannt und von den Lesern abgestraft.

Tipp 3 – Texte durch Fotos und Videos aufwerten

Fotos sind enorme Eyecatcher und von Emotionen getragen – aber auch Videos sorgen für ein pushen des Profils. Aktionen, oftmals in Verbindung mit Gewinnspielen, verleiten zum Teilen der Google+ Seite. Aber auch Gutscheinaktionen sind hilfreich, damit mehr Leser auf das Profil schauen.

Achten Sie aber unbedingt auf darauf ob sie die grafiken / Videos usw. auch wirklich verwenden dürfen. Wer Stockphotos  benutzt kann hier eventuell zur Kasse gebeten werden!!! Lesen Sie dazu bitte unseren Beitrag über Tücken bei Facebook.

Tipp 4 – regelmäßige Google+ Posts

Google misst ständig, wie aktuell das Profil bedient wird. Doch anstatt einfach etwas Belangloses zu posten, damit die Seite nicht ins Abseits rutscht, sollte lieber überhaupt nichts veröffentlicht werden – die Qualität der Texte muss stetig erhalten bleiben. Daher muss das Profil unbedingt regelmäßig mit neuen Artikeln aufgewertet werden, deren Überschrift zum Lesen verleitet.

Die 4 besten Google+ Tools

 

Google+me – Kommentare sortieren

Wer sehr viele mitteilsame Kontakte in seinen Google+ Kreisen hat, kann schnell den Überblick über die Nachrichten verlieren. G+me ist eine Google Chrome Browsererweiterung, die Kommentare und Posts in abgekürzter Forum auflistet. Die Langfasung des Beitrags wird eingeblendet, sobald man mit dem Mauszeiger über den gekürzten Beitrag fährt.

PlusFeed – RSS-Feeds abonnieren

Der Webdienst PlusFeed ermöglicht das bislang von Google+ noch nicht angebotene abonnieren per RSS-Feed. Der Dienst generiert einen RSS-Feed für alle Posts des gewählten Nutzers, wenn die Profilnummer an die URL gehangen wird. Die Profilnummer befindet sich in der URL des Google+ Profils.

Recommended Users – Interessante Nutzer finden

Um die auf Google+ interessante Personen zu finden, hilft der Webdienst Recommended Users. Ein sehr hilfreiches Tool, denn der Nutzen eines sozialen Netzes ist abhängig von den dort angemeldeten Personen, die man jedoch auch zuvor finden muss. Das Tool listet Nutzer auf, die in verschiedenen Kategorien eingeteilt sind und auf ihrem Bereich, wie beispielsweise Journalisten, schon über viele Follower verfügen oder einen guten Ruf besitzen. Allerdings unterstützt die Seite bislang ausschließlich englischsprachige Nutzer.

+1 Button – einfach Pluseinsen

+1 Button ist ebenfalls eine Chrome Browser Erweiterung. Sie fügt der Adresszeile des Browsers einen +1 Button hinzu, durch die sich eine aktuell besuchte Webseite bequem pluseinsen lässt – auch wenn diese nicht selber einen Google+1 Button anbietet oder in den Google Ergebnislisten erscheint. Die nützliche Erweiterung zeigt bei einem Verweilen über dem Button auch die Gesamtzahl der abgegebenen Stimmen an.


 

Wir helfen gerne um Ihr Unternehmen in Sozialen Netzwerken bekannter zu machen!


 

Social Signs und SEO – Rankingfaktoren

Viele Unternehmer nutzen Facebook und Twitter deshalb nicht, weil damit nur wenig Umsatz generiert wird. Doch die sozialen Netzwerke haben eine zumeist unterschätzte Auswirkung auf das Rating bei Google und Bing. Denn die durch das Drücken der Buttons entstandenen Nutzerempfehlungen bestimmen unter anderem das Pageranking.

Die Auswirkung von Social Signs auf das Google-Ranking

Das Ranking einer Webseite bei Google wird von über 200 verschiedenen Signalen beeinflusst. Die klassischen Optimierungs-Methoden sind beispielsweise:

  • Backlinks
  • interne Verlinkung
  • Auswahl der richtigen Meta-Tags
  • Qualität der Inhalte
  • Relevanz der Inhalte
  • Domainalter
  • Aktualität der Inhalte
  •  ausgehende Links
  • doppelter Content
  • Keyworddichte

Das Alter des Contents, der Grad der Inhaltsveränderung, die Entwicklung der auf des Contents verweisende Quellen und noch viele weitere Faktoren werden durch Google ständig neu berechnet. Zu den neueren Ranking Faktoren gehören auch die Ladezeit der Webseite und die Social Signals, die aus Empfehlungen der sozialen Netzwerke entstehen.

Social Signals sind Shares und Tweets, die durch das Drücken des Like- oder Teilen-Buttons in Facebook & Co. als Empfehlung entstehen. Wenn der Leser auf Facebook, Google+ oder Twitter einen Text oder ein Foto interessant und gut findet, drückt er den Social-Sign-Button.

Diese sozialen Signale erzeugen Aufmerksamkeit und bringen Besucher. Facebook ist nach Google zu einer der bedeutendsten Traffic-Quellen geworden. Gemäß einer Studie des Statistikportals Statista sind alleine aus Deutschland rund 26 Millionen Nutzer dort angemeldet – und viele davon nutzen das soziale Netz sehr intensiv. Jedes Teilen, jeder Kommentar und Like erreicht weitere potenzielle Besucher. Und auf diese Aufmerksamkeit sollte kein Unternehmer oder keine Internetseite verzichten.

Die bereits zuvor genannten klassischen Faktoren, um das Suchmaschinen-Ranking zu verbessern, bekommen nun also Zuwachs von Facebook & Co. Denn diese Social Signals werden auch in den Algorithmen von Bing oder Google analysiert. Doch der genaue Einfluss auf diese neuen Ranking-Faktoren ist nicht klar erkennbar, da sich Google bekannterweise nicht in den Such-Algorithmus schauen lässt.

Zusammenhang zwischen hohem Ranking und sozialen Signalen bestätigt

Klicken für animierte Infografik auf www.quicksprout.com

Klicken für animierte Infografik auf www.quicksprout.com

Eine Infografik „Wie soziale Signale Ranken“ hat in einem Versuch mit sechs Internetseiten herausgefunden, dass 100 Google+ Followers die Seite um 14,63 Prozent nach oben brachten. Drückten dreihundert Menschen 1+, rutschte die Seite immerhin noch um 9,44 Prozent nach oben. Und 70-mal Facebook Teilen und 50-mal Facebook Like sorgten für ein besseres Ranking von 6,9 Prozent.

Eine weitere Studie des SEO-Anbieters Searchmetrics zeigt ein ähnliches Ergebnis. Hier wurden 10.000 Keywords analysiert und mit der Anzahl der Facebook-Signale verglichen. Demnach hatten Internetseiten in guten Positionen auch immer viele Shares und Likes auf Facebook. Jack Menzel, Product Management Director Google Search äußert sich zu diesem Thema ähnlich. Er gab an, dass Links nach wie vor wichtig bleiben, aber soziale Signale bedeutender werden.Ein Zusammenhang zwischen den Social Signs und einem hohen Ranking ist also durchaus vorhanden und Google räumt den Social Signals eine immer stärkere Bedeutung zu. Doch von außen ist der kausale Zusammenhang kaum zu ermitteln, denn Seiten mit einer guten Position haben fast immer auch gleichzeitig viele Besucher, die wiederum den Seiteninhalt vielfach in die sozialen Netze weiterleiten.

Sind Social Signs nun Ursache, Wirkung oder gar beides?

Die zuvor genannten Statistiken sagen aber auch aus, dass eine Erwähnung bei Google+ mehr Erfolg verspricht als bei Facebook. Doch warum bringt eine Erwähnung in den sozialen Netzwerken überhaupt solch einen Erfolg beim Suchmaschinen-Ranking?

Webseitenbetreiber können Links kaufen, tauschen, mieten oder anwerben – dies ist bei Social Signs nur im geringen Umfang möglich. Daher bewertet Google diese als Nutzersignale, die nur sehr schwer zu manipulieren sind. Auch sind sie stets aktuell und auch hier heißt es: Qualität statt Quantität. Die Menge alleine entscheidet nicht – wesentlich bedeutender ist, welche Personen und Quellen beteiligt sind.

Fazit: Social Signs werden Links nie vollständig ersetzen, doch deren Bedeutung wird als Ergänzung in Zukunft stark zunehmen. Gerade für Internetseiten, die auf Aktualität angewiesen sind, wie Online-Zeitschriften und News-Portale, werden soziale Signale immer wichtiger. Denn sie haben Einfluss darauf, mit welcher Freshness Google die Seite einstuft.

Wie David gegen Goliath – Die Verlage gg. Google

Wie einst David gegen Goliath – Die deutschen Verleger gegen den Google-Konzern

Wie auch die deutschen Medienhäuser ihren Anteil am Kuchen der „Google-Industrie“ erhöhen wollen.

Verlage-gegen-GoogleDas es um die Printmedien in der westlichen Welt nicht unbedingt gut bestellt ist, das ist längst kein Geheimnis mehr. Was anfangs als technologisches Strohfeuer abgetan wurde, hat sich zu einer weltweiten Medienlandschaft entwickelt, die über Landesgrenzen hinweg im Internet miteinander in Konkurrenz stehen. Das Online-Marketing läuft heute über die Suchmaschine Google und wie niemals zuvor, stehen klassische Medienanbieter unter dem Druck, Einnahmen zu generieren. Sich quasi „an der Quelle des Internets“ bedienen zu wollen, scheint den Medienhäusern die bequemste Möglichkeit, was sie jetzt mit einem Gesetz festsetzen wollen. Bahnt sich hier ein Schuss ins eigene Knie an? Wir betrachten die Situation im folgenden Artikel.

Das Vorgehen der deutschen Medienhäuser – Ein verzweifelter Griff nach dem goldenen Strohhalm?

Die Medienhäuser kämpfen seit 2008 mit massiven Einbrüchen in den Umsätzen durch Werbe-Platzierungen, gerade in den Printmedien stagnieren die Umsätze in gleichem Maße, wie die Abwanderung der Konsumenten auf digitale Plattformen an Zuwachs gewinnt. Die Verbreitung von immer neuen, nutzerfreundlichen und sehr erschwinglichen Mobilgeräten, die es auch „on the go“ ermöglichen es nahezu unabhängig von klassischen Vertriebswegen, digitale Medien im Internet aus vielen Quellen zu konsumieren. Kurzum: Die Verleger haben die Chance, die ihnen die neue Technologie geboten hat, verstreichen lassen und sieht nun ihre Felle davonschwimmen.

Die vorgebrachten Argumente sind wenig stichhaltig – Nur ein Vorwand für neue Geldquellen?

Argumentiert wird hierbei damit, dass die News-Aggregatoren wie Google News sich unberechtigt an den Inhalten der Online-Angebote bereichert, da die sogenannten „Snippets“, also die Auszüge aus indexierten, katalogisierten und aus der Plattform bereitgestellten Vorausansichten der Artikel der Online-Präsenzen der Verlagshäuser dazu führe, das der Nutzerfluss nicht mehr auf dem eigentlichen Angebot der Medienhäuser führe und somit die Einnahmen durch Werbung, etwa durch Anzeigenschaltung und Produktplatzierung, Einbußen hinnehmen müssten, was man vom Suchmaschinenkonzern künftig in barer Münze vergolten sehen möchte. Notfalls per Gesetz.

Belgien und Brasilien : Die Medien-Giganten im Kampf um die Fleischtöpfe mit dem Titanen des Internets – mit und ohne Lösung

Zwei mahnende Beispiele für den Fehlschlag solcher Grabenkämpfe im Online-Marketing sind hierbei Brasilien und Belgien, in denen jeweils auf anderem Wege die Verlage anstreben, für ihre Inhalte in Google News eine Vergütung zu erhalten. Während in Brasilien insgesamt 154 Tageszeitungen gemeinsam beschlossen haben, ihre Inhalte nicht mehr für Google News bereit zu stellen. In Belgien sind die Vertreter der Medienbranche zunächst einen „deutschen“ Weg gegangen und haben ihr „Recht“ 2011 vor Gericht erstritten – Und den Zuschlag der Judikative erhalten. Daraufhin entfernte Google die bestrittenen Online-Medien aus seinem Index, was binnen Tagesfrist eine empörte Reaktion der Verleger zu Folge hatte, denn ein Ausschluss aus dem Index der Suchmaschine bedeutet die faktische Bedeutungslosigkeit. Ein Einbruch der Besucherzahlen war unmittelbare Folge. Erst die Zusicherung, keine Strafzahlungen aufgrund von Verletzungen des Urheberrechts einzufordern führte dazu, die Online-Magazine und Angebote wieder in den Index aufzunehmen.

So könnte auch in Deutschland ein Mittelweg aussehen – Doch lenken die Verlage ein?

Das sollte der deutschen Verlagswirtschaft Beispiel genug sein, das ein Angriff auf den weltgrößten Suchmaschinenanbieter, über den rund 80% aller Suchanfragen direkt auf die Angebote der Verlage geleitet werden, in einer aggressiven Form zu keinem Ergebnis führen kann und wird. Das unterstreicht auch der Streit der deutschen Rechteverwerter-Vertretung GEMA, die seit Jahren das Online-Videoportal YouTube bestreitet und eine Einigung über Abgaben für urheberrechtlich geschützte Werke unmöglich macht und dem Streben der deutschen Verleger ähnlich sieht: Man will den ganzen Arm, wo Google die Hand reicht. Denn in den meisten Ländern hat eine solche Einigung längst stattgefunden, während in deutschen Landen die Anzeige „Das tut uns Leid“, mit dem Hinweis der Unverfügbarkeit in Deutschland auf jedes Video gelegt wird, welches auch nur annähernd Anspruch auf eine Vertretung durch die GEMA hat und seit jeher Unmut bei den Verbrauchern aufruft, welche das Konsumerlebnis haben. Grund dafür: Die deutschen Rechtevertreter sind schlichtweg zu gierig, ihre Forderungen zu hoch. Doch wie führt ein Weg aus dieser Lage heraus?

Kooperation statt Kampfansage: Der gescheiterte Angriff der belgischen Medienhäuser zeigt den Weg

Die Einigung der belgischen Medienlandschaft mit der Google Inc. zeigt jedoch auch, wie die Vernunft über den Weg der Kooperation Sieger werden könnte und mit einem Kompromiss beide Seiten ins Reine miteinander bringen könnte: Statt durch per nationaler Gesetzgebung eine erzwungene und unflexible Abgabenerhebung einzuführen, einigten sich die Parteien darauf, dass Google seine Dienstleistungen für die Bewerbung der Medien der „Copiepresse“, dem klagenden Verband, bereitstellen wird und die Verleger im Gegenzug zukünftig für ihr Online-Marketing die Werbedienste wie Google AdWords einsetzt, um die eigene Reichweite zu erhöhen. Weiterhin wird Google sein Know-How bereitstellen, um durch Abonnenten-Systeme und Paywalls den Verlagen die Mittel an die Hand zu geben, um ihre Inhalte besser vermarkten zu können.

Fazit: Google kann und will, wenn das Angebot stimmt. Siegt die Vernunft auch in Deutschland?

Diese Lösung könnte für den Krieg um die Klicks im Online-Marketing der einzige gangbare Weg werden, bei dem ein Kräftemessen mit dem Suchmaschinenbetreiber Google ausbleibt und es zu keiner Eskalation kommt, die wie im Beispiel von Brasilien und Belgien im Endeffekt nur das Streitobjekt, den Nutzer, darunter leiden muss, dessen Benutzererlebnis durch die Ausschlüsse und die Unverfügbarkeiten deutlich leidet. Fakt ist: Google hat in diesem Kampf auf internationaler Ebene schlicht den längeren Atem – Daran wird die deutsche Gesetzgebung nichts ändern. Wir hoffen auf eine einvernehmliche Lösung, welches die Medienwelt wie gehabt belässt und nicht aus Gier und Neid den Kampf um die Einnahmen aus dem Online-Marketing eskalieren lässt.

Ein halbes Jahr „Google Penguin“ – Teil 4

Teil 4 – Auch beim Pinguin bleibt verboten was bereits verboten war…

…und deshalb behält Herbert Grönemeyer wieder einmal Recht:“Es bleibt alles anders, du kannst nur Gewinnen!“.

Im Grunde nämlich liest sich die Aufzählung besonders hervor gehobener Punkte zunächst einmal nach nichts besonderem. Lediglich die Überoptimierung in den Sanktionierungs

Keywords als Stopfen für blankspace – Auch nach dem Update die schlechteste Alternative zu hochwertig designten Content

Der Ankertext ist eine beliebte Form der Suchmaschinenoptimierung, Jedoch birgt dieses Element großes Potential für dreierlei gleichermaßen:
Es folgt ein Beispiel zu Bildungszwecken! Für den Missbrauch als Waffe gegen ihre Konkurrenz, der sie mit widersinnigen Keywords im Ankertext den Ausbau der ihrer relevanten Keywords erschweren zum anderen als spitzenmäßige Chance aufgrund der Feststellung einer unnatürlichen Linkstruktur ihre ersten Erfolge im SEO schnellstmöglich postwendend wieder abzugeben oder aber indem sie nur wenig Fantasie beweisen und die geringe Variation in den von ihnen Platzieren Keywords in Ankertexten führt unweigerlich zum Feststellen der künstlichen Linkstruktur und somit auch zu einer Abwertung rechnen dürfen.

Wichtig ist bei der Verwendung von Ankertexten die beständige Ermahnung daran, dass die Schemata ihrer Optimierung per Ankertext immer und jeder Zeit darauf grundlegend basieren muss, das sie möglichst detailgetreu eine organische, das heißt natürliche, Linkstruktur zu imitieren versuchen um die positiven Effekte dieser Form der Formatierung von Schwerpunkten im fließenden Content auch auf mittlere bis lange Fristen halten zu können. Die Anzahl der von ihnen gefahrlos zu platzierenden Verlinkungen mit Ankertext hängt maßgeblich von dem Vertrauen ab, das ihnen per Algorithmus zugestanden wird und als „Trust“ bekannt ist.

Ankertexte und Analytik – das eine kennt die Schwächen des anderen Der Algorithmus erhält eine Datenbankschnittstelle zur Musterabgleichung

Weiters gehören zu die Verfeinerungen der mit dem „Penguin“-Update einhergehenden analytischen Fähigkeiten sowie der weiterentwickelten Indikationsmessung und Mustererkennung anhand dieser die Prüfroutine des Algorithmus mit äußerst hohen Erkennungsraten aufwartet und gerade bei, vor allem in der Zwischenzeit beliebt gewordenen, Methoden der relativen geringen Chance einer Aufklärung bis zur vorigen Iteration diesen illegalen Maßnahmen zur Manipulation der Suchergebnisse und Bewertungen nun einen Riegel vorschiebt.

Der gesteuerte Aufbau des PageRank ihrer Webseite durch die Planung und Umsetzung einer Backlink-Struktur von vorrangigen Webseiten, welche einen hohen PageRank von 7 oder 8 aufweisen. Da diese Backlinks der Vermutung nach selten durch eine natürliche Anbahnung zustande kommen setzen sie sich Gefahr aus, Aufgrund der Manipulation ihres PageRank neben der Abwertung auf einen niedrigen Wert der in krassen Fällen auch PR0 bedeuten kann, sondern liefern auch Anhaltspunkte für genauere Überprüfungen, sollten sich ihre Backlinks ausschließlich aus im Zuge von enttarnten Linkfarmen zum Verkauf von Backlinks zusammen stellen.

Der Öko-Pinguin: Aufbau von PageRank und Backlink-Strukturen: Bitte nur natürlich

Mit dem Abrutschen in ein eingeleitetes Bewertungsverfahren durch die Google Quality Rater setzen sie sich der Gefahr aus die bisher erreichten Erfolge durch negatives Feedback der Prüfer zu verlieren und können sich daher schnell am Anfang ihrer Bemühungen wiederfinden, bei der ihnen nur eines garantiert bleibt: Eine zeitgebundene Penalty für den Handel mit Backlinks, als deren Käufer sie entlarvt wurden. Beachten sie darüber hinaus, dass es wie bei der Analyse der Entwicklungskurve des Wachstums ihrer Backlink-Strukturen zum Standardprocedere der Prüfmethoden des „Penguin“-Algorithmus gehört. So besteht die Möglichkeit, das im Rahmen der regulären Prüfung der plötzlicher Anstieg ihres PageRank festgestellt wird, und dieser sich durch die Verlinkung von einer Vielzahl von thematisch nicht mit den auf ihrer Seite behandelten Themen verwandten Quellen schnell eine Penalty bis hin zur Abwertung des Rankings hageln kann.

Als guter Tipp für sie: Linkfarmen werden aufgrund überlegener Erfolgsraten bei der Erkennung oftmals schon im Aufbau aus dem Verkehr gezogen, im allgemeinen ist ihnen heutzutage generell keine lange Überlebensdauer beschert. Verschwenden sie daher ihr Geld nicht in die Investition von Backlinks aus der Hand von Linkverkäufern sondern setzen sie auf natürliche Entwicklung und versuchen durch eigene Leistung „saubere“ Backlinks für den Aufbau von PageRank und Backlink-Strukturen zu gewinnen. Diese haben zumeist vor allen Dingen eine höhere Lebensdauer, als die Links aus Linkfarmen die ihnen, wenn überhaupt für einen Turnus bis zur Neubewertung, bei der ihre gekauften Backlinks fehlen werden, versprochen, zu einem besseres Ergebnis verhelfen werde.

Die Zeit der Linkfarmen ist endgültig vorüber geblieben sind schnelllebige Betrüger – auf der Suche nach dem schnellen Geld

Mit der Anbindung an die hauseigenen Datenbanken, stehen die vollständigen Ergebnisse sämtlicher, jemals erfasster Webseiten zur Analytik zur Verfügung. Um sie für den Abgleich der Entwicklungen nutzen zu können, erhielt die Iteration des „Penguin“-Algorithmus einige mächtige Schnittstellen. Das man ihm zudem eine verbesserte Musterdatenbank für Manipulationsversuche verpasste, sollte der größte Clou werden: Dieser Crawler lernte nicht, er kombinierte. Und das mit Erfolg!

Diese Bereiche erfuhren nun mit, mit den Auswirkungen des Penguin-Update die vollen Breitseite der strikten Anwendung der Google Webmaster Guidelines und aller Maßnahmen zur Sanktionierung, die der neue Algorithmus hergab um die Neuordnung der Rankings in den SERPs von Google möglichst schnell vonstattengehen zu lassen. Man könnte fast von einem chirurgisch-präzisen Schnitt sprechen, der beim Roll-Out von Google durchgeführt wurde – Einem Schnitt, der sich vor allem gegen die eigenen Zöpfe richtete, derer man über die Jahre leidlich geworden war.

Das war der vierte und letzte  Teil unserer Serie Ein halbes Jahr „Google Penguin“.

Die komplette Serie finden Sie hier:

 

Ein halbes Jahr „Google Penguin“ – Teil 3

Teil 3 – Kaum auftretende Kollateralschäden aber eine Serie Volltreffer bei verborgenen Black-Hat SEOs – die sich dann auch noch beschweren!

Nachdem sich also der Staub gelegt hat und nach knapp einem Monat, der seit dem Beginn der operativen Phase des „Penguin“-Update verstrich bis die korrekte Kalibrierung und Nachsteuerung durch die Entwickler abschließen konnten und daraufhin langsam aber sicher wieder eine gewisse Normalität in den Alltag in der Arbeit mit der Suchmaschine einkehrte.

Entgegen der Unkenrufe blieb der große Crash, den so mancher Gegner des „Penguin“-Updates sich herbei wünschte, um wenigstens ein bisschen Genugtuung zu verspüren. Denn alles in allem war das gesamte Update erstaunlich geschmeidig über die Bühne gegangen. Bei der Umstellung aus die neue Iteration blieben größere Ausfälle aus, und bis auf wenige Stunden war Google lediglich zeitweise für wenige Minuten nicht zu erreichen, bzw. bearbeitete keine Anfragen über die AJAX-Oberfläche der Suchmaschine.

Ich halte daher fest: Die Erde rast noch immer in einem ganzen Stück durch den luftleeren Raum, sich dabei in einer ellipsenförmigen Bahn in Rund 365 Tagen pro gleichmäßig aufgrund der Achsrotation sich nach wie vor von allen Seiten bräunt, weder Saddam Hussein noch Kim-Jong Il aus ihren Gräbern auferstanden sind dürfte man wohl mit Fug und Recht behaupten: Mission accomplished. Dann können wir uns nun ja dem Welthungerproblem und der Heilung von Krebs und AIDS zuwenden, ja?

Kollateralschäden durch das Penguin-Update fielen verschwindend gering aus

Die tatsächlichen Kollateralschäden unter den Betroffenen der neuen Sanktionierungspolitik des Algorithmus, welche durch eine ungünstige Konstellation von zuvor vielleicht Ermahnten aber nicht bestraften Maßnahmen profitiert hatten, welche im Rahmen ihrer ersten Überprüfung nach den Vorgaben der neuen Richtlinien aber eine Querindikation gebildet hatten und diese als Manipulationsversuche angerechnet und den damit eintretende Konsequenzen ausgesetzt worden waren. Fälle, von denen man mit guten Willen von einer „Abwertung ohne Schuld“ hätte sprechen können. Sie sind tatsächlich die einzigen, die durch eine ungünstige Verstrickung, zwar mit eigenem Schuldanteil, dessen Umfang nicht verdiente, von einer organisierten Manipulation der SERPs zu reden, und in diesem Zuge echte Nachteile durch den Paradigmenwechsel hinnehmen mussten, meist aus heiterem Himmel.

Allerdings die Majorität der Projekte, welche sich Aufgrund der lang erwarteten und nun eingetretenen Sanktionierung von grauen bis dunkelgrauen Optimierungen ausgesetzt sahen, hatten auf der Basis einer vorsätzlichen Vorteilsnahme zugunsten des Rankings und im Wettbewerb um eine gute Platzierung ihrer Webseiten auf den keywordrelevanten SERPs der Suchmaschine die Folgen ihres Handelns ganz bewusst in Kauf genommen, als ihre Methoden noch als „narrensicher“ galten und im schlimmsten Falle ermahnt, nur selten jedoch tatsächlich bestraft wurden, wenn dann nur in symbolischen Rundumschlägen, die vorrangig durch die menschlichen Mitarbeiter der Google Inc. vorbereitet und geführt wurden.

Das vorläufige Ende einer goldenen Ära für Black-Hat SEOs – Auch „Grey Hat“-Maßnahmen werden zunehmend weg sanktioniert

Mit der Iteration der verbesserten Indikation und Feststellung von bisher unerkannten oder aufgrund der Fehlerquoten vergangenen Algorithmen zwangsweise tolerierten Maßnahmen, die rein nach den bisherigen Richtlinien für Webmaster weder ausgesprochen legal noch illegal waren, wurden nahezu alle Maßnahmen zur „Grey Hat-SEO“ als zu sanktionierende Verstöße gegen die Richtlinien klassifiziert. Dazu zählen die Verwendung von Techniken welche unter das „Cloaking „ fallen, insbesondere der „Cloaking Pages“, das Kaufen und Verkaufen von Links zum Aufbau künstlicher Backlink-Strukturen ebenso wie die Feststellung von Inhaltsduplikaten, bei denen festgestellt wird, das sie nicht die originale Quelle sind da der Inhalt an anderer Stelle bereits zu einem früheren Zeitpunkt von einem Crawler indiziert wurde.

„Keyword stuffing“ ist und bleibt weiterhin „Black-Hat“-SEO

Die, gerade in den frühen Jahren der Suchmaschinenoptimierung beliebte Technik des „keyword stuffing“ wird bei Feststellung eines Befundes grundsätzlich mit einer Penalty geahndet. Ob sich ein SEO-Professional des „keyword stuffing“, also der möglichst dominanten Platzierung von Keywords bis zur Ausprägung des wortwörtlichen „Vollstopfens“, schuldig gemacht hatte, wird anhand eines Wertes, welcher sich aus einer Berechnung der unter Verdacht des „stuffing“ stehenden Suchbegriffs und dem dazu im Verhältnis stehenden restlichen Menge Content in Textform.

Die Grenzen zwischen der professionellen Platzierung von Keywords und dem Übergang der als Methode des „Black Hat“-SEO betrachteten „keyword stuffing“ sind je nach Definition fließend, manche Quellen werten den Akt des „stuffing“ unter einer Bedingung als „weiße SEO“: Die Methode muss aus den richtigen – hier wohl gerechten – Gründen angewandt werden. Nichts desto trotz hat die Feststellung von „keyword stuffing“ eine automatisierte Sanktion zur Folge, weshalb sie die Verhältnismäßigkeit der von ihnen in den Content eingebetteten Suchbegriffen lieber zweimal Überprüfen, ehe sie ihn freigeben. Eine besondere Form dieser Violation bezieht sich auf das „vollstopfen“ der META-Bereiche mit einer übermäßigen Anzahl an Suchbegriffen. Diese Methode hat jedoch seit der ersten regelmäßigen Abstrafung der Ergebnisbezogenen Manipulation auf diesem Wege keine nennenswerte Verbreitung mehr erreicht, da sie zu offensichtlich ist.

Ja, lernen sie es denn einfach nicht?
Viele Violations der Webmaster Guidelines finden noch immer durch Maßnahmen im META-Bereich statt

Lesen Sie nächste Woche einen weiteren Teil der Serie Ein halbes Jahr „Google Penguin“

Die komplette Serie finden Sie hier: