Regionales SEO: für mehr Umsatz in Ihrer Umgebung

Die Personalisierung der SERPs ermöglicht es, den Usern passgenaue Angebote zu liefern. Die Berücksichtigung der Region ist unter anderem ein wichtiger Faktor, um die Suchergebnisse optimal zu personalisieren. Viele KMU wie etwa Arztpraxen, Handwerksbetriebe oder Einzelhandelsgeschäfte sind auf Kundschaft in der unmittelbaren Nähe angewiesen. Umso wichtiger ist es, dass die Suchmaschinenoptimierung regional ausgerichtet ist. Am besten gelingt dies mit der professionellen Unterstützung einer SEO-Agentur. Doch auch Webseitenbetreiber können für eine bessere lokale Sichtbarkeit selbstständig bereits einige Schritte in der OnPage-Optimierung durchführen. Wir verraten, welche effektiv und leicht umzusetzen sind.

Domainnamen lokal anpassen

Die regionale OnPage-Optimierung beginnt bereits bei der Webadresse, indem der Stadtname im Domainnamen genutzt wird. Am besten wirkt dies in Verbindung mit einer Dienstleistung oder einem Produkt. So zum Beispiel: hausbau-wien.at. Das Prinzip kann auch auf die tiefer gehende URL-Struktur angewandt werden, etwa durch die Nutzung von Unterkategorien nach folgendem Muster www.hilton.at/wien. Diese Struktur lässt sich durch die gesamte Topografie der Website vollziehen und ermöglicht es, zahlreiche Unterseiten mit dem entsprechenden Stadtnamen zu versehen. Bei Unternehmen mit mehreren Standorten können auf einer Website auch mehrere Folder mit verschiedenen Städtenamen eingerichtet werden. Die Suchmaschinen erkennen das Muster, lesen die Daten ein und werden bei User-Anfragen zukünftig berücksichtigt.

Auf Longtail-Optimierung setzen

Auch bei der Keyword-Auswahl kann ein simpler Trick zu besseren Rankings bei Google & Co. verhelfen. Statt einfach relevante Keywords zu wählen, die den Website-Inhalt unterstreichen, empfiehlt es sich, diese durch den Stadtnamen zu ergänzen. Ein Beispiel wäre die Wortgruppe „Dachdecker Wien“. So können User-Anfragen mit regionaler Komponente besser bedient werden. Als erfahrene Internetagentur führt die Austrianweb Group umfassende Keyword-Analysen durch und optimiert Ihre Firmenwebsite mit adäquaten Longtail-Keywords integriert in hochwertigem Content.

Ankertexte mit regionalem Bezug wählen

Links sind ebenfalls ein wichtiger Bestandteil der OnPage-Optimierung und sollte bei der regionalen Suchmaschinenoptierung beachtet werden. Deshalb sollten die so genannten „Anchor“-Texte ebenfalls Stadtnamen sein. Die Austrianweb Group unterstützt Ihr Unternehmen bei der Website-Optimierung mit regionalem Bezug. Durch die personalisierte Suchmaschinenoptimierung werden Sie schneller von Kunden in Ihrer Umgebung gefunden – und das bei relativ wenig Aufwand.

Erfahren Sie mehr über die regionale Suchmaschinenoptimierung in einem persönlichen Beratungstermin! Wir erstellen Ihnen auch gern ein individuelles Angebot.

Weitere Infos (externe Seiten):

[related-links]

Kurz und knackig – Retro Blogging wieder aktuell, Teil 5

Eine Anleitung und Fürsprache für klassisches Content Design

3.) Mit welchen Elementen wirkt mein Content am besten?

In der Tat handelt es sich dabei um eine gute Frage, für die es keine allgemeingültige Richtlinie gibt und sich lediglich Richtlinien anbieten, nach denen man eine gewisse Inhaltspolitik entwickeln kann und über die Statistischen Aufzeichnungen bestimmte Rückschlüsse und daraus erwachsendes Potential zur Optimierung ableitet. Bestimmen wir jedoch zunächst die relevanten Inhalts-Typen für ihr Weblog:

Textbasierender Content

Der inhaltliche Grundstein ihres Projektes, für Mensch und Maschine gleichermaßen, der Anlass ist um auf ihrem Blog zu bleiben und die bereitgestellten Inhalte zu konsumieren. Das finale Ziel ihrer Inhalte sollte darin liegen, eine vollständige und schwer zu zerrüttende Konversion ihrer Seitenbesucher zu erreichen. Aus der Zahl dieser „Regulars“ ergibt sich der interagierende Anteil der Seitenbesucher, welcher auf ihrem Blog aktiv ist.

Vom technischen Aspekt bieten auch in der klassischen Form verfasste Postings ausreichend Volumen, um für die keyword-spezifische Optimierung des textbasierenden Content nutzbar zu sein. Dies gilt Grundsätzlich für jedes Text-volumen zwischen 250 und 400 Wörtern. Unter Berücksichtigung der vernunftgelenkten Maßgabe einer grundsätzli-chen Anforderung an die konsistenter Lesbarkeit und den gleichmäßigen Sprachfluss ihrer Inhalte entsprechend der schwerpunktmäßig festgelegten Keywords ihres Optimierungs-Konzeptes auch mittels von Synonymen und wortglei-chen Begriffen gestalten und erhalten konsistente Ergebnisse in der On-Page Optimierung nach professionellen SEO-Standards.

Bilder – Statisch & Animiert

Ob originaler Content oder Repostings, ob statisch oder animiert: Durch Bilder lassen sich aufgrund des „modus operandi“ des menschlichen Verstandes unmittelbare Regungen auf emotionaler Ebene hervorrufen. Daher eignet sich diese Form des Content dafür, im Rahmen einer zurückhaltenden Dichte der Einstreuung als idealer Anker zu fungieren, der Seitenbesucher zum Verweilen animieren kann und somit die Chance auf eine Visitor Conversion erhöhen kann.

Darüber hinaus lassen sich Bilder, welche als HTML-Elemente bisher für die Webcrawler der Suchmaschine Google „blinde Flecken“ waren und nicht erfasst wurden, durch die optimierte Bestückung nach Aspekten der SEO mittels der ALT-Tags und der Title-Descripton als Einstiegspunkte für Traffic gestalten, welcher über die Google Bildersuche geleitet wird, da hier Bereiche und Keyword-Kombinationen mit Top-Ranking in Reichweite, die in der organischen Google Suche hoffnungslos überlagert sind.

Videos & Streams

Während Bildmedien und textbasierender Content bereits seit der Geburt des Internet als vollwertige Inhaltstypen aner-kannt und in die technischen Standards integriert sind, taten sich die Mitglieder des W3C-Konsortium in der Überein-kunft über Standards für multimediale Inhalte sehr schwer, umso mehr in der Ausführung ihrer Beschlüsse nach erfolg-ter Standardisierung.

Lange Zeit galten Mediencontainer als state-of-the-Art, welche mittels Macromedia Flash (Später Adobe) umgesetzt wurden. Dieser Standard hielt sich in Ermangelung von durchsetzungsfähiger Konkurrenz und entgegen aller Kritiken bis zur Freigabe der Meilensteine von HTML 5 zwischen 2008 und 2012, welches die Einbindung von Videodateien mittels nativem HTML ermöglicht und dadurch erstmalig die „Lesbarkeit“ für Webcrawler ermöglicht und durch erwei-terte Möglichkeiten der Kenntlichmachung durch die Einbindung der Title-description und des ALT-Attribut zu einem besser zu erfassenden Element innerhalb des Seitenquelltext mit SEO-relevanz geworden ist.

Im alltäglichen Umgang mit Containern und Applets zur Darstellung von multimedialen Inhalten sollte man stets eher mit Zurückhaltung agieren. Bedingt durch die grundsätzliche Fixierung des Menschen auf optische Reize neigen solche Inhalte dazu, den Seitenbesucher vom eigentlichen Content abzulenken und nach dem unmittelbaren Konsum einen Absprung zu provozieren. Ausnahme hiervon sind, wenn auch nicht unbeschränkt, die Einpflege und Promotion eigenen Contents in dieser Darreichungsform, da hier von einer unmittelbaren Assoziation gesprochen werden kann, welche durch Intros und Jingles den Anker im Bewusstsein des Konsumenten setzt und somit nicht vollkommen ohne konkreten Bezug zum Quellmedium konsumiert, wie es bei externen Mediencontainern der Fall wäre.

Wir fassen zusammen

Es ist nicht der Mai, der in diesem Jahr 2013 für die Szene der SEO-Blogger „alles neu“ macht, es ist der Februar und trotz des Rückschritts auf alte Vorlagen und Gestaltungsmuster darf längst nicht von „ollen Kamellen“, wie man im rheinischen Köln sagt, gesprochen werden, denn diese wurden gerade jüngst zur Karnevalszeit erst unter die Leute gebracht.

Für die Blogosphäre im europäischen, speziell dem deutschen Raum, gewinnt der gesamte Prozess des Content Design hingegen wieder ein gesundes Stück an Konsistenz und gestalterischer Sicherheit, mit dem zumindest bis zum Release kommender Iterationen des Suchalgorithmus auf eine bekannte Weise gearbeitet werden kann. Die Frage, welche sich in diesem Kontext jedoch stellt, ist die Einsichtsfähigkeit der SEO-Branche hierzulande, über die Sinnhaftigkeit dieses Rücktritts von vermeintlich überlegenen Optimierungsmöglichkeiten für Webseitencontent. Doch das Jahr ist lang und es wird sich zeigen, wie stark der Anpassungsdruck tatsächlich ist, der sich auf den Rankings des einen oder anderen niederschlägt.

Das sich die angekündigten Auswirkungen des „Penguin“-Updates jedoch lediglich in solch geringem Umfang auf das Ranking auswirken würde ist die eine Seite der Medaille, welche den Suchmaschinenkonzern nicht sonderlich gut da-stehen lässt, während die andere die neue Gewichtung des Nutzerverhaltens und den wachsenden Einfluss des Schwarmverhaltens, welches sich aus der Gesamtsumme der erfassten Messwerte des Userverhaltens ergeben.

Scheinbar ist dieser Faktor ausschlaggebend genug, um sie sonst eher trägen SEO-affinen Blogger in Übersee über Umwege tatsächlich dem gestellten Anspruch der Google-Entwickler zu entsprechen lassen, in dem sie ihre Inhalte tatsächlich für ihre Seitenbesucher und nicht für die algorithmische Erkennung der Webcrawler umgesetzt haben.

Und irgendwie beruhigt es doch ein wenig, in dem Wissen zu sein, das man auch in den Entwicklungsbereichen der Suchmaschine Google, unter der Federführung von Matt Cutts, kein vollumfängliches Verständnis für die Dynamiken ihrer Suchmaschine besitzen, was dem oft dämonisierten Unternehmen wieder einen Hauch Menschlicher Fehlbarkeit verleiht.

Und was sagen Sie dazu? Was haben Sie beobachtet?

Kurz und knackig – Retro Blogging wieder aktuell, Teil 4

Eine Anleitung und Fürsprache für klassisches Content Design

Klassisches Bloggen – Einfach gemacht

Wie also den Weg zurück zur klassischen Generierung von Webcontent finden? Ein altes deutsches Sprichwort spricht in dieser Angelegenheit wahre Bände: „In der Kürze liegt die Würze“! Entsprechend dem Nutzerverhalten und der sta-tistischen Aufmerksamkeitsspanne eines Internetnutzers hat sich ebenfalls die Form und der Umfang des bereitgestellten Content zu richten.

Wir haben dazu einige Punkte zusammengefasst, die sich als gute Richtlinien im Alltag erweisen:

1.) Wie viel Text ist gut für mich und mein Blog?

Der User „Jens“ hat im Kommentarbereich des bekannten SEO-Blog „SEO-United.de“ die wohl treffendste Zusammen-fassung als Antwort für diese Frage formuliert: „Versuche so schnell und aussagekräftig wie möglich zum Punkt zu kommen.“

Dazu gehört ein wenig Fingerspitzengefühl und die Fähigkeit, sich in seine Zielgruppe hinein zu versetzen. Der heute typisierte, durchschnittliche Nutzer zwischen 18 und 50 Jahren bewegt sich in einem umfassenden Netzwerk aus Infor-mationsquellen , welche er regelmäßig wieder kehrend abruft. Die Erwartung an ein Weblog hingegen sind keine aus-schweifenden Textmengen, sondern in handlichen Portionen servierter Content. Diese Erwartungshaltung an das eigene Programm gilt es zu erfüllen. Ein guter Anhalt ist dabei das eigene Surfverhalten, dessen Ansprüche ohne Vorbehalt auch auf die eigene Plattform angewandt werden sollten – Sich in den Besucher zu versetzen bewahrt vor unattraktivem Content Design

Bei der tatsächlich stattfindenden Inhaltlichen Strukturierung des generierten Contents muss unter der relativen Be-grenzung durch die Anforderungen des Visitors keinesfalls die Qualität einer technischen Optimierung auf SEO-Standards leiden, da die Textlänge um längen ausreicht. Die als Faustregel geltenden 250 bis 400 Wörter, welche zur Erfassung durch den Webcrawler als Maß gelten, sind schnell erreicht und bieten mit dem klassischen Handwerkszeug, vom Setzen von Backlinks, Crosslinks und entsprechend Google-freundlicher Formatierung ausreichend Potential.

2.) Wie oft darfs denn sein? Wöchentlich, täglich oder gar stündlich?

Man kann im Grunde nicht oft genug an den gesunden Menschenverstand appellieren, doch auch an dieser Stelle ist genau diese Komponente ein essentieller Faktor für den Erfolg eines Weblog als Online-Medium mit wachsendem Publikumsverkehr.

Beachten sie, was schon im vorherigen Punkt genannt wurde: Der Casual Visitor ist mit hoher Wahrscheinlichkeit in der altersrelevanten Zielgruppe, welche sich weitgehend nativ, also natürlich, im Internet bewegt und sich für die Informationsgewinnung und zur Unterhaltung umfangreiche Netzwerke aufgebaut hat, welche regelmäßig besucht werden.

Das bedeutet, ihnen wird als Teil eines solchen Netzwerkes aus Webseiten, Online-Magazinen und anderen Plattformen im Internet eine zeitlich begrenzte Aufmerksamkeit zuteil, die sie zur optimalen Ausnutzung erfüllen sollten, weshalb es sich anbietet, diesen Zahlenwert zu ermitteln. Im Prinzip stellen sie dazu eine schlichte Rechnung an, bei der ihnen die Auswertung der gesammelten Daten ihres Blogs zum Nutzerverhalten hinsichtlich der Verweildauer und der Klickraten (Click Through Rate) sowie der Absprungrate gute Dienste leisten werden, da sich hieraus ein Mittel ergibt, mit dem sie ihren Content Output zielgruppengerecht steuern können.

Punchline: Sie sollten nur so viel Content in 24 Stunden bereit stellen, wie ihre Unique Visitors auch tatsächlich konsumieren.

Jede Menge an eingepflegten, geteilten oder publizierten Inhalten ihres Weblogs fallen entweder nicht ins Gewicht und sind daher vergebene Liebesmüh – Es zählt wie auf den Suchergebnisseiten von Google nur die „Seite 1“ – oder wird ab einem gewissen Wert gar als Content Spamming wahrgenommen und könnte zum Verlust von „Regulars“ führen.

Lesen Sie morgen: Punkt 3 – “Mit welchen Elementen wirkt mein Content am besten?”

 

Kurz und knackig – Retro Blogging wieder aktuell, Teil 3

Eine Anleitung und Fürsprache für klassisches Content Design

Auf den vorhergehenden Seiten sind wir auf den neuen, rückwärts gerichteten Entwicklungen der amerikanischen SEO-Blogs eingegangen, welche die Abkehr von unattraktiven Content-Blöcken in Form von umfangreichen Fachartikeln als neues Credo aus der Taufe erhoben haben, welche ihnen nach der Auswertung von 12 Monaten Google Penguin als sinnvoll und erstrebenswert erscheint und nun auch langsam das europäische Festland erreicht und damit einhergehend auch die Blogs der Suchmaschinenoptimierer hierzulande.

Zuletzt sind wir dabei auf die Vorzüge und Nachteile der modernen inhaltlichen Gestaltung von Einträgen in Blogs mit dem Trend zur Ausführlichkeit und sachlichen Tiefe eingegangen und haben ergründet, welche Annahmen zur Umset-zung dieser Doktrin geführt haben, welche durch zuletzt eher leichtgewichtige Faktorenverschiebung bei der Aufberei-tung und Bereitstellung von Inhalten auf Weblogs ad absurdum geführt wurden. Erfahren sie nun, was in diesem Kon-text die Vorteile der klassischen Erstellung von SEO-optimierten Blog-Postings ist und zu welchen Schlüssen wir dies-bezüglich gekommen sind:

Altbewährt und bisher ohne nennenswerten Malus – das klassische Webloggen

Angesichts der zunächst umgreifend erscheinenden Änderungsankündigungen Seitens Google, was den „modus operandi“ des Herzstückes seiner Suchmaschine, dem Algorithmus , betraf, war der Sprung auf eine neue Form des Content Design im Rahmen der Blogosphäre im SEO-affinen Bereich durchaus verständlich. Heute jedoch zeigt sich, das der Impact auf die Rankings und Pageviews längst nicht so gravierend ausgefallen ist, wie angenommen. Und daher hier das für und wider für den „klassischen“ Stil.

Pro Klassik – Auf den Pfaden, die das Blog erst groß machten

Unabhängiger Content welcher von Einzelnen oder kleineren Gruppen in Eigenregie erstellt wurde, entwickelte sich Mitte der 2000er zu einem Massenphänomen, welches bis heute Anhält. Erstmals waren Menschen in der Lage, ohne hohe Kosten oder technische Barrieren in der Lage, potentiell jeden Menschen mit Zugang zum Internet zu erreichen und ihre Gedanken und Ideen frei und weitgehend unzensiert zu publizieren.

„User Generated Content“ ist das verschlagwortete Kernstück des „Web 2.0“, welches bis heute als Innovationsmotor für alle daraus hervorgehenden Kommunikationsformen gilt und welches sich in Form des Weblogs durch übersichtli-ches Inhaltsdesign und durch Stil und Marke etablierte, ohne dabei auf ein Marktmonopol, wie jenes der klassischen Medienhäuser angewiesen zu sein.

– Das Gestalten der Inhalte in leicht zu konsumierende Inhalte hatte sich schon beim Aufstieg der Blogger-Szene zum festen Bestandteil der Netzkultur als tragende Säule erwiesen. Interessanter Content in kleiner Stückelung, in sich abgeschlossen und damit ideal für den Konsum „zwischendurch“ – Als Gegenstück zu redaktionellen Textwüsten bis heute ein erfolgreicher Besuchermagnet

– Häufiges Posting von Blog-Einträgen sorgt für eine Kontinuität, mit welcher der menschliche Seitenbesucher immer wieder dazu verleitet wird, in dem Wissen, zu seinem gesuchten Thema ständig neuen und frischen Content vor zu finden, ein Bindungsverhältnis zu entwickeln, welches man als „Konversion“ bezeichnet. Weiterhin ist die Aktualität einer Webseite, sei es ein Blog oder ein digitales Magazin, nach wie vor sehr ausschlaggebend für das Google Ranking

– Bereitstellung von gemischten Inhalten erzeugt eine Deckung mit einer Vielzahl von mit dem Kernkonzept assoziierten oder mit Schnittmengen versehenen Zielgruppen. Diese Vielfalt ermöglicht erst die Entwicklung viral verlaufende Reichweitengewinne eines Mediums, welche sich über den C2C-„Buschfunk“, über soziale Netzwerke und Instant Messenger generieren und langfristige Zuwächse in der Relevanz erhalten

– Durch die persönliche Note eines Bloggers erzeugt dieser, ungeachtet in welchem Themengebiet er sich aufhält und publiziert, einen eigenen Style, welcher vom Aspekt des Marketings, hier der Besucherkonvertierung und langfristigen Bindung, ein Maximum an sogenannter Stickiness erreicht, da sich durch die persönliche Ebene neben informaler auch emotionale Bindungen entwickeln

Nach dem ersten Jahr steht fest: Nur wenig Einbußen bei den Platzierungen in den SERPs

Die prophezeiten Einbrüche auf den Portalen derer, welche ihre Inhaltspolitik nicht auf die neuen Richtlinien für die Qualitätsbewertung von Webseiten anpassen, blieben weitgehend aus. Daher ist die neuerliche Trendwende auf dem Parkett der suchmaschinenoptimierten Textkreation ein geradezu logischer Schritt, quasi ein Sieg der Vernunft. Der Nutzer erwartet im Rahmen eines Weblogs keinerlei Ellenlange Essays und fachlicher Aufsätze, sondern schätzt dieses Medium gerade wegen des kompakten Content Design als leicht zu konsumierende Informationsquelle. Daran änderte auch weder „Panda“ noch das „Penguin“-Update etwas – Und die Pageviews sprechen eine eigene Sprache.

Gibt es denn kein Contra? Durchaus, doch das Ergebnis liegt gut in der Waagschale

Es ist so einfach wie es klingt: Gerade weil Google seinen Fokus zunehmend auf das Nutzererlebnis richtet und dabei strengere Maßstäbe an die Qualität des gelieferten Content stellt, bewährt sich das klassische Blogging in Form von regelmäßigen bis häufigen Postings jenseits der kantigen, massiven Natur der geforderten Blockmassiven, welche sich in den Fachartikeln manifestiert hatten.

Die Abwägung hinter der Kulisse ist schlichtweg jene: Wie stark ist der Zuwachs meiner Relevanz im Ranking-Prozess der Suchmaschine durch die Auswertung des Nutzerverhaltens im Vergleich zur Abnahme derselben durch eine potenti-elle Nichterfüllung der vorgegebenen Richtlinie der Webcrawler. Das Ergebnis scheint sich, wenn man den amerikani-schen SEO-Profis trauen darf, einen klaren Sieg nach Punkten für die klassische Blogform ergeben.

Sofern spätere Iterationen der Suchalgorithmen nicht höheres Gewicht auf die fachlich-inhaltliche Komponente legen, kann man an dieser Stelle von dem Umstand sprechen, das Google als Konzern die Blogosphäre nicht verstanden hat und versucht hat, aus Weblogs klassische Webseiten zu machen.

Für jetzt zumindest aber hat der Internetnutzer mit den Füßen „per Klick“ abgestimmt!

Lesen Sie morgen: Wie also den Weg zurück zur klassischen Generierung von Webcontent finden?

Kurz und knackig – Retro Blogging wieder aktuell, Teil 2

Eine Anleitung und Fürsprache für klassisches Content Design

Auf der vorherigen Seite haben wir sie in die Welt der Weblogs eingeführt, einem Begriff, welcher die Struktur des Internets nachhaltig und von der Begriffsdefinition im Jahre 1997 bis zum großen Boom der Blogosphäre sich bis heute als Content-Plattform und eigene Darreichungsform für digitale Inhalte im Internet entwickelt hat.

In den folgenden Absätzen gehen wir auf das grundlegende Verständnis für das Abwenden von klassischem Content Design zu Gunsten der durch Google propagierten inhaltlichen Sach- und Fachschwerpunktsetzungen ein und welche theoretischen Vorteile die Aufbereitung von Inhalten in dieser Form für die langfristigen Erfolge darauf angepasster SEO-Strategien sich versprochen wurden.

Um ein Verständnis für das Thema zu entwickeln, bietet es sich zunächst an, sich mit den grundsätzlichen Eckdaten auseinanderzusetzen, welche zur Etablierung der jeweilige Gestaltungsform des Content geführt haben. Es genügt zumeist nicht, schlichtweg den einen oder anderen Weg zu gehen, gerade für den Aufbau einer konsistenten SEO-Politik für das eigene Blog sollte das „Warum?“ verstanden worden sein, daher hier unsere ausschlaggebenden Stichpunkte im Folgenden.

Vorteile des sach- und fachlich tiefgehenden Artikel-Designs:

Die Etablierung der neuen Designform für Inhalte auf Weblogs war zunächst nicht ausschließlich eine modische An-wandlung der SEO-Branche, die versprochenen Gewinne für die Relevanz und das Ranking des publizierten Contents wirken sich unter anderem durch folgende Merkmale positiv aus:

– Potentielle Kategorisierung des Content bei der Indexierung durch den Webcrawler als „Fachmännischen Content“ und somit eine künftige Einstufung als professioneller Quelle zum betreffenden Thema und somit „First-Page on the Google SERP“-Kandidat

– Umfangreiche Gestaltungsmöglichkeiten und durch hohe Relevanz der Keywords mit entsprechender Frequentierung weitere mögliche positive Merkmale im Ranking, durch geringere Fragmentierung der üblicherweise thematisch fluktuierenden Veröffentlichungen eine erleichterte Schwerpunktlegung der angepeilten Keyword-Relevanz

– Durch Zusammenfassung der Inhalte theoretisches Potential als Nachschlagewerk, sogenanntem „Cornerstone Con-tent“, welche langfristig hohe Klickraten generieren kann, welcher sich durch soziale Netzwerke rasch viral verbreiten kann und somit immense Reichweiten erreichen kann, sobald inhaltlich eine gewisse Schöpfungshöhe vorhanden und ein Publikum dafür vorhanden ist

Kehrseite der Medaille – Die Nachteile in diesem Modell der Inhaltsgestaltung

Dass sich die amerikanischen SEO-Blogger nach einem Jahr „Penguin“ und den sich einpendelnden Ergebnissen der Auswirkungen, welche durch die Neuerungen im Algorithmus ausgelöst wurden, in der Lage sind, stichfeste Auswer-tungen ihrer Besucherstatistiken und der damit korrelierenden Google Rankings zu treffen, hat zur Rückkehr zum klas-sischen Blogging-Stil geführt. Gründe dafür waren unter anderem:

– Systembedingt niedrigere Frequenz neuer Inhalte auf dem Zielmedium: Größere Artikel benötigen zwangsweise mehr Zeit für die Erstellung der Inhalte. Medien und Plattformen mit geringer Frequentierung verlieren in der Regel ihre Regular Visitors, also ihre „Stammgäste“, an andere Blogs, Portale und Plattformen, welche den ständigen Bedarf für frischem Content ausreichend bedienen

– Hoher Rechercheaufwand, welcher zuweilen in den Bereich der technischen oder wissenschaftlichen Redaktion übergeht und eine hochgradige Spezialisierung auf partikulare Themen des jeweiligen Weblogs, daher mit einhergehend geringerer inhaltlicher Diversität

– Durch große Text- und Datenmengen stellt sich unvermeidlich der Zustand des „Wall of Content“ ein, welcher den Casual Visitor, welcher einfach zu konsumierenden Inhalt in der Aufbereitung erwartet, schon auf der Einstiegsseite abschreckt und somit Ranking-Faktoren wie die Verweildauer, Klickverhalten und Absprungrate negativ beeinflusst

– Eine nicht zu unterschätzende Folge dieses Designs besteht darin, einen großen Anteil der Inhalte lediglich für die Google Webcrawler zu erstellen: Bekanntermaßen altert im Netz nichts so schnell wie Content. Und sofern nicht eine gewisse Schwelle überschritten wird, an dem der Status als „Cornerstone Content“ als erreicht gilt, ist auch der beste Artikel lediglich „Maschinenfutter“

– Verschenktes Potential: Durch inhaltliche Hochspezialisierung vermindert sich die Bandbreite der Zielgruppen, welche durch die Publikationen ansprechbar bleiben,sehr stark. Inhalte sind daher schnell dazu verurteilt, in kleinen Netzwerken gebunden zu sein und durch deren begrenzte Reichweite nicht in der Lage die Wirkung zu erzielen, welche dem Aufwand der Erstellung entspräche

Fazit:
Leider, wie die Trendwende in der richtungsweisenden US-Szene der SEO-Blogger deutlich anzeigt, hat auch hier einmal wieder ein Sprichwort sich als Wahr erwiesen, nämlich dass das Gegenteil von „Gut“ eben doch „gut gemeint“ ist, denn Google hat mit dieser Ansage, auch wenn ihr Impact auf die aktuelle Iteration noch sehr übersichtlich ausgefallen ist, eine Entwicklung in die Bewegung gebracht, welche Formen der Online-Medien wie das Weblog versucht in die Kategorie der klassischen full-scale Webseiten zu drängen und damit – Entgegen der eigentlichen Willensbekundung – zwar technisch und inhaltlich hochwertige Inhalte bevorzugt, dabei jedoch das Schwarmverhalten der Internetnutzer falsch eingeschätzt hat, welches als Faktor so umfangreich ausgefallen ist, das selbst Suchmaschinenoptimierer, welche stets auf einer Linie mit Google arbeiten, sich zu einem Rückdenken gezwungen sehen.

Fraglich bleibt in dieser Sache lediglich, ob Google es auf eine Durchsetzung dieser Richtlinie per verordneter Brech-stange ankommen lässt, oder aus dem statistischen und menschlichen Feedback entsprechende Schlüsse für die kom-menden Iterationen der Suchalgorithmen zieht und die Gewichtung der Relevanz weiterhin auf die Vielzahl der Blogs im WWW modifiziert, um das angestrebte „perfekte Nutzererlebnis“ tatsächlich durch die Suchergebnisse dar- und herstellen zu können.

Lesen Sie morgen: “Was in diesem Kontext die Vorteile der klassischen Erstellung von SEO-optimierten Blog-Postings sind und zu welchen Schlüssen wir diesbezüglich gekommen sind”

Kurz und knackig – Retro Blogging wieder aktuell, Teil 1

Eine Anleitung und Fürsprache für klassisches Content Design

Heute beginnt untere 5teilige Serie die an alle Blogger gerichtet ist. Vom 18.3. bis 22.3. erfahren Sie so einiges über bloggen einst und jetzt. Sie sind herzlich eingeladen Kommentare mit Ihren Erfahrungen zu hinterlassen!!

„Früher war alles besser!“ – Wer würde sich schon wundern, wenn sich ein findiger, vielleicht auch eher windiger Anwalt diesen Satz als Wortmarke sichern würde? So oft wie er in allen nur erdenklichen Situationen seine Verwendung findet, könnte man fast einen neuen Abmahn-Skandal wittern. Doch in diesem Artikel soll es gar nicht um die vielfach geschmähten Patent-Trolle und Abmahnwütigen gehen, sondern tatsächlich um den Kern der Aussage selbst – Und zwar im Bezug auf das aktuelle Umdenken bei der Gestaltung von SEO-relevantem Content, vorrangig auf Weblogs.

In die Erinnerung gerufen: Was ist eigentlich ein Blog?

Weblogs, kurz „Blog“: Das waren die ersten Schritte der Internetgemeinde in Richtung dessen, was später einmal als „Web 2.0“ ein Marketing-relevantes Schlagwort werden sollte. Die Erstellung von Content auf dezentralisierten Platt-formen, jenseits der Redaktionen und Webseiten, welche bis dahin ein gewisses Monopol auf die Verbreitung von Inhal-ten hatten, fanden nun erstmalig auf breiter Linie eine Opposition an, mal mehr, mal minder unabhängigen Plattformen, deren Autoren, unabhängig von Sprachgebrauch, Medienpolitik und leider viel zu oft auch fachlicher Unterfütterung ein basisdemokratisches Recht ausübten: Einfach mal die Meinung sagen.“.

Aus dieser Bewegung, deren Ursprünge sich in den berühmt-berüchtigten Webseiten aus den Baukästen von längst verblassten Titanen des „Web 1.0“, wie etwa Yahoo GeoCities oder Lycos Angelfire, später auch Web.de im deutschen Raum und der späten Entwicklung ins kommerzielle, etwa durch 1&1, begründet liegen, sollte sich mit der flächende-ckenden Verbreitung von Internetzugängen der 1997 erstmals geprägte Begriff spätestens auf der Mitte der 2000er zu einer Massenbewegung entwickeln, aus der später die sozialen Netzwerke, wie Facebook oder Google+ entstanden sind.

Der Ritt auf dem SEO-Pferdchen: Fürs Google-Ranking mal „Hü“, mal „Hott“, immer hin und her

Die Kritik, welche am aktuellen Stil des Google-gerechter Contents, der in den Blogs publiziert wird, geübt wird, liegt begründet in der Ankündigung der Google-Entwickler, in Persona Matt Cutts, das sich die fachliche Tiefe und Ausführ-lichkeit zukünftig als ausschlaggebend erweisen soll um inhaltlich hochwertigen Content zu fördern.

So löblich dieser Gedankenansatz unter der Prämisse erscheint, das der Nutzer möglichst hochqualitativen Content in den Suchergebnissen der Suchmaschine erhält, ist er gerade unter den Aspekten der inhaltlichen Diversität (Content diversity als Schlagwort) ein Hieb auf einen der aktivsten und inhaltlich dynamischten Bereiche des Internets: Der Blo-gosphäre.

Das große Lesen im Kaffeesatz – Version 2.0: Der Block statt Blog

Denn auf diese Ankündigung hin, welche im Vorfeld des Penguin-Update für den Google Suchalgorithmus kommuni-ziert wurde, folgte ein rascher Schwenk einer großen Anzahl von semiprofessionellen Blogs, welche ihre Content-Politik grundlegend änderten. Statt wie zuvor üblich, thematisch eng abgegrenzte Artikel zu veröffentlichen, welche Grundlage für lokale Diskussionen in den Kommentarbereichen boten und auf die man in Repliken Bezug nehmen konnte, durchaus auch raschen Impulsen folgend, wechselte hin zu einem durchgekaderten Content Design.

Dies erfolgte durch den Versuch der SEO-affinen Bloggerszene, nun durch die Präsentation umfangreichster Texte, welche große Ähnlichkeiten zu thematisch tiefgreifenden Fachschriften aufwiesen.
mit dem dynamischen und auch hochfrequentierten Blogging-Stil früherer Tage zu tun hatte. Eben genau dieser Stil ist es, welcher tendenziell in 2013 dazu ansetzt, wieder Mode und „state of the art“ zu werden. Diese Renaissance des klassischen Bloggings möchten wir hier mit einer Anleitung auf den kommenden Seiten für euch greifbar machen und Wünschen euch viel Spaß beim Lesen!

Lesen Sie morgen: das grundlegende Verständnis für das Abwenden von klassischem Content Design zu Gunsten der durch Google propagierten inhaltlichen Sach- und Fachschwerpunktsetzungen

 

Negative SEO: die Gefahr von draußen

In den letzten Wochen verursachte das Thema „Negative SEO“ einigen Wirbel in der Branche. Besonders ein Blogbeitrag auf der Website des Zigarren-Onlineshops Noblego.de hat die Aufmerksamkeit von SEO-Experten erregt. Darin erklärt der Händler, dass seine Website seit Wochen unter anderem mit Spam-Links torpediert würde, was sich auf das Suchmaschinen-Ranking auswirke. Negative SEO ist nur schwer nachweisbar, wahrscheinlich wird das Thema auch deshalb bisher in der Öffentlichkeit nur selten besprochen. Das Sabotieren von Marketing- und Vertriebsmaßnahmen ist natürlich extrem unfair, weshalb eine breit gefächerte Aufklärung zum Thema durchaus wünschenswert ist. Auch wir wollen mit diesem Artikel etwas dazu beitragen.

Was also genau ist „Negative SEO“?

Hinter dem Begriff verbirgt sich der umgekehrte Einsatz von herkömmlichen SEO-Maßnahmen zum Schaden einer externen Website. Oft werden hierzu bereits oben erwähnte Spamlinks verwendet, um die betroffene Website abzuwerten. Dieses Vorgehen ist kostengünstig und erfordert nicht allzu viel technisches Wissen. Anders gestaltet sich das beim Hacken einer Domain, was unter bestimmten Umständen ebenfalls unter Negative SEO fällt. Das Ziel sind dabei vor allem die robots.txt, die für die Indexierung von Websites eine wichtige Rolle spielen. Die „dunkle Seite der Suchmaschinenoptimierung“, wie Negative SEO in Expertenblogs oft genannt wird, kann in unterschiedlichem Erscheinungsbild auftreten. Sie kann durchaus subtil durchgeführt werden, sodass sie lange Zeit unbemerkt bleibt oder aber massiv auf eine Website einwirken.

Wie kann man sich gegen einen Angriff wehren?

Wenn ein Webmaster erkannt hat, dass seine Seite ein Angriffsziel für Negative SEO geworden ist, dann gilt es, den Schaden zu begrenzen und dagegen zu arbeiten. Das ist nicht einfach, vor allem bei kontinuierlichem „Beschuss“ durch Spamlinks. Dennoch gibt es einige Schritte, die helfen können. So hat Google etwa im Oktober 2012 für eben diesen Zweck das Disavow Links Tool publiziert. Mit dessen Hilfe können Links für ungültig erklärt werden, die nicht den strengen Google-Richtlinien entsprechen. Es ist zwar etwas zeitaufwendig, dafür aber bei nicht allzu massiven Angriffen recht effektiv. Weiterhin empfehlen Experten, stärker auf Trust Links zu setzen. Sie bilden das Gegengewicht zu Spamlinks und schützen vor der Abwertung der Seite im Ranking. Ansonsten heißt es: Die Entwicklungen auf der Website beobachten und sorgfältig OnPage- und OffPage-Optimierung betreiben.

Sollten Sie das Gefühl haben von negativ SEO betroffen zu sein kontaktieren Sie uns doch unverbindlich!!!

Weitere Infos (externe Seiten):

Die sozialen Netzwerke in Zukunft – Teil 2

Auswertung der Social Media Plattformen: Der Pinguin macht das bisher unsichtbare Sichtbar für die Google Crawler

Denn ab hier wurde auch das Feedback aus sozialen Netzwerken, bevorzugt aus dem hauseigenen „Google+“ und anderer Produkte des Konzerns für die Bestimmung von Popularität, Relevanz und Qualität einbezogen. Der erste Schritt zu einem automatischen und durch die dynamischen Faktoren des Schwarmverhalten der User bestimmtes Rankingsystem für die Bereitstellung von Suchergebnissen auf den Google SERPs (Search Engine Result Pages) war nun getan. Das Beste daran, zumindest für die Google Inc.: Die neuen Kriterien würden sich vor allem auf eigenem Grund erfassen lassen, bestehende Verhaltensprofile nun auch für das Ranking nutzen und sich vollkommen von Google kontrolliert finden.

Eine nicht allzu unrealistische Mutmaßung: Was könnte der Untergang von Facebook für das Internet bedeuten?

Betrachtet man die Fakten in ihrer Gesamtheit, sieht die Zukunft des Internets in der Form, wie wir es bisher erlebt haben, gewissermaßen auf Messers Schneide. Es ist weithin anerkannt, dass ein großer Anteil – oft wird er mit rund 80% angegeben – aller Suchanfragen im Internet direkt über die Suchmaske der Google Suche getätigt wird. Bereits heute bestimmen zunächst die Maßgaben der Algorithmen der Suchmaschine, was der Großteil der Internetnutzer zu sehen bekommen und was ihnen verborgen bleibt. Ein Umstand, der solange zunächst nachrangig und weitgehend unbedenklich bliebe, bliebe Google bei der klassischen Methode des Ranking von Webseiten. Was es eben nicht bleibt und zunehmend gegen die Möglichkeiten des SEO vorgeht, welche sich außerhalb der Kontrolle und vor allem der Erfassbarkeit der Suchmaschine, über das Crawling selbst hinweg, befindet.

Damit einher geht die progressive Vorgehensweise, das eigene Plattform für Social Networking, Google+ durch seine Verknüpfung mit anderen Diensten von Google. Ohnehin ist die schleichende Zusammenführung von früher getrennten Nutzerkonten der Zukäufe für die Google-Armada ein bedenklicher Prozess: Wer früher ein YouTube-Konto besessen hat, erfreut sich heute Ausweglos eines vollwertigen Google-Accounts, ob er will oder nicht. Ebenso verhält es sich mit allen anderen Diensten. Ein Konto für alle Dienste. Hier wendet der Suchmaschinen-Dienstleister gewissermaßen Sanfte Gewalt an, um den Nutzer zur Adaption des ohnehin an das, bereits bestehende Nutzerkonto gekoppelte, Dienstleistungs-Portfolio. Auch hier findet man mit genügend Kritikfähigkeit und einer Spur Paranoia den stillen und klammheimlichen Versuch, Schrittweise nach und nach die Nutzerströme auf eigenes Territorium zu lenken, wo mit angehend vollkommener Sicherheit vor allem aus immer detaillierterer Protokollierung der Verhaltensmuster betrieben wird – Verborgen unter dem Deckmantel von hochwertigen Dienstleistungen, welche keine direkten Kosten für den Nutzer erzeugen.

„Einfließen, Konvertieren, Monopolisieren, Monetarisieren“ – Stück für Stück baut Google ein Monopol auf

Neben den privaten Nutzerströmen steht ab 2013 auch für kommerzielle Anbieter, welche sich bisher kostenlos im, mittlerweile als Google Shopping gelabelten, Produktverzeichnis wieder: Wer in Zukunft hoch gerankt werden will – oder überhaupt im Verzeichnis dort zu erscheinen gedenkt, wird zur Kasse gebeten. Schon früher wurde, damals noch mit ein wenig Spott, darüber gemutmaßt, wann der Google-Konzern dazu ansetzen würde, neben der Indexierung des Internets und seiner eigenen Nutzer auch in den Bereich des bis dahin von anderen Größen wie Amazon.com dominierten Bereich des eCommerce einzudringen. Die Antwort hat uns das Unternehmen mit diesem Schritt gegeben. Zwar betreibt Google keine eigene Logistik und Infrastruktur, wie etwa Amazon, doch wer sich der kapitalen Größe dieses Konzerns bewusst wird, der weltweit operiert und auch bei höchsten Beträgen mühelos mitzuspielen in der Lage ist, dem schwant dabei zweierlei: Entweder überlässt Google die Abwicklung den Händlern, deren Listung und Vermittlung gegen Gebühren erfolgt, oder aber der Konzern beginnt schlichtweg, sich ein solches Netzwerk aus dem Ärmel zu schütteln.

Wenn Google ohnehin alles in sich vereinnahmt: Warum wäre der hypothetische Fall von Facebook noch tragisch?

Zwischen Facebook und Google verhält es sich in etwa wie in den beliebten Kindergeschichten: Ein kleines gallisches Dorf gegen das römische Imperium. Nicht, das es sich bei Facebook um einen Helden mit weißer Weste handeln würde, jedoch steht die Lage zwischen den Unternehmen so, das Facebook der letzte Dienstleister ist, welcher nicht ohne weiteres durch Google durch sein Einschleichen in den Markt oder der Aufwendung von großen Investitionen in das eigene Imperium eingegliedert werden könnte. Facebook lässt sich nicht kaufen. Zumindest nicht von Google, soviel ist sicher. Und solange dieser Fakt bestand hat und die Masse der Nutzer sich weiterhin für das bereits gewohnte und gewissermaßen auch lieb gewonnene Netzwerk von Marc Zuckerberg entscheidet, bleibt dem Konzern die vollumfängliche Vereinnahmung großer und größter Nutzerströme verwehrt.

Diese Stellung, die Facebook bisher erfolgreich innehält, sichert zumindest den Bereich der sozialen Netzwerke vor dem Zugriff des Suchmaschinengiganten, der sich dazu anschickt, eine alternativlose Zentrale des Internets und unumschränkte Hegemonialmacht des Globalen Datenverkehrs zu werden. Konkurrenz war schon immer belebend für das Geschäft – Und solange weltweit die Wächter des Wettbewerbs die Augen vor der Expansion der Google Inc. verschließen, sollten wir wohl auch um eine datenschutzrechtlich zurecht kritisierte Plattform wie Facebook froh sein, die einen wichtigen Bereich vor dem Erreichen einer endgültigen Monopolstellung von Google bewahrt.

Die sozialen Netzwerke in Zukunft – Teil 1

Kritisch betrachtet und gefragt: Müssen wir uns vor dem Erfolg von Google+ fürchten?

Es wirkt schon heute, als wären sie omnipräsent: Die sozialen Netzwerke haben sich in kürzester Zeit zu einem Teil der Lebensrealitäten von mehr als einer Milliarde Menschen entwickelt, wenn man den Zahlen von Facebook als Branchenprimus Glauben schenken darf. Mit dieser Zahl muss man feststellen, dass unter acht Menschen einer zumindest im größten Netzwerk Facebook registriert ist. Betrachtet man den Umstand, dass die Vernetzung der Weltbürger längst nicht abgeschlossen ist, zeichnet sich das Potential dieser Netzwerke ab, um das in den Hinterzimmern der Konzerne mit harten Bandagen gefochten wird.

Data Mining, direkt an der Quelle – Der stille Kampf von Facebook und Google um die Fleischtöpfe des Online-Marketings

Nirgendwo sind die Nutzer als Menschen in ihrem natürlicher als in vermeintlich sozialen Netzwerken, sich unter Freunden und Bekannten glaubend. Dadurch lässt sich nirgends besser das Nutzerverhalten erfassen, also dort, wo Menschen ihre Wünsche, Interessen, Träume, Hobbies, ja einfach die ganze Persönlichkeit besser beobachten, als es die Betreiber der Social Networks auf ihren Plattformen können. Was sie auch in sehr ausgiebiger Form praktizieren, sich doch die gespeicherten Datensätze ihre Bytes in Gold wert – Die Möglichkeit einer perfekt angepassten Werbung ist als sprudelnde Einkommensquelle im Online-Marketings das Schlachtfeld der digitalen Moderne, in welchem sich die Informationsgiganten Google und Facebook die Stirn bieten.

Denn es gibt mittlerweile kaum einen Lebensbereich, in denen man Verweisen etwa auf Google+, XING oder Facebook nicht begegnet: In der klassischen Werbung , auch in den Printmedien, gedruckt auf diversen Produktanleitungen und in der Werbung in Radio-Spots – Ja sogar auf Visitenkarten besonders moderner Zeitgenossen findet sich nicht selten der Hinweis auf Profile in diesem oder jenem Social Network.

Gruppenzwang 2012: Social hier, social dort – Virtuelle Netzwerke mit massivem Einfluss auf die physische Realität

Ob Text, Sprache oder anderweitig, wie etwa durch QR-Codes – wer darauf achtet, bemerkt schnell, wie stark diese Plattformen bereits Teil des privaten wie auch des kommerziellen Alltags geworden sind. Gerade Facebook, welches in der westlichen Welt als Marktführer gilt, scheint mit seiner Plattform überall zu lauern – Das weiße „F“ auf blauem Grund gehört heute sowohl zu einer Art digitaler Obligation – Wer nicht dabei ist, steht zumeist außen vor. Selbst für Spätzünder und Quereinsteiger in die digitale Welt der sozialen Netzwerke ist die Verlockung ebenso groß wie der vermittelte soziale Druck. Die Verteilung von Einladungen, Bekanntgabe von Ereignissen, Abhaltung von Konferenzen und gerade auch Gruppenchats finden längst nicht mehr selten in den geschlossenen Bereichen der Netzwerke statt – Für Außenstehende kein Eintritt.

Es scheint, als sei die Macht der sozialen Plattformen kaum mehr zu brechen, denn nur zu gut erfüllen sie das nur allzu menschlicher Bedürfnisse ihrer Nutzer: Zu kommunizieren und sich der Selbstdarstellung hin zu geben. Genauer genommen ist es der Umstand, hier im Glauben über die vollkommene Kontrolle der eigenen Darstellung zu sein. Zudem bieten die umfangreichen Funktionen zur Bewertung von beigetragenen Inhalten, die angeschlossenen Kommentarbereiche und die unumgängliche Teilen-Funktion die Möglichkeit sich von allerhand Leuten loben zu lassen, sich positives Feedback zu holen.

Förderung des Drangs nach Selbstdarstellung im virtuellen sozialen Umfeld als Antrieb zur Preisgabe personenbezogener Informationen als Geschäftsmodell für Plattformbetreiber

Gar Böse Zungen würden behaupten, ein Großteil der Nutzer würde sich in diesen Netzwerke aufhalten um das „Fishing for compliments“ auf virtueller Ebene fortzusetzen. Und ein vermutlich ebenso großer Anteil der Kritiker würde dieser Behauptung vorbehaltlos zustimmen: Urlaubsfotos, Model-Castings, Foto-Shootings, Gedichte, Geschichten, Essays oder aber auch Musikstücke: Niemals war es einfacher, jedwede Art von Content für andere bereitzustellen. Niemals zuvor machten Menschen in einem solchen Maß von solchen Möglichkeit Gebrauch.

Diese Entwicklung wird durch die explosionsartig wachsende Verbreitung internetfähiger Smartphones zudem weiter gefördert, denn mit diesen Geräten ist sowohl der Konsum als auch die Publikation von Inhalten auch jederzeit unterwegs möglich. Inhalte werden gepostet und gelesen, Fotos geschossen, Witze getauscht, gelacht, getratscht – Das digitale Sit-in findet 24 Stunden am Tag, an sieben Tagen in der Woche in den sozialen Netzwerken und ihrer Medien statt.

Abzusehen war spätestens mit der Einführung von Google+ als soziales Netzwerk des Suchmaschinendienstleisters, das dieser Entwicklung Rechnung getragen werden würde, die längst eine Lebensrealität der digitalen Eingeborenen und jeder geworden ist, welche es gerne werden wollen. Mit seinen neuesten Anpassungen der Bestimmung von Popularität und Relevanz von einzelnen Webseiten, die nicht mehr allein auf technischen Standpunkten und auf die Indexierung durch Webcrawler optimierten Inhalten und Frameworks abzielt, setzt Google dazu an, die Ergebnisse aus dem hochdynamischen Schwarmverhalten für sich nutzbar zu machen.

Welche Änderungen bringt diese, sich anbahnende Neuausrichtung, der Verknüpfung der Backlinks aus sozialen Netzwerken für das Ranking von Webseiten auf den SERPs?

In früheren Iterationen der Algorithmen wurden es nicht berücksichtigt, ob Nutzer Inhalte aus den Bereichen der Social Networks heraus verlinkt hatten, entweder weil sie nicht indexiert wurden oder aber, weil sie keine Relevanz-Gewichtung für das algorithmische Ranking hatten. Gerade die Vernagelung vieler Netzwerke nach außen hin machte es für den Suchmaschinen-Anbieter wenig attraktiv. Gleichzeitig war seit jeher der Wunsch groß, das Kapital, das man innerhalb dieser „closed spaces“ des Internets, in Form des Nutzerverhaltens

Um die Weichen für eine Zukunft zu setzen, in der diese Inhalte für Google verwertbar werden, hat man mit dem „Penguin“-Update der Google Suche einiges geändert. Darunter fällt etwa die Berücksichtigung im Rankingprozess von Webseiten, deren Inhalte von Nutzern sozialer Netzwerke geteilt werden. Was zuvor im „Blinden Fleck“ der Suchmaschine übergangen wurde, soll zunehmende Bedeutung gewinnen. Auch für diese Umstellung ist die Ursache rasch gefunden: Während bis dahin vor allem technische Kriterien bei der Indexierung als Relevanzkriterium gedient hatten, würde ab dem Roll-out von „Penguin“ im Frühjahr 2012 der erste Schritt in Richtung einer Umverteilung in der Gewichtung des Rankings stattfinden.

Lesen Sie heute in einer Woche unseren 2ten Teil “Soziale Netzwerke der Zukunft”

Die Nützlichkeit eines Styleguide für SEO als auch Marketing

Alles unter einem Hut!

Wie sie mit einem Styleguide auch ihren Content stilsicher und SEO-gerecht reproduzieren können

Das Grundlegende Konzept ist nicht sonderlich neu, in der Medienbranche wird es seit jeher zur Vereinbarung bei der Umsetzung von gestalterischen Kundenwünschen verwendet und legt für die Beteiligten einen nachvollziehbaren Rahmen mittels Vorgaben, welche bei der Umsetzung durch den Designer verbindliche Beachtung finden müssen. Die Rede ist vom Mittel des sogenannten Styleguide.

Dazu das Zitat aus der Wikipedia zu diesem Begriff: „Ein Styleguide (oder deutsch Gestaltungsrichtli-nie) beschreibt, wie bestimmte Elemente eines Druckerzeugnisses oder einer Website zu gestalten sind. Diese Richtlinien sollen ein einheitliches Erscheinungsbild verschiedener Kommunikationsmittel einer Institution oder Firma, z. B. Werbe- und Informationsmaterial, Geschäftsbriefe oder Internetauftritte, gewährleisten und so die Bildung einer Corporate Identity ermöglichen. Daneben werden Styleguides auch für die Software-Erstellung oder Produkte allgemein eingesetzt; auch hier ist das Ziel: Produkte sollen als zusammengehörig wahrgenommen werden und ggf. auch mit der verbundenen Marke assoziiert werden.“

Der Grundgedanke dieser Guides lässt sich auch bei der Textkreation von Content für Online-Projekte anlegen, wenn man die klassischen Eigenheiten der kreativen Textarbeit auf einen Vorgaben-Register umlegt, in dessen Rahmen der Kunde die maximale Möglichkeit besitzt um seinen Wünschen entsprechend Ausdruck zu verleihen, während der Texter selbst bei ausreichender Informationsmenge eine besonders klare Handlungssicherheit in seiner Ausgestaltung hat.

Eine Handlungssicherheit, welche sich auch bei der Umsetzung der SEO-Strategien ihres Unterneh-mens für ihr Projekt nur zum guten Auswirken und durch freies Arbeiten mit limitierenden Vorgaben einen auf diesen beiden Eigenschaften aufbauend, eine maximale Kreativität und Leistungsfähigkeit bei gleichzeitiger Ergebnisorientierung durch feste Vorgaben für die Umsetzung auf finaler Ebene.

Nicht nur im Kundenverkehr ermöglicht die Festlegung eines projektbezogenen Rahmenplans besonders klare Vorteile: Wer etwa mit dem Aufbau einer Projektgruppe zur Erarbeitung einer Firmen-Webseite oder einer Webseite zur Begleitung des hauseigenen Produktmarketings betraut wird, der wird die unmissverständliche Bereitstellung von Vorgaben, die sie Verbindlich und allzeit Abrufbar mittels Sender-Empfänger-Prinzip an ihre Mitarbeiter kommunizieren können. Dabei sind Missverständnisse praktisch ausgeschlossen, da alle Teilziele eines Meilensteins in ihren Aufgabenstellungen individuell konfiguriert werden können und durch Anwendung einer klaren Syntax mögliche Missverständnisse ausgeschlossen werden können.

Der Weisungscharakter des Styleguide schafft zudem unmittelbare Verbindlichkeit bei der Umset-zung und persönliche Verantwortung durch den ausführenden Mitarbeiter, lässt ihm Zeitgleich innerhalb von Meilensteinen die Freiheit der schwerpunktmäßigen Umsetzung von Teilzielen und durch die Entbindung mittels vorbestimmter Vorgehensweisen unnötig verkomplizierende Entscheidungsprozesse auf Individual-Ebene überflüssig machen und so den Arbeitsalltag in einem Kompromiss aus zielgerichteter Erfüllung von Leistungszielen einem großen Maß an Handlungsfreiheit innerhalb der Arbeitsanweisungen.

Durch den flexiblen Aufbau eines Styleguide in Teileinheiten, deren Gänze die Summe eines kompletten Projekts ergibt, erhalten sie sich zudem die Option, einzelne Bereiche bei Notwendigkeit neu zu instruieren, ohne das andere Bereiche bei der Ausführung durch diese Anpassung an spontan auftretende Bedürfnisse beeinträchtigt werden.

Welche Punkte sollte ein Styleguide im Allgemeinen sinnvollerweise umfassen?

Diese Frage ist aufgrund der Unkenntnis ihrer Ansprüche kaum zu beantworten. Grundsätzlich be-steht die theoretische Möglichkeit, die Rasterung und damit auch die Feinheit und Dichte der Vorgaben in einem Guide auf einem Level fest zu legen, welches extrem überspitzt bis auf die Ebene des einzelnen Wortes hinab reicht. Im Übrigen ein recht sinnloses Unterfangen. Schon allein weil der Aufwand um einen Styleguide auszuformulieren weitaus höher wäre als der Nutzen seiner Existenz und Anwendung. Vermutlich wäre der Aufwand hierbei gleich oder Größer, als wenn sie Gestaltung der textbasierenden Inhalte ohne Guide umsetzen würden.

Die Ausarbeitung eines detaillierten Styleguide, welcher die Eignung besitzt, als Maßstab zur Festle-gung von gestalterischen und inhaltlichen Rahmenbedingungen geeignet zu sein und die Prozesse in der Umsetzungsphase effizient steuern zu können, gehört zu den nicht ganz unproblematischen Aufgaben. Eine Vielzahl von Entscheidungsprozessen wird bereits bei der Umlegung der Planung auf ein Styleguide-basierendes Modell im Vorfeld getroffen.

Anweisungen zur Umsetzung, etwa bei der Anwendung von Sprachregelungen verlangen bereits in der Planungsphase nach festgelegten Verhaltens- und Umsetzungsanweisungen, ebenso wie die Vorgabe zur gesteuerten Einstreuung von Markenzeichen ihres Konzern/Marken/Produkt, wie die Slogans und Claims in die Struktur ihres Contents. Ein Styleguide für textbasierenden Content legt die Abläufe bei der Umsetzung nach dem Übergang in eine kreative Phase fest, lange vor dem eigentlichen Startschuss.

Grundsätzlich denkbare Elemente in einem Content-Styleguide könnten wie die im Folgenden in angerissener Form verwendet werden. Sie würden etwa bei der Definition von Handlungsrahmen für bestimmte Inhaltstypen eingesetzt, ebenso wie die Möglichkeit der Anweisung zur kreativen Umsetzung in Inhalten, Struktur und optischer Aufbereitung. Eine modular ausgelegte Grundlage, auf der ein Guide aufgebaut werden kann, autarke Aufgabenstellungen für Mitarbeiter festzulegen und diese dennoch ohne Auswirkungen auf andere Bereiche sowohl in Handlungsanweisungen als auch der neuerliche Definition von Meilensteinen ermöglicht.

Bis hierher haben wir die Begriffseinführung des Styleguide für Webseiten, in diesem Falle der darauf eingebetteten Texte, dem sogenannten Content, vorgestellt und das Thema bereits um einige Bereiche vertieft haben, gehen wir in diesem Teil die Methodik eines SEO-tauglichen Styleguides an, der ihrer Webseite im aktiven wie passiven Online-Marketing alleine durch seine Erscheinungsform sowohl dem technischen wie dem menschlichen Publikum am besten dargereicht werden kann, und ihnen so ein Maximum an Low-Cost Optimierung bietet und zudem auch ihr Projektmanagement vereinfacht.

Wie sichere ich diese Richtlinien am besten auch für die Zukunft meines Projekts ab?

Durch eine Bauklotz-artige Adaptions- und Implementationsfähigkeit wäre die Umsetzung von Guide-Strukturen ermöglicht und gewährleistet, in deren Kosmos auch die Folgend aufgeführten Methoden und Weisungen umgesetzt werden könnten, etwa als unterschiedliche verwendbare und kombinierbare Anweisungs-Module:

– Festlegung der einheitlichen Textformatierung: Dies erzeugt ein gleichmäßiges Produkt mit schneller Lernkurve bei der Navigation auf ihrer Webseite. Ein einheitliches Erscheinungsbild fördert einen positiven Grundeindruck ihres Besuchers, welches eine erleichterte Konversion auf ihre Marke, ihre Produkte oder ihr Unternehmen ermöglicht. Symmetrie gilt bei der Formatierung als goldener Schnitt: Hier lenken keinerlei ausbrechende Elemente die Aufmerksamkeit des Konsumenten ab.

– In Abhängigkeitsdiagrammen festgehaltene Inhaltsstrukturen zum geordneten Vorgehen: Entwerfen sie eine logische, dem Nutzererlebnis zuträgliche, Ordnung ihres Contents aus. Empfehlenswert ist es wenn sie, beginnend bei ihren schwerpunktmäßigen Keywords daraufhin auf die untergeordnete Ebene sekundärer Schlagworte vorarbeiten. Die sekundären Keywords sollten sich inhaltlich von den Primären Schlagworten ableiten und von ihnen in Vater-Sohn-Verhältnissen sortiert werden. Diese Vorgehenswese wiederholen sie so häufig, bis die interne Keyword-Struktur die gewünschte Abstraktion erreicht hat. Beachten sie jedoch, das Abstraktionsstufen mit Ablegern von 4 oder mehr nur noch leidlichen Einfluss auf die Erfassung durch die Webcrawler haben. Arbeiten sie daher im Regelfall mit bis zu drei Begriffen.

– Verbindlichkeit ihres globalen Keyword-Konzeptes sicherstellen: Alle Besucherströme und unermesslicher Traffic verpuffen in Bedeutungslosigkeit, wenn es ihnen misslingt, den von ihnen mittels eines auf ihre schwerpunktmäßigen Keywords abgestimmten Linkaufbau, dem Abgleich dieser Primär- und sekundären Schlagwörter mit der Auswertung in den Google Webmaster Tools und nicht zuletzt der Wiederspiegelung dieses Konzeptes in den Keyword-relevanten Content-Seiten ihres Online-Angebot unter ein Dach zu bekommen. Jede einzelne Maßnahme trägt die Funktionalität des Ganzen und ist für den operativen SEO-Erfolg von kritischer Gewichtung.

– Eindeutige Ausformulierung von Sprachregelungen in Verbindung mit konkreten Richtlinien zur Anwendung und Einstreuung bei der Umsetzung: Auch wenn es eher unterbewusst honoriert wird: Ein ganzheitliches Inhaltskonzept wirkt sich erfahrungsgemäß sehr positiv auf das Nutzererlebnis aus und ist daher in der Umsetzung anzustreben. Dazu sollten sie die gesamte Sprachregelung ihres Unternehmens in Form einer „Wenn -> Dann“-Abhandlungskette erfassen und somit sicherstellen, dass die mit der Umsetzung beauftragten Mitarbeiter zweifelsfrei anhand für sie nachvollziehbarer Richtlinien.

– Eindeutige Reglementierung der Verwendung der von ihrem Unternehmen verwendeten Claims und Slogans: Legen sie hier eindeutig fest, wann und zu welchem Zeitpunkt der Texter die Verwendung der Firmen-eigenen Claims und Slogans verwenden soll und in welcher Form die in das Erscheinungsbild des Content eingebunden werden sollen. So vermeiden sie den inflationären Gebrauch und die Platzierung der repräsentativen Slogans und Claims an den richtigen Stellen ihrer Webseite.

– Klare Vorgaben für den Einbau von Platzhaltern für in den Content eingebettete Online-Werbung: Erhalten sie sich die Option, im Rahmen des Content-Bereich ihrer Webseite entsprechend bemessene Statthalter ohne Funktion zu platzieren um später eine nahtlose Einbindung von Online-Ads zu ermöglichen, welche ihnen, je nach Ausprägung des Projektes, durchaus Vorteile im Marketing eigener Produkte oder als Werbefläche für hochfrequentierte Seiten dem Budget zuspielen kann.

Zusammenfassend: Durch eine Modulare Strukturierung von textbasierenden Inhalten erreichen sie eine Uniformität, die sowohl vom User als auch durch Crawler bei der Beachtung der Richtlinien und Erfahrungswerte für On Page-SEO, positiv wahrgenommen wird. Gerade durch den ersteren Faktor erreichen sie indirekt eine zusätzliche Steigerung ihres Ranking, wenn die Gestaltung ihre Zielgruppe anspricht und dementsprechend z.B. lange Verweilzeiten oder Link-Shares auf sozialen Netzwerken Seitens Google registriert wird.

Auf diese Weise generieren sie recht schnell hohe Relevanz-Werte, die neben einem einheitlichen Erscheinungsbild als Gesamtprodukt auch ihre Platzierungen in den Ergebnisseiten der Suchmaschinen wie Google drastisch beeinflussen können. Beachten sie nur unbedingt, dass es sich gerade bei Dingen der Suchmaschinenoptimierung immer und Grundlagenarbeit handelt und lediglich die Ausgangsbasis, wenngleich eine sehr wichtige, für den Einsatz darauf aufbauender Maßnahmen handelt, welche am ehesten in die Hände spezialisierter Fachleute des Online-Marketing und der SEO gehören.

Es ergab sich auf den vergangenen zwei Seiten die Einführung und die Idee einer möglichen Umsetzung des Konzepts von richtliniengebundener Gestaltung für Online-Content auf Webseiten und anderen Erscheinungsformen HTML-basierender Projekte, inklusive der positiven Auswirkungen dieser Vorgehensweise Zum Abschluss gehen wir noch einmal detaillierter auf die möglichen und erstrebenswerten Ausprägungen und Wirkungen des Styleguide ein, um diesen Gedanken endgültig anzustoßen und ihnen so nahe wie möglich zu bringen.

Worauf sollte sich ein Styleguide für Webseiten denn im Besonderen auswirken?

Im Detail bedeutet die Definition eines Styleguide für ihren Text-Content, die konzeptionelle Festlegung folgender, im Endergebnis erwünschter und zum technischen Erfolg ebenso notwendige wie zum Erreichen einer Erfolgssituation auf der Ebene des Online-Marketing benötigter Merkmale:

– Festlegung der einheitlichen Textformatierung: Dies erzeugt ein gleichmäßiges Produkt mit schneller Lernkurve bei der Navigation auf ihrer Webseite. Ein einheitliches Erscheinungsbild fördert einen positiven Grundeindruck ihres Besuchers, welches eine erleichterte Konversion auf ihre Marke, ihre Produkte oder ihr Unternehmen ermöglicht. Symmetrie gilt bei der Formatierung als goldener Schnitt: Hier lenken keinerlei ausbrechende Elemente die Aufmerksamkeit des Konsumenten ab.

– Verbindlichkeit ihres globalen Keyword-Konzeptes: Alle Besucherströme und unermesslicher Traffic verpuffen in Bedeutungslosigkeit, wenn es ihnen misslingt, den von ihnen mittels eines auf ihre schwerpunktmäßigen Keywords abgestimmten Linkaufbau, dem Abgleich dieser Primär- und sekundären Schlagwörter mit der Auswertung in den Google Webmaster Tools und nicht zuletzt der Wiederspiegelung dieses Konzeptes in den Keyword-relevanten Content-Seiten ihres Online-Angebot unter ein Dach zu bekommen. Jede einzelne Maßnahme trägt die Funktionalität des Ganzen und ist für den operativen SEO-Erfolg von kritischer Gewichtung.

– Eindeutige Ausformulierung von Sprachregelungen in Verbindung mit konkreten Richtlinien zur Anwendung und Einstreuung bei der Umsetzung: Auch wenn es eher unterbewusst honoriert wird: Ein ganzheitliches Inhaltskonzept wirkt sich erfahrungsgemäß sehr positiv auf das Nutzererlebnis aus und ist daher in der Umsetzung anzustreben. Dazu sollten sie die gesamte Sprachregelung ihres Unternehmens in Form einer „Wenn -> Dann“-Abhandlungskette erfassen und somit sicherstellen, dass die mit der Umsetzung beauftragten Mitarbeiter zweifelsfrei anhand für sie nachvollziehbarer Richtlinien.

– Eindeutige Reglementierung der Verwendung der von ihrem Unternehmen verwendeten Claims und Slogans: Legen sie hier eindeutig fest, wann und zu welchem Zeitpunkt der Texter die Verwendung der Firmen-eigenen Claims und Slogans verwenden soll und in welcher Form die in das Erscheinungsbild des Content eingebunden werden sollen. So vermeiden sie den inflationären Gebrauch und die Platzierung der repräsentativen Slogans und Claims an den richtigen Stellen ihrer Webseite.

– Klare Vorgaben für den Einbau von Platzhaltern für in den Content eingebettete Online-Werbung: Erhalten sie sich die Option, im Rahmen des Content-Bereich ihrer Webseite entsprechend bemessene Statthalter ohne Funktion zu platzieren um später eine nahtlose Einbindung von Online-Ads zu ermöglichen, die als Einkommensquelle die Autarkie ihres Projektes sichern kann.

– Definition einer Mustervorgabe zur Strukturierung von Content, sowohl in Aufbau als auch inhaltlicher Entwicklung: Mit einer einheitlichen Vorgabe zum Aufbau und der inhaltlichen Strukturierung ihres Content erzeugen sie bei ihrem Nutzer einen sich wiederholendenden Eindruck von Strukturiertem und Sauber gegliederten Inhalt nach einem leicht zu adaptierenden Muster. Erhöht gleichermaßen sowohl das Nutzungserlebnis des Besuchers wie es die Fehlerquelle Mensch bei der Erstellung und Umsetzung in überschaubare Größen herab skaliert.

Abschließend: Nach Einführung, Erscheinungsform und Auswirkungen sollte ihnen, als Angehender Projektmanager für eine Webseite deutlich geworden sein, warum eine Gestaltungsrichtlinie nicht nur in Hinsicht auf das Konsumentenerlebnis, sondern auch auf die notwendige Aussicht auf eine Platzierung im relevanten Bereich auf den Suchergebnisseiten von Google oder anderen Suchmaschinen auswirkt.
Bei der Steuerung von Mitarbeitern oder externen Mitarbeitern, etwa Freelancern, können sie bereits im Vorfeld ausdefinieren, wie ihr Inhalt auszusehen hat, ohne unzählige Male neu erklären zu müssen, ganz im Gegenteil sogar, das alle Beteiligten unabhängig der Zugehörigkeit, nach einem Einheitlichen Muster arbeiten können. Ein Styleguide wird auch hinsichtlich der zukünftigen Platzierung ihrer Webseite Auswirkungen haben, jedoch kann an der Stelle vorrangig nur von begleitenden oder Unterstützenden Maßnahmen gesprochen werden, die durch ein erweitertes Linkbuilding und Relevanzmanagement tatsächlich ihre volle Wirkung entfalten können.

Vielen Dank für ihre Zeit, die sie für unseren Guide aufgebracht haben und wir hoffen, sie mit dem hybrid-artigen Konzept des Styleguides für jedweden Text-Content, aus dem Blickwinkel zukünftiger Entwicklungspotentiale vertraut gemacht zu haben.

Ein Blick in die SEO-Kugel: Welche Trends erwarten uns 2013?

Das alte Jahr ist kaum vorbei, da schwirren in der Blogosphäre schon die ersten Tipps und Tricks für die Suchmaschinenoptimierung im neuen Jahr. Wirft man einen Blick zurück auf 2012, dann wird klar: Nach spannenden zwölf Monaten mit Pinguin, Panda und vielen anderen Algorithmus-Neuerungen werden auch in den kommenden mit Weiterentwicklungen aus dem Hause Google & Co. zu rechnen sein. Welche Hinweise dafür sprechen und was uns womöglich erwartet, stellen wir Ihnen an dieser Stelle vor.

Mobile SEO ist weiter im Kommen

Die mobile Internetnutzung hat mit der verstärkten Nutzung transportabler Endgeräte im vergangenen Jahr massiv zugenommen. Verbunden mit dieser Entwicklung hat sich auch das Suchverhalten der User verändert. Mobiles SEO ist das Zauberwort. Anders als bei der Suche über einen stationären Computer, haben Suchanfragen von Smartphone-Nutzern oft einen lokalen Bezug. Dieser ist bei der Suchmaschinenoptimierung von Unternehmenswebsites unbedingt einzuplanen. Zudem erfolgen Suchanfragen im mobilen Bereich meist kurzfristig. Das bedeutet, dass Websites dann in optimaler Darstellung präsent sein müssen, wenn sie gefragt sind. Erreicht wird dies mit einer kompakten Seitenstruktur mit an den Suchinhalten angepassten Landingpages und intuitiver Nutzeroberfläche. Der mobile Trend geht auch mit dem responsiven Webdesign einher. Denn aufgrund der verstärkten Nutzung von tragbaren Endgeräten ist die barrierefreie Website-Darstellung in verschiedenen Auflösungen nicht mehr wegzudenken.

Social Web: Google+ wird stärker in Suche integriert

Social Media bleibt nach wie vor wichtiges Thema bei der Suchmaschinenoptimierung. Erst recht, nachdem 2012 die vielleicht wichtigste Suchmaschine mit Google+ ein eigenes soziales Netzwerk gelauncht hat. Es ist wahrscheinlich, dass Google im kommenden Jahr noch stärker auf die Social Search setzt. Neben den kürzlich eingeführten Interessengruppen „Google+ Communities könnten weitere contentrelevante Tools folgen. Auch der sogenannte „Author Rank“ wird aktuell als wichtiges Kriterium gehandelt. Dabei werden die Autoren von Artikeln in Blogs, Online-Magazinen oder ähnlichen Publikationen in den Suchergebnissen berücksichtigt.

Gerüchtehalber sollen dabei vor allem jene Autoren in den SERPs bevorzugt behandelt werden, die aktive Google+-Mitglieder sind. Im „SEOmoz“-Blog spricht Mike Arnesen von verschiedenen Faktoren, die sich auf den Author Rank auswirken. Dazu zählen unter anderem die Aktivität des Nutzers auf Google+, die Dynamik der vom Nutzer generierten Inhalte wie Kommentare, Shares oder +1 oder auch die Summe der Google+-Kreise, in die der Autor hinzugefügt wurde. Je aktiver ein Autor also ist, desto besser ist er in den Suchergebnissen auf Google sichtbar.

Ansprüche an Inhalte werden weiter steigen

Qualitätsupdates wie Google Panda haben 2012 bereits eine Wende in der Suchmaschinenoptimierung bewirkt. So ist die Bedeutung des Lesermehrwerts und der damit verbundenen redaktionellen Qualität auf Websites enorm gestiegen. Und auch in diesem Jahr erwarten Experten einen Schub bei den Anforderungen. Eine Folge wird voraussichtlich die Etablierung ganzheitlicher Strategien im Content-Marketing sein. Die Anzeichen sprechen dafür, dass sich Google vor allem auf die Onpage-Optimierung konzentriert. Somit kann jeder Website-Betreiber aktiv Einfluss auf die Online-Reputation seiner Webpräsenz nehmen. Und der Wettkampf um die besten Ranking-Positionen wird auch in diesem Jahr fröhlich weitergehen.

Weitere Infos (externe Seiten):

[related-links]

Ein halbes Jahr „Google Penguin“ – Teil 4

Teil 4 – Auch beim Pinguin bleibt verboten was bereits verboten war…

…und deshalb behält Herbert Grönemeyer wieder einmal Recht:“Es bleibt alles anders, du kannst nur Gewinnen!“.

Im Grunde nämlich liest sich die Aufzählung besonders hervor gehobener Punkte zunächst einmal nach nichts besonderem. Lediglich die Überoptimierung in den Sanktionierungs

Keywords als Stopfen für blankspace – Auch nach dem Update die schlechteste Alternative zu hochwertig designten Content

Der Ankertext ist eine beliebte Form der Suchmaschinenoptimierung, Jedoch birgt dieses Element großes Potential für dreierlei gleichermaßen:
Es folgt ein Beispiel zu Bildungszwecken! Für den Missbrauch als Waffe gegen ihre Konkurrenz, der sie mit widersinnigen Keywords im Ankertext den Ausbau der ihrer relevanten Keywords erschweren zum anderen als spitzenmäßige Chance aufgrund der Feststellung einer unnatürlichen Linkstruktur ihre ersten Erfolge im SEO schnellstmöglich postwendend wieder abzugeben oder aber indem sie nur wenig Fantasie beweisen und die geringe Variation in den von ihnen Platzieren Keywords in Ankertexten führt unweigerlich zum Feststellen der künstlichen Linkstruktur und somit auch zu einer Abwertung rechnen dürfen.

Wichtig ist bei der Verwendung von Ankertexten die beständige Ermahnung daran, dass die Schemata ihrer Optimierung per Ankertext immer und jeder Zeit darauf grundlegend basieren muss, das sie möglichst detailgetreu eine organische, das heißt natürliche, Linkstruktur zu imitieren versuchen um die positiven Effekte dieser Form der Formatierung von Schwerpunkten im fließenden Content auch auf mittlere bis lange Fristen halten zu können. Die Anzahl der von ihnen gefahrlos zu platzierenden Verlinkungen mit Ankertext hängt maßgeblich von dem Vertrauen ab, das ihnen per Algorithmus zugestanden wird und als „Trust“ bekannt ist.

Ankertexte und Analytik – das eine kennt die Schwächen des anderen Der Algorithmus erhält eine Datenbankschnittstelle zur Musterabgleichung

Weiters gehören zu die Verfeinerungen der mit dem „Penguin“-Update einhergehenden analytischen Fähigkeiten sowie der weiterentwickelten Indikationsmessung und Mustererkennung anhand dieser die Prüfroutine des Algorithmus mit äußerst hohen Erkennungsraten aufwartet und gerade bei, vor allem in der Zwischenzeit beliebt gewordenen, Methoden der relativen geringen Chance einer Aufklärung bis zur vorigen Iteration diesen illegalen Maßnahmen zur Manipulation der Suchergebnisse und Bewertungen nun einen Riegel vorschiebt.

Der gesteuerte Aufbau des PageRank ihrer Webseite durch die Planung und Umsetzung einer Backlink-Struktur von vorrangigen Webseiten, welche einen hohen PageRank von 7 oder 8 aufweisen. Da diese Backlinks der Vermutung nach selten durch eine natürliche Anbahnung zustande kommen setzen sie sich Gefahr aus, Aufgrund der Manipulation ihres PageRank neben der Abwertung auf einen niedrigen Wert der in krassen Fällen auch PR0 bedeuten kann, sondern liefern auch Anhaltspunkte für genauere Überprüfungen, sollten sich ihre Backlinks ausschließlich aus im Zuge von enttarnten Linkfarmen zum Verkauf von Backlinks zusammen stellen.

Der Öko-Pinguin: Aufbau von PageRank und Backlink-Strukturen: Bitte nur natürlich

Mit dem Abrutschen in ein eingeleitetes Bewertungsverfahren durch die Google Quality Rater setzen sie sich der Gefahr aus die bisher erreichten Erfolge durch negatives Feedback der Prüfer zu verlieren und können sich daher schnell am Anfang ihrer Bemühungen wiederfinden, bei der ihnen nur eines garantiert bleibt: Eine zeitgebundene Penalty für den Handel mit Backlinks, als deren Käufer sie entlarvt wurden. Beachten sie darüber hinaus, dass es wie bei der Analyse der Entwicklungskurve des Wachstums ihrer Backlink-Strukturen zum Standardprocedere der Prüfmethoden des „Penguin“-Algorithmus gehört. So besteht die Möglichkeit, das im Rahmen der regulären Prüfung der plötzlicher Anstieg ihres PageRank festgestellt wird, und dieser sich durch die Verlinkung von einer Vielzahl von thematisch nicht mit den auf ihrer Seite behandelten Themen verwandten Quellen schnell eine Penalty bis hin zur Abwertung des Rankings hageln kann.

Als guter Tipp für sie: Linkfarmen werden aufgrund überlegener Erfolgsraten bei der Erkennung oftmals schon im Aufbau aus dem Verkehr gezogen, im allgemeinen ist ihnen heutzutage generell keine lange Überlebensdauer beschert. Verschwenden sie daher ihr Geld nicht in die Investition von Backlinks aus der Hand von Linkverkäufern sondern setzen sie auf natürliche Entwicklung und versuchen durch eigene Leistung „saubere“ Backlinks für den Aufbau von PageRank und Backlink-Strukturen zu gewinnen. Diese haben zumeist vor allen Dingen eine höhere Lebensdauer, als die Links aus Linkfarmen die ihnen, wenn überhaupt für einen Turnus bis zur Neubewertung, bei der ihre gekauften Backlinks fehlen werden, versprochen, zu einem besseres Ergebnis verhelfen werde.

Die Zeit der Linkfarmen ist endgültig vorüber geblieben sind schnelllebige Betrüger – auf der Suche nach dem schnellen Geld

Mit der Anbindung an die hauseigenen Datenbanken, stehen die vollständigen Ergebnisse sämtlicher, jemals erfasster Webseiten zur Analytik zur Verfügung. Um sie für den Abgleich der Entwicklungen nutzen zu können, erhielt die Iteration des „Penguin“-Algorithmus einige mächtige Schnittstellen. Das man ihm zudem eine verbesserte Musterdatenbank für Manipulationsversuche verpasste, sollte der größte Clou werden: Dieser Crawler lernte nicht, er kombinierte. Und das mit Erfolg!

Diese Bereiche erfuhren nun mit, mit den Auswirkungen des Penguin-Update die vollen Breitseite der strikten Anwendung der Google Webmaster Guidelines und aller Maßnahmen zur Sanktionierung, die der neue Algorithmus hergab um die Neuordnung der Rankings in den SERPs von Google möglichst schnell vonstattengehen zu lassen. Man könnte fast von einem chirurgisch-präzisen Schnitt sprechen, der beim Roll-Out von Google durchgeführt wurde – Einem Schnitt, der sich vor allem gegen die eigenen Zöpfe richtete, derer man über die Jahre leidlich geworden war.

Das war der vierte und letzte  Teil unserer Serie Ein halbes Jahr „Google Penguin“.

Die komplette Serie finden Sie hier: