Schlagwortarchiv für: seo

301er Weiterleitung – wie macht man das?

Wer eine Homepage betreibt wird dieses ab und zu modifizieren und erweitern. Sehr oft verändert sich dadurch die URL Struktur. Oder aber es ändert sich sogar der Domainname. Dann gilt es ein wenig Suchmaschinenoptimierung zu betreiben und den Suchmaschinencrawlern per 301er Weiterleitung diverse Dinge mitzuteilen.

Jede HTTP-Anfrage wird vom Server mit einem HTTP-Statuscode beantwortet. Er gibt Informationen darüber, ob die Anfrage erfolgreich bearbeitet wurde oder teilt dem Client im Fehlerfall mit, wo bzw. wie er die gewünschten Informationen erhalten kann. Einer dieser Fälle ist der dauerhafte Umzug der Seite mit dem Statuscode 301.

Wenn Webseiten umbenannt werden oder eine Website auf eine andere Domain umzieht, kann man von den alten Dateien auf die neuen mit einem sogenannten permanent Redirect (301 Redirect) weiterleiten. Diese Art der Weiterleitung wird auch von der Suchmaschine Google empfohlen, im Gegensatz zu einer temporären Weiterleitung (302).

Eine 301 Weiterleitung kann man auf unterschiedliche Weise realisieren:

1. als Anweisung in der .htaccess
soll auf
weitergeleitet werden

in der .htaccess im Verzeichnis wird dazu folgendes eingetragen:
Redirect permanent /default.html

2. mit der Funktion header() in PHP
die Datei hat folgenden Inhalt
<!–?php header(“HTTP/1.1 301 Moved Permanently”); header(“Location: “); header(“Connection: close”); ?–>

3. mit Mod_rewrite in der .htaccess
wenn auf
umzieht und

auf
,
kann man mit folgender Regel in der .htaccess weiterleiten:

RewriteEngine On
RewriteRule ^(.*)\.html$ [R=301,L]

Man unterscheidet zwischen server-seitigen und client-seitigen Weiterleitungen.

Zu bevorzugen sind eindeutig die server-seitigen Weiterleitungen. Die client-seitigen Varianten sind immer nur eine Notlösung. Sie haben aber trotzdem ihre Berechtigung und werden auch verwendet, nämlich meist dann, wenn die Rechte, die man auf dem Server hat, keine server-seitige Weiterleitung zulassen oder diese technisch nicht möglich ist.

Varianten der client-seitigen Weiterleitung

Für die client-seitige Weiterleitung sind zwei Varianten der Umsetzung verbreitet: mit JavaScript oder mit Meta-Refresh-Tag. Beide können unter Umständen beim jeweiligen Anwender nicht funktionieren, z.B. wenn der Browser sie nicht unterstützt oder wenn Javascript aus Sicherheitsgründen auf dem Computer abgeschaltet ist. Das ist einer der Gründe, warum für Weiterleitungen gewöhnlich ein „normaler“ Link zu sehen ist mit einer Beschriftung wie etwa „Wenn Sie nicht automatisch weitergeleitet werden, dann klicken Sie bitte hier…“.

Man muss aber wissen, dass client-seitige Weiterleitungen ein hohes Sicherheitsrisiko darstellen und sogar dazu führen können, dass diese Seiten von Suchmaschinen aus dem Ranking ausgeschlossen werden. Sie geben nämlich keinen Status zurück, weder 301 noch 302, und das macht sie verdächtig. Durch so einen Ausschluss schützen Suchmaschinen sich davor, eine Angriffsfläche für Hacker und Spam-Software zu bieten. Diese nutzt nämlich den entsprechenden Index der Suchmaschine, um dort einen Aufruf einer anderen Seite hinein zu bringen. Dieser Trick ist aber nur bei client-seitigen Weiterleitungen möglich.

Bei client-seitigen Weiterleitungen kann eine Zeitverzögerung auftreten. Zunächst wird die ursprüngliche Seite angezeigt und erst nach einer gewissen Zeit die andere Seite, auf die die Weiterleitung verweist. Das kann, im Gegensatz zur server-seitigen Weiterleitung, wo man nichts davon sieht, auf den Anwender unangenehm oder sogar verdächtig wirken. Manche Anwender haben dann sogar den Verdacht, dass hier Viren oder ein Fremd-Eingreifen die Ursache sind.

 

 

SEO Diver ist ab sofort uneingeschränkt kostenlos verfügbar

Das SEO Urgestein, die Firma Abakus Internet Marketing, stellt ab sofort ihr selber entwickeltes Multi SEO Tool kostenlos zur Verfügung.

Weiterlesen

USEO – userzentrierte Suchmaschinenoptimierung

Suchmaschinenoptimierung wird mit ihren unterschiedlichen Möglichkeiten oftmals als Wunderwaffe in der Steigerung der Aufmerksamkeit für die verschiedensten Webauftritte gesehen. Die Effekte gezielter SEO Arbeiten offline oder online sind unbestritten, machen allerdings nur dann Sinn, wenn die Wirkung auf die entsprechende Zielgruppe der Internetnutzer nicht verfehlt wird.

Weiterlesen

HTML5 und die Auswirkungen auf SEO

 

Sechs Jahre saßen die Experten an der Entwicklung eines neuen Auszeichnungsstandards für Webdokumente, welches ältere Spezifikationen ablösen soll – dem HTML5. Dadurch öffnen sich für den Anwender neue Einsatzmöglichkeiten, wie beispielsweise eine native Unterstützung von Audio und Video, aber auch neue Grafikformate oder Offline-Anwendungsmöglichkeiten. Welche Auswirkungen hat HTML5 nun auf die Suchmaschinen-Optimierung?

Weiterlesen

Warum SEO Arbeiten und Linkaufbau nicht von heute auf morgen funktionieren!

Top-Positionen bei Google & Co. wünschen sich alle Webseitenbetreiber, durchdachte Maßnahmen der Suchmaschinenoptimierung (SEO) sind hierfür unverzichtbar.

Noch vor 6 Jahren war es relativ einfach, sich mit keywordlastigem Content und einer Vielzahl an Backlinks eine optimale Position auf den Ergebnisseiten der Suchmaschinen zu sichern, dies hat sich jedoch über die letzten Jahre spürbar geändert. Neben der fortwährenden Umstellung des Algorithmus’, den Google zur Bewertung von Webseiten anwendet, werden immer striktere Kriterien für die Qualität einer Webseite gefordert.

SEO-Maßnahmen müssen daher (projektbezogen individuell) sehr durchdacht angelegt werden und benötigen vor allem Zeit, um Google & Co. von der Relevanz des eigenen Webangebots zu überzeugen.

SEO und Webseitenqualität – leider vielfach ein Widerspruch

Um sich gute Rankings bei Suchanfragen zu sichern, haben viele Webseitenbetreiber über die letzten Jahre den menschlichen Besucher ihrer Webseiten vergessen. Stattdessen wurde die eigene Webpräsenz alleine nach Kriterien optimiert, die Google und anderen Suchmaschinen zusagen, vorrangig zu nennen sind die Einbindung von Keywords und der Aufbau einer umfangreichen Backlinking-Struktur. Tatsächlich waren diese Elemente in der Anfangsphase des Internets ausschlaggebend dafür, um die Relevanz einer Webseite zu verbessern und diese in höchsten Positionen bei Suchanfragen zu präsentieren, doch die Zeiten haben sich geändert.

Die Veränderung hat vor allem mit der wachsenden Konkurrenz von Webseitenbetreibern zu tun, die einander nur noch mit SEO-Maßnahmen übertreffen wollten. Waren in den präsentierten Texten einer Webseite nicht so viele relevante Keywords wie bei der Konkurrenz zu finden, wurde einfach die Keyworddichte erhöht. Sollten andere Webseitenbetreiber über ein größeres oder besseres Netzwerk an Backlinks verfügen, wurde einfach die Zahl an Verlinkungen der eigenen Webseite erhöht. All diese Maßnahmen trugen nicht zur Erhöhung der Qualität eines Webangebots bei, was Google schnell erkannte und deshalb neue Kriterien für die Bewertung von Webseiten formulierte. Leider haben viele Betreiber noch nicht diese Qualitätsoffensive erkannt und verstanden, dass ein nachhaltiger Erfolg bei den Suchmaschinenpositionen Zeit benötigt.

Relevanz und generische Entwicklungen als wichtigste Merkmale für Google & Co.

Auch wenn Suchmaschinen weiterhin mit mathematischen Algorithmen zur Bewertung von Webseiten arbeiten – die Abschätzung der Wichtigkeit aus den Augen eines menschlichen Nutzers gerät stärker in den Vordergrund. Webseiten mit einem extrem hohen Anteil an Keywords werden durch Google längst abgestraft, selbiges gilt für Webangebote mit einer Vielzahl von Backlinks, die teilweise keinen echten Bezug zum jeweiligen Webangebot besitzen. Die Relevanz spielt eine stetig wachsende Rolle, also die Wichtigkeit verlinkter Inhalte und ein direkter Zusammenhang zum eigenen Webangebot. Hat die verlinkte Webseite tatsächlich etwas mit dem eigenen Angebot an Informationen oder Produkten zu tun, dürfte sie einen wirklichen Mehrwert für den menschlichen Benutzer haben, was durch eine Verbesserung des Rankings belohnt wird.

Ein ebenso wichtiger Faktor für Googles Suchmaschine ist der generische Aufbau der Backlinks und sonstiger Inhalte einer Webseite. Werden nahezu täglich neue Links hinzugefügt oder kommen Monat für Monat Dutzende neue Backlinks in gleichmäßigen Abständen hinzu (auch wenn Sie wirklich sehr hochwertig sind), “vermutet” Google hierbei eine reine SEO-Maßnahme. Und sobald eine Webseite diese Einschätzung erhalten hat, benötigt es häufig Wochen und Monate, sich von diesem Image wieder zu befreien und sich in den vordersten Positionen eines Rankings platzieren zu können. Kommt es zu einer Abwertung der eigenen Webseite bei diversen Suchanfragen, sind oftmals nicht falsche SEO-Maßnahmen per se hieran Schuld. Stattdessen werden diese Maßnahmen schlichtweg zu häufig oder kaum durchdacht durchgeführt, so dass der generische Charakter auf der Strecke bleibt und Google diese Maßnahmen sofort als reine Suchmaschinenoptimierung erkennt.

Überlegen Sie bitte einmal: Sie als Shopbetreiber – wie würden Sie anfangen Ihre Webseite zu optimieren? Natürlich erst einmal auf der Homepage selber. Und natürlich wissen Sie das Backlinks wichtig sind. Aber welche Möglichkeiten haben Sie als “nicht SEO Agentur”? Wissen Sie wo Sie mehr als 3 hochwertige Links bekommen können ausser über einschlägige Portale wo man Links mieten kann (wenn sie diese kennen kennt Google diese sicher auch). Oder würden Sie mit ihrem Anfangsbudget zuerst einmal zusehen das Sie bei namhaften Online Branchverzeichnissen eingetragen werden und würden vielleicht auch bei ein paar Webkatalogen die Ihnen seriös vorkommen (und vielleicht auch ein Eintrag von einem Konkurrenten vorhanden ist) eintragen? Eventuell bekommen Sie auch Links aus dem Freundes- und Bekanntenkreis, Kunden, Lieferanten …… werden diese Links alle themenrelevant sein?

Könnte es auffallen wenn man vom ersten Monat an nur Backlinks von hochwertigen Domains erhält die einen höheren Pagerank haben, oder themenrelevant ein sehr gutes Ranking besitzen oder Namen haben wie Freenet.de oder Focus.de usw….?

Bleiben Sie natürlich und steigern sie die Qualität Ihres Projektes, in allen Richtungen, stetig nach Ihren Möglichkeiten. Nur “Schindluder” wird bestraft.

Zeit nehmen und andere Maßnahmen der SEO einleiten

So sehr der schnelle Erfolg bei Suchmaschinenanfragen gewünscht sein mag – eine intelligente Strategie der SEO benötigt Zeit. Gerade wenn es sich um ein komplett neues Webangebot handelt und die Konkurrenten der Branche bereits länger auf dem Markt sind, kann es Wochen oder sogar Monate dauern, bis erkennbare Erfolge bei Google & Co. zu verzeichnen sind. Die Zeitspanne lässt sich optimieren, indem auf die professionellen Dienste einer Webangebot vertraut wird. Diese ist in der Lage, durchdachte und abgestimmte Konzepte aufzusetzen, mit denen bereits ab dem ersten Tag die Grundlage für einen langfristigen Erfolg bei unzähligen Suchanfragen gelegt werden kann.

Zudem ist die Erkenntnis wichtig, dass es für eine erfolgreiche Positionierung längst nicht nur aufs reine Backlinking ankommt. Das Internet entwickelt sich stetig weiter und bringt neue Aspekte in die Suchmaschinenoptimierung hinein, die von Webseitenbetreibern dringend zu bedenken sind. Anstelle den klassischen Linkaufbau zu betreiben, steigern der hauseigene Blog oder die Integration von Social Media wie Facebook und Twitter das Interesse von Webseitenbesuchern und nicht zuletzt den Traffic. Google berücksichtigt diese wachsende Relevanz auf allen Kanälen und lässt sie ins Ranking mit einfließen. Gerade wenn Konkurrenten um Top-Positionen solche Marketingkanäle noch nicht nutzen, entstehen entscheidende Vorteile für das eigene Webangebot!

Und … schaffen Sie stetig neue, interessante Inhalte!!! Wir können das gar nicht oft genug sagen und betonen!

Social Signs und SEO – Rankingfaktoren

Viele Unternehmer nutzen Facebook und Twitter deshalb nicht, weil damit nur wenig Umsatz generiert wird. Doch die sozialen Netzwerke haben eine zumeist unterschätzte Auswirkung auf das Rating bei Google und Bing. Denn die durch das Drücken der Buttons entstandenen Nutzerempfehlungen bestimmen unter anderem das Pageranking.

Die Auswirkung von Social Signs auf das Google-Ranking

Das Ranking einer Webseite bei Google wird von über 200 verschiedenen Signalen beeinflusst. Die klassischen Optimierungs-Methoden sind beispielsweise:

  • Backlinks
  • interne Verlinkung
  • Auswahl der richtigen Meta-Tags
  • Qualität der Inhalte
  • Relevanz der Inhalte
  • Domainalter
  • Aktualität der Inhalte
  •  ausgehende Links
  • doppelter Content
  • Keyworddichte

Das Alter des Contents, der Grad der Inhaltsveränderung, die Entwicklung der auf des Contents verweisende Quellen und noch viele weitere Faktoren werden durch Google ständig neu berechnet. Zu den neueren Ranking Faktoren gehören auch die Ladezeit der Webseite und die Social Signals, die aus Empfehlungen der sozialen Netzwerke entstehen.

Social Signals sind Shares und Tweets, die durch das Drücken des Like- oder Teilen-Buttons in Facebook & Co. als Empfehlung entstehen. Wenn der Leser auf Facebook, Google+ oder Twitter einen Text oder ein Foto interessant und gut findet, drückt er den Social-Sign-Button.

Diese sozialen Signale erzeugen Aufmerksamkeit und bringen Besucher. Facebook ist nach Google zu einer der bedeutendsten Traffic-Quellen geworden. Gemäß einer Studie des Statistikportals Statista sind alleine aus Deutschland rund 26 Millionen Nutzer dort angemeldet – und viele davon nutzen das soziale Netz sehr intensiv. Jedes Teilen, jeder Kommentar und Like erreicht weitere potenzielle Besucher. Und auf diese Aufmerksamkeit sollte kein Unternehmer oder keine Internetseite verzichten.

Die bereits zuvor genannten klassischen Faktoren, um das Suchmaschinen-Ranking zu verbessern, bekommen nun also Zuwachs von Facebook & Co. Denn diese Social Signals werden auch in den Algorithmen von Bing oder Google analysiert. Doch der genaue Einfluss auf diese neuen Ranking-Faktoren ist nicht klar erkennbar, da sich Google bekannterweise nicht in den Such-Algorithmus schauen lässt.

Zusammenhang zwischen hohem Ranking und sozialen Signalen bestätigt

Eine Infografik „Wie soziale Signale Ranken“ hat in einem Versuch mit sechs Internetseiten herausgefunden, dass 100 Google+ Followers die Seite um 14,63 Prozent nach oben brachten. Drückten dreihundert Menschen 1+, rutschte die Seite immerhin noch um 9,44 Prozent nach oben. Und 70-mal Facebook Teilen und 50-mal Facebook Like sorgten für ein besseres Ranking von 6,9 Prozent.

Eine weitere Studie des SEO-Anbieters Searchmetrics zeigt ein ähnliches Ergebnis. Hier wurden 10.000 Keywords analysiert und mit der Anzahl der Facebook-Signale verglichen. Demnach hatten Internetseiten in guten Positionen auch immer viele Shares und Likes auf Facebook. Jack Menzel, Product Management Director Google Search äußert sich zu diesem Thema ähnlich. Er gab an, dass Links nach wie vor wichtig bleiben, aber soziale Signale bedeutender werden.Ein Zusammenhang zwischen den Social Signs und einem hohen Ranking ist also durchaus vorhanden und Google räumt den Social Signals eine immer stärkere Bedeutung zu. Doch von außen ist der kausale Zusammenhang kaum zu ermitteln, denn Seiten mit einer guten Position haben fast immer auch gleichzeitig viele Besucher, die wiederum den Seiteninhalt vielfach in die sozialen Netze weiterleiten.

Sind Social Signs nun Ursache, Wirkung oder gar beides?

Die zuvor genannten Statistiken sagen aber auch aus, dass eine Erwähnung bei Google+ mehr Erfolg verspricht als bei Facebook. Doch warum bringt eine Erwähnung in den sozialen Netzwerken überhaupt solch einen Erfolg beim Suchmaschinen-Ranking?

Webseitenbetreiber können Links kaufen, tauschen, mieten oder anwerben – dies ist bei Social Signs nur im geringen Umfang möglich. Daher bewertet Google diese als Nutzersignale, die nur sehr schwer zu manipulieren sind. Auch sind sie stets aktuell und auch hier heißt es: Qualität statt Quantität. Die Menge alleine entscheidet nicht – wesentlich bedeutender ist, welche Personen und Quellen beteiligt sind.

Fazit: Social Signs werden Links nie vollständig ersetzen, doch deren Bedeutung wird als Ergänzung in Zukunft stark zunehmen. Gerade für Internetseiten, die auf Aktualität angewiesen sind, wie Online-Zeitschriften und News-Portale, werden soziale Signale immer wichtiger. Denn sie haben Einfluss darauf, mit welcher Freshness Google die Seite einstuft.

Warum gerade KMU und EPU von Onlinemarketing profitieren können

Onlinemarketing- Kaum eine Sparte auf dem weitreichenden Gebiet geschäftlicher Internetaktivitäten steht so im Mittelpunkt des Interesses. Der effiziente und zielführende Einsatz dieses Instruments ist vor allem für KMU (kleine und mittlere Unternehmen) und EPU (Ein- Personen- Unternehmen) von besonderer Wichtigkeit, geht es in diesen Fällen doch häufig um nichts weniger, als um ihre Existenz. Denn Wettbewerbsvorteile zu generieren, potentielle Interessenten in Kunden “umzuwandeln”, die Bindung des Auftraggebers an das Unternehmen zu erreichen, zu erhalten und natürlich auszubauen, gehören zu den obersten Zielen aller am Markt beteiligten Personen. Umso wichtiger ist gerade für KMU und EPU ein erfolgreiches Onlinemarketing, da diese Unternehmen, im Gegensatz zu großen Konzernen, in aller Regel nicht über eine eigenen Abteilung von Internetfachleuten verfügt, deren tägliche Aufgabe in der Verbesserung und Anpassung der Unternehmenswebseiten besteht.

Welchen konkreten Nutzen haben KMU und EPU von einem professionellen Onlinemarketing?

Da Sie, als Internet-Shop Betreiber, Blogger oder als Dienstleistungsanbieter, auf konsequentes Internetmarketing, das alle neuen Standards und Updates (Google Panda beispielsweise) auf den Seiten beachtet, angewiesen sind, sollten Sie auf den Rat einer professionellen Onlinemarketing- Agentur nicht verzichten, um bei Google oder anderen Suchmaschinen ein gutes Ranking zu erhalten. Denn nur durch ein professionelles Onlinemarketing mit dem Ziel einer einwandfreien Suchmaschinenoptimierung und weiterer, wesentlicher Optimierungsschritte, haben Sie und vor allem Ihre Firma, die Chance, gefunden zu werden. Sie können Ihren Kundenstamm erweitern, was natürlich auch zu einem höheren Umsatz Ihres Unternehmens führt. Ebenso verschafft Ihnen ein gekonntes, professionelles Onlinemarketing den so wichtigen Vorsprung vor Ihren Mitbewerbern. Schon die kleinsten Veränderungen verschiedener Parameter können dazu führen, dass sich das Ranking Ihrer Seiten signifikant verbessert und Sie mehr Traffic, sowie eine höhere Verweildauer, beispielsweise in Ihrem Shop, erreichen. Denn wenn Sie den Wirkungsgrad Ihrer Seiten im Internet steigern, ist auch ein entscheidender Wettbewerbsvorteil vor Ihren Konkurrenten möglich und wahrscheinlich. Durch ein wirkungsvolles Ineinandergreifen verschiedener Onlinemarketing Bausteine, kann Ihr wirtschaftlicher Nutzen effizient gesteigert werden. Kleine Veränderungen, zum Beispiel an der Benutzerfreundlichkeit Ihrer Webseite, oder der geeignete, verbesserte SEO Aufbau, können für einen Quantensprung Ihrer Umsätze sorgen sowie erhöhte Klick- und Umwandlungszahlen generieren.

Resümee

Als Betreiber eines kleinen oder mittelständigen Unternehmens und auch als Inhaber einer Ein-Personen- Firma ist das gekonnte Onlinemarketing überlebenswichtig. Da jedoch nicht viele Selbstständige, es sei denn, sie sind “Internetfreaks”, mit dem technischen Know-How auf diesem Gebiet vertraut sind, sollten Sie sich einer geeigneten Onlinemarketing- Agentur wie beispielsweise www.austrianweb.eu oder www.austrianweb.at anvertrauen, um das maßgeschneiderte Onlinemarketing für Ihre Seiten im Detail zu besprechen. Auf dieser Basis steht dann Ihrem Geschäftserfolg nichts mehr im Wege!

Sollten Sie Interesse an einer unverbindlichen Beratung haben melden Sie sich doch bei uns: Unverbindliche Anfrage stellen

Kurz und knackig – Retro Blogging wieder aktuell, Teil 5

Eine Anleitung und Fürsprache für klassisches Content Design

3.) Mit welchen Elementen wirkt mein Content am besten?

In der Tat handelt es sich dabei um eine gute Frage, für die es keine allgemeingültige Richtlinie gibt und sich lediglich Richtlinien anbieten, nach denen man eine gewisse Inhaltspolitik entwickeln kann und über die Statistischen Aufzeichnungen bestimmte Rückschlüsse und daraus erwachsendes Potential zur Optimierung ableitet. Bestimmen wir jedoch zunächst die relevanten Inhalts-Typen für ihr Weblog:

Textbasierender Content

Der inhaltliche Grundstein ihres Projektes, für Mensch und Maschine gleichermaßen, der Anlass ist um auf ihrem Blog zu bleiben und die bereitgestellten Inhalte zu konsumieren. Das finale Ziel ihrer Inhalte sollte darin liegen, eine vollständige und schwer zu zerrüttende Konversion ihrer Seitenbesucher zu erreichen. Aus der Zahl dieser „Regulars“ ergibt sich der interagierende Anteil der Seitenbesucher, welcher auf ihrem Blog aktiv ist.

Vom technischen Aspekt bieten auch in der klassischen Form verfasste Postings ausreichend Volumen, um für die keyword-spezifische Optimierung des textbasierenden Content nutzbar zu sein. Dies gilt Grundsätzlich für jedes Text-volumen zwischen 250 und 400 Wörtern. Unter Berücksichtigung der vernunftgelenkten Maßgabe einer grundsätzli-chen Anforderung an die konsistenter Lesbarkeit und den gleichmäßigen Sprachfluss ihrer Inhalte entsprechend der schwerpunktmäßig festgelegten Keywords ihres Optimierungs-Konzeptes auch mittels von Synonymen und wortglei-chen Begriffen gestalten und erhalten konsistente Ergebnisse in der On-Page Optimierung nach professionellen SEO-Standards.

Bilder – Statisch & Animiert

Ob originaler Content oder Repostings, ob statisch oder animiert: Durch Bilder lassen sich aufgrund des „modus operandi“ des menschlichen Verstandes unmittelbare Regungen auf emotionaler Ebene hervorrufen. Daher eignet sich diese Form des Content dafür, im Rahmen einer zurückhaltenden Dichte der Einstreuung als idealer Anker zu fungieren, der Seitenbesucher zum Verweilen animieren kann und somit die Chance auf eine Visitor Conversion erhöhen kann.

Darüber hinaus lassen sich Bilder, welche als HTML-Elemente bisher für die Webcrawler der Suchmaschine Google „blinde Flecken“ waren und nicht erfasst wurden, durch die optimierte Bestückung nach Aspekten der SEO mittels der ALT-Tags und der Title-Descripton als Einstiegspunkte für Traffic gestalten, welcher über die Google Bildersuche geleitet wird, da hier Bereiche und Keyword-Kombinationen mit Top-Ranking in Reichweite, die in der organischen Google Suche hoffnungslos überlagert sind.

Videos & Streams

Während Bildmedien und textbasierender Content bereits seit der Geburt des Internet als vollwertige Inhaltstypen aner-kannt und in die technischen Standards integriert sind, taten sich die Mitglieder des W3C-Konsortium in der Überein-kunft über Standards für multimediale Inhalte sehr schwer, umso mehr in der Ausführung ihrer Beschlüsse nach erfolg-ter Standardisierung.

Lange Zeit galten Mediencontainer als state-of-the-Art, welche mittels Macromedia Flash (Später Adobe) umgesetzt wurden. Dieser Standard hielt sich in Ermangelung von durchsetzungsfähiger Konkurrenz und entgegen aller Kritiken bis zur Freigabe der Meilensteine von HTML 5 zwischen 2008 und 2012, welches die Einbindung von Videodateien mittels nativem HTML ermöglicht und dadurch erstmalig die „Lesbarkeit“ für Webcrawler ermöglicht und durch erwei-terte Möglichkeiten der Kenntlichmachung durch die Einbindung der Title-description und des ALT-Attribut zu einem besser zu erfassenden Element innerhalb des Seitenquelltext mit SEO-relevanz geworden ist.

Im alltäglichen Umgang mit Containern und Applets zur Darstellung von multimedialen Inhalten sollte man stets eher mit Zurückhaltung agieren. Bedingt durch die grundsätzliche Fixierung des Menschen auf optische Reize neigen solche Inhalte dazu, den Seitenbesucher vom eigentlichen Content abzulenken und nach dem unmittelbaren Konsum einen Absprung zu provozieren. Ausnahme hiervon sind, wenn auch nicht unbeschränkt, die Einpflege und Promotion eigenen Contents in dieser Darreichungsform, da hier von einer unmittelbaren Assoziation gesprochen werden kann, welche durch Intros und Jingles den Anker im Bewusstsein des Konsumenten setzt und somit nicht vollkommen ohne konkreten Bezug zum Quellmedium konsumiert, wie es bei externen Mediencontainern der Fall wäre.

Wir fassen zusammen

Es ist nicht der Mai, der in diesem Jahr 2013 für die Szene der SEO-Blogger „alles neu“ macht, es ist der Februar und trotz des Rückschritts auf alte Vorlagen und Gestaltungsmuster darf längst nicht von „ollen Kamellen“, wie man im rheinischen Köln sagt, gesprochen werden, denn diese wurden gerade jüngst zur Karnevalszeit erst unter die Leute gebracht.

Für die Blogosphäre im europäischen, speziell dem deutschen Raum, gewinnt der gesamte Prozess des Content Design hingegen wieder ein gesundes Stück an Konsistenz und gestalterischer Sicherheit, mit dem zumindest bis zum Release kommender Iterationen des Suchalgorithmus auf eine bekannte Weise gearbeitet werden kann. Die Frage, welche sich in diesem Kontext jedoch stellt, ist die Einsichtsfähigkeit der SEO-Branche hierzulande, über die Sinnhaftigkeit dieses Rücktritts von vermeintlich überlegenen Optimierungsmöglichkeiten für Webseitencontent. Doch das Jahr ist lang und es wird sich zeigen, wie stark der Anpassungsdruck tatsächlich ist, der sich auf den Rankings des einen oder anderen niederschlägt.

Das sich die angekündigten Auswirkungen des „Penguin“-Updates jedoch lediglich in solch geringem Umfang auf das Ranking auswirken würde ist die eine Seite der Medaille, welche den Suchmaschinenkonzern nicht sonderlich gut da-stehen lässt, während die andere die neue Gewichtung des Nutzerverhaltens und den wachsenden Einfluss des Schwarmverhaltens, welches sich aus der Gesamtsumme der erfassten Messwerte des Userverhaltens ergeben.

Scheinbar ist dieser Faktor ausschlaggebend genug, um sie sonst eher trägen SEO-affinen Blogger in Übersee über Umwege tatsächlich dem gestellten Anspruch der Google-Entwickler zu entsprechen lassen, in dem sie ihre Inhalte tatsächlich für ihre Seitenbesucher und nicht für die algorithmische Erkennung der Webcrawler umgesetzt haben.

Und irgendwie beruhigt es doch ein wenig, in dem Wissen zu sein, das man auch in den Entwicklungsbereichen der Suchmaschine Google, unter der Federführung von Matt Cutts, kein vollumfängliches Verständnis für die Dynamiken ihrer Suchmaschine besitzen, was dem oft dämonisierten Unternehmen wieder einen Hauch Menschlicher Fehlbarkeit verleiht.

Und was sagen Sie dazu? Was haben Sie beobachtet?

Kurz und knackig – Retro Blogging wieder aktuell, Teil 4

Eine Anleitung und Fürsprache für klassisches Content Design

Klassisches Bloggen – Einfach gemacht

Wie also den Weg zurück zur klassischen Generierung von Webcontent finden? Ein altes deutsches Sprichwort spricht in dieser Angelegenheit wahre Bände: „In der Kürze liegt die Würze“! Entsprechend dem Nutzerverhalten und der sta-tistischen Aufmerksamkeitsspanne eines Internetnutzers hat sich ebenfalls die Form und der Umfang des bereitgestellten Content zu richten.

Wir haben dazu einige Punkte zusammengefasst, die sich als gute Richtlinien im Alltag erweisen:

1.) Wie viel Text ist gut für mich und mein Blog?

Der User „Jens“ hat im Kommentarbereich des bekannten SEO-Blog „SEO-United.de“ die wohl treffendste Zusammen-fassung als Antwort für diese Frage formuliert: „Versuche so schnell und aussagekräftig wie möglich zum Punkt zu kommen.“

Dazu gehört ein wenig Fingerspitzengefühl und die Fähigkeit, sich in seine Zielgruppe hinein zu versetzen. Der heute typisierte, durchschnittliche Nutzer zwischen 18 und 50 Jahren bewegt sich in einem umfassenden Netzwerk aus Infor-mationsquellen , welche er regelmäßig wieder kehrend abruft. Die Erwartung an ein Weblog hingegen sind keine aus-schweifenden Textmengen, sondern in handlichen Portionen servierter Content. Diese Erwartungshaltung an das eigene Programm gilt es zu erfüllen. Ein guter Anhalt ist dabei das eigene Surfverhalten, dessen Ansprüche ohne Vorbehalt auch auf die eigene Plattform angewandt werden sollten – Sich in den Besucher zu versetzen bewahrt vor unattraktivem Content Design

Bei der tatsächlich stattfindenden Inhaltlichen Strukturierung des generierten Contents muss unter der relativen Be-grenzung durch die Anforderungen des Visitors keinesfalls die Qualität einer technischen Optimierung auf SEO-Standards leiden, da die Textlänge um längen ausreicht. Die als Faustregel geltenden 250 bis 400 Wörter, welche zur Erfassung durch den Webcrawler als Maß gelten, sind schnell erreicht und bieten mit dem klassischen Handwerkszeug, vom Setzen von Backlinks, Crosslinks und entsprechend Google-freundlicher Formatierung ausreichend Potential.

2.) Wie oft darfs denn sein? Wöchentlich, täglich oder gar stündlich?

Man kann im Grunde nicht oft genug an den gesunden Menschenverstand appellieren, doch auch an dieser Stelle ist genau diese Komponente ein essentieller Faktor für den Erfolg eines Weblog als Online-Medium mit wachsendem Publikumsverkehr.

Beachten sie, was schon im vorherigen Punkt genannt wurde: Der Casual Visitor ist mit hoher Wahrscheinlichkeit in der altersrelevanten Zielgruppe, welche sich weitgehend nativ, also natürlich, im Internet bewegt und sich für die Informationsgewinnung und zur Unterhaltung umfangreiche Netzwerke aufgebaut hat, welche regelmäßig besucht werden.

Das bedeutet, ihnen wird als Teil eines solchen Netzwerkes aus Webseiten, Online-Magazinen und anderen Plattformen im Internet eine zeitlich begrenzte Aufmerksamkeit zuteil, die sie zur optimalen Ausnutzung erfüllen sollten, weshalb es sich anbietet, diesen Zahlenwert zu ermitteln. Im Prinzip stellen sie dazu eine schlichte Rechnung an, bei der ihnen die Auswertung der gesammelten Daten ihres Blogs zum Nutzerverhalten hinsichtlich der Verweildauer und der Klickraten (Click Through Rate) sowie der Absprungrate gute Dienste leisten werden, da sich hieraus ein Mittel ergibt, mit dem sie ihren Content Output zielgruppengerecht steuern können.

Punchline: Sie sollten nur so viel Content in 24 Stunden bereit stellen, wie ihre Unique Visitors auch tatsächlich konsumieren.

Jede Menge an eingepflegten, geteilten oder publizierten Inhalten ihres Weblogs fallen entweder nicht ins Gewicht und sind daher vergebene Liebesmüh – Es zählt wie auf den Suchergebnisseiten von Google nur die „Seite 1“ – oder wird ab einem gewissen Wert gar als Content Spamming wahrgenommen und könnte zum Verlust von „Regulars“ führen.

Lesen Sie morgen: Punkt 3 – “Mit welchen Elementen wirkt mein Content am besten?”

 

Kurz und knackig – Retro Blogging wieder aktuell, Teil 3

Eine Anleitung und Fürsprache für klassisches Content Design

Auf den vorhergehenden Seiten sind wir auf den neuen, rückwärts gerichteten Entwicklungen der amerikanischen SEO-Blogs eingegangen, welche die Abkehr von unattraktiven Content-Blöcken in Form von umfangreichen Fachartikeln als neues Credo aus der Taufe erhoben haben, welche ihnen nach der Auswertung von 12 Monaten Google Penguin als sinnvoll und erstrebenswert erscheint und nun auch langsam das europäische Festland erreicht und damit einhergehend auch die Blogs der Suchmaschinenoptimierer hierzulande.

Zuletzt sind wir dabei auf die Vorzüge und Nachteile der modernen inhaltlichen Gestaltung von Einträgen in Blogs mit dem Trend zur Ausführlichkeit und sachlichen Tiefe eingegangen und haben ergründet, welche Annahmen zur Umset-zung dieser Doktrin geführt haben, welche durch zuletzt eher leichtgewichtige Faktorenverschiebung bei der Aufberei-tung und Bereitstellung von Inhalten auf Weblogs ad absurdum geführt wurden. Erfahren sie nun, was in diesem Kon-text die Vorteile der klassischen Erstellung von SEO-optimierten Blog-Postings ist und zu welchen Schlüssen wir dies-bezüglich gekommen sind:

Altbewährt und bisher ohne nennenswerten Malus – das klassische Webloggen

Angesichts der zunächst umgreifend erscheinenden Änderungsankündigungen Seitens Google, was den „modus operandi“ des Herzstückes seiner Suchmaschine, dem Algorithmus , betraf, war der Sprung auf eine neue Form des Content Design im Rahmen der Blogosphäre im SEO-affinen Bereich durchaus verständlich. Heute jedoch zeigt sich, das der Impact auf die Rankings und Pageviews längst nicht so gravierend ausgefallen ist, wie angenommen. Und daher hier das für und wider für den „klassischen“ Stil.

Pro Klassik – Auf den Pfaden, die das Blog erst groß machten

Unabhängiger Content welcher von Einzelnen oder kleineren Gruppen in Eigenregie erstellt wurde, entwickelte sich Mitte der 2000er zu einem Massenphänomen, welches bis heute Anhält. Erstmals waren Menschen in der Lage, ohne hohe Kosten oder technische Barrieren in der Lage, potentiell jeden Menschen mit Zugang zum Internet zu erreichen und ihre Gedanken und Ideen frei und weitgehend unzensiert zu publizieren.

„User Generated Content“ ist das verschlagwortete Kernstück des „Web 2.0“, welches bis heute als Innovationsmotor für alle daraus hervorgehenden Kommunikationsformen gilt und welches sich in Form des Weblogs durch übersichtli-ches Inhaltsdesign und durch Stil und Marke etablierte, ohne dabei auf ein Marktmonopol, wie jenes der klassischen Medienhäuser angewiesen zu sein.

– Das Gestalten der Inhalte in leicht zu konsumierende Inhalte hatte sich schon beim Aufstieg der Blogger-Szene zum festen Bestandteil der Netzkultur als tragende Säule erwiesen. Interessanter Content in kleiner Stückelung, in sich abgeschlossen und damit ideal für den Konsum „zwischendurch“ – Als Gegenstück zu redaktionellen Textwüsten bis heute ein erfolgreicher Besuchermagnet

– Häufiges Posting von Blog-Einträgen sorgt für eine Kontinuität, mit welcher der menschliche Seitenbesucher immer wieder dazu verleitet wird, in dem Wissen, zu seinem gesuchten Thema ständig neuen und frischen Content vor zu finden, ein Bindungsverhältnis zu entwickeln, welches man als „Konversion“ bezeichnet. Weiterhin ist die Aktualität einer Webseite, sei es ein Blog oder ein digitales Magazin, nach wie vor sehr ausschlaggebend für das Google Ranking

– Bereitstellung von gemischten Inhalten erzeugt eine Deckung mit einer Vielzahl von mit dem Kernkonzept assoziierten oder mit Schnittmengen versehenen Zielgruppen. Diese Vielfalt ermöglicht erst die Entwicklung viral verlaufende Reichweitengewinne eines Mediums, welche sich über den C2C-„Buschfunk“, über soziale Netzwerke und Instant Messenger generieren und langfristige Zuwächse in der Relevanz erhalten

– Durch die persönliche Note eines Bloggers erzeugt dieser, ungeachtet in welchem Themengebiet er sich aufhält und publiziert, einen eigenen Style, welcher vom Aspekt des Marketings, hier der Besucherkonvertierung und langfristigen Bindung, ein Maximum an sogenannter Stickiness erreicht, da sich durch die persönliche Ebene neben informaler auch emotionale Bindungen entwickeln

Nach dem ersten Jahr steht fest: Nur wenig Einbußen bei den Platzierungen in den SERPs

Die prophezeiten Einbrüche auf den Portalen derer, welche ihre Inhaltspolitik nicht auf die neuen Richtlinien für die Qualitätsbewertung von Webseiten anpassen, blieben weitgehend aus. Daher ist die neuerliche Trendwende auf dem Parkett der suchmaschinenoptimierten Textkreation ein geradezu logischer Schritt, quasi ein Sieg der Vernunft. Der Nutzer erwartet im Rahmen eines Weblogs keinerlei Ellenlange Essays und fachlicher Aufsätze, sondern schätzt dieses Medium gerade wegen des kompakten Content Design als leicht zu konsumierende Informationsquelle. Daran änderte auch weder „Panda“ noch das „Penguin“-Update etwas – Und die Pageviews sprechen eine eigene Sprache.

Gibt es denn kein Contra? Durchaus, doch das Ergebnis liegt gut in der Waagschale

Es ist so einfach wie es klingt: Gerade weil Google seinen Fokus zunehmend auf das Nutzererlebnis richtet und dabei strengere Maßstäbe an die Qualität des gelieferten Content stellt, bewährt sich das klassische Blogging in Form von regelmäßigen bis häufigen Postings jenseits der kantigen, massiven Natur der geforderten Blockmassiven, welche sich in den Fachartikeln manifestiert hatten.

Die Abwägung hinter der Kulisse ist schlichtweg jene: Wie stark ist der Zuwachs meiner Relevanz im Ranking-Prozess der Suchmaschine durch die Auswertung des Nutzerverhaltens im Vergleich zur Abnahme derselben durch eine potenti-elle Nichterfüllung der vorgegebenen Richtlinie der Webcrawler. Das Ergebnis scheint sich, wenn man den amerikani-schen SEO-Profis trauen darf, einen klaren Sieg nach Punkten für die klassische Blogform ergeben.

Sofern spätere Iterationen der Suchalgorithmen nicht höheres Gewicht auf die fachlich-inhaltliche Komponente legen, kann man an dieser Stelle von dem Umstand sprechen, das Google als Konzern die Blogosphäre nicht verstanden hat und versucht hat, aus Weblogs klassische Webseiten zu machen.

Für jetzt zumindest aber hat der Internetnutzer mit den Füßen „per Klick“ abgestimmt!

Lesen Sie morgen: Wie also den Weg zurück zur klassischen Generierung von Webcontent finden?

Kurz und knackig – Retro Blogging wieder aktuell, Teil 2

Eine Anleitung und Fürsprache für klassisches Content Design

Auf der vorherigen Seite haben wir sie in die Welt der Weblogs eingeführt, einem Begriff, welcher die Struktur des Internets nachhaltig und von der Begriffsdefinition im Jahre 1997 bis zum großen Boom der Blogosphäre sich bis heute als Content-Plattform und eigene Darreichungsform für digitale Inhalte im Internet entwickelt hat.

In den folgenden Absätzen gehen wir auf das grundlegende Verständnis für das Abwenden von klassischem Content Design zu Gunsten der durch Google propagierten inhaltlichen Sach- und Fachschwerpunktsetzungen ein und welche theoretischen Vorteile die Aufbereitung von Inhalten in dieser Form für die langfristigen Erfolge darauf angepasster SEO-Strategien sich versprochen wurden.

Um ein Verständnis für das Thema zu entwickeln, bietet es sich zunächst an, sich mit den grundsätzlichen Eckdaten auseinanderzusetzen, welche zur Etablierung der jeweilige Gestaltungsform des Content geführt haben. Es genügt zumeist nicht, schlichtweg den einen oder anderen Weg zu gehen, gerade für den Aufbau einer konsistenten SEO-Politik für das eigene Blog sollte das „Warum?“ verstanden worden sein, daher hier unsere ausschlaggebenden Stichpunkte im Folgenden.

Vorteile des sach- und fachlich tiefgehenden Artikel-Designs:

Die Etablierung der neuen Designform für Inhalte auf Weblogs war zunächst nicht ausschließlich eine modische An-wandlung der SEO-Branche, die versprochenen Gewinne für die Relevanz und das Ranking des publizierten Contents wirken sich unter anderem durch folgende Merkmale positiv aus:

– Potentielle Kategorisierung des Content bei der Indexierung durch den Webcrawler als „Fachmännischen Content“ und somit eine künftige Einstufung als professioneller Quelle zum betreffenden Thema und somit „First-Page on the Google SERP“-Kandidat

– Umfangreiche Gestaltungsmöglichkeiten und durch hohe Relevanz der Keywords mit entsprechender Frequentierung weitere mögliche positive Merkmale im Ranking, durch geringere Fragmentierung der üblicherweise thematisch fluktuierenden Veröffentlichungen eine erleichterte Schwerpunktlegung der angepeilten Keyword-Relevanz

– Durch Zusammenfassung der Inhalte theoretisches Potential als Nachschlagewerk, sogenanntem „Cornerstone Con-tent“, welche langfristig hohe Klickraten generieren kann, welcher sich durch soziale Netzwerke rasch viral verbreiten kann und somit immense Reichweiten erreichen kann, sobald inhaltlich eine gewisse Schöpfungshöhe vorhanden und ein Publikum dafür vorhanden ist

Kehrseite der Medaille – Die Nachteile in diesem Modell der Inhaltsgestaltung

Dass sich die amerikanischen SEO-Blogger nach einem Jahr „Penguin“ und den sich einpendelnden Ergebnissen der Auswirkungen, welche durch die Neuerungen im Algorithmus ausgelöst wurden, in der Lage sind, stichfeste Auswer-tungen ihrer Besucherstatistiken und der damit korrelierenden Google Rankings zu treffen, hat zur Rückkehr zum klas-sischen Blogging-Stil geführt. Gründe dafür waren unter anderem:

– Systembedingt niedrigere Frequenz neuer Inhalte auf dem Zielmedium: Größere Artikel benötigen zwangsweise mehr Zeit für die Erstellung der Inhalte. Medien und Plattformen mit geringer Frequentierung verlieren in der Regel ihre Regular Visitors, also ihre „Stammgäste“, an andere Blogs, Portale und Plattformen, welche den ständigen Bedarf für frischem Content ausreichend bedienen

– Hoher Rechercheaufwand, welcher zuweilen in den Bereich der technischen oder wissenschaftlichen Redaktion übergeht und eine hochgradige Spezialisierung auf partikulare Themen des jeweiligen Weblogs, daher mit einhergehend geringerer inhaltlicher Diversität

– Durch große Text- und Datenmengen stellt sich unvermeidlich der Zustand des „Wall of Content“ ein, welcher den Casual Visitor, welcher einfach zu konsumierenden Inhalt in der Aufbereitung erwartet, schon auf der Einstiegsseite abschreckt und somit Ranking-Faktoren wie die Verweildauer, Klickverhalten und Absprungrate negativ beeinflusst

– Eine nicht zu unterschätzende Folge dieses Designs besteht darin, einen großen Anteil der Inhalte lediglich für die Google Webcrawler zu erstellen: Bekanntermaßen altert im Netz nichts so schnell wie Content. Und sofern nicht eine gewisse Schwelle überschritten wird, an dem der Status als „Cornerstone Content“ als erreicht gilt, ist auch der beste Artikel lediglich „Maschinenfutter“

– Verschenktes Potential: Durch inhaltliche Hochspezialisierung vermindert sich die Bandbreite der Zielgruppen, welche durch die Publikationen ansprechbar bleiben,sehr stark. Inhalte sind daher schnell dazu verurteilt, in kleinen Netzwerken gebunden zu sein und durch deren begrenzte Reichweite nicht in der Lage die Wirkung zu erzielen, welche dem Aufwand der Erstellung entspräche

Fazit:
Leider, wie die Trendwende in der richtungsweisenden US-Szene der SEO-Blogger deutlich anzeigt, hat auch hier einmal wieder ein Sprichwort sich als Wahr erwiesen, nämlich dass das Gegenteil von „Gut“ eben doch „gut gemeint“ ist, denn Google hat mit dieser Ansage, auch wenn ihr Impact auf die aktuelle Iteration noch sehr übersichtlich ausgefallen ist, eine Entwicklung in die Bewegung gebracht, welche Formen der Online-Medien wie das Weblog versucht in die Kategorie der klassischen full-scale Webseiten zu drängen und damit – Entgegen der eigentlichen Willensbekundung – zwar technisch und inhaltlich hochwertige Inhalte bevorzugt, dabei jedoch das Schwarmverhalten der Internetnutzer falsch eingeschätzt hat, welches als Faktor so umfangreich ausgefallen ist, das selbst Suchmaschinenoptimierer, welche stets auf einer Linie mit Google arbeiten, sich zu einem Rückdenken gezwungen sehen.

Fraglich bleibt in dieser Sache lediglich, ob Google es auf eine Durchsetzung dieser Richtlinie per verordneter Brech-stange ankommen lässt, oder aus dem statistischen und menschlichen Feedback entsprechende Schlüsse für die kom-menden Iterationen der Suchalgorithmen zieht und die Gewichtung der Relevanz weiterhin auf die Vielzahl der Blogs im WWW modifiziert, um das angestrebte „perfekte Nutzererlebnis“ tatsächlich durch die Suchergebnisse dar- und herstellen zu können.

Lesen Sie morgen: “Was in diesem Kontext die Vorteile der klassischen Erstellung von SEO-optimierten Blog-Postings sind und zu welchen Schlüssen wir diesbezüglich gekommen sind”

Kurz und knackig – Retro Blogging wieder aktuell, Teil 1

Eine Anleitung und Fürsprache für klassisches Content Design

Heute beginnt untere 5teilige Serie die an alle Blogger gerichtet ist. Vom 18.3. bis 22.3. erfahren Sie so einiges über bloggen einst und jetzt. Sie sind herzlich eingeladen Kommentare mit Ihren Erfahrungen zu hinterlassen!!

„Früher war alles besser!“ – Wer würde sich schon wundern, wenn sich ein findiger, vielleicht auch eher windiger Anwalt diesen Satz als Wortmarke sichern würde? So oft wie er in allen nur erdenklichen Situationen seine Verwendung findet, könnte man fast einen neuen Abmahn-Skandal wittern. Doch in diesem Artikel soll es gar nicht um die vielfach geschmähten Patent-Trolle und Abmahnwütigen gehen, sondern tatsächlich um den Kern der Aussage selbst – Und zwar im Bezug auf das aktuelle Umdenken bei der Gestaltung von SEO-relevantem Content, vorrangig auf Weblogs.

In die Erinnerung gerufen: Was ist eigentlich ein Blog?

Weblogs, kurz „Blog“: Das waren die ersten Schritte der Internetgemeinde in Richtung dessen, was später einmal als „Web 2.0“ ein Marketing-relevantes Schlagwort werden sollte. Die Erstellung von Content auf dezentralisierten Platt-formen, jenseits der Redaktionen und Webseiten, welche bis dahin ein gewisses Monopol auf die Verbreitung von Inhal-ten hatten, fanden nun erstmalig auf breiter Linie eine Opposition an, mal mehr, mal minder unabhängigen Plattformen, deren Autoren, unabhängig von Sprachgebrauch, Medienpolitik und leider viel zu oft auch fachlicher Unterfütterung ein basisdemokratisches Recht ausübten: Einfach mal die Meinung sagen.“.

Aus dieser Bewegung, deren Ursprünge sich in den berühmt-berüchtigten Webseiten aus den Baukästen von längst verblassten Titanen des „Web 1.0“, wie etwa Yahoo GeoCities oder Lycos Angelfire, später auch Web.de im deutschen Raum und der späten Entwicklung ins kommerzielle, etwa durch 1&1, begründet liegen, sollte sich mit der flächende-ckenden Verbreitung von Internetzugängen der 1997 erstmals geprägte Begriff spätestens auf der Mitte der 2000er zu einer Massenbewegung entwickeln, aus der später die sozialen Netzwerke, wie Facebook oder Google+ entstanden sind.

Der Ritt auf dem SEO-Pferdchen: Fürs Google-Ranking mal „Hü“, mal „Hott“, immer hin und her

Die Kritik, welche am aktuellen Stil des Google-gerechter Contents, der in den Blogs publiziert wird, geübt wird, liegt begründet in der Ankündigung der Google-Entwickler, in Persona Matt Cutts, das sich die fachliche Tiefe und Ausführ-lichkeit zukünftig als ausschlaggebend erweisen soll um inhaltlich hochwertigen Content zu fördern.

So löblich dieser Gedankenansatz unter der Prämisse erscheint, das der Nutzer möglichst hochqualitativen Content in den Suchergebnissen der Suchmaschine erhält, ist er gerade unter den Aspekten der inhaltlichen Diversität (Content diversity als Schlagwort) ein Hieb auf einen der aktivsten und inhaltlich dynamischten Bereiche des Internets: Der Blo-gosphäre.

Das große Lesen im Kaffeesatz – Version 2.0: Der Block statt Blog

Denn auf diese Ankündigung hin, welche im Vorfeld des Penguin-Update für den Google Suchalgorithmus kommuni-ziert wurde, folgte ein rascher Schwenk einer großen Anzahl von semiprofessionellen Blogs, welche ihre Content-Politik grundlegend änderten. Statt wie zuvor üblich, thematisch eng abgegrenzte Artikel zu veröffentlichen, welche Grundlage für lokale Diskussionen in den Kommentarbereichen boten und auf die man in Repliken Bezug nehmen konnte, durchaus auch raschen Impulsen folgend, wechselte hin zu einem durchgekaderten Content Design.

Dies erfolgte durch den Versuch der SEO-affinen Bloggerszene, nun durch die Präsentation umfangreichster Texte, welche große Ähnlichkeiten zu thematisch tiefgreifenden Fachschriften aufwiesen.
mit dem dynamischen und auch hochfrequentierten Blogging-Stil früherer Tage zu tun hatte. Eben genau dieser Stil ist es, welcher tendenziell in 2013 dazu ansetzt, wieder Mode und „state of the art“ zu werden. Diese Renaissance des klassischen Bloggings möchten wir hier mit einer Anleitung auf den kommenden Seiten für euch greifbar machen und Wünschen euch viel Spaß beim Lesen!

Lesen Sie morgen: das grundlegende Verständnis für das Abwenden von klassischem Content Design zu Gunsten der durch Google propagierten inhaltlichen Sach- und Fachschwerpunktsetzungen