Lange erwartet: SEO als Studienfach

Seit dem 1. September bildet die „afs“ Akademie angehende SEO-Spezialisten aus

Noch kein echtes Studium: Mit einem ersten Weiterbildungslehrgang zeichnet sich eine weitere Professionalisierung der deutschen SEO-Branche ab. Die Akademie für Fortbildung in SEO (Kurz: „afs“) hat mit dem erfolgreichen Start zum 1. September begonnen, für die zukünftige Entwicklung der Branche mit einer fachbezogenen Ausbildung Akzente zu setzen.

Ansätze für eine solche Entwicklung zeigten bereits einige konventionelle Studiengänge, deren Lehrplan schwerpunktmäßig die Suchmaschinenoptimierung beinhalteten, wie etwa die Fakultät für Informatik der Fachhochschule Würzburg-Schweinfurt mit ihrem Seminar „Besucherquelle Google“. Ebenso tragen Lehrberufe wie der FIAE (Fachinformatiker Anwendungsentwicklung) sowie die Ausbildung zum Kaufmann für Marketingkommunikation der Entwicklung unweigerlich folge und behandeln in Teilbereichen inhaltliche Aspekte des Thema SEO.

SEO ist längst Teil von IT-bezogenen Studienfächern und branchenverwandter Lehrberufe

Die „afs“ führt diese Ansätze weiter, zunächst mit dem Lehrgang der zum „Abschluss Fortbildung in Suchmaschinenoptimierung“ führt. Diese Fortbildung ist auf 6 Monate angesetzt und ist das als Fernstudium per e-Learning angelegt ist, welches von kurzen Präsenzphasen in Berlin ergänzt wird und über die Dauer der Fortbildung von insgesamt 22 aus der deutschen SEO-Branche stammenden Referenten unterstützt wird. Die Zertifizierung des Lehrgangs an der „afs“ erfolgt durch die staatliche Zentralstelle für Fernunterricht (ZFU), somit ist die Seriosität des Angebots wahrscheinlich gewährleistet.

Der Lehrplan für die angehenden Suchmaschinenoptimierer umfasst eine Gliederung in sechs, thematisch in sich geschlossene Module: SEO-Basics, Optimierung On- und Offpage-, SEO-Tools, Keywords und Marketing & Recht. Die Liste der an dieser Weiterbildung beteiligten Praxisvertreter ließt sich dabei wie das „Who-is-Who“ der Deutschen SEO-Szene, die man in dieser Konstellation wohl eher nicht erwartet hätte, was für die Lehrstätte und ihren Lehrplan spricht. Die Gesamtkosten für die Fortbildung werden mit 4.900€ inklusive aller Lehrmaterialien veranschlagt, so Gerald Steffens, dem Leiter der Akademie, der mit seinem „SOS SEO Blog“ selbst nicht unbekannt in der Szene ist und eine gewisse fachliche Reputation besitzt.

„afs“-Weiterbildung: Mitarbeiter von Unternehmen und Agenturen lernen SEO

Zielgruppe für die „Fortbildung in Suchmaschinenoptimierung“ sind vor allem Unternehmen, die keine eigenen Kapazitäten im Bereich SEO besitzen und diese Fähigkeiten bisher zukaufen mussten . Durch den erfolgreichen Abschluss des Lehrgangs erhielten die Unternehmen und Agenturen fachlich gut ausgebildete Mitarbeiter, so die Akademieleitung, die zudem durch die enge Zusammenarbeit mit den Referenten und ihrer Mitstudenten diesen Lehrgang sehr gut vernetzt absolvieren.

Platz für Zukunftsträume lässt dieser erste Lehrgang zur SEO-Zertifizierung bei entsprechender Akzeptanz durch die Branche durchaus. So haben bereits andere Berufsfelder längst den Schritt hin zu einer Festlegung und Normierung von Ausbildungen und Inhalten vollzogen, manche Bereiche sind als anerkannte Studienabschlüsse sogar im Master-Bachelor-System zu erwerben. Eine solche Entwicklung würde der deutschen SEO-Branche sehr gut stehen, da im Rahmen von Studienfächern und einer Definition der SEO-Wissenschaften ein akademischer Wind zwangsläufig Einzug halten wird.

SEO als Wissenschaft: Ein erster Schritt hin zu einem eigenen Masterstudium?

In einem Berufsfeld welches aufgrund der Formlosigkeit nach wie vor von Quereinsteigern und Autodidakten dominiert wird, könnte die Einrichtung eines Masterstudienganges den Markt nachhaltig professionalisieren. So bestünden endlich Möglichkeiten, SEO-Professionals anhand ihrer Qualifikation und nicht mehr nur nach der Reputation, die sie branchenintern genießen.

Somit würden erstmalig messbare Qualitätsstandards in der Branche hinsichtlich Wissen und Fertigkeiten Einzug finden und die Arbeit von schlechten Suchmaschinenoptimierern oder gar schwarzen Schafen in der Branche erschwert werden, bevor sie schaden anrichten können, da sie mangels Qualifikation bei Angebotsanfragen nicht mehr berücksichtigt werden.

Aus dem Buschfunk, der zu diesem Thema in der SEO-Branche und ihrer Blogosphäre dringt, lässt sich ein gemischtes Meinungsbild entnehmen, das sich nicht eindeutig in Befürworter und Ablehnende eingrenzen lässt. Allgemein geht man sehr reflektiert mit dieser Entwicklung um, jedoch fürchten etablierte SEO-Professionals neben einem de-facto Zwang zum Studium zusätzlich eine Formalisierung der Branche und den Verlust kreativer Leidenschaft durch das verstärkte Auftreten einer „Sakko“-Mentalität von leidenschaftslosen Technikern, die ihre Tätigkeit vorrangig als Beruf wahrnehmen.

SEO-Buschfunk: Etablierte Professionals fürchten Veränderung und Konkurrenz

In Anbetracht dessen, das die etablierte SEO-Branche in Deutschland nach wie vor aus Quereinsteigern rekrutiert, ist diese Befürchtung menschlich durchaus nachvollziehbar, da sie sich erst vor einem halben Jahrzehnt, im Zuge der zunehmenden Bedeutung von Suchmaschinenoptimierung in Deutschland auf kommerzieller Ebene aus einem überschaubaren Kreis SEO-affiner Nerds rekrutiert hat, die in dieser unstrukturierten Branche die Veränderung, selbst unausweichlich Alternd, fürchten wie der Teufel das Weihwasser. Es ist also quasi ein gelebter und angewandter Konservatismus, den sich so mancher eingestehen sollte.

Für den Kunden, der auf die Dienstleistungen der SEO-Professionals angewiesen ist jedoch, kann das Vorantreiben der einer beruflichen Einzäunung und Definition von Ausbildungsfeldern nur von Vorteil sein, da hier nachvollziehbare Qualifikationssysteme die Folge wären, die Transparenz bei der Wahl der Dienstleister erlauben und so manchen Griff in den Abort verhindern könnten.

Vorteile auf ganzer Linie: Seriöses Branchenbild, Einheitliche Standards, Transparenz für Kunden

Ebenso wird sich das Nachrücken des Nachwuchses in Form von „Young Professionals“, ob vorerst mit oder ohne Studienabschluss, für die Qualität und Seriosität der Branche positiv auswirken. Diese „Techniker“ bringen erfahrungsgemäß einen höheren Grad der Professionalisierung ihrem Beruf gegenüber auf, da sie ihn als solches begreifen. Diese Eigenschaft ist nur schwerlich durch Leidenschaft und Begeisterung aufzuwiegen. SEO bedeutet dynamisches Lernen und ein Berufsfeld, dessen Parameter sich regelmäßig ändern. Wer diesen Umständen als

Fazit zum Schluss

Egal worum es geht, die SEO-Branche isst vieles oft heißer, als sie sollte: Noch ist nichts spruchreif und das Ergebnis des Erfolgs des ersten Jahrgang derer die an der „afs“ die „Fortbildung in Suchmaschinenoptimierung“ absolvieren bleibt abzuwarten. In einem halben Jahr wird ersichtlich werden, ob sich das Weiterbildungskonzept der „Akademie für Fortbildung in SEO“ bewährt hat und sich branchenweit etablieren, gegebenenfalls sogar Erweitern kann. Bis dahin bleibt nur, sich von Lobpreisungen und Unkenrufen der jeweiligen Parteien nicht zu sehr einnehmen zu lassen und die Entwicklung der Branche und der offensichtlich angestrebten und gewünschten Modelle zur Qualifizierung für SEO-Professionals abzuwarten.

Starthilfe: SEO in 10 Minuten – Teil 7

Strategische Grundlagen: Zielgruppendefinition, Design & Social Media

Maile Ohye ließ uns mit ihrer Insiderpräsentation die Ansprüche der Suchmaschine Google wissen, wie zukünftig mit nur wenig Zeitaufwand das Ziel einer erfolgreichen Platzierung in der wichtigsten Suchmaschine des Internets zu erreichen ist. Die Regel dabei lautete: „SEO in unter 10 Minuten“, und mit dem siebten Teil unserer Serie stoßen wir die Aufstellung ihres Projekts im WWW hinsichtlich der Strategie ihres Vorgehens an, nachdem sie die technischen Stolperfallen und Kardinalfehler bei der Präsentation von neuen Webprojekten erfolgreich umgangen haben:

Suchmaschinenmarketing bedeutet auch: Zielgruppengerechtes Marketing

Für jede Marke und jedes Produkt gibt es bestimmte Zielgruppen, die sie mit ihrer Webseite erreichen wollen. Um möglichst konkrete Ergebnisse zu erreichen, ist es von absoluter Notwendigkeit den Geschmack, die Bedürfnisse und nicht zuletzt das Nutzerverhalten ihrer Zielgruppen zu ergründen, zu erkennen und ihr Angebot auf dieses Publikum auszurichten, um nach einer erfolgten Aufnahme in den Suchregister das geschaffene Erfolgspotential ihrer Unternehmung auch sprichwörtlich „an den Mann“ zu bringen.

Definieren sie daher zunächst die übergeordneten Zielgruppen, die sie mit ihrem Angebot ansprechen wollen: Ist ihr Webprojekt auf den Konsumenten und Endverbraucher ausgerichtet? Wollen sie den Kontakt zu Investoren anbahnen? Ist das Ziel ihrer Webseite die „vierte Macht“ im Staate, nämlich die Medienindustrie und die Presse? Wichtig: Der schmale Grat zwischen der zum scheitern verurteilten „eierlegenden Wollmilchsau“ und einem farblosen, langweiligen Portfolio will gemeistert werden.

Aus diesen Hauptgruppen können sie im nächsten Schritt präziser umrissene Besucherzielgruppen ableiten.Bleiben sie dabei jedoch strikt bei einer Hauptzielgruppe und den daraus abgeleiteten Publikumsgruppen und maximal einer artverwandten Zielgruppe. So gehen Endverbraucher stets einher mit der Ausrichtung auf das B2B, eine große Bekanntheit beim Konsumenten wiederum lockt Reseller und Wiederverkäufer für ihre Waren und Dienstleistungen an.

Denn: Ihr Produkt wird früher oder später den Endkunden erreichen, es wäre also effizient, eine gewisse Konsumentenausrichtung in ihren Inhalten zu berücksichtigen. Ebenso stehen Medienvertreter und Investoren korrelativ zueinander, denn der Medienvertreter aggregiert die von ihnen bereitgestellten Informationen, was wiederum die Aufmerksamkeit von Investmentunternehmen erregen kann.

Mit dem Ermitteln der Hauptzielgruppe und der mit ihr korrelierenden Begleitgruppe legen sie den Grundstein für eine virale und soziale Verbreitung ihres Angebots und dem Aufbau einer erstrebenswerten hohen Markenreichweite im Internet.

Das Design: Nicht nur für den Crawler, sondern auch für das Auge

Prüfen sie kritisch ob das Design ihrer Webseite und die Gestaltung der Inhalte die Bedürfnisse und dem Nutzerverhalten der von ihnen angepeilten Zielgruppen entspricht. So sind allen Gruppen aufgrund ihrer menschlichen Natur gemein, das sie binnen weniger Augenblicke über das Verweilen und Konsumieren der gebotenen Informationen entscheiden. Nichts ist für den Erfolg oder Misserfolg ihrer Seite so entscheidend wie dieser Punkt!

Überprüfen sie das Navigationskonzept ihrer Webseite! Bieten sie eine einheitliche und dem Fluss der Navigation zuträgliches Navigationssystem auf ihrer Webseite? Stimmt die kategorische Sortierung? Ist ihr Angebot barrierefrei angelegt, um auch Besuchern mit körperlichen Einschränkungen die Navigation zu ermöglichen? Können ihre Besucher ohne behindernde Hürden zwischen den Content- und Service-Bereichen wechseln?

Setzen sie einen Schwerpunkt auf das fließende Erreichen eines gewünschten Inhalts durch den Seitenbesucher mit kurzen Wegen. Vermeiden sie unnötige Klicks oder Weiterleitungen auf andere Bereiche ihrer Webseite. Stellen sie sicher, dass der vom Visitor gewünschte Content auf jeder Seite ihres Angebotes erreicht werden kann.

Gewünschtes Verhalten erreichen: Soziale Elemente und Belohnungen als Anreiz

Stecken sie sich Ziele, die sie an das Verhalten ihrer Zielgruppen stellen und gestalten sie das Nutzerlebnis entsprechend dieser Erwartung in zielführender Weise um das gewünschte Ergebnis zu erzielen. Solche Ziele können etwa sein: „Newsletter-Anmeldung“, „Produktkauf“, „Produktproben“ oder etwa bei Dienstleistungen das Mitteilen dieser, etwa in sozialen Netzwerken.

Zum Beispiel binden sie die Anmeldung für ihren Newsletter in das feste Framework ihrer Webseite ein und bieten die Funktionen für soziale Netzwerke, wie dem „Like“ von Facebook oder das „+1“ von Google+ in einem dafür reservierten Bereich ihres Designs an um größtmögliche Akzeptanz für die unterbewusste Kooperationsbereitschaft des Nutzers zu erreichen.

Moderne Elemente des Web 2.0 ermöglichen schnellste Gewinnung von Publikumsreichweite mit nur wenigen Mausklicks. Es kann daher, gerade bei auf B2B oder B2C (Business to Client) ausgerichteten Angeboten sinnvoll sein, die sozialen Elemente zu belohnen:

Schreiben sie Gewinnspiele aus, die ein „sharing“, also Teilen einer Verlinkung auf sozialen Plattformen auf Facebook oder Google Plus beinhalten. Darauf basierende Rabattsysteme wären auch denkbar Die Gestaltungsmöglichkeiten sind hier immens und sie sollten es nicht unterschätzen, wie stark positive Belohnungserlebnisse die Markenbindung beeinflussen.

Die wichtigste wichtigste Faustregel nochmals zum Abschluss:

Vermeiden sie konsequent das verkomplizieren bei der technischen Umsetzung! Sollten Anmeldeprozeduren notwendig sein, vereinfachen sie diese, indem sie etwa den Log-In über Schnittstellen mit sozialen Netzwerken ermöglichen. Solche Verfahren sollten nie länger als 30 Sekunden benötigen. Verzichten sie auf komplizierte Bestätigungsverfahren und setzen sie auf in den intuitiven Ablauf solcher Prozesse, wenn sie unabwendbar sind.

Zwingen sie den Nutzer niemals zu einer Handlung, Stören sie sein Surf-Erlebnis nicht durch Pop-Ups oder andere Unterbrechungen des „User Flow“.
Nehmen sie ihrem Besucher niemals das Gefühl, selbstbestimmt zu handeln!

Hier finden Sie alle 10 Teile:

  1. Das erste Grundlagenwissen für ihre SEO-Erfolge
  2. Der Webserver als erster Steigbügelhalter zur glücklichen SEO-Optimierung
  3. Intelligente Textgestaltung als effiziente SEO-Maßnahme
  4. Einheitlicher Domainzugriff und Google Webmaster Tools erleichtern den Aufstieg
  5. Mail Forwarding in den Webmaster Tools zur Benachrichtigung nutzen
  6. Altlasten ihrer Domain klären und mit einfach mit Google die eigene Domain prüfen
  7. Strategische Grundlagen: Zielgruppendefinition, Design & Social Media
  8. Strategische Grundlagen: Content Management und Corporate Design
  9. Multimedia neu begriffen – Unterhaltung und Dienstleistung
  10. Analyse ihres Erfolgs mit Google Webmaster Tools
Die nächste Serie wird Sie über “Stickiness” informieren

Neues Handbuch für Googles Qualitätsprüfer geleakt

Eine neue Ausgabe der „Page Quality Rating Guidelines“ ist im Netz aufgetaucht

Neben der algorithmischen Bewertung von Webseiten setzte die Suchmaschine Google bereits in der Vergangenheit menschliche Qualitätsprüfer, die sogenannten „Google Quality Rater“ ein, die den Rating-Prozess mithilfe eines umfangreichen Regelwerks aktiv unterstützten. Das die Institution einer Abteilung für menschliche Qualitätssicherung von Suchergebnissen permanenten Charakter hat, verrieten diverse Google-Offizielle bereits des öfteren manchmal mehr manches mal weniger direkt durch Blume. Mit dem Auftauchen einer aktuellen Ausgabe der „Page Quality Rating Guidelines“ können Interessierte sich nun in einem 161 Seiten starken, geleakten PDF über die Rating-Kriterien der menschlichen Unterstützer informieren.

Tatsächlich handfeste Rückschlüsse auf konkrete Zahlen und Methoden liefert die neue Guideline jedoch ebenso wenig wie die alte. Genau so wenig liefert das Dokument Aufschlüsse über Funktionsweisen von Algorithmen oder tiefergehende Einblicke in die Abhängigkeitsstrukturen der Bewertung durch Quality Rater. Es bleibt zu vermuten, das die im Dokument eingebetteten Links auf google-interne Netzwerkressourcen zu solchen Informationen führen, auf die von außen verständlicherweise kein Zugriff möglich ist.

Dennoch liefert das Schriftstück im ganzen eine gute Übersicht, wie es um die Intention bei der Bewertung von Teilbereichen steht, die sich aus dem im Dokument hinterlegten Formular ergibt. Einen Teil der Informationen möchten wir ihnen paraphrasiert in diesem Artikel vermitteln,

Was wirkt sich also Positiv auf das Ranking meiner Webseite aus?

– Webseiten über fachliche Themen sollten für eine positive Bewertung von fachlich qualifizierten Betreibern, sei es durch Beruf oder Studium, betrieben werden. So sollte eine Webseite über Krankheiten und Krankheitsbilder nur von Personen oder Organisationen betrieben werden, die wie etwa Ärzte oder Krankenhäuser, über das notwendige Hintergrundwissen verfügen. Die Texte sollten eine hohe Qualität und fachliche Aufbereitung aufweisen und stets aktuell sein.

– Webseiten, die ein etwa ein Hobby behandeln gibt es viele. Am hochwertigsten sind Seiten über Hobbys, die viel Zeit in Anspruch nehmen und entsprechenden Einsatz erfordern. Der Inhalt sollte aus dem Kontext her vermitteln, das über ein profundes Maß an Wissen und Talent verfügt wird. Diese Richtlinie erweitert sich quasi im Wortlaut gleich auch auf die Bewertung von Videos.

– Profile in sozialen Netzwerken erfüllen die Qualitätsrichtlinien, wenn sie folgende Kriterien erfüllen: Sie unterliege einer regelmäßigen Inhaltspflege; Verfügen über viele soziale Verknüpfungen; Enthalten viele Kommentare. Es wird Wert auf beiderseitige Kommunikation gelegt.

Was fällt hingegen negativ zur Last?
(Im Dokument sind Negative Fallbeispiele als Screenshots hinterlegt)

– Mangelhafte Inhaltsdarbietung
– Eine hohe Anzahl von grammatikalischen und Rechtschreibfehlern
– Falschinformationen im Content
– Aufgeblähte Inhalte mit wenig Substanz
– Fehlende Hinweise zum Autor; Bewertung von Expertise und Erfahrung nicht möglich
– Einbettung automatisch generierter Inhalte, etwa derer durch RSS-Feeds

Fazit nach eingehender Begutachtung

Es bleibt im Grunde alles wie es ist. Im Einzelne wurden die Richtlinien für die Google Quality Rater stellenweise detaillierter ausgearbeitet, offensichtlich um damit in der Vergangenheit aufgetretene Diskrepanzen bereits im Vorfeld zu vermeiden. Das erklärt auch die höhere Anzahl an Seiten des Dokuments.

Schwerpunkt das Google Ranking durch den Menschlichen Prüfer ist und bleibt das Kriterium der Qualität des Web Content in Darstellung, Inhalt und korrekter Rechtschreibung. Auf eine schwerpunktmäßige Forcierung dieser Punkte wird verstärkt hingearbeitet, wenn man die Entwicklung über die Zeit verfolgt.Ein Novum neueren Datums scheint aber die Betonung des Talents, der Erfahrung oder der beruflichen oder akademischen Qualifikation, da sich aus dem Inhalt ableiten lässt, das bei der Bewertung nur hochwertige Inhalte aus der Feder von fachlich qualifizierten Autoren einen Nutzwert für den Suchenden bietet.

Erst beim Zusammenkommen der Gesamtheit dieser Faktoren können theoretisch höchste Rankings erreicht werden. Dies bezieht sich auch auf Organisationen und jede Form von abstrakten Personen die, wie Projekten, NGOs, Interessengemeinschaften, Gewerkschaften oder ähnlichen Formen juristischer Personen. Jedoch ist nicht vollkommen ersichtlich, ob der Schwerpunkt nun auf der sachlichen Richtigkeit des Contents liegt oder eine positive Bewertung nur mittels einer angegebenen Qualifikation möglich ist. In jedem Fall jedoch hilft eine solche Qualifikation nicht dabei, schlechte Inhalte positiv zu beeinflussen.

Die Kampfansage an minderwertigen Content im WWW gilt also auch für Personen vom Fach wie auch für Organisationen, die keinen Persilschein erhalten und alleine aus grundsätzlicher Relevanz bevorzugt beim erteilen von positiven Bewertungen behandelt werden. Das sorgt für einen Anpassungsdruck von Betreibern von Webseiten, vor allem kommerzieller Natur, die bisher keine Abwertung für niedrige Substanz und schlechtes Design erhalten haben, was sich für die Auftragslage der SEO-Professionals deutlich auswirken dürfte, sofern der Algorithmus mit ähnlichen Maßstäben arbeitet.

Die Neuauflage der Page Quality Rating Guidelines für das Jahr 2012 ist also nichts neues, was nach den massiven Änderungen durch das Penguin-Update eine willkommene Konstante darstellt und das eine Radikalisierung der Bewertungskriterien nicht abzeichnet, wie zunächst von pessimistischen Zeitgenossen vermutet. Im Groben und ganzen vermittelt das Dokument die Arbeitsweise der Google Quality Rater, die behandelten Inhalte sollten jedoch bereits bekannt und verinnerlicht sein.

Gutes Ranking in den SERPs ergibt sich außerhalb der technischen Erfassungskriterien nach wie vor aus sauberem, sach- und fachlich relevanten Content mit regelmäßiger Inhaltspflege mit einer talentierten und/oder qualifizierten Person als Autor. In dieser Runde bleibt die Suchmaschine ihrer Linie treu.

Starthilfe: SEO in 10 Minuten – Teil 6

Altlasten ihrer Domain klären und mit einfach mit Google die eigene Domain prüfen!

Was uns die Bekannte Google-Entwicklerin Maile Ohye in einem wenige Seiten umfassenden Stichwort-Katalog zukommen ließ, geht nun in die sechste Runde, um ihnen das notwendige Grundlagenwissen über erfolgreiche SEO und dem zielführenden Marketing ihrer optimierten Seite zu vermitteln – oder aufzufrischen, falls sie bereits ein alter Hase sind, der sich Auffrischen will. Die SEM-Branche gehört nicht umsonst zu den Keilriemen des Internets und die Bildung profunden Wissens anhand unserer Serie mit SEO-Handgriffen, die einfach zu bewerkstelligen und in unter 10 Minuten erledigt sind, steht ihnen hier zur Seite!

Domains checken:
Wenn Altlasten ihr Ranking belasten – Prüfen sie den Hintergrund und die Geschichte ihrer Domain!

Sie haben ihre Wunsch-Domain von einem, auf den ersten Blick seriös erscheinenden, Domain-Reseller gekauft, weil sie perfekt ihrem Domainkonzept entsprochen hat und können sich nach dem Launch ihres Angebots einfach nicht erklären, wieso das Ranking ihrer Seite trotz aller Tipps und dem Befolgen der Google Webmaster Guidelines nicht aufsteigen will? Ein Grund, leider wahrscheinlicher, Grund dafür, der Vergangenheit ihrer Firmen-Domain auf den Zahn zu fühlen!

Oftmals werden zum Verkauf geparkte Webseiten mit zwielichtigen Internetseiten-Imitationen besetzt, deren einziger Zweck es ist, Anhand von Suchbegriffen, die thematisch zur jeweiligen Domain passen unter anderem einen hohen Google Pagerank zu generieren und mit Backlinks auf die zentralen Angebote des Verkäufers oder seiner Kunden diese für Google attraktiver erscheinen zu lassen. All diese Maßnahmen sehr grenzwertiger Suchmaschinenoptimierung hinterlassen ihre Spuren, vor allem in den Datenbanken von Google, die keine automatische Kenntnis von einem Besitzerwechsel nehmen und eine einmal registrierte Domain immer gleich behandeln.

So können im besten Fall die in den Google Webmaster Tools hinterlegten Haupt-Keywords für ihre Webseite noch auf den Begriffen des Vorbesitzers eingestellt sein. Wenn sie den vorherigen Teil unserer Serie gelesen haben, wird ihnen sicher spätestens jetzt bewusst, wie wichtig ein autorisierter Zugang zu ihrer Domainverwaltung in den Tools ist, da sie ausschließlich an dieser Stelle diese Einstellungen verändern können und auf diesen Zugriff angewiesen sind! Haben sie einmal die Kontrolle über ihre Domain im Verwaltungssystem übernommen, stellen sie sicher, das alle Keyword-relevanten Einstellungen sich mit ihrem Optimierungs-Konzept decken und so ihr volles Potential bei der Erfassung und Ranking-Bewertung ihrer Seite entfalten können.

Im schlimmsten Fall jedoch wurde ihre Domain in der Vergangenheit jedoch für schwarze SEO-Maßnahmen (Black-Hat SEO) genutzt und im Ranking abgestuft, oder erhielt durch den Algorithmus oder die Einschätzung der Google-Mitarbeiter ein sog. Flag als „Spam-Seite“, schlimmer noch, wurde die Seite als Malware-Schleuder identifiziert und auf die schwarze Liste der Suchmaschine gesetzt. Dieser Fall ist schwer wiegend und es empfiehlt sich, in diesem Fall eine, auf Suchmaschinenoptimierung spezialisierte Agentur für den Wiederaufbau der Domain zu Rate zu ziehen da hier die Erfahrungswerte im Umgang mit solchen, oft als „verbrannt“ abgeschriebenen TLD-Domains vorhanden ist und sie zielgerichtet beraten kann.

Der erste Schritt ist in jedem Fall, innerhalb der Google Webmaster Tools einen sogenannten „Reconsideration Request“ an das Google Team zu übermitteln. Hier haben sie die Möglichkeit, ihre Lage den Mitarbeitern der Suchmaschine zu schildern und können darauf hoffen, durch Glaubhaftmachen ihrer redlichen Absichten eine neuerliche Einschätzung vornehmen zu lassen und so von den Sperrlisten genommen zu werden und den Weg für ihre regelkonforme SEO zu öffnen. Sollte dieser Request jedoch abgewiesen werden, legen wir ihnen nahe, die Domain so schnell wie möglich abzustoßen und ihr Domainkonzept neu aufzustellen damit ihr Zeitverlust möglichst gering ausfällt, denn auch im Suchmaschinen-Business ist Zeit bekanntermaßen bares Geld und gerade eine saubere Domain-Reputation ist nahezu unbezahlbar!

Maßnahmen, die sie weiterhin ohne externe Tools vornehmen können, um einen Einblick zu erhalten, wie erfolgreich ihre Seite in der Suchmaschine erfasst wurde und sie entsprechend der Resultate ggf.in ihrem Content Concept, dem inhaltsbezogenen und auf Google optimierten Textkonzept, nachsteuern können, beginnen sie indem sie sich zunächst aus ihrem Google-Account ausloggen und die Google Search aufrufen. Das hat den Hintergrund, das ihnen nun nahezu unverfälschte, höchstens aufgrund ihrer IP bevorzugt regionale oder nationale Ergebnisse angezeigt werden und die Daten ihres Google-Accounts die Ergebnisse nicht verfälschen.

Durch eine sogenannte „domaingebundene Indexssuche“ erfahren sie, welche Seiten ihres Online-Angebots von der Suchmaschine erfasst wurden und welche es nicht in das Register von Google geschafft haben. Dazu geben sie ihre Suchanfrage nach folgendem Muster [Site:Ihredomain.at] ein. Nun wird ihnen auf der Google SERP (Search Engine Result Page) ausschließlich indexierte Seiten und Unterseiten ihrer Domain angezeigt. Hier erkennen sie schon früh, ob sich ausschließlich die von ihnen gewünschten Content Pages aufgenommen wurden. Bei Seiten, die sie nicht erfassen lassen wollen, editieren sie entweder die im Stammverzeichnis gelagerte „.robots.txt“-Datei für den betroffenen Bereich der Domain oder nehmen bei einzelnen Seiten oder in CMS (Content Management System) einen Eintrag in den META-Bereich unter „ROBOTS“ vor und ergänzen ihn um einen „Nofollow“-Eintrag. Dieser weist die Spider an, in Zukunft diesen Bereich zu übergehen. Einen aufschlussreichen und nützlichen Wikipedia-Eintrag hierzu finden sie unter folgender URL: http://de.wikipedia.org/wiki/Nofollow

Weiterhin können sie ebenfalls ohne weitere Tools mit einer Suchanfrage auf ihre Domain überprüfen, wie diese in der organischen Google Search ausfällt. Bester Indikator für die Gesundheit ihrer Seite ist bei einer Suchanfrage auf ihre Domain, z.B. „meinedomain.de“ selbstverständlich an erster Stelle zu stehen. Ist dem nicht der Fall, ist dies ein starker Indikator dafür, dass ihre Domain aufgrund eines Verstoßes gegen die Google Webmaster Guidelines entweder algorithmisch, also maschinell, oder durch eine manuellen Eingabe einer Sanktion in Form einer Ranking-Penalty unterliegt. In diesem Fall ist Handlungsbedarf in Form eines vollständigen Check-Ups ihres Onlineangebotes dringend angeraten, da nur ein Beheben des Verstoßes zur Aufhebung der Abwertung führt.

Machen sie bei bedeutenden Änderungen an Inhalten ihrer Schlüsselseiten Gebrauch von der, ebenfalls in die Google Webmaster Tools integrierte, Funktion des „Fetch as Google“, gebrauch. Indem sie entsprechende URLs gezielt zur Neuerfassung durch den Crawler anweisen, leiten sie eine gezielte Neuerfassung der Seiten ein. Beachten sie jedoch, dass sie nur eine Begrenzte Anzahl an Fetches zur Verfügung haben!

Hier finden Sie alle 10 Teile:

  1. Das erste Grundlagenwissen für ihre SEO-Erfolge
  2. Der Webserver als erster Steigbügelhalter zur glücklichen SEO-Optimierung
  3. Intelligente Textgestaltung als effiziente SEO-Maßnahme
  4. Einheitlicher Domainzugriff und Google Webmaster Tools erleichtern den Aufstieg
  5. Mail Forwarding in den Webmaster Tools zur Benachrichtigung nutzen
  6. Altlasten ihrer Domain klären und mit einfach mit Google die eigene Domain prüfen
  7. Strategische Grundlagen: Zielgruppendefinition, Design & Social Media
  8. Strategische Grundlagen: Content Management und Corporate Design
  9. Multimedia neu begriffen – Unterhaltung und Dienstleistung
  10. Analyse ihres Erfolgs mit Google Webmaster Tools
Die nächste Serie wird Sie über “Stickiness” informieren

Und es werde Ordnung! – Teil 2

Wie Google das Internet aus der Anarchie führte

Doch trotz all dieser Als Google seine ersten wackeligen Schritte im Web machte, waren sie längst Riesen. Unternehmen, die heute wie graue Gestalten einer längst vergangenen Epoche wirken und deren Namen doch jeder aufzählen kann: Firmen wie Compuserve, die schon zu Zeiten des Commodore 64, dem insgeheimen Urvater des „Personal Computing“, unabhängig von großen Mainframes für den Konsumenten erschwinglich machte und nun auch nun im World Wide Web dieses Ziel

Sie waren in diesem Feld natürlich nicht die ersten noch waren sie auch nur Vordenker dieser digitalen Dienstleistungsform, wohl doch aber mit dem notwendigen Kapital ausgestattet und mit der medialen Reichweite,

Die von den angeheuerten Marketingexperten geschickt platzierten und geplanten Werbekampagnen – Noch lange auf die „alten Medien“ angewiesen- reichten schon bald bis in die US-amerikanischen, später auch die weltweiten Wohnzimmer mit Zeitungen und Journalen trugen und die Verlockungen der leicht zugänglichen Informationen – der Entkoppelung von Druckereien aktuellste Informationen in bekömmlicher Form anpreisten, die dem Nutzer jederzeit zum Konsum verfügbar waren, nur einige Einwahltöne in die Telefonleitung entfernt in den Weiten des Internets.. Das diese Entwicklung Früchte trug, stand spätestens fest, als die ersten, zunächst Disketten und später CDs (Compact Discs) als Datenträger mit den Zugangsdaten und „Freiminuten“ für den Zugang in diese neue Welt sehr erfolgreich als Bedürfnis in der Bevölkerung weckten.

Nachteilig jedoch wirkte sich diese Konkurrenz dennoch für die Entwicklung des gesamten Webs aus, als diese zu kleinen Riesen in den neuartigen Medien rasch gewachsenen Unternehmen sich anschickten, ihre User und alle Informationen immer enger an ihre eigenen Portale zu binden und so in diesem freien Internet kleine Inseln schufen und zunehmend einhegende, mehr aber ausgrenzende, Mauern errichteten. durch die nur der Weg der Anmeldung bei den jeweiligen Diensten führte. Denn durch diese Entwicklung, ihre Dienstleistung in ihrer Zugänglichkeit zu verknappen und an eine Bindung an den Dienstleister zu binden verlor das Netz seine anfängliche Dynamik zu einem nicht geringen Anteil. denn der Schritt zum Web 2.0, der mit dem Erfolg der Suchmaschine Google sich abzeichnete, war nicht getan und statt sich zunächst zu einem kontribuierenden, Jedermann offenen, zur Teilhabe animierenden System im Geiste der Gründerväter des zivilen Internets, entwickelte sich zunächst eine Art polarisierende Kleingartengemeinschaft (Closed Networks) entstand.

Der Ausbruch aus dieser Entwicklung war tatsächlich mit dem schrittweisen Erreichen der Ziele von Google einher gegangen: Das Internet in seiner Gänze zu erfassen und durch seine Suchalgorithmen Lückenlos zu erfassen, was auf den Servern der Welt zu finden war, ganz gleich wie groß der Urheber oder Betreiber eines Angebotes war, zunächst vor allem neutral auf die Bewertung nach Suchbegriffen (Keywords) und der Relevanz dieser in den erfassten Inhalten, war es nunmehr zunehmend möglich, auch als Einzelner mit den eigenen Inhalten (Web Content) auch tatsächlich gefunden zu werden.

Dies war der erste Schritt in das „Web 2.0“, einem Begriff, der zuerst geprägt wurde, als die erste Spekulationsblase der neuen Märkte, des Internets und der Stimmung des Goldrausches, längst wieder verblasst war. Und doch konnte nur Google mit seiner Fokussierung auf eine spezielle Dienstleistung, dem Erbringen von präzisen Ergebnisseiten (SERPs, Search Engine Result Pages) auf die Nutzereingaben – ohne dem Trend zu folgen und sich selbst in ein Netz einer Vielzahl von diversen – oftmals schlicht aus dem Portfolio der Konkurrenz übernommenen, denn man musste ja vermeintlich „am Ball bleiben“, zu verstricken.

So war auch Google niemals das erste Webverzeichnis, noch die erste algorithmisch arbeitende Suchmaschine, doch verlor sich das junge Unternehmen niemals darin, sich in der eigenen Ambition zu verlieren, sondern sein Kernangebot stets zu verbessern. Um diese Verbesserung zu optimieren, definierte diese Suchmaschine alsbald Standards, die Richtlinien für die Erfassung und Aufnahme in den eigenen Suchindex und lichtete sobald das Chaos und die Anarchie des Internets in seiner Unordnung auf, wurde es doch sowohl für den Unternehmer als auch den privaten Anbieter von Web Content wichtiger, in den relevanten Suchbegriffen Googles zu erscheinen, war am eigenen Erfolg gelegen.

So deckten die Google Spider nach und nach die Wildnis zwischen Portalen wie Compuserve, AOL (America Online, in Deutschland seit jeher als „Alles OnLine“ beworben) auf und zeichneten eine detaillierte Karte des Internets und der interessanten Orte, die die Webseiten, die nun für jedermann ohne aufwendige Domaineingaben nach wenigen Tastendrücken und Klicks jedermann frei zugängig stehen sollte und damit den Schlüssel drehte, der die Tür der breiten Masse in das umfangreicher werdende Angebot des World Wide Web öffnete.

Und es werde Ordnung! – Teil 1

Wie Google das Internet aus der Anarchie führte

Wir befinden uns im August des Jahres 1998, Andreas von Bechtolsheim, einer der Mitbegründer der Sun Microsystems stellt einen Scheck über einhunderttausend Dollar auf den Namen eines Unternehmens aus, das zu dem Im nächsten Monat wird ein junges Start-Up zweier Informatikdoktoranden der renommierten Stanford University nach einer zweijährigen Pause ihres als „BackRub“ gestarteten Projekts unter neuem Namen zunächst außerhalb der USA kaum zur Kenntnis genommen, einen Auftritt in den Weiten des World Wide Web hinlegen der wie kaum ein anderer Launch einer Internetseite das noch junge Weltnetz verändern sollte.

Das Internet ist zu dieser Zeit noch ein, grob von einigen wenigen Privilegierten definierten und dennoch mehr oder minder eingehaltenen Standards definiertes Informationsnetzwerk, das sich an den Eckpunkten der noch vergleichsweise übersichtlichen Anzahl an Domain Name Servern als dezentrale Register für die am WWW teilnehmenden IP-Adressen über ein bereits früh definiertes Kommunikationsprotokoll organisiert und die Grundlagen einer weltumspannenden Plattform bildet, die, den Kulturen einer Petrischale gleich, eher chaotisch und doch ab der Mitte der 1990er Jahre auch ebenso ungehemmt sich entwickelte.

Die technischen Pionier-Tage sind zwar vergangen, in denen nahezu ausschließlich Wissenschaftler und Studenten die neue Telekommunikations-Infrastruktur nutzten, und doch herrscht in den Weiten des „wilden Internets“ bis auf einige wenige Standards nach wie vor eine große Anzahl von konkurrierenden Standards und Anpassungen derselben an die man sich nur Leger hält, denn „echte“ Regeln, wie die später einmal definierten Webmaster Guidelines waren noch längst nicht erdacht, vielleicht erträumt – und es gab niemanden, der diese Regeln der gemeinsamen Nutzung des sich auch als Konsumentenplattform etablierenden Internets wirklich durchsetzen konnte. Es herrschte eine Anarchie, die schon förmlich danach verlangte, als Potential von Google in eine Form gebracht zu werden, die diesem Chaos widersprechen sollte: Durch einen Zentralen, allen Nutzern des Internets zugänglichen, Registers, eine Suchmaschine.

HTML 4.0, also die vierte Ausgabe – Version – der „Hypertext Markup Language“ wurde gerade erst im vorigen Jahr durch das W3C-Konsortium als künftig gültiger Standard für die Darstellung von HTML-Seiten im WWW beschlossen und präsentiert und trotz der strukturellen Dezentralisierung des Internets und seinem wilden Charme, sowohl in der technischen Umsetzung – Ein Zustand, den das kleine Doktorandenprojekt aus Stanford unter dem Namen „Google“ schon bald ändern würde – als auch in der optischen Darbringung.

Private Webseiten waren bisher kaum mehr als unansehnliche Textdateien gewesen, in die der Autor dank der Auszeichnungssprache HTML die, schon im Namen definierten, Hypertext Markups – oder auch „Links“ genannt, miteinander verbinden konnte, die sich mangels der Interaktivität – entsprechende Technologien wie Flash, AJAX oder H.264 sollten sich erst mit dem Ausbau der Bandbreiten, lange nach dem Eintreffen des Internets in der Mitte der Gesellschaften der Welt, etablieren – häufig tatsächlich als Nachschlagewerke definieren, die fachlichen Bezug hatten, denn die Kommunikation fand weiterhin in den Newsgroups und Mailboxen statt, technisch einfacher, aber bereits seit beinahe zwanzig Jahren von den Pionieren als Standard etablierte und somit für eine Vielzahl der telekommunikationsfähigen Computer und Terminals verfügbaren Form zunächst außerhalb

Man war in Stanford damit nicht der Erfinder eines solchen Webseiten-Indexes, doch gerade der stattfindende Kampf der – vorrangig Amerikanischen – Webdienstleister stand diesem sinnvollen Ziel entgegen. Zwar bildeten diese Unternehmen, als Telefonanbieter sowohl für die Festnetze als auch den in den 80er Jahren in Mode gekommenen Mobilfunk-Dienstleistungen ein Oligopol in diesem Markt der ja gezwungenermaßen über ihre Drähte, Leitungen und Satelliten führen musste, doch bewiesen gerade diese

Dieser Markt würde, wie wir wissen die Google Inc. mit einem possierlichen Roboter, dem Google Android, kaum 15 Jahre später auf seine Weise als Anbieter eines auf einer Vielzahl von Herstellern vermarkteten Geräten betrieben Betriebssystems (OS, Operating System) erobern und damit die Suchmaschine – bis dahin längst zu einem weltumspannenden Unternehmen angewachsen, zum ersten Mal von der Bindung an die Kupferkabel und Glasfaserleitungen der Telekom-Konzerne wortwörtlich in die Hosentaschen ihrer Nutzer bringen sollte.

Doch bis zu diesen Erfolgen würden noch einige Jahre in das Land ziehen, in denen die Telekommunikationsmagnaten, Weltunternehmen wie AT&T, Bell oder Verizon ohne branchenfremde Einflüsse ihre Gewinne aus den kostspieligen – in der jungen gesamtdeutschen Bundesrepublik Deutschland beinahe kaum zu bezahlenden – Verbindungen

Lange jedoch ließ die Konkurrenz jedoch nicht auf sich warten, denn die ersten Portale des Internets – die später als Ära des Web 1.0 in die Geschichte eingehen sollten – begannen, von Unternehmensgruppen auch außerhalb der dem Internet angerechneten Branchen, die das Potential der Webtechnologien dazu zu verwend endeten, Informationen die noch am Anfang des Jahrzehnts von den Nutzern unter kryptischen Adressen – meist auf den Servern der Universitäten der Länder gespeichert (Hosting) – in statischer Form und für Außenstehende kaum zugänglich, in attraktiver Form für den wachsenden Markt der privaten Internetnutzer, auf Webseiten zusammenfassen und einer beständigen Pflege unterziehen sollten. „Tagesaktuell“ war von nun nicht mehr aktuell genug und bedeutete den Schritt weiteren Schritt in Richtung „Neue Medien“, die auf lange Sicht die klassischen Medien in die Bredouille bringen würden – und den Umgang der Bürger, zuerst in der westlichen Welt von Grund auf veränderte.

Lesen Sie bitte am 10.10. den 2ten Teil über “Und es werde Ordnung! – Teil 2”

Starthilfe: SEO in 10 Minuten – Teil 5

Mail Forwarding in den Webmaster Tools zur Benachrichtigung nutzen

Wir freuen uns, sie zum fünften Teil der SEO-Tricks, die uns aus dem sprichwörtlichen Nähkästchen der Google-Entwicklerin Maile Ohye zugespielt wurden und für sie in unserer ausführlichen Serie zum Thema „Wichtige SEO-relevanter-Maßnahmen, die sie weniger als 10 Minuten kosten“ aufzuarbeiten und auch den Anfängern im Suchmaschinen-Business einen Halm zu bieten, an dem sie sich orientieren können anhand der Tipps aus der Codeschmiede der Suchmaschine Google selbst. In diesem Teil dreht sich alles um das vollständige Ausnutzen des Email-Dienstes der Google Webmaster Tools, der sie automatisch benachrichtigen, wenn etwas nicht läuft, wie es sollte!

Google Webmaster Tools wohl nützlichstes Feature:
Praktische Benachrichtigungen bei Unregelmäßigkeiten – Mail Forwarding aktivieren!

Es empfiehlt sich dringlich das sogenannte Mail-Forwarding, also das Weiterleiten von Emails durch die Google Webmaster Tools an eine von ihnen hinterlegte Kontakt-Emailadresse zu erlauben um sie so rund um die Uhr über zeitkritische Ereignisse im Zusammenhang mit der Suchmaschine Google und ihrem Webseiten-Eintrag in derselben zu informieren. Diese Email-Adresse muss dabei nicht zwingend die Google-Mail-Adresse sein!

Etwa bei der Sperrung und dem damit verbundenen Entfernen aus der Google Search aufgrund von Malware-Befall, sprich dem Einnisten von Schadsoftware oder als schädigend klassifizierter Codefragmente etwa durch infizierte Werbebanner, Eindringen in ihr CMS durch Sicherheitslücken oder dem massiven Verlinken auf bereit gesperrte Domains. Ein solcher Vorfall hat den sofortigen und vollständigen Ausschluss aus dem Suchindex zur Folge (Vollsperrung und 100% Penalty) und ist das Wort-Case-Szenario jedes Webseitenbetreibers, da ebenfalls anhand der Google-Sperrlisten auch viele Internet-Browser, wie Google Chrome oder der Mozilla Firefox automatische Warnungen und Sicherheitsmeldungen an ihre Webseitenbesucher ausgeben, die versuchen die zu diesem Zeitpunkt befallene Webseite zu besuchen und auch aus Aspekten des Marketings schwere Schäden an ihrem Markenimage hinterlässt, da solche Meldungen sich per Mundpropaganda in Windeseile, gerade in Brancheninternen Konkurrenzkämpfen, verbreiten.

Es gilt die alte SEO-Faustregel: Jede Mail von Google ist wichtig und hat Priorität!

Auch im Falle eines vermuteten kriminellen Hacks ihrer Seite meldet sich das automatische Warnsystem von Google, das bei der Indexierung durch die Crawler und Spider verdächtige Anzeichen aus seiner Datenbank abgleicht und so entsprechende Einschätzungen mitteilt und ihnen so die Chance gibt, zeitnah auf diese Bedrohung ihrer Webseite zu reagieren und langfristige Schäden an ihrem Google Ranking oder gar dem Blacklisting – dem praktischen Todesstoß für ihre Webseite – zu verhindern.

Aber auch weniger bedrohliche, jedoch nicht weniger wichtige Status-Meldungen stellt ihnen das Forwarding zur Verfügung wie z.B. eventuell auftretende Probleme bei der Erfassung ihrer Webseite beim Vorgang des Indexieren ihrer Inhalte durch den Suchalgorithmus von Google, die allesamt eine hohe Relevanz für ihr erfolgreiches Ranking haben, da alle Inhalte die nicht erfasst werden können selbstverständlich in der Schlussfolge für das Ranking ihrer Webseite in den Google SERPs (Search Engine Result Pages) keinen Einfluss haben können und werden und für sie somit dringender Handlungsbedarf besteht.

Weiterhin ermöglicht ihnen diese Meldungen die technischen Fehler zu beheben und innerhalb der Google Webmaster Tools einen zeitnahen, erneuten Versuch der Suchmaschine zum Besuch ihrer Webseite zu veranlassen und so Verzögerungen zu vermeiden, da je nach Relevanz ein turnusmäßiges wiederkehren der Google Crawler bis zu einem Quartal dauern können und so ihren Erfolg bei der raschen Suchmaschinenoptimierung behindern mag.

Daher sollte die Mailing-Funktion eine der ersten Einstellungen sein, die sie in ihrem Google Webmaster Tools – Bereich einrichten sollten, auch um sich früh mit der Funktionsweise der Tools vertraut zu machen und nicht zu einem späteren Zeitpunkt diesen Mangel nachbessern zu müssen!

Mit dieser nützlichen Funktion der Google Webmaster Tools entlassen wir sie zunächst aus unserer Serie, doch bleiben sie auch im Folgeteil unserer Serie über die einfachsten SEO-Kniffe dabei und eignen sie sich Profi-Wissen an, aus den Händen der Suchmaschinenprofis!

Hier finden Sie alle 10 Teile:

  1. Das erste Grundlagenwissen für ihre SEO-Erfolge
  2. Der Webserver als erster Steigbügelhalter zur glücklichen SEO-Optimierung
  3. Intelligente Textgestaltung als effiziente SEO-Maßnahme
  4. Einheitlicher Domainzugriff und Google Webmaster Tools erleichtern den Aufstieg
  5. Mail Forwarding in den Webmaster Tools zur Benachrichtigung nutzen
  6. Altlasten ihrer Domain klären und mit einfach mit Google die eigene Domain prüfen
  7. Strategische Grundlagen: Zielgruppendefinition, Design & Social Media
  8. Strategische Grundlagen: Content Management und Corporate Design
  9. Multimedia neu begriffen – Unterhaltung und Dienstleistung
  10. Analyse ihres Erfolgs mit Google Webmaster Tools
Die nächste Serie wird Sie über “Stickiness” informieren

Starthilfe: SEO in 10 Minuten – Teil 4

Einheitlicher Domainzugriff und Google Webmaster Tools erleichtern den Aufstieg!

In unserem vierten Teil der informativen Serie rund um alle SEO-Maßnahmen die sich in weniger als 10 Minuten bewerkstelligen lassen, haben wir uns, wie bereits erwähnt, von einer Tipp-Geberin aus dem „Zentrum der Macht“, aus dem technischen Bereich der Suchmaschine Google inspirieren lassen, nämlich Maile Ohye, die als „Developer Programs Tech Lead“ bei der Umsetzung der Suchalgorithmen und der Vorgaben des Mutterkonzerns Google Inc. ganz vorne mit dabei ist – und auch hier wieder beweist, dass eine Suchmaschinenoptimierung für Google in den Grundlagen alles andere als ein kompliziertes Hexenwerk ist.

Eine einheitliche kanonische URL schützt vor Duplicate Content Penaltys

Es ist für die Duplikat-freie Erfassung ihres Unique Content von wichtigster operativer Bedeutung, das sie sich frühzeitig dafür entscheiden, wie genau ihre Webseite erreichbar sein soll: Entweder sie leiten ihren Besucherstrom ausschließlich über ihren Domainnamen mit dem „www.“ voran, oder eben ohne dieses, meist überflüssige Kürzel – Überflüssig deshalb, weil es für ihre Zielgruppe meist nur das World Wide Web als Plattform genutzt wird, geschweige denn bekannt ist auch wenn Ausnahmen bekanntlich die Regel bestätigen – Damit können sie umgehend vom Seiten-Launch an mit einer einheitlichen technischen Umsetzung arbeiten und diese Fehlerquelle für kommende Fehlersuchen, die auch in den besten Familien nicht ausbleiben, ausschließen.

Diese Entscheidung, wie sie ihren Website Traffic routen, geht für ihren Nutzer im Übrigen ohne Einbußen im Nutzererlebnis ihres Webangebots einher: Durch den, von Google erlaubten und anerkannten Trick, die Zugriffe durch einen Serverbefehl umzuleiten, wird ihr Kunde dank der serverseitigen Verarbeitung der Umleitung nicht mitbekommen, wie er umgeleitet wird. Stattdessen wird sich nach dem Aufruf der Seite nur in der Adresszeile des Browsers auf dem Besucher-PC entsprechend ändern. Alles geschieht also „unter der Haube“.

Mit „301“-Redirect sicher weiterleiten – Ihr Pagerank wandert mit!

Der dabei zu verwendende Befehl ist der sogenannte „301“-Befehl, der angibt dass der gewünschte Inhalt permanent auf eine andere Adresse umgezogen ist. Er wird auf ihrem Apache-Webserver in der „.htaccess“, die sie bereits in vorhergehenden Teilen konfiguriert haben, festgelegt. Wie ein solcher Eintrag auf ihrem Webserver aussehen kann, finden sie zum Beispiel hier: http://goo.gl/zSch

Warum ist ein korrekter 301-Redirect, also eine Umleitung, für ihr Erfolg in der Suchmaschine so wichtig? Das ist schnell erklärt: Google unterscheidet bei der Erfassung mit und ohne „www.“ die erfassten Inhalte als zweierlei unterschiedliche Domains. Bei einem Projekt, das diese Maßnahme nicht anwendet wird der Suchalgorithmus der Suchmaschine also zwangsläufig feststellen das sich der indizierte Inhalt mehrmals im WWW befindet und löst dementsprechend – Bis zur Lösung dieser Ursache eine schwere Penalty durch die Suchmaschine aus, die ihre Anfangserfolge umgehend einkassiert. Achten sie deswegen besonders, eine einheitliche kanonische URL für ihr Webangebot zu nutzen und verwenden sie niemals unterschiedliche Subdomains (Wie etwa: beispiel.webseite.de) für dieselbe Webseite, so verlockend es auch erscheinen mag!

Effiziente Google-Domainverwaltung durch die Google Webmaster Tools

Als nächsten technischen Hilfsgriff, um ihre SEO quasi „an der Quelle“ im Griff zu haben und die von Google erfassten Domains und Seitenbereiche zu steuern, gehen sie dazu über, ihre Domain durch ein einheitliches Authentifizierungsverfahren bei den Google Webmaster Tools, einem hilfreichen und mächtigen Werkzeug zur Verwaltung bei der Suchmaschinenoptimierung anzumelden.

Sie werden hier Schritt für Schritt durch das Verfahren geführt, das im Regelfall von ihnen verlangt, zwei von Google generiete Prüfdateien auf den ihrer Domain zugeordneten Webspace zu laden um sie zweifelsfrei als zur Verwaltung Berechtigten zu erkennen.

Weiteres hierzu finden sie unter folgendem Link direkt zum Angebot: www.google.com/webmasters/tools/?hl=de

Dreiergespann: Ein HTML-Editor, ein Google-Account und ein FTP-Zugang sind ihre Werkzeuge!

Alles was sie für die in diesem Artikel beschriebenen Schritte benötigen, ist ein FTP-Zugang zum Online-Speicher ihrer Webseite, einen gültigen, sprich aktivierten und nicht gesperrten Google-Account. Als Google-Account zählen auch Google+, Google Mail und alle anderen Accounts der im Frühjahr 2012 zusammengefassten Dienste der Suchmaschine unter dem Banner der Suchmaschine Google, so dass sie wahrscheinlich längst einen solchen Account besitzen und sofort loslegen können. Ansonsten können sie unkompliziert den für ihre Zwecke ohnehin unabdingbaren Google-Account in wenigen Klicks und Minuten für sich einrichten.

Für die Bearbeitung der „.htaccess“-Datei empfiehlt sich die Verwendung eines HTML-fähigen Editors, da sie bei einem solchen sicher sein können, das ihnen keine ungewollten Formatierungs-Daten in diese wichtige Konfigurationsdatei gespeichert werden, was mitunter bei der Verwendung von Office-Anwendungen zur Bearbeitung vorkommen kann.

Hierzu gibt es eine Reihe guter Freeware-Editoren, die Empfehlung der Redaktion ist der „HTML-Editor Phase“, der als bewährter Editor gilt und auch auf Seiten wie Chip.de eine eindeutige, uneingeschränkte, Empfehlung erhält. Beachten sie bei der Verwendung jedoch gegebenenfalls die Lizenz-Bedingungen ihrer Software, um sich auch rechtlich auf der sicheren Seite zu wissen.

Zu guter letzte nach viel Content und viel Wissen:
Ein Link zur YouTube zur Google-Video-Anleitung!

Zur Vertiefung ihres nun aufgenommenen Grundlagenwissens bezüglich der Webmaster Tools empfehlen wir den folgenden Link zum Thema „Using Google Webmaster Tools like a SEO“, in dem ihnen einfach und verständlich in einem Video der Umgang mit den Google-SEO-Werkzeug vermittelt wird: https://www.youtube.com/watch?v=tQQmq9X5lQw

Hier endet der vierte Teil unserer Serie und wir hoffen, sie auch für den kommenden fünften Teil unserer Grundlagen- und Auffrischungs-Reihe als Leser gewinnen zu können, damit sie auch morgen noch problemlos in der größten Suchmaschine, der Google Search, zu finden sind!

Hier finden Sie alle 10 Teile:

  1. Das erste Grundlagenwissen für ihre SEO-Erfolge
  2. Der Webserver als erster Steigbügelhalter zur glücklichen SEO-Optimierung
  3. Intelligente Textgestaltung als effiziente SEO-Maßnahme
  4. Einheitlicher Domainzugriff und Google Webmaster Tools erleichtern den Aufstieg
  5. Mail Forwarding in den Webmaster Tools zur Benachrichtigung nutzen
  6. Altlasten ihrer Domain klären und mit einfach mit Google die eigene Domain prüfen
  7. Strategische Grundlagen: Zielgruppendefinition, Design & Social Media
  8. Strategische Grundlagen: Content Management und Corporate Design
  9. Multimedia neu begriffen – Unterhaltung und Dienstleistung
  10. Analyse ihres Erfolgs mit Google Webmaster Tools
Die nächste Serie wird Sie über “Stickiness” informieren

Starthilfe: SEO in 10 Minuten – Teil 3

Intelligente Textgestaltung als effiziente SEO-Maßnahme

Hier geht es weiter mit unserer Reihe „SEO in 10 Minuten“, in der wir ihnen die wichtigsten Eckpunkte für eine erfolgreiche SEO-Grundsteinlegung verraten: Hochaktuell aus den Händen von Maile Ohye, ihres Zeichens als „Developer Programs Tech Lead“, der technischen Abteilung zur Entwicklung und technischen Umsetzung der aktuellsten Ranking Policies der Google Inc.!

Sie gibt aktuelle Tipps für einen erfolgreichen Launch ihres Unternehmens in Sachen Google-Ranking, daher haben wir die, an Lektionen nicht zu arme, Präsentation übersetzt und in dieser Serie für sie aufbereitet:

Die Textgestaltung im Wandel der Zeit

Dem Inhalt einer Webseite, dem sogenannten Content, wurde im vergangenen Jahrzehnt nur wenig Aufmerksamkeit beigemessen. Lange Zeit wurde inoffiziell die allgemeine Lehrmeinung vertreten, das Textinhalte ganz im Gegenteil zu optisch anziehenden Grafiken oder Flash-Animationen, vom Seitenbesucher im besten Falle nur oberflächlich Überflogen würde, sich aber nur ein zu vernachlässigender Anteil der Page Visitor tatsächlich mit dem Inhalt von Fließtexten auseinandersetzen würde und somit eine sorgfältige Gestaltung von Textinhalten eine ineffiziente Kostenstelle darstellen würde.

Dies hatte zur Folge, dass die Gestaltung von Content in Textform beinahe ein ganzes Jahrzehnt vielmehr als eine gestalterische Notwendigkeit betrachtet wurde, die den angenehmen Nebeneffekt mit sich brachte, über diesen Text alle die über den Quellcode hinaus gehenden Optimierungen von Suchbegriffen abwickeln zu können. Dementsprechend waren diese Inhalte oftmals mit haarsträubend eingesäten Kombinationen an Keywords gespickt, die den Lesefluss nachhaltig behinderten und sehr deutlich zur schau trugen, das sie für die Google Crawler und nicht für den Besucher geschrieben wurden.

Mit dem Einbeziehen der aus den von Google Plus-basierten Plug-ins gewonnenen Nutzerdaten über Verweildauer auf Landing Pages, Haupt- und Tochterseiten, Klickraten und der zusätzlich erfassten „+1“ und dem aktiven Teilen der Inhalte durch den User als zukünftig festem Bestandteil der Bewertungskriterien bilden ein Novum, das Google selbst als, frei übersetzt „Hinwendung der Erstellung von Textinhalten für die Maschine hin zur Erstellung für den Menschen“ beschreibt und das in der SEO-Branche als Schlüssel für zukünftige Erfolge in der Suchmaschinenoptimierung gehandelt wird.

Hier die heißesten Tipps für ihren erfolgreichen Einstieg in die Welt der Suchmaschine Google von den Machern selbst:

Grundsätzlich: Binden sie ihre Keywords thematisch sinnvoll und organisch in den fließenden Content ein!

Verzichten sie auf gekünstelte Formulierungen, über die der Nutzer beim Surfen stolpern könnte!
Im schlechtesten Fall wird der Nutzer rasch von ihrer Webseite Abstand nehmen, zumindest aber wird das aufdecken schlecht gemachter Keyword Placements einen – möglicherweise nur unterbewusst empfundenen – schlechten Eindruck hinterlassen, was sowohl die Verweildauer als auch den Aggregationseffekt der digitalen Mundpropaganda zu ihrem Nachteil beeinflussen!

Bei der weiteren Textgestaltung gilt grundsätzlich das K.I.S.S.-Prinzip: „Keep it simple and stupid“.
Orientieren sie sich beim setzen ihrer schwerpunktmäßig positionierten Schlagworte an möglichst generischen Ausdrucksweisen wie sie der gewöhnliche Internetnutzer bei seiner Suche nach einem passenden Ergebnis benutzen würde.

So formulieren sie etwa ihr Angebot für „Sportliches Schuhwerk“ eher in eine von ihren Produkten und Dienstleistungen abgedeckte Form von Suchworten, z.B. in „Sportschuhe“ oder „Laufschuhe“ um und entsprechen damit eher gängigen Suchbegriffen der breiten Masse der Google-Nutzer.

Vermeiden sie spezifische oder zu fachliche Termini um und entscheiden sie sich für eine Strategie, die einen möglichst hohen Anteil der für ihre Branche entsprechenden Suchanfragen unter Aufwendung von möglichst wenigen Keywords erreichen kann. So erhalten sie sich Optionen auf die Bildung weiterer Keyword-Schwerpunkte und können damit ohne Mehraufwand zeitnah weitere Bereiche der von ihnen angestrebten Suchanfragen abdecken und mit einfachem abgleichen der gefragtesten Suchbegriffe schnelle Expansion in Bereiche gewährleisten, in denen ihre direkte Konkurrenz am Ort oder im allgemeinen Geschäftsfeld ihnen eine Blöße offenbart haben.

Gerade eine nachteilig gewählte Aufstellung bei der Entwicklung einer langfristig angelegten Keyword-Strategie gehört unter den, selten von professionellen SEO-Agenturen begleiteten, Start-Ups im Internet. Vorschnell getroffene Schwerpunktentscheidungen ohne eine Analyse der Suchwortdichte für den eigenen Geschäftsbereich etwa durch Studie von Tools wie Google Trends und dem Abgleich der Konkurrenz im Bereich der organischen Google Search können sie in Sachen SEO um einige Größenordnungen zurückwerfen und gehören damit zu den Grundpfeilern einer erfolgversprechenden Aufstellung ihres Unternehmens im, durchaus zu recht gefürchteten, Online Marketing und dessen Schwerpunkt, dem Suchmaschinenmarketing (SEM).

Wissenswert: Beim Gebrauch der organischen Google Suche verhalten sich alle Zielgruppen in ihrem Individualverhalten ähnlich. Vom Endkunden bis zum Geschäftsführer gleichen sich die Nutzerprofile. Daher lässt sich aus unseren Ratschlägen zur Textgestaltung ihrer Content Pages und der darin eingebetteten Suchworte mit großer Abdeckung der Zielgruppen eine gewisse Allgemeingültigkeit ableiten, die für ihre Suchmaschinenoptimierung Berücksichtigung finden sollte um dem sprichwörtlichen Durchstarten ihres Online Start-Ups keine vermeidbaren Stolpersteine in den Weg zu legen!

Hier finden Sie alle 10 Teile:

  1. Das erste Grundlagenwissen für ihre SEO-Erfolge
  2. Der Webserver als erster Steigbügelhalter zur glücklichen SEO-Optimierung
  3. Intelligente Textgestaltung als effiziente SEO-Maßnahme
  4. Einheitlicher Domainzugriff und Google Webmaster Tools erleichtern den Aufstieg
  5. Mail Forwarding in den Webmaster Tools zur Benachrichtigung nutzen
  6. Altlasten ihrer Domain klären und mit einfach mit Google die eigene Domain prüfen
  7. Strategische Grundlagen: Zielgruppendefinition, Design & Social Media
  8. Strategische Grundlagen: Content Management und Corporate Design
  9. Multimedia neu begriffen – Unterhaltung und Dienstleistung
  10. Analyse ihres Erfolgs mit Google Webmaster Tools
Die nächste Serie wird Sie über “Stickiness” informieren

Starthilfe: SEO in 10 Minuten – Teil 2

Der Webserver als erster Steigbügelhalter zur glücklichen SEO-Optimierung

Mit diesem Teil setzen wir unsere Serie „Starthilfe: SEO in 10 Minuten“ nach dem positiven Feedback aus der Leserschaft gerne fort und folgen dabei weiter dem roten Faden der „Developer Programs Tech Lead“, Frau Maile Ohye aus dem Hause Google für uns in einer englischsprachigen Präsentation zusammengefassten Präsentation zusammengestellten Weichen, die sie in weniger als 10 Minuten stellen können, und so ihr System auf den Erfolgsweg zu ihrer erfolgreichen Platzierung in den Google-Suchergebnissen vorbereiten kann.

Mit ein wenig sanftem Druck die Entwicklung des Web bestimmend

Vielfach wird es unter den Tisch geschlagen, doch auch die korrekte Konfiguration eines Webservers auf dem naturgemäß eine Webseite gehostet wird, kann sich auf das Ranking in der Suchmaschine Google auswirken. In diesem Fall vielmehr eine fehlerhafte Konfiguration, die mit den Richtlinien der Suchmaschine unweigerlich kollidiert und konsequente Sanktionierung erfährt, mehr noch als vermeintlich eindeutigere und offensichtlichere Verstöße gegen die Google Webmaster Guidelines als absolutes „Kill Kriterium“ nicht direkt mit der Roten Karte, wohl aber ohne Verwarnung mit Gelb-Rot und einer Auszeit auf der Bank geahndet wird. Der Hintergrund dessen liegt in der chaotischen Vergangenheit des WWW, das mit seinen auf dem Papier zwar definierten Standards eine gemeinsame Grundlage Die Praxis jedoch zeigte, dass diese Richtlinien sowohl von Webmastern auf Anwenderseite, wie auch durch die Hersteller der Browser auf der Herstellerseite mitunter sehr abenteuerlich ausgelegt wurden und bis in Mitte der 2000er immer wieder zu inkompatibilitätsbedingten Einbußen in der User Experience führten. Die Unternehmen Microsoft, Netscape und Opera Software, die den überwiegenden Großteil des Browsermarktes bedienten, waren sogar ständige Mitglieder der W3C-Kommission und verstießen im Kampf um Marktanteile immer wieder gegen die HTML-Standards, etwa durch proprietäre Erweiterungen des Befehlssatzes.

Mit dem Aufstieg Googles als führende Suchmaschine des World Wide Webs jedoch war das Unternehmen auf möglichst einheitlich standardisierte Plattformen und den sich nach Standard verhaltenden Gegenstellen angewiesen um sein Geschäftsmodell, das gesamte Internet nicht nur zu indexieren, sondern nach der Relevanz im Verhältnis der abgefragten Suchbegriffe zu ordnen, einen barrierefreien Zugang zu den in HTML gebetteten Informationen durch seine Crawler zu erhalten. Ebenso war es notwendig, das die seinerseits noch lange nicht standardisierten Webserver, die teilweise noch in Eigenleistung als Projektarbeiten der Studiengänge der Informationstechnologie programmiert und verwendet wurden und in ihrem Funktionsumfang oftmals von den geltenden Standards abwichen und den umfassenden crawl des Internets behinderten.

Um diesem Problem langfristig Herr zu werden und einen Anpassungsdruck gegenüber den vom, freilich von Google veranschlagten, Standard abweichenden Webservern zu erzeugen – Seinerzeit war der Erfolg einer Seite nahezu ausschließlich in Page Impressions und Unique Visitors bemessen und generierte seine Popularität vor allem durch Verlinkungen auf Seiten mit hohem Publikumsverkehr, da die vorhandenen Suchmaschinen in ihrer unzähligen Vielfalt und den unterschiedlichen Erfassungskriterien eine breitbandige Optimierung verhinderten – begann Google mit der Anwendung strikter Sanktionen, die sich vor allem im Ausschluss der entsprechenden Webserver und der darauf gehosteten Webseiten manifestierten, oder gar nicht zu einer Aufnahme in den Index der Suchmaschine führte, die binnen kürzester Zeit eine ungeahnter Reichweite erzielte und schon bald die Ambition zur Marktführerschaft entwickelte.

Dieser rigorose Lock-Out führte zu einer raschen Anpassung an die technischen Richtlinien der nun Ton angebenden Suchmaschine Google, die damit eine Einhaltung der geforderten Standards durch Einsatz der Ellenbogen sicherstellte und den ersten, koordinierten Schritte zur Vereinheitlichung des WWW und seiner Technologien unternahm.

Wie die Konfiguration ihres Webservers ihre

„EntWWWeder oder“: Um bei der erstmaligen Erfassung durch die Google-Crawler nicht Gefahr zu laufen durch sogenannten Duplicated Content, also doppelter Inhalte die Google auf zwei unterschiedlichen URL indiziert, eine Penalty zur riskieren, sollten sie sich schon im Vorfeld im klaren sein ob ihre Webseite mit dem Präfix „www“ erfasst werden soll, oder ob sie darauf verzichten und in diesem Zuge die dafür notwendigen technischen Vorkehrungen in der Konfiguration ihres Treffen.

Dazu müssen sie die, im Root-Verzeichnis ihres Webservers hinterlegte Datei „.htaccess“ editieren. (Aufgrund der hohen Verbreitung des Apache-Webservers verzichten wie an dieser Stelle auf die Erläuterung des Prozedere für andere Webserver aus Relevanzgesichtspunkten)

Die Datei „.htaccess“ enthält Instruktionen zu einer bestimmten Verhaltensweise, die beim einem Zugriff auf das Heimatverzeichnis, in dem die Konfigurationsdatei abgelegt ist, ausgelöst werden und mittels der hinterlegten Befehle ein bestimmtes Verhalten des Servers erzwingt.

Beispielhaft könnte ihre „.htaccess“ etwa wie in diesem Beispiel aussehen:

RewriteEngine On
RewriteCond %{HTTP_HOST} !^www.ihredomain.de
RewriteCond %{HTTP_HOST} !^www.ihredomain.com
RewriteRule ^(.*)$ [L,R=301]

Damit haben sie bereits den wichtigsten Schritt getan und eine der häufigsten Fußangeln bei der Suchmaschinenoptimierung elegant umgangen und somit das Tor für die kommenden Teile unserer Serie zum Thema „Einfache Suchmaschinenoptimierung in 10 Minuten“, für SEO-Profis und Amateure aufgestoßen!

Hier finden Sie alle 10 Teile:

  1. Das erste Grundlagenwissen für ihre SEO-Erfolge
  2. Der Webserver als erster Steigbügelhalter zur glücklichen SEO-Optimierung
  3. Intelligente Textgestaltung als effiziente SEO-Maßnahme
  4. Einheitlicher Domainzugriff und Google Webmaster Tools erleichtern den Aufstieg
  5. Mail Forwarding in den Webmaster Tools zur Benachrichtigung nutzen
  6. Altlasten ihrer Domain klären und mit einfach mit Google die eigene Domain prüfen
  7. Strategische Grundlagen: Zielgruppendefinition, Design & Social Media
  8. Strategische Grundlagen: Content Management und Corporate Design
  9. Multimedia neu begriffen – Unterhaltung und Dienstleistung
  10. Analyse ihres Erfolgs mit Google Webmaster Tools
Die nächste Serie wird Sie über “Stickiness” informieren

Starthilfe: SEO in 10 Minuten – Teil 1

Das erste Grundlagenwissen für ihre SEO-Erfolge

In einer neuen Serie bringen wir für sie unter dem Stichwort „SEO in 10 Minuten“, die wichtigsten Eckpunkte für eine erfolgreiche SEO-Grundsteinlegung nahe: Hochaktuell aus den Händen von Maile Ohye, ihres Zeichens als „Developer Programs Tech Lead“, der technischen Abteilung zur Entwicklung und technischen Umsetzung der aktuellsten Ranking Policies der Google Inc.!

Sie gibt aktuelle Tipps für einen erfolgreichen Launch ihres Unternehmens in Sachen Google-Ranking, daher haben wir die, an Lektionen nicht zu arme, Präsentation übersetzt und in dieser Serie für sie aufbereitet:

Trotz einfacher CMS gelten die „goldenen Regeln“ des SEO unverändert weiter

In Zeiten einfach zu bedienender Content Management Systeme ist die Verlockung groß, die technischen Fundamente für einen erfolgreichen Einstieg in die Suchmaschinenoptimierung zu vernachlässigen und sich vom Funktionsumfang, den viele Open-Source CMS durch ihre rege gepflegten und ständig erweiterten Plug-In Bibliotheken bieten, von den grundsätzlich und allgemein gültigen „goldenen Regeln“ der effektiven SEO zu entfernen und so die Effizienz des eigenen Angebots und dem Ausschöpfen des vollen Potentials in der strategischen Positionierung im Online Marketing zu ihrem eigenen Nachteil verhindern.

Seit dem dem Einspielen des Penguin-Updates, das Google jüngst im Frühling als Beginn einer Reihe von Anpassungen in der Darstellung der SERPs, der Ranking-Kriterien zum bemessen des wichtigen Google Pagerank sowie der schrittweise erfolgenden Verzahnung der Suchmaschine mit Google+, dem google-eigenen Social Network liegt das hauptsächliche Augenmerk der Optimierung nicht mehr nur auf die barrierefreie Erfassung der Daten durch Googles automatischen Erfassungsprogrammen die tagtäglich das Internet durchsuchen, sondern auch mit dem wachsenden Einfluss derselben hin zum Konsum durch echte Menschen, da die Bewertungen und Empfehlungen sich auf die Platzierung auf den Google SERPs auswirken.

Da diese Serie sich vor allem an die in der Start-Up Phase befindlichen Onlineprojekte richtet, haben wir in den folgenden Teilen der Serie „SEO in 10 Minuten“ nur wenig neues für die erfahreneren SEO-Amateure und die Profis unter unseren Lesern zu berichten und doch schützt bekanntermaßen weder Alter noch Erfahrung vor dem Begehen von, als Anfängerfehler abgehakten kleinen Ausrutscher, weshalb wir auch den „alten Hasen“ des Onlinemarketings und der SEM-Profis eine kleine Frischzellenkur für die Grundlagen empfehlen und deshalb mit unserem Bericht über die besten Tipps und Grundlagen beginnen, die uns aus dem Zentrum des Google-Universums zugespielt und von uns ins Deutsche übersetzt und sinnvoll ergänzt wurden:

Aktuelles SEO-Grundlagenwissen kurz angerissen

Kurz und Bündig: Sowohl für die Usability durch den menschlichen Anwender als auch für die Erfassung durch die turnusmäßigen einkehrenden Google Crawler ist die Einhaltung einer flachen Seitenstruktur, die je Seite ein in sich abgeschlossenes Thema mit einem ungefähren Umfang von rund 1000 Worten als absolute Obergrenze, behandelt. Alle Werte, die darüber hinaus gehen, überfrachten nicht nur den menschlichen Besucher der Seite, man läuft ebenso Gefahr das die Seite nicht mehr zur Gänze erfasst wird und alle, im HTML-Code folgenden, unter Umständen für die SEO wichtigen Codefragmente im Seitenquelltext schlichtweg nicht erfasst werden und so dem erfolgreichen Crawling ihrer Inhalte und dem positiven Ranking durch eine folgende Penalty durch Google ausschließlich schadet: In der kürze liegt die Würze, daher teilen sie unvermeidbar große Textinhalte eher auf durch Pointer und Hyperlinks miteinander verbundene Einzelseiten als das sie durch überlange Texte einen Fehlschlag ihrer Mühen riskieren.

Strategische Schwerpunktbildung: Trennen sie sich von der Illusion, mit ihrer Onlinepräsenz den vollständigen Bereich der für sie thematisch relevanten Suchbegriffe, den sogenannten Keywords, abdecken zu können.Erst durch die Ausbildung eines oder mehrerer Schwerpunkte durch die von ihnen im Content verwendeten Schlagwörter werden sie für den gewöhnlichen Nutzer der Google Search auffindbar, da sie Anhand dieser sich häufenden Suchbegriffe erfasst, bewertet und einsortiert werden.

Um diesen Prozess, der neben der Definition ihrer Schwerpunkt-Suchbegriffe in den Webmaster Tools, aktiv zu stützen benötigen sie eine strategische Planung ihrer Suchbegriffe um eine Penalty, also eine Sanktionierung, durch Google bei Verdacht auf das spammen von Keywords automatisch erhalten und in ihrem Ranking herabgestuft werden. Halten sie daher sie ihren Fokus auf eine handvoll, für ihr Unternehmen zutreffende, jedoch möglichst generische, Suchbegriffe auf die ihre Textinhalte hin gestaltet werden.

Zum Beispiel wird eine Aufsplittung ihrer Content Pages mit jeweils schwerpunktmäßig anders gelagerten Inhalten bereits kurzfristig zu einem schlechteren Google Page Rank führen, als wenn sie ihren Inhalt über die gesamte Breite ihrer Inhalte auf das vorhandene Repertoire ihrer angepeilten Strategie hin ausrichten und so bei der Erfassung durch die Crawler eine thematisch geschlossene und fachlich relevante Webseite signalisieren, was durch Google positiv honoriert wird und sich umgehend in ihrer Platzierung in den Ergebnisseiten der Google Suche niederschlägt.

Fazit – Die Faustregel für die allgemeinen Richtlinien: Vermeiden sie es einzelne Seiten inhaltlich zu überladen und achten sie auf ein schlankes, auch für den Menschen übersichtliches Inhaltsdesign mit einer korrekten Formatierung der Textelemente!

Hier finden Sie alle 10 Teile:

  1. Das erste Grundlagenwissen für ihre SEO-Erfolge
  2. Der Webserver als erster Steigbügelhalter zur glücklichen SEO-Optimierung
  3. Intelligente Textgestaltung als effiziente SEO-Maßnahme
  4. Einheitlicher Domainzugriff und Google Webmaster Tools erleichtern den Aufstieg
  5. Mail Forwarding in den Webmaster Tools zur Benachrichtigung nutzen
  6. Altlasten ihrer Domain klären und mit einfach mit Google die eigene Domain prüfen
  7. Strategische Grundlagen: Zielgruppendefinition, Design & Social Media
  8. Strategische Grundlagen: Content Management und Corporate Design
  9. Multimedia neu begriffen – Unterhaltung und Dienstleistung
  10. Analyse ihres Erfolgs mit Google Webmaster Tools
Die nächste Serie wird Sie über “Stickiness” informieren

SEM Zuwachs

Ausgaben für Search-Marketing & Social Media in Unternehmen steigen weltweit

Auf der ganzen Welt erhöhen Unternehmen zunehmend das Budget für Werbung im Search-Bereich. Besonders starken Zulauf erhält dabei das Mobile Marketing, da die Konversionsraten auf mobilen Endgeräten die Raten auf Desktop-Geräten mittlerweile übersteigen.

Zu diesem Ergebnis kommt der Digital Index Report von Adobe für das zweite Quartal 2012. Adobe analysiert jedes Jahr die Entwicklungen des Digitalen Werbemarktes, wobei sowohl das Verhalten von Werbetreibenden als auch das der Nutzer untersucht wird. So wurden im Rahmen der Studie über 5.000 Unternehmen weltweit befragt, die laut Report über ein Werbebudget von mehr als 2,5 Milliarden US-Dollar verfügen. Dabei bietet der Report nicht nur einen Rückblick auf die vergangenen Monate, sondern ermöglicht auch einen Ausblick auf die kommenden Quartale. Der Digital Index Report zeigt auf, wo das vorhandene Budget im Online-Marketing am stärksten eingesetzt wird.

Facebook: sprunghafter Nutzungsanstieg als Werbekanal

Laut Index-Report steigt die Bedeutung von Suchmaschinenmarketing sowohl in den USA als auch in Europa. So wuchsen die Ausgaben hierfür gegenüber des Vorjahres beispielsweise in den USA um 13 Prozent, in Deutschland um 12 Prozent und in Großbritannien sogar um 18 Prozent. Gleichzeitig stieg der ROI (Return of Investement) nach Angaben von Adobe ebenfalls stetig. Vor allem der Bereich der mobilen Werbung bietet Marketingverantwortlichen viele Chancen. So sind die Kosten pro Klick (CPC) bei Tablets geringer als bei Desktops. Gleichzeitig waren jedoch die Konversionsraten dort um 20 Prozent höher. Diese Entwicklung hat zur Folge, dass sich der ROI durch die Verlagerung der Werbeausgaben auf Tablets erhöht.

Neben vermehrter Investitionen ins Search- und Mobile Marketing beobachtet Adobe auch stärkere Aktivitäten von Unternehmen im Social Web. Vor allem die Stärkung der Fankultur auf Facebook steht bei Firmen im Vordergrund. So ist das Engagement der Unternehmen auf dem sozialen Netzwerk im Vergleich zum Vorjahr um 338 Prozent gestiegen. Allein für das vergangene Quartal ist ein Zuwachs von 60 Prozent zu verzeichnen. Dem entsprechend stieg die Anzahl der Fans im Vergleich zum Vorquartal um 21 Prozent. Gegenüber des Vorjahres bedeutet das sogar einen Anstieg um 84 Prozent.

Weiterer Budgetschub für das dritte und vierte Quartal erwartet

Mithilfe eines Nutzer-Index berechnet Adobe die aktuellen Trends im Digitalen Marketing. Dafür stützt sich die Studie auf erhobene Daten der letzten drei Quartale, ab dem letzten Viertel von 2011. Gemäß dieser Daten prognostiziert der Report eine weitere Zunahme der Ausgaben für Online-Werbung, speziell im Search-Bereich. Gleiches gilt für den Gebrauch von Social Media: Allein auf Facebook wird die Anzahl von Fanpages und ähnlichen Präsentationsmöglichkeiten bis Ende 2012 um weitere 45 Prozent zunehmen. Weiterhin werden 20 Prozent des gesamten Daten-Traffics im Internet über Smartphones und Tablet-Geräte laufen. Die Tendenzen sind also im Bereich Online- & Mobile-Nutzung steigend und die Zeichen stehen für das Suchmaschinenmarketing in naher Zukunft gut. Insgesamt zeigt der Index-Report von Adobe, dass das sich SEM neben der Suchmaschinenoptimierung auf einem neuen Höhepunkt in Sachen Online-Werbung befindet.