Google Penalties: Diese Ranking-Strafen sollten Website-Betreiber kennen

Immer wieder hört man davon, das Google ein strenges Regelwerk für die falsche Anwendung von SEO-Maßnahmen durchsetzt und dabei auch nicht mit Ranking-Strafen geizt. Die Richtlinien sind ziemlich umfangreich und betreffen sowohl die OnPage- als auch die OffPage-Optimierung: „Abgestraft“ werden zum Beispiel Doppel-Content, Invisible Texts, Link-Spamming, Keyword-Stuffing sowie Cloaking. Seit neuestem werden außerdem Websites mit zu viel Werbung abgestraft. Die Qualität der Inhalte ist seit dem Panda-Update ganz klar zur Priorität für Website-Betreiber geworden. Da der bewusste Missbrauch von Algorithmus-Lücken jedoch so verbreitet ist, dass dieser sogar einen eigenen Namen hat (Black Hat SEO), sind Strafen ganz offensichtlich weiterhin notwendig. Sistrix hat hierzu eine anschauliche Übersicht über mögliche Sanktionen erstellt:

1. Die Senkung des PageRank

Diese Strafe ist einer der essentiellen bei Google, denn der PageRank entscheidet über die Reputation einer Website bei Google. Je höher die Zahl, desto stärker ist eine Website und desto wertvoller sind Backlinks von ihr auf eine schwächere Internetpräsenz. Einen hohen PageRank gewinnen Seiten, indem sie viele und vor allem hochwertige Inhalte verwalten. Wird eine Homepage durch die Herabsetzung dieser Kennzahl „penalized“, dann verliert sie sozusagen ihren guten Ruf. Dass eine Seite abgestraft wurde, erkennt man in der Regel an einem niedrigen PageRank trotz zahlreicher Inhalte mit hohem Mehrwert – insbesondere hinsichtlich der Keywordoptimierung. Bedeutend ist dies jedoch hauptsächlich für die Startseite, bei Unterseiten ist die Senkung des PageRank kaum tragisch. Der PageRank einer Website kann zum Beispiel über die Google Toolbar überprüft werden. Angewandt wird diese Strafe vor allem bei Betreibern, die Links verkauft haben und dabei auf das „no-follow“-Attribut verzichtet haben.

2. Die Zurückstufung der Keywords

Bei dieser Abstrafung sind nur bestimmte Schlagwörter, über die eine Website bei Google gefunden werden kann, betroffen. Allerdings sind das meist wichtige Keywords, die eine Webpräsenz in der Ergebnisliste auf eine gute Position bringen. Die Strafe zu erkennen, ist nicht einfach, da dieser Faktor insgesamt sehr dynamisch ist. Bei drastischen Keyword Penalties können einzelne Schlüsselwörter und Schlagwortgruppen mehrere 10er-Punkte abgezogen bekommen. Das macht sich deutlich im Traffic einer Seite bemerkbar, denn der Internetauftritt verliert dadurch enorm an Sichtbarkeit. Mit den Google Webmaster Tools lassen sich solch schwerwiegenden Veränderungen gut überprüfen. Hierfür können etwa die Suchanfragen und das Suchwort-Ranking analysiert werden.

3. Seiten-Herabstufung und Delisting

Diese beiden Strafen sind die schwersten und bedeuten einen gewaltigen Einschnitt in die Sichtbarkeit einer Website. Bei der Seitenherabstufung werden nicht nur einzelne Keywords sanktioniert, sondern der gesamte Internetauftritt um mehrere Stufen im PageRank herabgesetzt. Das Delisting ist der endgültige „Todesstoß“: Die Website wird gänzlich aus dem Index entfernt und kann nicht mehr von den Usern gefunden werden. Und in den Index wieder aufgenommen zu werden, gestaltet sich schwierig. Nicht nur für die eine Domain, sondern auch für den Betreiber an sich. Google ist nachtragend. Allerdings bedarf es schon sehr fataler Verstöße seitens der Webadministratoren, ehe das Delisting zum Einsatz kommt.

[stextbox id=”info”]Unser Fazit: Suchmaschinenoptimierung muss „sauber“ durchgeführt werden. Es lohnt sich nicht, Google auszutricksen, denn die Konsequenzen bedeuten stets einen großen Kraftaufwand, um den Positionsverlust wieder auszugleichen.[/stextbox]

Weitere Infos (externe Seiten):

[related-links]

Augen auf bei der Wahl des Webhosting-Angebots!

Bevor eine Website überhaupt gelauncht werden kann, benötigt der Betreiber eine Domain sowie die Möglichkeit, die Internetpräsenz aufzubauen und zu verwalten. Den dafür verwendeten Webspace bezieht man in der Regel über einen Webhosting-Provider. In diversen Paketen können Interessenten unterschiedliche Leistungen einkaufen, die von der Domain-Registrierung über den Aufbau der Website bis hin zum Monitoring, also der technischen Überwachung des Servers, reichen. Beim Webhosting wird virtueller Raum „gemietet“, den man nach seinen Wünschen einrichten kann – ähnlich wie bei einer Wohnung. Doch die Auswahl an Webhosting-Anbietern ist groß und das technische Know-how der User oft nur lückenhaft. Wie findet man also auch als Laie das passende Angebot? Worauf gilt es bei der Wahl zu achten?

Kleine vs. große Webprojekte – die Anforderungen variieren

Für jedes Projekt gibt es die richtigen Paket-Angebote – man muss nur wissen, worauf es ankommt. Das beginnt etwa bei der Qualität der Netzwerkverbindung. Je größer der Webauftritt und je umfangreicher die multimediale Einbindung von Video, Sound oder Echtzeitkommunikation, desto wichtiger ist eine hohe Übertragungsrate. Nur mit einem angemessenen Traffic-Volumen ist die korrekte Darstellung und Nutzung einer komplexen Website möglich. Deshalb ist es empfehlenswert, im Vorfeld zu eruieren, mit welchen Netzknoten der Provider verbunden ist. Zu den größten zählen aktuell Amsterdam (AMS-IX) und Frankfurt (DE-CIX). Wenn es um die Wahl zwischen einem Angebot mit kostenlosem oder kostenpflichtigem Webspace geht, wählen seriöse KMU das kostenpflichtige. Bei den kostenlosen Paketen werden Werbebanner eingeblendet, und die haben auf einer Unternehmenswebsite nichts zu suchen. Zudem haben die der Website-Inhaber meist keine Kontrolle hat über die eingeblendeten Anzeigen, so dass Themenrelevanz nicht zwingend gegeben ist. Aber egal ob relevant oder nicht – Text- und Display-Anzeigen sind ein No-Go für seriöse Firmen-Websites.

Weiterhin stellt sich die Frage: Eigener Server oder Shared Hosting? Auch hier ist der Umfang des geplanten Webauftritts entscheidend. Für eine kleine Website mit statischen Inhalten ist Shared Hosting eine preiswerte und unkomplizierte Variante. Wer jedoch umfassende Einstellungen und Instrumente einbinden möchte, für den ist das Shared Hosting in den Funktionen zu eingeschränkt. Ein eigener Server ist zwar kostspieliger, bietet jedoch viel mehr Freiheiten für individuelle Konfigurationen.

Die Suchmaschinenoptimierung bei der Wahl bedenken

Die Wahl des richtigen Webhostings kann sich sogar auf die Suchmaschinenoptimierung auswirken. Etwa wenn die Domain eine eigene IP erhält – und das ist nicht bei jedem Provider gewährleistet. Bei Shared-Hosting-Angeboten beispielweise teilen sich viele Websites eine IP. Domains mit eigener IP werden von Google jedoch höher angesehen, was sich wiederum positiv auf das Ranking auswirkt. Aber ein eigene IP Adresse zu haben kostet wirklich viel Geld. Achten Sie also lieber darauf das Ihr Hoster eine IP Adresse zuweist die noch nicht “überlaufen” ist.

Mit einem eigenen Server können sogar mehrere eigene IP-Adressen eingerichtet werden. Zusammenfassend gilt es also, sich über die eigenen Anforderungen des Webprojekts klar zu werden. Des Weiteren lohnt es sich, wie bei allen Produkten, auch bei der Wahl des Webhosting-Providers einen Vergleich anzustellen. Dabei sind nicht nur die technischen Details wichtig, sondern auch die Serviceleistungen des Anbieters. Von kostenlosen Angeboten sollten KMU Abstand halten und lieber in eine professionelle Lösung investieren. Diese muss nicht zwingend technisch komplex sein, sondern ist dem Projektumfang entsprechend zu wählen.

Das die Hard- und Software des Hosters dem heutigen Stand der Technik entsprechen soll brauchen wir wohl nicht erwähnen.

Fragen Sie auch nach Backupmöglichkeiten und sicherheitstechnischen Einstellungen!

Wärmstens empfehlen können wir World4You als Hoster.

Weitere Infos (externe Seiten):

[related-links]

Tipps für eine gute OffPage-Optimierung

Anders als bei der OnPage-Optimierung, die vornehmlich über die aktive Gestaltung der Inhalte auf einer Website läuft, kann man die OffPage-Optimierung nur beschränkt direkt beeinflussen. Doch für die Suchmaschinenoptimierung ist sie ein elementarer Bestandteil. Deshalb ist es hilfreich, einige Hilfsmittel zu kennen, um diese positiv zu verstärken. Einer der Hauptmaßnahmen bei der OffPage-Optimierung ist das Linkbuilding.

Je mehr themenrelevante, externe Websites auf die eigene Internetpräsenz verweisen, umso höher ist der „Trust“ von den Suchmaschinen. Man bezeichnet dies auch als den quantitativen Faktor. Je höher dabei der PageRank des Backlinks ist, desto besser wirkt er sich auf die Reputation der Website aus. Und das wiederum wird als qualitativer Faktor bezeichnet. Diese beiden Faktoren helfen dem Seitenbetreiber dabei, die Offpage-Optimierung voranzutreiben. Je erfolgreicher, umso besser. Denn beide Faktoren führen zu einem höheren Ranking-Ergebnis in der Trefferliste der Suchmaschinen.

Natürliches Link-Wachstum anstreben

Doch der Ranking-Erfolg hängt nicht davon ab, wie schnell man möglichst viele Backlinks generiert. Jegliche Anwendung von automatisierten Tools zur Generierung von Backlinks wird von Google spätestens seit der Aktualisierung des Algorithmus abgestraft. Dasselbe gilt auch für einen zu schnellen Aufbau von Linkbeständen bei neuen Websites oder der Verwendung von allzu ähnlichen Linkvariationen. Ein „natürlicher“, also langsamer Linkaufbau ist deshalb ratsam. Es sollten nach und nach Backlinks mit unterschiedlichem PageRank auf die Seite gesetzt werden, jedoch nicht mehr als drei pro Tag. Auch bei der Kombination der Links ist Natürlichkeit erwünscht. Das bedeutet also, dass gerade bei neuen Seiten nicht nur hochwertige Links vorhanden sein sollten.

Grenzen des Linkbuildings erkennen

Wovon wir weiterhin dringend abraten, ist der Kauf von Links. Diese Methode ist nicht nur berüchtigt, sondern auch höchst illegal. Wenn die Suchmaschinen den Kauf entdecken, droht Seitenbetreibern der Ausschluss aus dem Ranking. Dann taucht die Website gar nicht erst in den Ergebnislisten auf. Stattdessen können Links selbst generiert werden, etwa durch das Kommentieren in themenrelevanten Blogs oder durch die aktive Teilnahme an Fach-Foren. Bei jedem Eintrag wird ein Link zur eigenen Webpräsenz eingefügt und die Domain gewinnt damit an Bekanntheit im Internet. Nützliche Instrumente hierzu sind auch Social Bookmark-Portale, RSS-Feeds oder die Streuung in sozialen Netzwerken wie Facebook und Twitter.

Gastartikel als Eintrittskarte in den Content-Bereich

Besonders wertvoll sind Backlinks, die sich nicht im Kommentarbereich befinden, sondern innerhalb der redaktionellen Inhalte einer externen Website. Den Zutritt erhält man entweder durch eigene Inhalte mit Mehrwert, die andere Webseitenbetreiber als teilenswert einschätzen und deshalb einen Link innerhalb eines Texts setzen. Oder man verfasst einen Gastartikel und fügt, in Absprache mit dem Host, eigene Links ein. Nach und nach wird sich die Reputation der Webseite steigern und der PageRank verbessern. Und durch den natürlichen Linkaufbau sind Abstrafungen durch die Suchmaschinen kein Thema.

SEO: Was ist OffPage-Optimierung?

Worauf es bei der Suchmaschinenoptimierung (SEO) ankommt, haben wir kürzlich mit der OnPage-Optimierung dargestellt. Doch das ist nur ein Teil der möglichen SEO-Maßnahmen, denn es gibt noch ein nicht unwesentliches Gegenstück zur internen Bearbeitung, nämlich die OffPage-Optimierung. Sie beschäftigt sich mit allen Maßnahmen, die nicht unmittelbar auf der Website durchgeführt werden. Dazu zählt im Wesentlichen das so genannte Linkbuilding (auch Linkaufbau), das sich auf externe Webseiten bezieht, die auf die Präsenz verweisen. Für die Suchmaschinenoptimierung sind solche Backlinks wichtig, da mit ihnen das Ansehen einer Website bei Google & Co. gesteigert wird. Allgemein formuliert heißt das: Je mehr Websites auf die eigene verlinken, umso höher ist der „Trust“ bei den Suchmaschinen. Die OffPage-Optimierung ist also eine nützliche Methode, um die Reputation einer Website zu steigern und in der Trefferliste nach oben zu klettern.

Die Alternative zur Keyword-Optimierung

Wenn User an SEO denken, dann fallen vielen schlagartig die Begriffe „Keyword“ oder „Schlagwort“ ein – und damit wiederum ein Teilaspekt der OnPage-Optimierung. Doch Schlüsselwörter auf die Website einzubauen, reicht häufig nicht aus um einer Website einen Turbo zu verpassen. Vor allem dann nicht, wenn die gewünschten Keywords von Wettbewerbern bereits stark genutzt werden. Die OffPage-Optimierung ist deshalb vor allem dann nützlich, wenn durch eine reine OnPage-Optimierung keine große Wirkung bei der Sichtbarkeit erwartet werden kann und setzt demnach dort an, wo interne Verbesserungen an ihre Grenzen stoßen.

Die externe Optimierung umfasst sowohl qualitative Faktoren als auch quantitative. Wie sehr ein Backlink die eigene Domainpopularität stärkt, hängt von dessen Qualität ab. Sie hängt wiederum von der Reputation der externen Website ab, etwa welchen PageRank (Google), TrustRank (Yahoo) usw. diese besitzt. Je besser die externe Seite von den Suchmaschinen anerkannt sind, umso wertvoller ist ein Backlink von dieser Präsenz. Die quantitativen Faktoren betreffen ganz klar die „Beliebtheit“ der Website. Dabei wird zwischen drei Marker-Punkten unterschieden: die Linkpopularität, die IP-Popularität und die Domain-Popularität. Der erste Begriff umfasst die Summe aller externer Verlinkungen auf eine Website. Die Anzahl wirkt sich direkt auf das Ranking einer Seite bei Suchanfragen aus. Das klingt viel versprechend, hat aber mittlerweile an Bedeutung verloren, denn oft werden Links „seitenweit“ gesetzt und die Linkpopularität auf alle Unterseiten einer Homepage übertragen. Relevanter ist da schon die Domainpopularität. Sie zählt die Gesamtzahl der verlinkenden Domains zu einem Kennwert zusammen und gewinnt dadurch Gewicht. Auch hier wirkt sich eine hohe Zahl positiv auf das Ranking aus. Die IP-Domain ist noch eine Stufe konkreter, denn hier werden nicht nur die Domains zusammen gerechnet, sondern alle IPs, die auf eine Website verweisen. Für einen guten Wert sollten sich die IPs möglichst stark voneinander unterscheiden.

Eine gute OffPage-Optimierung überzeugt durch Einsatz in Maßen

Wer nun denkt, exzessives Linkbuidling bringt die Website an eine Top-Position, der irrt. Spätestens seit der Algorithmus-Aktualisierung von Google sind solche Maßnahmen, die womöglich noch durch automatisierte Tools gefördert werden, eher schädlich denn nützlich. Deshalb sollte die OffPage-Optimierung bewusst eingesetzt und aggressive Strategien vermieden werden. Maß halten und gesunden Wachstum der Vernetzung anstreben, lautet dabei die Devise. So können Websites ihre Bekanntheit bei Suchmaschinen erfolgreich steigern.

Weitere Infos (externe Seiten):

[related-links]

Wie mehrere Links von einer Seite zur einer anderen den PageRank beeinflussen

Was genau ist der „PageRank“ einer Webseite? Eignet sich das mehrfache Verlinken von einer Seite zur anderen, um den PageRank der Zielseite zu verbessern? Und wie verhält es sich mit der Verlinkung von einer Seite zu derselben, also von A zu A? Werden dadurch der PageRank (PR) verbessert und Ankertext-Daten weitergegeben? Mit diesen Fragen beschäftigt sich Matt Cutts, Software Ingenieur der Search Quality Group von Google, in einem aktuellen Artikel auf dem Google Webmaster-Zentrale Blog.

Gemäß der ursprünglichen Definition setzt sich der PageRank aus der Summe aller auf eine Seite verweisende Links zusammen. Diese Verlinkungen können sich jederzeit verändern, etwa indem sie entfernt werden oder ähnliches. Doch das wird durch die Berechnungsformeln wieder ausgeglichen, weshalb sich Betreiber über solche Veränderungen nicht ärgern müssen. Matt Cutts erklärt dies an einem Beispiel: Der verbleibende PageRank wird einfach durch die Anzahl der externen Links geteilt, um den PageRank gleichmäßig auf jeden vorhandenen Link zu verteilen. Bei vier Links wird der PR dem entsprechend durch vier geteilt. Und auch wenn nur eine Teilmenge auf diese Seite verlinkt und eine andere auf eine alternative Seite, dann würde der PageRank durch die Links weitergegeben. Das gilt auch bei einer Selbstschleife, wenn also ein Link von Seite A zu Seite A führt.

Doch Matt Cutts bemerkt, dass solche Fragen, wie und wodurch man den PR auf einer Website steigern kann, müßig und weitgehend uneffektiv sind. Pagerank-Sculpting sollte seines Erachtens ganz natürlich erreicht werden, nämlich durch interessante Inhalte. Diese werden fast selbstverständlich von anderen Usern geteilt, wodurch ganz automatisch nützliche Verlinkungen entstehen, die den PR verbessern. Des Weiteren gibt es einige nützliche Strategien, die Webseiten-Betreiber anwenden können, um Besuchern das Surfen auf der Site zu erleichtern – und damit auch das Teilen von Inhalten. So sollte die Website klar aufgebaut sein und wichtiger Content leicht zu finden sein. Zahllose Verlinkungen auf der Homepage einzubauen, die dann endlich mal zu relevanten Inhalten führen, sind nicht zielorientiert. Unterseiten, die für viele Conversions sorgen oder anderweitig profitabel sind, sollten optimal genutzt werden. Am besten verlinkt man solche Seiten direkt von der Startseite aus. Dann entdecken die Besucher viel schneller ein attraktives Produkt oder ähnliches, das sie anschließend kaufen, usw.

Zudem empfiehlt Matt Cutts, das Unternehmenslogo im Header einzubauen und mit der Startseite zu verlinken. Das erleichtert die Navigation durch die Website und die Besucher finden immer wieder zum Ausgangspunkt zurück. Insgesamt rät der Google-Experte vom kontrollierten PageRank-Sculpting ab, indem etwa die internen Anker-Texte auf eine maximale Anzahl gebracht werden oder alles dafür getan wird, um einen möglichst hohen PR zu erreichen. Denn die Mitarbeiter von Google setzen auf verschiedenste Methoden wie mathematische Formeln und Algorithmen, die es nicht lohnenswert machen, PR anzuhäufen. Schließlich ist Googles Intention nicht, dass alle Websites es schaffen, ihren PR zu maximieren. Nur qualitativ hochwertige Webpräsenzen haben eine Chance.

Deshalb ist es zwar sinnvoll, eine Website in klaren Strukturen aufzubauen. Allerdings sollten dabei die Besucher im Vordergrund stehen, nicht Google. Aus diesem Grund appelliert Cutts daran, nicht zu verbissen an der Optimierung der Sichtbarkeit bei der Suchmaschine zu arbeiten, sondern wirklich einen Mehrwert für die Nutzer zu schaffen. Denn dadurch erhalten Websites externe Verlinkungen, die den PR erhöhen. Was die Betreiber dann mit ihrem PageRank tun, bezeichnet Cutts als „nebensächlich“.

Quelle (externe Seite):

[related-links]

SEOadministrator – ein Multi SEO Tool

Ein wirklich hilfreiches Multi Tool kommt aus Russland (nicht schrecken) und nennt sich “Seoadministrator”.

Das Programm ist ein echtes Schnäppchen unter den SEO Suiten. In der Experten Ausführung kostet das Teil gerade einmal 249,– US Dollar. Man bezahlt einmal das Programm (oder einige Module daraus) und bekommt regelmäßig kostenlos Aktualisierungen, Updates und Erweiterungen. Es wird also ständig erweitert und aktuell gehalten. Ob es wirklich etwas taugt kann und soll jeder selber testen – deswegen steht eine kostenlose Trialversion zur Verfügung!

Interessant ist auch das man auch Daten aus der Yandex Suchmaschine erhält.

Auch toll: Man kann beliebig viele Projekte bzw. Domains pro Tool anlegen. Somit sind auch Konkurrenz Analysen schnell möglich.

Unter einer übersichtlichen Oberfläche sind zahlreiche Werkzeuge zur Suchmaschinenoptimierung vereint:

Weiterlesen

SEO: Was ist OnPage-Optimierung?

Wer Suchmaschinenoptimierung (SEO) richtig angehen will, der kommt an der OnPage-Optimierung nicht vorbei. In Kombination mit der OffPage-Optimierung macht sie SEO zu dem, was es ist – nämlich eine der wichtigsten Methoden, um die eigene Website an eine Spitzenposition bei Google & Co. zu bringen. Der Begriff OnPage-Optimierung umfasst alle Maßnahmen, die selbst auf einer Website durchgeführt werden können und ohne äußere Einflüsse funktionieren. Für letztere zeichnet die OffPage-Optimierung verantwortlich. Zu „OnPage“ zählen unter anderem der Domain-Name, URLs, der Website-Aufbau sowie die Inhalte, Meta-Tags, Links usw. Webseitenbetreiber haben also einiges zu tun, um eine Homepage fit zu machen für die Top-Position bei Suchanfragen.

Content is King – Jetzt erst recht

Die Texte auf einer Website sind für Suchmaschinen die entscheidende Komponente. Ob es sich um eine Websiten-Überschrift, Meta-Description oder eine Bildunterschrift handelt: überall in den Strukturen der Online-Präsenz befindet sich redaktioneller Content. Und diese Inhalte zählen bei Google. Besonders seit Google seinen Crawling-Algorithmus mit dem Panda-Update verbessert hat. Jetzt gilt: Je individueller, umso besser für die Positionierung im Ranking. Ehe man also mit der OnPage-Optimierung loslegt, empfiehlt sich eine umfassende Analyse der Website, der Zielstellung und natürlich der passenden Keywords. Letztere sind die Schlagworte, die dafür sorgen, dass die User bei Suchanfragen nach eben diesen Wörtern oder Wortgruppen, die optimierte Site in der Suchliste finden.

Über je mehr Texte eine Website verfügt, umso mehr Keywords oder Kombinationen aus Schlagwörtern können dort untergebracht werden. Doch Vorsicht: Qualität steht vor Quantität. Zudem kommt es bei der OnPage-Optimierung nicht nur auf das einmalige Bestücken der Homepage an, denn auch dynamische Inhalte verschaffen dem Betreiber Vorteile bei den Suchmaschinen. Sie bieten den Webcrawlern regelmäßig neuen Input beim Durchforsten der Sites nach Schlagworten. Blogs oder Newsfeeds sind beispielsweise nützliche Instrumente, um dynamische Inhalte zu generieren. Und natürlich heißt es für alle Texte auf der Website: Doppelten Content vermeiden!

Das Gesamtpaket bringt den Ranking-Erfolg

Neben den Inhalten auf einer Website ist auch die technische Umsetzung wichtig. Sowohl das Hosting als auch die HTML-Programmierung sind bedeutende Faktoren für eine gelungene Onpage-Optimierung. Der HTML-Code sollte frei von Fehlern sein und keine toten Links beinhalten. Und auch innerhalb dieser an sich abstrakten Disziplin sind Texte unverzichtbar, denn in dem Code befinden sich die Meta-Infos wie Description oder Title. Viele Webseiten besitzen zudem eine Sitemap, die nicht nur den Usern als Orientierungshilfe dient, sondern auch von Suchmaschinen als Protokoll genutzt werden können. Es enthält mitunter relevante Metadaten wie der Zeitpunkt der letzten Aktualisierung oder der Änderungsfrequenz. Weiterhin sollte der internen Verlinkung Beachtung geschenkt werden, etwa durch eine klar strukturierte Navigationsleiste oder auch sinnvolle Links im Text-Content. Die Verwendung des „Title“-Attributs sorgt dafür, dass die Suchmaschinen die Links besser erkennen können und ein Plus an Informationen erhalten.

Wie sich zeigt, ist die OnPage-Optimierung ein weites Feld, auf dem es Vieles zu beachten gilt. Deshalb lohnt es sich für kleine und mittlere Unternehmen, externe Dienstleister für Beratungs- und Optimierungszwecke einzusetzen. Denn mit deren professioneller Hilfe wird die Suchmaschinenoptimierung zielorientiert umgesetzt und Erfolge bald sichtbar.

Weitere Infos (externe Seiten):

[related-links]

Was bedeutet der Begriff „Customer Journey“?

Nach Angaben des Customer Survey 2011 vom Online-Portals Affilinet zählt Customer Journey im Performance-Marketing zu den wichtigsten Trends des Jahres. Doch was verbirgt sich hinter dem klangvollen Namen? Übersetzt heißt Customer Journey „die Reise des Kunden“ und umfasst den Kontaktkurve des Kunden mit einem Unternehmen oder einer Marke mit allen Berührungspunkten, auch „Touchpoints“ genannt. Im Online-Bereich ist damit also der Weg des Kunden von der ersten ‚Begegnung’ mit dem Produkt bis zur Conversion – also den Kauf oder der persönlichen Kontaktaufnahme – gemeint. Dieser Weg kann aber auch über andere Medien führen, etwa via Print, Rundfunk oder TV. Sofern diese als Werbekanäle genutzt werden. Indem Unternehmen diese Pfade zurückverfolgen und analysieren, können sie Marketing-Budgets neu verteilen und Werbestrategien optimieren.

Customer Journey als Controlling-Instrument

Die Analyse der Kundenreise erfolgt durch spezielle Tools, zum Beispiel Programme fürs Multichannel Tracking. Die ausgetüftelten Systeme ermöglichen die Onsite- und Offsite-Analyse von Telefon und Direct-Traffic über Suchmaschinenoptimierung und Google AdWords bis hin zu Social Media. Je nach Anbieter werten solche Multichannel-Tracking-Tools die Klicks, Impressionen oder Anruferfrequenz und -dauer aus und erstellen dazu umfassende Statistiken. Das bedeutet, dass KMU genau erkennen können, welche Touchpoints effizient zu einer Conversion beitragen und welche optimierungsbedürftig sind. Damit wird die Customer Journey ein nützliches Messinstrument für die Marketinganalyse.

Eine Alternative zum Tracking ist das „Modelling“. Bei diesem Verfahren werden zusätzliche Faktoren wie Kosten und Einnahmen, Preisgestaltung oder saisonale Einflüsse in die Analyse einbezogen. Dadurch erhalten KMU eine reale Darstellung zur Effizienz der Webekanäle. Außerdem erlaubt das Modelling im Gegensatz zum Multichannel-Tracking eine Zukunftsprognose des Verkaufprozesses. Diese kann durch die virtuell verändert werden und hilft so, reale Entscheidungen zu treffen.

Den Kunden verstehen lernen

Die Customer Journey hilft KMU in erster Linie dabei, zu verstehen, wie der Kunde „tickt“. Welchen Weg geht er auf der Suche nach dem Produkt und warum? Das „warum“ stellen in dem Fall der Aktivierungsreiz dar, der „Call to action“. Die Werbetreibenden animieren die Nutzer dazu, bestimmte Handlungen zu vollziehen – üblicherweise solche, die den Kaufreiz fördern. Eine typische Kundenreise könnte folgendermaßen aussehen: Kunde X sieht im Fernsehen eine Werbung für das Produkt Y. Seine Aufmerksamkeit ist geweckt und er möchte weitere Informationen sammeln. Dafür konsultiert X das Internet und gibt bei Google den Produktnamen Y ein. Auf seine Anfrage hin erscheint eine AdWords-Anzeige, auf die der Nutzer klickt. Der Link führt in den Webshop des Herstellers. Hier informiert sich der User über die Merkmale von Y und entscheidet sich für den Kauf des Produkts. Für die Bestellung nutzt X entweder das Telefon oder den Online-Shop. Mit der Aufklärung dieser Customer Journey bemerkt der Werbetreibende, dass die Kanäle TV-Spot und Website für Produkt Y hilfreiche Marketingsäulen sind, die er in Zukunft gegebenenfalls finanziell oder personell stärkt.

Dieses Beispiel ist keine Anleitung, sondern dient lediglich dem Verständnis. Die Arbeit mit diesem Performance-Segment eignet sich aufgrund der Vielseitigkeit vor allem für Unternehmen, die auf vielen Kanälen werben und nicht nur ihre Kunden besser kennen lernen, sondern auch Kosten kürzen oder Budgets besser verteilen möchten.

Weitere Infos (externe Seiten):

[related-links]

Seitenreport, eine automatische Analyse

Ein wirklich sehr interessantes Tool für Webmaster die Ihre Homepage suchmaschinen- und anwenderfreundlicher machen wollen ist Seitenreport.de.

Nach Eingabe der URL analysiert das Skript automatisch die Homepage auf verschiedene Kriterien.

Anschließend wird ein leicht verständlicher Report ausgegeben der aufzeigt wo es hakt und gibt sogar Verbesserungsvorschläge.

Die in der Basis kostenlose Variante gibt zwar nicht alles Preis aber für den Otto Normal Webmaster sind wirklich viele hilfreiche Anregungen dabei.

Weiterlesen

Die vier wichtigsten Trends im Performance-Marketing

Die Zukunft des Performance-Marketings liegt in den folgenden Trends: Retargeting, Social und Mobile Marketing sowie Costumer Journey. Zu diesem Ergebnis kam das Costumer Survey 2011, welches nun vom Online-Marketing-Portal Affilinet veröffentlicht wurde. An der Studie nahmen 342 Publisher, 120 Advertiser und 41 Agenturen teil, die sich zu den aktuellen Tendenzen in der Branche äußern sollten. Dabei entstand ein recht klares Bild: An erster Stelle der zukunftsweisenden Trends steht das Mobile Marketing. Darüber waren sich 98 Prozent der Agenturen, 93 Prozent der Advertiser und 86 Prozent der Publisher einig. Gleich danach mit nur wenigen Prozentpunkten Abstand folgt das Social Marketing mit 93 Prozent bei den Advertisern, 90 Prozent bei Agenturen und 85 Prozent bei den Publishern. Das Retargeting belegt Platz drei in der Befragung (84 Prozent bei Advertisern, 83 Prozent bei Agenturen und 62 Prozent unter den Pubslishern). Der immerhin viertwichtigste Trend ist unter den Befragten das Costumer Journey mit 88 Prozent bei den Agenturen, 73 Prozent bei Advertisern und 53 Prozent bei Publishern.

Neben diesen Trends gibt es auch Online-Werbemaßnahmen, die weiterhin bedeutend bleiben. Dazu gehören die Suchmaschinenoptimierung und das Affiliate Marketing. Besonders letzteres ist laut Angaben des Costumer Survey 2011 mit 98 Prozent bei den Advertisern derjenige Vertriebskanal, der im Online-Bereich weiterhin stark zunehmen wird. Die Bereitschaft, für das Instrument Geld in die Hand zu nehmen, ist dabei unter den Entscheidungsträgern im Vergleich zum Vorjahr um 5 Prozent gestiegen. Mindestens in den nächsten drei Jahren wollen die Advertiser in Affiliate Marketing investieren.

Die Ursachen für das Bedeutungswachstum der vier genannten Trends lassen sich in der technischen Entwicklung der letzten Jahre erklären. Ganz offensichtlich ist dies bei Mobile und Social Marketing erkennbar. Zeichnet bei dem mobilen Markt vor allem die explosionsartige Verbreitung von internetfähigen Smartphones verantwortlich, so sind es beim Social Marketing die sozialen Netzwerke wie Facebook oder Jappy. Auch das Retargeting ist eine Konsequenz des Userverhaltens im Web. Das Ziel all dieser Maßnahmen ist es, die Benutzer an ihren gewohnten Wegen durch das Internet abzuholen. Sei es beim Austausch von Informationen mit Freunden über Facebook oder bei der Suche nach bestimmten Produkten über Google und Co. Einige Handlungen wiederholen die potenziellen Kunden immer wieder, woraus sich eine gewisse Frequenz ergibt. Diese kann von Werbetreibenden mittels der vier Online-Werbetrends mit großer Effektivität genutzt werden.

Reizvoll sind alle Maßnahmen, da sie ganz unterschiedliche Aspekte der Online-Werbung umfassen. Zudem benötigen variable Mindestbudgets, so dass sich auch kleine und mittlere Unternehmen viele dieser Mittel leisten können. Welche jedoch tatsächlich sinnvoll ist, hängt von der Branche eines Unternehmens ab sowie von der konkreten Zielsetzung. Soll die Kundenbindung gestärkt werden? Oder soll der Verkauf eines bestimmten Produkts vorangetrieben? Mit einer ausgeklügelten Werbestrategie und den vier aktuellen Trendmitteln können Unternehmen ihre Präsenz im Internet erfolgreich steigern.

Man merkt deutlich, SEO Agenturen bekommen immer mehr zu tun um ihren Kunden wirklich “gutes” tun zu können.

 

Links auf Wikipedia

Ein sehr großer Vorteil für den eigenen Trust einer Webseite ist ein Beitrag auf Wikipedia. Denn dieses Werk ist einer der bekanntesten Internetlexika auf der ganzen Welt. Dort überprüfen Fachautoren die Texte selbst und entscheiden, ob diese Wikipedia bereichern. Die komplette Enzyklopädie ist frei zugänglich für jedermann. Jeder darf sich Informationen zu Wikipedia ansehen. Teilweise darf man die Information sogar für die eigene Webseite verwenden unter der Voraussetzung, dass die Quelle angegeben wird. Doch bei eigenen Projekten bringt dies doppelten Content. Empfehlenswert kann die Nutzung dieser Informationen auf dem eigenen Projekt sein, wenn man bestimmte Daten wie z.B. Einwohnerzahlen von Städten in eigenen Content integriert.

Hinsichtlich auf Seo kann Wikipedia enorme Vorteile bieten. Ein guter Autor mit einer Idee einen bestimmten Begriff in die freie Enzyklopädie zu bringen, kann dem Schreiberling einen sehr wertvollen Link verschaffen. Der Begriff sollte in Wikipedia noch nicht vorhanden sein und nach deren Richtlinien verfasst werden. Wenn dem so ist, hat man gute Chancen mit eigenen Artikeln aufgenommen zu werden. Ein Link von Wikipedia bringt definitiv etwas für die eigene Internetpräsenz. Wer bestimmte Webseiten anbietet, die einen Mehrwert bieten, kann manchmal auch ohne eigenen Text einen Link auf Wikipedia erhalten. Eintragen lässt sich der Link von jeder Person, aber ob dieser bestehen bleibt ist einen andere Sache. Webseitenbetreiber aus den Bereichen Bildung, IT,  Naturwissenschaften oder ähnlichen Bereichen, die nicht zu kommerziellen Zwecken dienen haben Chancen auf einen Link in Wikipedia.

Bekanntheitsgrad und Eintrag in Wikipedia

Wer über einen hohen Bekanntheitsgrad verfügt und für Wikipedia eine gewisse Wichtigkeit darstellt, kann sogar eine eigene Seite anlegen über sein Unternehmen oder seine Person. Unternehmen wie Immobilienscout verfügen über eine eigene Unterseite dieser Enzyklopädie. Solche Firmen punkten mit hohen Besucherzahlen, Bekanntheitsgrad und Wiedererkennungswert.

Warum bietet Wikipedia Power für meine Webseite

Dies liegt quasi auf der Hand. Schauen Sie sich die Webseite über Alexa.com doch einfach mal an. Diese gehört zu einer der zehn wichtigsten Webseiten auf der ganzen Welt. Ob der Link das Attribut „no follow“ hat, spielt dann auch keine große Rolle mehr. Mehr als 1 Millionen Backlinks verzeichnet Wikipedia. Auch in den Suchergebnisseiten von Google befindet sich Wikipedia ganz vorne. Die meisten Themen werden auf dieser Webseite beschrieben. Es ist immer ein Versuch wert einen Text für Wikipedia zu verfassen.

Nicht leicht

Natürlich ist es nicht leicht einen Link auf Wikipedia zu erlangen. Hat man aber einen wirklich guten Content zu einem bestimmten Thema stehen die Chancen nicht schlecht. Fachartikel, Neuentdeckungen usw. hier ist dann Kreativität gefragt …….

PS: Es macht übrigens auch Sinn auf der eigenen Homepage einen (themenrelevanten) Link auf Wikipedia zu legen. Aber das ist eine andere Geschichte 🙂

Weitere Infos (externe Seiten):

[related-links]

KMU: Do’s & Don’ts für den Umgang mit Social Media

Social Media benutzen kann rein technisch jeder, der einen PC und einen Internetanschluss besitzt. Es jedoch zielorientiert und erfolgreich für kleine und mittlere Unternehmen einzusetzen, ist dagegen eine Herausforderung. Der erfolgreiche Einstieg in das Online-Marketing-Segment Social Media ist – wie etwa auch bei der Suchmaschinenoptimierung – mit etlichen Stolpersteinen gepflastert. Ob Twitter, Xing oder Facebook: Für jeden Kanal gelten ungeschriebene Regeln, die für die gewünschte Außendarstellung von KMU zu beachten sind. Wir wollen an dieser Stelle die wichtigsten unter die Lupe nehmen.

1. Inhalte
Für alle sozialen Netzwerke gilt: Genau überlegen, was gepostet wird. Einfach nach Gutdünken den Fans und Followern irgendwelche Neuigkeiten zu melden, ist kein optimaler Weg. Die Tweets und Statusmeldungen sollen den Usern einen Mehrwert bieten. Das müssen nicht immer fachliche Zusammenhänge sein, ganz im Gegenteil. Amüsante Ereignisse aus dem Firmenalltag bieten oft einen hohen Unterhaltungswert – und das lockt Abonnenten für die eigenen News an. Als Richtlinie, um wirklich interessante Themen für die Öffentlichkeit zu erkennen, dient meist schon der eigene Verstand. Was würde einen selbst über das Unternehmen interessieren? Was schadet dem Unternehmensimage eher, als es zu fördern?

2. Stil und Ausdruck
Bei Wortwahl und Kundenansprache sollten KMU sich zu Beginn für einen Stil entscheiden. Will das Unternehmen eher jugendlich, frisch und unformell wahrgenommen werden oder ist Seriosität und Fachlichkeit der bessere Weg? Hier kann jedes Unternehmen eigene Spielregeln aufstellen. Wichtig ist, dass die eigene Glaubwürdigkeit bewahrt wird. Und dabei ist Authentizität ein Schlüsselwort. Letztlich zählt wie immer die Zielgruppe und die Intention, die man mit dem Einsatz im Social Web verbindet. Die Artikulation spiegelt dies wider. Aber ein guter Schuss Natürlichkeit transportiert die menschliche Seite eines Unternehmens und das bringt Sympathiepunkte bei den Usern. Diese spüren andererseits schnell, wenn Meldungen steif und affektiert sind.

3. Orthografie und Grammatik
Es mag ein wenig schulmeisterhaft klingen, aber die Rechtschreibung ist dringend zu beachten. Auch wenn das Twittern und Posten bei Facebook eher neben dem operativen Geschäft läuft, Flüchtigkeitsfehler sehen nicht gut aus. Noch schlimmer sind grammatische oder orthografische Fehler, die nicht einfach aus schnellem Tippen heraus passieren. Dauerhafte Mängel in der schriftlichen Kommunikation sind nicht nur peinlich, sondern können auch die Glaubwürdigkeit beeinträchtigen.

4. Frequenz
Aktuelle Studien haben sich damit beschäftigt, wann der richtige Zeitpunkt zum Twittern ist und welchen Effekt die Frequenz, also die Häufigkeit des Zwitscherns, hat. Dabei wurde festgestellt, dass viel beachtete Twitter-Accounts bis zu 22 Mal posten. Die Folge waren viele Follower. Allerdings wirkt sich allzu häufiges Aktualisieren der Status-Updates negativ auf die Umleitung der Nutzer auf externe Webseiten aus. Will man also den Traffic der Unternehmensseiten stärken, dann ist Zurückhaltung angesagt. Denn wer will postet, der verursacht eine regelrechte Abstumpfung der User. Die Inhalte werden nicht mehr mit Interesse verfolgt.

Diese Tipps sind ein guter Rahmen, um das richtige Maß für die Social Media-Nutzung zu finden. Und am Ende funktioniert es auch ein bisschen nach dem Prinzip „Learning by doing“.

Weitere Infos (externe Seiten):

[related-links]