Schlagwortarchiv für: suchmaschinenoptimierung

SEO Trends: Die Latent Semantische Optimierung – LSO

Das Content bei der Suchmaschinenoptimierung einer Website King ist, ist schon lange bekannt. Doch seitdem immer mehr Suchmaschinen einen erhöhten Wert auf qualitativ hochwertige Inhalte legen – wie das Algorithmus-Update Google Panda beweist – entwickeln sich in dieser Richtung ganz neue Trends. Einer davon ist die Latent Semantische Optimierung (engl. Latent Semantic Optimization), kurz LSO. Diese Technik kann als tiefer führende Maßnahme der OnPage-Optimierung verstanden werden, denn sie beschäftigt sich mit der optimalen Nutzung von sprachlichen Mustern in einem Text. Dabei liegt ein Schwerpunkt auf den Substantiven und Verben, denn sie bilden hauptsächlich die Keywords für die Suchmaschinenoptimierung. Im Einzelnen bedeutet das, dass die Schlagwörter nicht immer auf dieselbe Weise genutzt werden müssen, sondern auch durch Synonyme und Ausdrücke aus dem sprachlichen Umfeld verwendet werden. Lautet das Keyword etwa „Wasser“, dann gehören unter anderem „Tropfen“, „See“, „Fluss“ oder „Eis“ zum semantischen Paradigma.

Die technische Seite: Die Latent Semantische Indexierung (LSI)

LSO funktioniert deshalb, weil viele Suchmaschinen die Latent Semantische Indexierung nutzen. Mit Hilfe dieser Technologie werden Websites, die in den Indices der Suchmaschinen aufgenommen sind, auf semantische Zusammenhänge geprüft. Das bedeutet, das Google & Co. die Themen der Texte erkennen können und zwar über die Keyword-Abfrage hinaus. Vom Prinzip her ähnelt diese Methode der des menschlichen Hirns, nur das es weniger komplex strukturiert ist. Wirklich neu ist die Technik der Latent Semantischen Indexierung (LSI) zudem nicht, denn Google hat sie schon vor ein paar Jahren eingeführt. Doch mit dem neuen Priorisieren des inhaltlichen Mehrwerts beim Ranking gewinnt LSI und LSO immer mehr an Bedeutung.

Das Verbindungsglied zwischen LSO und LSO ist die Latent Semantische Analyse (LSA). Sie ist ein ausgeklügelte Methodik zur Überprüfung von semantischen Zusammenhängen zwischen Wörtern und Satzstrukturen. So werden etwa die Abstände zwischen Wörtern gemessen und es kommen sogar Vektorräume zum Einsatz. Bei der Analyse werden also nicht nur die Keywords als positiver Wert gezählt, sondern auch alle semantisch verwandten Begriffe.

Was bedeutet der LSO-Trend für Website-Betreiber?

LSO bedeutet mehr Flexibilität bei der kreativen Texterstellung – mehr Freiheiten bei der Wortwahl und somit auch eine höhere Qualität im Text. Für Website-Inhaber heißt das aber auch, noch mehr Aufwand in die Produktion der redaktionellen Inhalte der Internetpräsenzen zu investieren. Schlägt die LSA der Indexierung positiv an, dann wirkt sich dies positiv auf das Ranking innerhalb der Suchergebnisse aus. Mit der LSO ergibt sich für Website-Betreiber also ein neues praktisches Tool, um die Online-Reputation des Unternehmens oder eines Produkts zu stärken. Die intensive Beschäftigung mit den Textinhalten wird in Zukunft immer wichtiger werden.
Professionelle Texter stellen Begriff-Sammlungen aus dem sprachlichen Umfeld von Keywords zusammen und verarbeiten diese geschickt in den einzelnen Texten. Dadurch ergibt sich ein Content-Konstrukt, das sich durch einen hohen Informations- und Mehrwert auszeichnet und den Anforderungen der Suchmaschinen gerecht wird.

Weitere Infos (externe Seiten):

[related-links]

Google Penalties: Was tun nach der Abstrafung einer Website?

Um eine Website bei Google in eine Top-Position zu bringen, führen Betreiber und SEOs viele Bemühungen durch. Manchmal auch zu viele, denn immer wieder werden unlautere Mittel für die Verbesserung des PageRanks genutzt, die gegen die Richtlinien von Google verstoßen. Bemerkt der Internetkonzern dies, dann wendet er bestimmte Strafen, auch ‚Penalties‘ genannt, an. Diese richten sich in erster Linie gegen die Sichtbarkeit der Website, so dass die Betreiber erhebliche Reputations- und Traffic-Verluste hinnehmen müssen. Was also können Website-Inhaber tun, wenn ihre Seite abgestraft wurde? Und wie kann der Schaden behoben werden?

Ursachen für Abstrafungen erkennen

Wurde eine Google Penalty verhangen, dann steht eine gründliche Prüfung der eigenen Homepage bevor. Wer den Grund der Strafe nicht kennt, der muss sich auf Spurensuche begeben. Wurden zu viele Keywords in den Texten verarbeitet, so dass die Qualität mangelhaft ist? Oder wurden zu viele Backlinks in kürzester Zeit integriert? Viele Gründe können zu einer Abstrafung führen, deshalb sollte jede Komponente der Website untersucht werden. Wenn die Regelverstöße jedoch bewusst durchgeführt wurden, zum Beispiel durch den Verkauf oder dem Austausch von Verlinkungen, dann wissen die Inhaber in der Regel genau, wo die Schadensbehebung stattfinden muss. „Schlechte“ Links müssen entfernt oder mit dem Nofollow-Attribut versehen werden, versteckte Links müssen gefunden werden. Schnelles Linkwachstum sollte generell vermieden und stattdessen maximal ein bis drei Links pro Tag integriert werden. Zu überprüfen gilt auch, ob automatisierte Tools einen Einfluss haben – etwa Social Bookmarking Spammer oder Katalog-Submitter. Diese können ebenfalls zur Abstrafung führen und sollten dringend aufgespürt werden.

Liegt der Schwerpunkt der Suchmaschinenoptimierung in der Onpage-Optimierung und es kam zur Penalty, dann ist die Überarbeitung der Texte notwendig. Dazu zählen alle Meta-Daten wie Title und Description sowie alle redaktionellen Inhalte auf der Website. Eine zu hohe Keyword-Dichte und mangelhafte Qualität der Texte kann zur Herabsetzung des PageRanks führen. Blind-Texte, die im Hintergrund laufen, sind ebenfalls illegal und müssen entfernt werden.

Ganz wichtig: Sehen Sie in den Google Webmaster Tools nach!!!!!!!!!!!! Tante G ist längst nicht mehr so zurückhaltend mit diesbezüglichen Informationen als früher. Oft findet man in den Tools einen Hinweis!!

Am besten wird es aber sein Sie wenden sich an eine seriöse SEO Agentur!

Richtig Vorgehen nach der Fehlerbehebung

Sind die Fehler beseitigt, sodass die Website wieder den Maßgaben des so genannten „White Hat SEO“ entspricht, dann heißt es bei Google um Vergebung bitten.

Als Mittel fungiert hier der Reinclusion-Request, den Admins über die Google Webmaster-Tools entsenden können. Über diese Anfrage kann man sich bei dem Internetkonzern für die Fehler entschuldigen und ehrliche Reue demonstrieren. In den meisten Fällen wird die Penalty anschließend aufgehoben. Der Reiclusion-Request kann sowohl bei der Ranking-Herabsetzung als auch beim Delisting, also der Entfernung der kompletten Homepage aus dem Index, hilfreich sein.

Die Möglichkeit, eine Google Penalty rückgängig zu machen, hängt immer auch von der Schwere des SEO-Vergehens ab.

Bei leichten, womöglich unbeabsichtigten Fehlern, gibt Google der Website den ursprünglichen PageRank problemlos wieder, nachdem alle Regelverstöße behoben und die Reinclusion-Request verschickt wurde. Bei massiven Verstößen, bei denen Google Vorsatz wittert, ist es wesentlich schwieriger, das Vertrauen des Suchmaschinenanbieters wieder zu erlangen. Das führt in schweren Fällen sogar zum Delisting des Website-Betreibers selbst, dann kann er mit keiner Website mehr im Index landen – eine harte Strafe, vor allem für Unternehmer.

 

Google Penalties: Diese Ranking-Strafen sollten Website-Betreiber kennen

Immer wieder hört man davon, das Google ein strenges Regelwerk für die falsche Anwendung von SEO-Maßnahmen durchsetzt und dabei auch nicht mit Ranking-Strafen geizt. Die Richtlinien sind ziemlich umfangreich und betreffen sowohl die OnPage- als auch die OffPage-Optimierung: „Abgestraft“ werden zum Beispiel Doppel-Content, Invisible Texts, Link-Spamming, Keyword-Stuffing sowie Cloaking. Seit neuestem werden außerdem Websites mit zu viel Werbung abgestraft. Die Qualität der Inhalte ist seit dem Panda-Update ganz klar zur Priorität für Website-Betreiber geworden. Da der bewusste Missbrauch von Algorithmus-Lücken jedoch so verbreitet ist, dass dieser sogar einen eigenen Namen hat (Black Hat SEO), sind Strafen ganz offensichtlich weiterhin notwendig. Sistrix hat hierzu eine anschauliche Übersicht über mögliche Sanktionen erstellt:

1. Die Senkung des PageRank

Diese Strafe ist einer der essentiellen bei Google, denn der PageRank entscheidet über die Reputation einer Website bei Google. Je höher die Zahl, desto stärker ist eine Website und desto wertvoller sind Backlinks von ihr auf eine schwächere Internetpräsenz. Einen hohen PageRank gewinnen Seiten, indem sie viele und vor allem hochwertige Inhalte verwalten. Wird eine Homepage durch die Herabsetzung dieser Kennzahl „penalized“, dann verliert sie sozusagen ihren guten Ruf. Dass eine Seite abgestraft wurde, erkennt man in der Regel an einem niedrigen PageRank trotz zahlreicher Inhalte mit hohem Mehrwert – insbesondere hinsichtlich der Keywordoptimierung. Bedeutend ist dies jedoch hauptsächlich für die Startseite, bei Unterseiten ist die Senkung des PageRank kaum tragisch. Der PageRank einer Website kann zum Beispiel über die Google Toolbar überprüft werden. Angewandt wird diese Strafe vor allem bei Betreibern, die Links verkauft haben und dabei auf das „no-follow“-Attribut verzichtet haben.

2. Die Zurückstufung der Keywords

Bei dieser Abstrafung sind nur bestimmte Schlagwörter, über die eine Website bei Google gefunden werden kann, betroffen. Allerdings sind das meist wichtige Keywords, die eine Webpräsenz in der Ergebnisliste auf eine gute Position bringen. Die Strafe zu erkennen, ist nicht einfach, da dieser Faktor insgesamt sehr dynamisch ist. Bei drastischen Keyword Penalties können einzelne Schlüsselwörter und Schlagwortgruppen mehrere 10er-Punkte abgezogen bekommen. Das macht sich deutlich im Traffic einer Seite bemerkbar, denn der Internetauftritt verliert dadurch enorm an Sichtbarkeit. Mit den Google Webmaster Tools lassen sich solch schwerwiegenden Veränderungen gut überprüfen. Hierfür können etwa die Suchanfragen und das Suchwort-Ranking analysiert werden.

3. Seiten-Herabstufung und Delisting

Diese beiden Strafen sind die schwersten und bedeuten einen gewaltigen Einschnitt in die Sichtbarkeit einer Website. Bei der Seitenherabstufung werden nicht nur einzelne Keywords sanktioniert, sondern der gesamte Internetauftritt um mehrere Stufen im PageRank herabgesetzt. Das Delisting ist der endgültige „Todesstoß“: Die Website wird gänzlich aus dem Index entfernt und kann nicht mehr von den Usern gefunden werden. Und in den Index wieder aufgenommen zu werden, gestaltet sich schwierig. Nicht nur für die eine Domain, sondern auch für den Betreiber an sich. Google ist nachtragend. Allerdings bedarf es schon sehr fataler Verstöße seitens der Webadministratoren, ehe das Delisting zum Einsatz kommt.

[stextbox id=”info”]Unser Fazit: Suchmaschinenoptimierung muss „sauber“ durchgeführt werden. Es lohnt sich nicht, Google auszutricksen, denn die Konsequenzen bedeuten stets einen großen Kraftaufwand, um den Positionsverlust wieder auszugleichen.[/stextbox]

Weitere Infos (externe Seiten):

[related-links]

Augen auf bei der Wahl des Webhosting-Angebots!

Bevor eine Website überhaupt gelauncht werden kann, benötigt der Betreiber eine Domain sowie die Möglichkeit, die Internetpräsenz aufzubauen und zu verwalten. Den dafür verwendeten Webspace bezieht man in der Regel über einen Webhosting-Provider. In diversen Paketen können Interessenten unterschiedliche Leistungen einkaufen, die von der Domain-Registrierung über den Aufbau der Website bis hin zum Monitoring, also der technischen Überwachung des Servers, reichen. Beim Webhosting wird virtueller Raum „gemietet“, den man nach seinen Wünschen einrichten kann – ähnlich wie bei einer Wohnung. Doch die Auswahl an Webhosting-Anbietern ist groß und das technische Know-how der User oft nur lückenhaft. Wie findet man also auch als Laie das passende Angebot? Worauf gilt es bei der Wahl zu achten?

Kleine vs. große Webprojekte – die Anforderungen variieren

Für jedes Projekt gibt es die richtigen Paket-Angebote – man muss nur wissen, worauf es ankommt. Das beginnt etwa bei der Qualität der Netzwerkverbindung. Je größer der Webauftritt und je umfangreicher die multimediale Einbindung von Video, Sound oder Echtzeitkommunikation, desto wichtiger ist eine hohe Übertragungsrate. Nur mit einem angemessenen Traffic-Volumen ist die korrekte Darstellung und Nutzung einer komplexen Website möglich. Deshalb ist es empfehlenswert, im Vorfeld zu eruieren, mit welchen Netzknoten der Provider verbunden ist. Zu den größten zählen aktuell Amsterdam (AMS-IX) und Frankfurt (DE-CIX). Wenn es um die Wahl zwischen einem Angebot mit kostenlosem oder kostenpflichtigem Webspace geht, wählen seriöse KMU das kostenpflichtige. Bei den kostenlosen Paketen werden Werbebanner eingeblendet, und die haben auf einer Unternehmenswebsite nichts zu suchen. Zudem haben die der Website-Inhaber meist keine Kontrolle hat über die eingeblendeten Anzeigen, so dass Themenrelevanz nicht zwingend gegeben ist. Aber egal ob relevant oder nicht – Text- und Display-Anzeigen sind ein No-Go für seriöse Firmen-Websites.

Weiterhin stellt sich die Frage: Eigener Server oder Shared Hosting? Auch hier ist der Umfang des geplanten Webauftritts entscheidend. Für eine kleine Website mit statischen Inhalten ist Shared Hosting eine preiswerte und unkomplizierte Variante. Wer jedoch umfassende Einstellungen und Instrumente einbinden möchte, für den ist das Shared Hosting in den Funktionen zu eingeschränkt. Ein eigener Server ist zwar kostspieliger, bietet jedoch viel mehr Freiheiten für individuelle Konfigurationen.

Die Suchmaschinenoptimierung bei der Wahl bedenken

Die Wahl des richtigen Webhostings kann sich sogar auf die Suchmaschinenoptimierung auswirken. Etwa wenn die Domain eine eigene IP erhält – und das ist nicht bei jedem Provider gewährleistet. Bei Shared-Hosting-Angeboten beispielweise teilen sich viele Websites eine IP. Domains mit eigener IP werden von Google jedoch höher angesehen, was sich wiederum positiv auf das Ranking auswirkt. Aber ein eigene IP Adresse zu haben kostet wirklich viel Geld. Achten Sie also lieber darauf das Ihr Hoster eine IP Adresse zuweist die noch nicht “überlaufen” ist.

Mit einem eigenen Server können sogar mehrere eigene IP-Adressen eingerichtet werden. Zusammenfassend gilt es also, sich über die eigenen Anforderungen des Webprojekts klar zu werden. Des Weiteren lohnt es sich, wie bei allen Produkten, auch bei der Wahl des Webhosting-Providers einen Vergleich anzustellen. Dabei sind nicht nur die technischen Details wichtig, sondern auch die Serviceleistungen des Anbieters. Von kostenlosen Angeboten sollten KMU Abstand halten und lieber in eine professionelle Lösung investieren. Diese muss nicht zwingend technisch komplex sein, sondern ist dem Projektumfang entsprechend zu wählen.

Das die Hard- und Software des Hosters dem heutigen Stand der Technik entsprechen soll brauchen wir wohl nicht erwähnen.

Fragen Sie auch nach Backupmöglichkeiten und sicherheitstechnischen Einstellungen!

Wärmstens empfehlen können wir World4You als Hoster.

Weitere Infos (externe Seiten):

[related-links]

Typo3-News (tt_news) für Suchmaschinen optimieren

Wer die beliebte typo3-Extension tt_news nutzen möchte, um regelmäßig aktuelle Nachrichten zu veröffentlichen – sei es für den „Hausgebrauch“, sei es für eine Anmeldung bei Google-News – trifft auf ein ärgerliches Problem. Die News-Seiten, die tt_news „out-of-the box“ generiert, sind alles andere als suchmaschinenfreundlich. Will man für jede Einzelnews einen individuellen Title, eine suchmaschinenfreundliche URL, individuelle Meta-Tags (Description) und ein suchmaschinenoptimiertes Bild einrichten, sind spezielle Anpassungen am typoscript-Code bzw. redaktionelle Eingriffe vonnöten.

Alles in allem ist die mächtige, mit zahlreichen Konfigurationsmöglichkeiten ausgestattete tt_news Extension ist so etwas wie ein „eigenes kleines CMS“ innerhalb von typo3, das spezifische Kenntnisse verlangt. Unser kleiner User-Guide soll Ihnen dabei helfen, Ihre News mit tt_news suchmaschinenoptimiert zu veröffentlichen.

URL

Per default erhält jede mit tt_news generierte Einzelnews eine user- und suchmaschinenunfreundliche URL wie /tx_ttnews[tt_news]=37&tx_ttnews[backPid]=8&cHash=e434dc45cc zu .

Voraussetzung um dies zu ändern, ist die Installation der Extension „realurl“.

Wenn man mit Hilfe von realurl den Einzelnews Adressen wie /news/veranstaltungen-auf-mallorca/ zuordnen will, muss man wie folgt vorgehen.

In den Setup-Bereich von typoscript gehören folgende Zeilen:

config.simulateStaticDocuments = 0
config.tx_realurl_enable = 1
config.baseURL =

Dann muss die Anpassung der Datei realurl_conf.php erfolgen. Die erfordert allerdings einige technische Kenntnisse. Nichtprogrammierer müssen sich an dieser Stelle gründlich in die Dokumentation der Extension einlesen. Und auch dies gelingt nur mit ein wenig technischem Vorverständnis. Zu Illustrationszwecken sei hier ein Ausschnitt aus einer realurl_conf.php angeführt, mit der die obige URL-Struktur generiert wird:

’64’ => array(
// der folgende Teil ist Standard und aus der tt_news-Dokumentation entnommen
array(
‘GETvar’ => ‘tx_ttnews[tt_news]’,
‘lookUpTable’ => array(
‘table’ => ‘tt_news’,
‘id_field’ => ‘uid’,
‘alias_field’ => ‘title’,
‘addWhereClause’ => ‘ AND NOT deleted’,
‘useUniqueCache’ => 1,
‘useUniqueCache_conf’ => array(
‘strtolower’ => 1,
‘spaceCharacter’ => ‘-‘,),),),),),
‘postVarSets’ => array(),
(…)
(die Zahl 64 ist nur eine Beispielzahl. Sie muss durch die id der jeweiligen Unterseite mit der News-Singleansicht ersetzt werden)

Grundsätzlich ermöglichst die mächtige Extension realurl eine Vielzahl individueller Anpassungen von URLs, die mit typo3 bzw. tt_news generiert werden. Für die Anmeldung einer News bei Google News z. B. ist es nötig, jeder News-URL mit Hilfe von realurl eine dreistellige eindeutige Zahl zuzuordnen.

Title und Meta Description

Per default weist tt_news allen Einzelnews den Title der jeweiligen News-Index-Seite zu. Alle Einzelnews haben also den gleichen Title, z. B. „News-Detail“. Eine individuelle Meta Description für die Einzelnews kann im Typo3-Backend ebenfalls nicht eingegeben werden.

Folgender typoscript-Code leistet für beide Probleme Abhilfe. Voraussetzung ist die vorherige Installation der Extension „Meta tags, extended”.

[globalVar = TSFE:id=64]
page.headerData.999 {
local >
local {
description.data = register:newsSubheader
keywords.data = register:newsKeywords
}
} config.noPageTitle = 0
plugin.tt_news.substitutePagetitle = 1
[end]

(TSFE:id muss auch hier wieder individuell angepasst werden)

Die individuelle Meta Discription wird im Backend im Feld „Untertitel“ eingegeben. Unter „Stichworte (kommagetrennt)“ unterhalb des Reiters „Spezial“ kann man zudem für jede Einzelnews Meta Keywords eingeben. Meta Keywords spielen allerdings für die Suchmaschinenoptimierung inzwischen keine Rolle mehr.

News-Bilder

Die Bilder in der Einzelansicht lassen sich relativ gut mit Bordmitteln für Google Bildersuche optimieren. Sowohl das alt- als auch das title-Tag des Bildes kann man im Backend bequem eingeben (Reiter „Medien“). Etwas problematisch ist allerdings, dass die Dateinamen der hochgeladenen Originalbilder per default nicht übernommen werden. Aus mallorca.jpg wird 5t4u65hg5.jpg. Um daraus den Dateinamen mallorca.jpg zu machen, muss man die typo3-Extension „Image RealURL“ installieren. Die Extension funktioniert nach der Installation ohne weitere Konfiguration, gleichwohl sind zahlreiche Einstellungsmöglichkeiten gegeben. Z. B. kann man den Bildnamen aus dem alt- oder dem title-Tag des Bildes generieren lassen.

Zuletzt noch ein etwas speziellerer Tipp: Wer seine mit tt_news verwalteten News bei Google-News angemeldet hat bzw. sie dort anmelden möchte, sollte in der News-Einzelansicht den Klickbild-Mechanismus ausschalten. Dies geht über die Code-Zeile „plugin.tt_news.displaySingle.image.imageLinkWrap.enable = 0“. Google News weigert sich nämlich, Bilder, bei denen ein Link auf das Klickbild-Popup vorhanden ist, in die SERPs seiner News-Suche einzufügen. News-Artikel, die in den Google News-SERPs mit Bild erscheinen, haben eine spürbar höhere Klickrate. Und diese Klickrate beeinflusst tendenziell das Ranking aller aktuellen News des betreffenden Newsanbieters positiv.

Gastbeitrag von:

argutus gmbh
goethestrasse 38a
40237 duesseldorf

tel.: +49(0)211 – 699.366.23
fax.: +49(0)211 – 699.366.30

web: argutus.de

SEO: Was ist OffPage-Optimierung?

Worauf es bei der Suchmaschinenoptimierung (SEO) ankommt, haben wir kürzlich mit der OnPage-Optimierung dargestellt. Doch das ist nur ein Teil der möglichen SEO-Maßnahmen, denn es gibt noch ein nicht unwesentliches Gegenstück zur internen Bearbeitung, nämlich die OffPage-Optimierung. Sie beschäftigt sich mit allen Maßnahmen, die nicht unmittelbar auf der Website durchgeführt werden. Dazu zählt im Wesentlichen das so genannte Linkbuilding (auch Linkaufbau), das sich auf externe Webseiten bezieht, die auf die Präsenz verweisen. Für die Suchmaschinenoptimierung sind solche Backlinks wichtig, da mit ihnen das Ansehen einer Website bei Google & Co. gesteigert wird. Allgemein formuliert heißt das: Je mehr Websites auf die eigene verlinken, umso höher ist der „Trust“ bei den Suchmaschinen. Die OffPage-Optimierung ist also eine nützliche Methode, um die Reputation einer Website zu steigern und in der Trefferliste nach oben zu klettern.

Die Alternative zur Keyword-Optimierung

Wenn User an SEO denken, dann fallen vielen schlagartig die Begriffe „Keyword“ oder „Schlagwort“ ein – und damit wiederum ein Teilaspekt der OnPage-Optimierung. Doch Schlüsselwörter auf die Website einzubauen, reicht häufig nicht aus um einer Website einen Turbo zu verpassen. Vor allem dann nicht, wenn die gewünschten Keywords von Wettbewerbern bereits stark genutzt werden. Die OffPage-Optimierung ist deshalb vor allem dann nützlich, wenn durch eine reine OnPage-Optimierung keine große Wirkung bei der Sichtbarkeit erwartet werden kann und setzt demnach dort an, wo interne Verbesserungen an ihre Grenzen stoßen.

Die externe Optimierung umfasst sowohl qualitative Faktoren als auch quantitative. Wie sehr ein Backlink die eigene Domainpopularität stärkt, hängt von dessen Qualität ab. Sie hängt wiederum von der Reputation der externen Website ab, etwa welchen PageRank (Google), TrustRank (Yahoo) usw. diese besitzt. Je besser die externe Seite von den Suchmaschinen anerkannt sind, umso wertvoller ist ein Backlink von dieser Präsenz. Die quantitativen Faktoren betreffen ganz klar die „Beliebtheit“ der Website. Dabei wird zwischen drei Marker-Punkten unterschieden: die Linkpopularität, die IP-Popularität und die Domain-Popularität. Der erste Begriff umfasst die Summe aller externer Verlinkungen auf eine Website. Die Anzahl wirkt sich direkt auf das Ranking einer Seite bei Suchanfragen aus. Das klingt viel versprechend, hat aber mittlerweile an Bedeutung verloren, denn oft werden Links „seitenweit“ gesetzt und die Linkpopularität auf alle Unterseiten einer Homepage übertragen. Relevanter ist da schon die Domainpopularität. Sie zählt die Gesamtzahl der verlinkenden Domains zu einem Kennwert zusammen und gewinnt dadurch Gewicht. Auch hier wirkt sich eine hohe Zahl positiv auf das Ranking aus. Die IP-Domain ist noch eine Stufe konkreter, denn hier werden nicht nur die Domains zusammen gerechnet, sondern alle IPs, die auf eine Website verweisen. Für einen guten Wert sollten sich die IPs möglichst stark voneinander unterscheiden.

Eine gute OffPage-Optimierung überzeugt durch Einsatz in Maßen

Wer nun denkt, exzessives Linkbuidling bringt die Website an eine Top-Position, der irrt. Spätestens seit der Algorithmus-Aktualisierung von Google sind solche Maßnahmen, die womöglich noch durch automatisierte Tools gefördert werden, eher schädlich denn nützlich. Deshalb sollte die OffPage-Optimierung bewusst eingesetzt und aggressive Strategien vermieden werden. Maß halten und gesunden Wachstum der Vernetzung anstreben, lautet dabei die Devise. So können Websites ihre Bekanntheit bei Suchmaschinen erfolgreich steigern.

Weitere Infos (externe Seiten):

[related-links]

Wie mehrere Links von einer Seite zur einer anderen den PageRank beeinflussen

Was genau ist der „PageRank“ einer Webseite? Eignet sich das mehrfache Verlinken von einer Seite zur anderen, um den PageRank der Zielseite zu verbessern? Und wie verhält es sich mit der Verlinkung von einer Seite zu derselben, also von A zu A? Werden dadurch der PageRank (PR) verbessert und Ankertext-Daten weitergegeben? Mit diesen Fragen beschäftigt sich Matt Cutts, Software Ingenieur der Search Quality Group von Google, in einem aktuellen Artikel auf dem Google Webmaster-Zentrale Blog.

Gemäß der ursprünglichen Definition setzt sich der PageRank aus der Summe aller auf eine Seite verweisende Links zusammen. Diese Verlinkungen können sich jederzeit verändern, etwa indem sie entfernt werden oder ähnliches. Doch das wird durch die Berechnungsformeln wieder ausgeglichen, weshalb sich Betreiber über solche Veränderungen nicht ärgern müssen. Matt Cutts erklärt dies an einem Beispiel: Der verbleibende PageRank wird einfach durch die Anzahl der externen Links geteilt, um den PageRank gleichmäßig auf jeden vorhandenen Link zu verteilen. Bei vier Links wird der PR dem entsprechend durch vier geteilt. Und auch wenn nur eine Teilmenge auf diese Seite verlinkt und eine andere auf eine alternative Seite, dann würde der PageRank durch die Links weitergegeben. Das gilt auch bei einer Selbstschleife, wenn also ein Link von Seite A zu Seite A führt.

Doch Matt Cutts bemerkt, dass solche Fragen, wie und wodurch man den PR auf einer Website steigern kann, müßig und weitgehend uneffektiv sind. Pagerank-Sculpting sollte seines Erachtens ganz natürlich erreicht werden, nämlich durch interessante Inhalte. Diese werden fast selbstverständlich von anderen Usern geteilt, wodurch ganz automatisch nützliche Verlinkungen entstehen, die den PR verbessern. Des Weiteren gibt es einige nützliche Strategien, die Webseiten-Betreiber anwenden können, um Besuchern das Surfen auf der Site zu erleichtern – und damit auch das Teilen von Inhalten. So sollte die Website klar aufgebaut sein und wichtiger Content leicht zu finden sein. Zahllose Verlinkungen auf der Homepage einzubauen, die dann endlich mal zu relevanten Inhalten führen, sind nicht zielorientiert. Unterseiten, die für viele Conversions sorgen oder anderweitig profitabel sind, sollten optimal genutzt werden. Am besten verlinkt man solche Seiten direkt von der Startseite aus. Dann entdecken die Besucher viel schneller ein attraktives Produkt oder ähnliches, das sie anschließend kaufen, usw.

Zudem empfiehlt Matt Cutts, das Unternehmenslogo im Header einzubauen und mit der Startseite zu verlinken. Das erleichtert die Navigation durch die Website und die Besucher finden immer wieder zum Ausgangspunkt zurück. Insgesamt rät der Google-Experte vom kontrollierten PageRank-Sculpting ab, indem etwa die internen Anker-Texte auf eine maximale Anzahl gebracht werden oder alles dafür getan wird, um einen möglichst hohen PR zu erreichen. Denn die Mitarbeiter von Google setzen auf verschiedenste Methoden wie mathematische Formeln und Algorithmen, die es nicht lohnenswert machen, PR anzuhäufen. Schließlich ist Googles Intention nicht, dass alle Websites es schaffen, ihren PR zu maximieren. Nur qualitativ hochwertige Webpräsenzen haben eine Chance.

Deshalb ist es zwar sinnvoll, eine Website in klaren Strukturen aufzubauen. Allerdings sollten dabei die Besucher im Vordergrund stehen, nicht Google. Aus diesem Grund appelliert Cutts daran, nicht zu verbissen an der Optimierung der Sichtbarkeit bei der Suchmaschine zu arbeiten, sondern wirklich einen Mehrwert für die Nutzer zu schaffen. Denn dadurch erhalten Websites externe Verlinkungen, die den PR erhöhen. Was die Betreiber dann mit ihrem PageRank tun, bezeichnet Cutts als „nebensächlich“.

Quelle (externe Seite):

[related-links]

SEO: Was ist OnPage-Optimierung?

Wer Suchmaschinenoptimierung (SEO) richtig angehen will, der kommt an der OnPage-Optimierung nicht vorbei. In Kombination mit der OffPage-Optimierung macht sie SEO zu dem, was es ist – nämlich eine der wichtigsten Methoden, um die eigene Website an eine Spitzenposition bei Google & Co. zu bringen. Der Begriff OnPage-Optimierung umfasst alle Maßnahmen, die selbst auf einer Website durchgeführt werden können und ohne äußere Einflüsse funktionieren. Für letztere zeichnet die OffPage-Optimierung verantwortlich. Zu „OnPage“ zählen unter anderem der Domain-Name, URLs, der Website-Aufbau sowie die Inhalte, Meta-Tags, Links usw. Webseitenbetreiber haben also einiges zu tun, um eine Homepage fit zu machen für die Top-Position bei Suchanfragen.

Content is King – Jetzt erst recht

Die Texte auf einer Website sind für Suchmaschinen die entscheidende Komponente. Ob es sich um eine Websiten-Überschrift, Meta-Description oder eine Bildunterschrift handelt: überall in den Strukturen der Online-Präsenz befindet sich redaktioneller Content. Und diese Inhalte zählen bei Google. Besonders seit Google seinen Crawling-Algorithmus mit dem Panda-Update verbessert hat. Jetzt gilt: Je individueller, umso besser für die Positionierung im Ranking. Ehe man also mit der OnPage-Optimierung loslegt, empfiehlt sich eine umfassende Analyse der Website, der Zielstellung und natürlich der passenden Keywords. Letztere sind die Schlagworte, die dafür sorgen, dass die User bei Suchanfragen nach eben diesen Wörtern oder Wortgruppen, die optimierte Site in der Suchliste finden.

Über je mehr Texte eine Website verfügt, umso mehr Keywords oder Kombinationen aus Schlagwörtern können dort untergebracht werden. Doch Vorsicht: Qualität steht vor Quantität. Zudem kommt es bei der OnPage-Optimierung nicht nur auf das einmalige Bestücken der Homepage an, denn auch dynamische Inhalte verschaffen dem Betreiber Vorteile bei den Suchmaschinen. Sie bieten den Webcrawlern regelmäßig neuen Input beim Durchforsten der Sites nach Schlagworten. Blogs oder Newsfeeds sind beispielsweise nützliche Instrumente, um dynamische Inhalte zu generieren. Und natürlich heißt es für alle Texte auf der Website: Doppelten Content vermeiden!

Das Gesamtpaket bringt den Ranking-Erfolg

Neben den Inhalten auf einer Website ist auch die technische Umsetzung wichtig. Sowohl das Hosting als auch die HTML-Programmierung sind bedeutende Faktoren für eine gelungene Onpage-Optimierung. Der HTML-Code sollte frei von Fehlern sein und keine toten Links beinhalten. Und auch innerhalb dieser an sich abstrakten Disziplin sind Texte unverzichtbar, denn in dem Code befinden sich die Meta-Infos wie Description oder Title. Viele Webseiten besitzen zudem eine Sitemap, die nicht nur den Usern als Orientierungshilfe dient, sondern auch von Suchmaschinen als Protokoll genutzt werden können. Es enthält mitunter relevante Metadaten wie der Zeitpunkt der letzten Aktualisierung oder der Änderungsfrequenz. Weiterhin sollte der internen Verlinkung Beachtung geschenkt werden, etwa durch eine klar strukturierte Navigationsleiste oder auch sinnvolle Links im Text-Content. Die Verwendung des „Title“-Attributs sorgt dafür, dass die Suchmaschinen die Links besser erkennen können und ein Plus an Informationen erhalten.

Wie sich zeigt, ist die OnPage-Optimierung ein weites Feld, auf dem es Vieles zu beachten gilt. Deshalb lohnt es sich für kleine und mittlere Unternehmen, externe Dienstleister für Beratungs- und Optimierungszwecke einzusetzen. Denn mit deren professioneller Hilfe wird die Suchmaschinenoptimierung zielorientiert umgesetzt und Erfolge bald sichtbar.

Weitere Infos (externe Seiten):

[related-links]

Die vier wichtigsten Trends im Performance-Marketing

Die Zukunft des Performance-Marketings liegt in den folgenden Trends: Retargeting, Social und Mobile Marketing sowie Costumer Journey. Zu diesem Ergebnis kam das Costumer Survey 2011, welches nun vom Online-Marketing-Portal Affilinet veröffentlicht wurde. An der Studie nahmen 342 Publisher, 120 Advertiser und 41 Agenturen teil, die sich zu den aktuellen Tendenzen in der Branche äußern sollten. Dabei entstand ein recht klares Bild: An erster Stelle der zukunftsweisenden Trends steht das Mobile Marketing. Darüber waren sich 98 Prozent der Agenturen, 93 Prozent der Advertiser und 86 Prozent der Publisher einig. Gleich danach mit nur wenigen Prozentpunkten Abstand folgt das Social Marketing mit 93 Prozent bei den Advertisern, 90 Prozent bei Agenturen und 85 Prozent bei den Publishern. Das Retargeting belegt Platz drei in der Befragung (84 Prozent bei Advertisern, 83 Prozent bei Agenturen und 62 Prozent unter den Pubslishern). Der immerhin viertwichtigste Trend ist unter den Befragten das Costumer Journey mit 88 Prozent bei den Agenturen, 73 Prozent bei Advertisern und 53 Prozent bei Publishern.

Neben diesen Trends gibt es auch Online-Werbemaßnahmen, die weiterhin bedeutend bleiben. Dazu gehören die Suchmaschinenoptimierung und das Affiliate Marketing. Besonders letzteres ist laut Angaben des Costumer Survey 2011 mit 98 Prozent bei den Advertisern derjenige Vertriebskanal, der im Online-Bereich weiterhin stark zunehmen wird. Die Bereitschaft, für das Instrument Geld in die Hand zu nehmen, ist dabei unter den Entscheidungsträgern im Vergleich zum Vorjahr um 5 Prozent gestiegen. Mindestens in den nächsten drei Jahren wollen die Advertiser in Affiliate Marketing investieren.

Die Ursachen für das Bedeutungswachstum der vier genannten Trends lassen sich in der technischen Entwicklung der letzten Jahre erklären. Ganz offensichtlich ist dies bei Mobile und Social Marketing erkennbar. Zeichnet bei dem mobilen Markt vor allem die explosionsartige Verbreitung von internetfähigen Smartphones verantwortlich, so sind es beim Social Marketing die sozialen Netzwerke wie Facebook oder Jappy. Auch das Retargeting ist eine Konsequenz des Userverhaltens im Web. Das Ziel all dieser Maßnahmen ist es, die Benutzer an ihren gewohnten Wegen durch das Internet abzuholen. Sei es beim Austausch von Informationen mit Freunden über Facebook oder bei der Suche nach bestimmten Produkten über Google und Co. Einige Handlungen wiederholen die potenziellen Kunden immer wieder, woraus sich eine gewisse Frequenz ergibt. Diese kann von Werbetreibenden mittels der vier Online-Werbetrends mit großer Effektivität genutzt werden.

Reizvoll sind alle Maßnahmen, da sie ganz unterschiedliche Aspekte der Online-Werbung umfassen. Zudem benötigen variable Mindestbudgets, so dass sich auch kleine und mittlere Unternehmen viele dieser Mittel leisten können. Welche jedoch tatsächlich sinnvoll ist, hängt von der Branche eines Unternehmens ab sowie von der konkreten Zielsetzung. Soll die Kundenbindung gestärkt werden? Oder soll der Verkauf eines bestimmten Produkts vorangetrieben? Mit einer ausgeklügelten Werbestrategie und den vier aktuellen Trendmitteln können Unternehmen ihre Präsenz im Internet erfolgreich steigern.

Man merkt deutlich, SEO Agenturen bekommen immer mehr zu tun um ihren Kunden wirklich “gutes” tun zu können.

 

Links auf Wikipedia

Ein sehr großer Vorteil für den eigenen Trust einer Webseite ist ein Beitrag auf Wikipedia. Denn dieses Werk ist einer der bekanntesten Internetlexika auf der ganzen Welt. Dort überprüfen Fachautoren die Texte selbst und entscheiden, ob diese Wikipedia bereichern. Die komplette Enzyklopädie ist frei zugänglich für jedermann. Jeder darf sich Informationen zu Wikipedia ansehen. Teilweise darf man die Information sogar für die eigene Webseite verwenden unter der Voraussetzung, dass die Quelle angegeben wird. Doch bei eigenen Projekten bringt dies doppelten Content. Empfehlenswert kann die Nutzung dieser Informationen auf dem eigenen Projekt sein, wenn man bestimmte Daten wie z.B. Einwohnerzahlen von Städten in eigenen Content integriert.

Hinsichtlich auf Seo kann Wikipedia enorme Vorteile bieten. Ein guter Autor mit einer Idee einen bestimmten Begriff in die freie Enzyklopädie zu bringen, kann dem Schreiberling einen sehr wertvollen Link verschaffen. Der Begriff sollte in Wikipedia noch nicht vorhanden sein und nach deren Richtlinien verfasst werden. Wenn dem so ist, hat man gute Chancen mit eigenen Artikeln aufgenommen zu werden. Ein Link von Wikipedia bringt definitiv etwas für die eigene Internetpräsenz. Wer bestimmte Webseiten anbietet, die einen Mehrwert bieten, kann manchmal auch ohne eigenen Text einen Link auf Wikipedia erhalten. Eintragen lässt sich der Link von jeder Person, aber ob dieser bestehen bleibt ist einen andere Sache. Webseitenbetreiber aus den Bereichen Bildung, IT,  Naturwissenschaften oder ähnlichen Bereichen, die nicht zu kommerziellen Zwecken dienen haben Chancen auf einen Link in Wikipedia.

Bekanntheitsgrad und Eintrag in Wikipedia

Wer über einen hohen Bekanntheitsgrad verfügt und für Wikipedia eine gewisse Wichtigkeit darstellt, kann sogar eine eigene Seite anlegen über sein Unternehmen oder seine Person. Unternehmen wie Immobilienscout verfügen über eine eigene Unterseite dieser Enzyklopädie. Solche Firmen punkten mit hohen Besucherzahlen, Bekanntheitsgrad und Wiedererkennungswert.

Warum bietet Wikipedia Power für meine Webseite

Dies liegt quasi auf der Hand. Schauen Sie sich die Webseite über Alexa.com doch einfach mal an. Diese gehört zu einer der zehn wichtigsten Webseiten auf der ganzen Welt. Ob der Link das Attribut „no follow“ hat, spielt dann auch keine große Rolle mehr. Mehr als 1 Millionen Backlinks verzeichnet Wikipedia. Auch in den Suchergebnisseiten von Google befindet sich Wikipedia ganz vorne. Die meisten Themen werden auf dieser Webseite beschrieben. Es ist immer ein Versuch wert einen Text für Wikipedia zu verfassen.

Nicht leicht

Natürlich ist es nicht leicht einen Link auf Wikipedia zu erlangen. Hat man aber einen wirklich guten Content zu einem bestimmten Thema stehen die Chancen nicht schlecht. Fachartikel, Neuentdeckungen usw. hier ist dann Kreativität gefragt …….

PS: Es macht übrigens auch Sinn auf der eigenen Homepage einen (themenrelevanten) Link auf Wikipedia zu legen. Aber das ist eine andere Geschichte 🙂

Weitere Infos (externe Seiten):

[related-links]

SEM: Kunden-Retargeting sinnvoll einsetzen

In den Werbesegmenten Suchmaschinenmarketing (SEM) und Suchmaschinenoptimierung (SEO) gibt es elegante und weniger elegante Lösungsansätze. Das sogenannte Retargeting mögen einige dabei eher zu den uneleganten Maßnahmen zählen. Diese Methode des personalisierten Display Advertising zielt darauf ab, Produkte oder Dienstleistungen, über die sich ein User im Internet informiert hat, immer wieder in Erinnerung zu rufen. Erreicht wird dieser Effekt durch gezielte Werbung auf anderen Webseiten, die der User im Anschluss besucht. Durch die stete Konfrontation soll die Klick- und Konversionrate des Werbetreibenden gesteigert werden. Besonders gern wird Retargeting von Webshops genutzt, doch nicht nur der Handel kann von diesem Tool profitieren. Problematisch an der „Hau drauf“-Methode ist allerdings, dass sich der Nutzer schnell verfolgt und in letzter Konsequenz genervt fühlt. Mit einigen Kniffen können Werbetreibende aus dem „Hammer“ ein ansprechendes Werbe-Instrument machen.

Beim Retargeting gilt es verschiedene Faktoren clever anzuwenden. In erster Instanz sollte das Data Mining sensibel angepasst werden. Das bedeutet eine stufenweise Analyse der Such- und Konsumgewohnheiten des Kunden, um tatsächlich interessante Produkte empfehlen zu können. Es ist wichtig, eine gezielte Auswahl zu treffen, anstatt alle vorhandenen Angebote vorzustellen. Viele Produkte stoßen beim Kunden oft gar nicht auf Interesse, wodurch der gewünschte Effekt des Retargetings verpufft.

Des Weiteren sollte die Bannerwerbung der Marke und dem Werbeziel entsprechend gestaltet sein. Die visuelle und inhaltliche Struktur ist ein wesentlicher Aspekt bei der Kundenansprache. Die Aufmachung kann etwa an bestimmte Anlässe (die den Kunden eventuell sogar unmittelbar betreffen) oder saisonale Situationen geknüpft sein. In jedem Fall sollte sich die Gestaltung an den Bedürfnissen und Interessen des Kunden orientieren.

Das Kundenvertrauen ist ein Schlüsselfaktor für erfolgreiches Retargeting. Dabei ist Transparenz – wie so oft – das Zauberwort. So bietet sich die Möglichkeit, dem User innerhalb der Bannerstruktur Informationen darüber zu vermitteln, wieso genau diese Produktvorstellung bei ihm angezeigt wird. Zudem sollte dem User als Zeichen des Respekts und der Kundenorientiertheit eine Opt-out Option angeboten werden. Damit kann er das Retargeting auf Wunsch selbstständig ausschalten, gleichzeitig stellt er automatisch eine positive Verknüpfung zum Werbetreibenden her.

Um das Kundenvertrauen zu stärken und den guten Willen für ein sensibles Online-Marketing zu demonstrieren, empfiehlt sich bewusstes „Frequency Capping“. Hier wird festgelegt, wie häufig dem Kunden eine bestimmte Werbung angezeigt wird. Es gilt das Motto „weniger ist mehr“, denn der aggressive Einsatz von Anzeigen führt schnell zu der oben bereits erwähnten Frustration des Kunden.

Das Ziel des Retargetings sollte also sein, die „Konfrontation“ mit Produkten in eine Bereicherung für den User umzuwandeln. Er sollte mit der Display-Werbung keine Belästigung assoziieren, sondern viel mehr eine Inspiration. Denn dann aktiviert das Retargeting den Kunden, erreicht, dass er sich wiederholt mit den Angeboten des werbenden Unternehmens auseinandersetzt – und im Idealfall eine Conversion abschließt. Unternehmen sollten die vorhandenen Settings des Retargetings sensibel nutzen und in erster Linie nicht die eigenen Bedürfnisse in den Vordergrund stellen, sondern die des Kunden. Nur dann wird dieser auch offen für die Angebote des Online-Marketers sein.

Weitere Infos (externe Seiten):

[related-links]

Google Panda – Was ist neu beim Algorithmus-Update?

Bereits vor der Einführung im deutschsprachigen Raum verursachte die Algorithmus-Neuerung Google Panda einen gewaltigen Wirbel in der Blogosphäre. Grund dafür war der prägende Einschnitt, den das Update mit dem kuscheligen Namen für Content-Produzenten bedeuten würde. Das Vorhaben ist ehrenhaft: Eine hohe Textqualität wird zukünftig stärker belohnt, schlechter Inhalt oder gar Spam auf Webseiten hingegen abgestraft. Das soll vor allem so genannten Content-Farmen den Garaus machen, also Websites, die mit wenig Aufwand möglichst hohe Klickraten erzielen wollen. Google möchte mit dem Update bessere Suchergebnisse liefern, die den Usern einen tatsächlichen Mehrwert bieten. Kurz und bündig formuliert: Google Panda revolutioniert die Suchmaschinenoptimierung – seit Mitte August auch im deutschsprachigen Raum.

Ein SEO-Wolf im Panda-Pelz

Content Farmen, die nicht selten von schwarzen Schafe betrieben werden, müssen sich vor dem Panda-Update in Acht nehmen. Betrachtet man sich die neuen Regeln nämlich einmal genauer, dann könnten sie das Ende des Geschäftsmodells bedeuten. Das Update passt genau genommen den Index an, mit denen der Suchalgorithmus Webseiten abscannt. Um weiterhin eine starke Position im Ranking zu erhalten, müssen Webseiten laut Google-Qualitätsmanager Matt Cutts nun folgende Voraussetzungen erfüllen: Zuallererst sollten Websites knackige Texte mit hohem Informationsgehalt haben. Duplicate Content sollte unbedingt vermieden werden, ebenso wie computergenerierte Inhalte. Die Texte sollten grammatikalisch und stilistisch sinn- und wertvoll sein. Inhaltslose Wortfolgen, die vor Keywords strotzen zählen nicht zu den von Google erwünschten Inhalten. Alle Portale und Websites, die durch mangelhafte Texte, Videos oder ähnliches auffallen, werden im Ranking der Suchmaschine gnadenlos herunter gestuft.

Der Panda schlägt zu

Kurz nach der Einführung des Panda-Updates konnte man schnell dessen Wirkung erkennen: Die Suchmaschinen-Sichtbarkeit zahlreicher bekannter Online-Präsenzen hatte sich schlagartig entweder zum Guten oder zum Schlechten gewandelt. Zu den Gewinnern zählen vor allem Newsportale wie Golem oder Heise, die einzigartige Inhalte mit hoher Qualität bieten. Sie konnten bis zu 21 % an Sichtbarkeit bei Google gut machen. Bei den Verlierern, zu denen unter anderem Vergleichsportale wie kelkoo.de oder Personenverzeichnisse wie Yasni gehören, sieht es noch drastischer aus. Den größten Verlust streicht ciao.de mit fast 59 % ein. Durch diese großen Schwankungen bekommt man einen Eindruck, wie sehr sich die Internet-Gemeinde mit all seinen großen und kleinen Web-Präsenzen im Moment neu aufstellt. Die SEO-Weisheit „Content is king“ hat sich mit Google Panda wieder einmal bestätigt.

In Texte investieren lohnt sich

Besonders für kleine und mittlere Unternehmen, die noch nach den alten Vorgaben ihre Webseiten optimiert haben, heißt es jetzt: umstrukturieren. Wer bisher eigenständig einen eher zweckmäßig en Content auf der Unternehmenspräsenz erstellt hat, sollte über einen inhaltlichen Relaunch unter professioneller Betreuung in Betracht ziehen. SEO-Experten, PR-Journalisten und Online-Texter, die entweder freiberuflich oder in einer Agentur arbeiten, sind hier die richtigen Ansprechpartner. Mit ihrer professionellen Hilfe werden KMU-Websites fit gemacht für die neuen Regeln des Google Pandas.

Weitere Infos (externe Seiten):

[related-links]