Die 30er-Zone des SEO – Backlink-Strukturen

Die „natürlichen“ Wachstumsraten von Backlink-Strukturen

Das Wachstum der Backlinks sind seit „Penguin“ bildlich gesprochen die 30km/h-Zone der SEO, doch dabei bleibt es nicht: Mit Radarfallen, Blitzern und fest Installierten Bodenkrallen. Maßnahmen, die jeden Temposünder entweder teuer zu stehen kommen oder von 100 auf 0 zum Stillstand bringen.

2012 war für die Webspammer ein Jahr hart am Wind – Mit einer besonderen Erbarmungslosigkeit geht man auf Seiten von Google gegen sie vor, nachdem sie in der Vergangenheit immer wieder die Ergebnisseiten der Suchmaschine durch manipulierte PageRanks und Backlink-Strukturen manipuliert hatten. Ihr kommen und gehen, welches von tage- und wochenlangem Chaos in den SERPs von Google begleitet wurde, ertrug man auf ähnliche Weise, wie ein Bauer auf einer Hallig die Gezeiten und ihre Unbillen ertragen würde: Als gegebenen Umstand. Bis ein Pinguin diesen Umstand ändern würde.

Der PageRank, früher Herzstück des Ranking-Verfahrens der Google Suche ist ebenso wie das Erzeugen einer wachsenden Relevanz von Webseiten mittels des Aufbau von Backlink-Strukturen seit jeher Brot und Butter jedes SEO-Professionals. Unbestreitbar jedoch auch zum „täglich‘ Brot“ zwielichtiger Linkverkäufer und Online-Betrüger. Diese machten sich die Fehler im Design der Ranking-Faktoren zunutze und verdienten sich durch den Verkauf von abgehenden Backlinks manipulierter Webseiten eine goldene Nase.

Das geschah zum Leidwesen der Verbraucher als auch Professioneller gleichermaßen. Über Jahre hinweg waren doch die Lücken bekannt und mehr als plakative Aktionen in Form von regelmäßigen Massen-Lock-outs eindeutig manipulierter Webseiten blieben die einzige Form, deren Wirksamkeit verschwindend gering ausfiel. So erschien es wie das Anpreisen von altem Wein in neuen Schläuchen, als Google auch vor dem „Penguin“-Update wie üblich den großen Schlag gegen die Manipulation des PageRank und unnatürlichen Entwicklungen von Backlink-Strukturen auszuholen. Das gelangweilte Gähnen wich spätestens am 24.April 2012 einem erschrockenen Ausruf: Nach dem Roll-out wurde klar, dass Google es dieses Mal ernst meinte.

Angekündigt: Ja! – Erwartet: Nein! – Erschrockene Reaktionen, als Google mit seinem „Penguin“ für Ordnung sorgte

Seit dem Roll-out der 2012er-Iteration des Kernstück der Suchmaschine findet eine neue, strengere Überprüfung statt: Das Wachstum von Backlink-Strukturen wird in einem Abgleich mit vergangenen Werten verglichen. Verlässt die festgestellte Wachstumsrate dabei einen von Google definierten Normbereich abzüglich der Toleranzwerte, spricht man Seitens Google von einem „unnatürlichen Wachstum“, welches mit einem Manipulationsversuch gleichgesetzt wird und zu einer automatisierten Sanktionierung der betroffenen Webseite führt. Zumeist werden diese Penaltys nach einem Rückbau auf das von Google vorgesehene Maß und dem Absitzen einer Zeitstrafe wieder aufgehoben.

Im besten Falle. Denn bei der Eskalation ist noch reichlich Luft nach oben: Denn in Fällen extremer Abweichungen kann es dabei durchaus zur vorläufigen Komplettsperrung einer Domain und ihrem Ausschluss aus dem Index der Google Suche kommen, da hier vermeintlich Zweifelsfrei von einem Manipulationsversuch ausgegangen werden kann. Ein solches Verhalten führt entsprechend der Google Webmaster Guidelines zu einer Vollsperrung samt Ausschluss aus dem Suchindex und

Ein halbes Jahr Bewährung – „Sandbox“ heißt die Stille Ecke, in die zu strebsame Start-Ups gestellt werden

Denn unter besonders scharfer Beobachtung stehen jene Domains, welche zum Zeitpunkt des erstmaligen Crawls ein Alter aufweisen, welches kleiner als ein halbes Jahr ist. Sie erleben in ihrer Entwicklung einen „Sandbox“ genannten Penalty-artigen Effekt, welcher als Maßnahme zur Eindämmung der grassierenden Flut an Spam-Bots früherer Tage dient. Diese autark agierenden Scripts und Bot-Netze richteten in der Vergangenheit immer wieder neue Domains und Spam-Webseiten ein und erhielten durch den umgehenden Eingang von Backlinks aus einem Pool an Domains, was unmittelbar zur Vergabe eines hohen PageRank führte – Unberechtigterweise, versteht sich.

Um die Kontrolle über diese massiven Manipulationen zu gewinnen, wird das Wachstum der Backlinkstrukturen von jungen Domains den Zeitraum von etwa 6 Monaten besonders streng beobachtet. Registriert Google bereits geringste Abweichungen im Wachstum der Backlinkstruktur, wird diese zumeist umgehend in eine „Sandbox“ verschoben. Somit ist diese Seite bis zum Zeitpunkt einer neuerlichen Freigabe nicht im Suchindex aufzufinden. Von offizieller Seite unbestätigt, geht das Gerücht um das sich die Zeitspanne des Verweilens in der „Sandbox“ durch den unmittelbaren Rückbau des bestehenden Linkaufbaus betroffener Webseiten auf „Null“ in Verbindung mit vorsichtigen Eingängen von Backlinks hochwertig gerankter Webseiten verringern.

„Den Letzten beißen die Hunde“ – Doch wer zu schnell ist, den beißt Google. Wortwörtlich.

Es ist bekannt, dass die Firmenpolitik der Betreiber von Google keinerlei Verhandlungsspielraum bei der Anwendung und Umsetzung einmal von ihnen beschlossener Richtlinien gegenüber den Betreibern von Webseiten einräumen. Daher bleibt jeder Protest vermutlich ungehört, auch wenn Google mit diesem Maßnahmenpaket eine Verlangsamung in der Entwicklung neuer Webseiten erzwingt, die in den Markt nachrücken, aber auch das spontane Wachstum von bereits bestehenden Webseiten zu einer Art „Russisch‘ Roulette für SEOs“ machen.

Der beste Rat, welchen man jedem Betreiber aufstrebender oder junger Online-Projekte und Start-Ups nur wärmstens ans Herz legen kann, ist vermutlich: „Lassen sie es langsam angehen.“. Bleiben sie bei einer konstanten Entwicklung des Wachstums ihrer Backlink-Strukturen und legen sie die dadurch freigegebene Zeit stattdessen in die Optimierung ihrer Webseite „On-Page“ an, denn: Für guten Content hat bisher noch niemand eine Penalty erhalten!

Google Plus ersetzt SEO! Oder?

Google+ präsentiert Unternehmensseiten auf vordersten Plätzen

Bisher betrifft es nur eine kleine Anzahl auserwählter Unternehmen. Und bisher ist das Angebot auch nur in den USA verfügbar. Aber der Anfang ist gemacht und damit eventuell auch in Europa im Kommen: Google+ platziert Unternehmensseiten bei Suchanfragen an prominenter Stelle.

Wie Internetworld.de berichtet, stehen unter anderem die Seiten von t-mobile oder AT&T in der Ergebnislisten auf der ersten Seite. Dabei werden neben dem Firmenamen auch das Logo sowie – und das ist das bemerkenswerteste Feature – der letzte gepostete Beitrag im Stream. Das bedeutet für Unternehmen eine erheblich größere Wahrnehmung durch User – auch von solchen, die den Stream auf Google+ nicht abonniert haben.

Informieren Unternehmen auf der Google+ Page also über Produkt- und Leistungsneuigkeiten, dann fungiert der aktuelle Beitrag wie eine Art Werbeanzeige. Die es obendrein kostenlos gibt, denn die Darstellung in der Ergebnisliste ist gratis.

Diese Entwicklung gibt der Suchmaschinenoptimierung eine ganz neue Richtung. Denn im Grunde wird nun nur ein Unternehmensprofil auf Google+ benötigt, um auf der ersten Seite der Ergebnislisten zu gelangen. Oder?

Zumindest, wenn User den Marken- bzw. Firmennamen ins Suchfeld eingeben. Da Google eine der größten existierenden Suchmaschinen ist, ist dies natürlich ein enormer Anreiz, einen Account anzulegen.
Die Erstellung eines Unternehmensprofils ist seit November 2011 kostenlos möglich. Diese können wie die Fanpages auf Facebook, als Präsentationsforum für Produkte, Neuigkeiten rund ums Unternehmen und Werbeaktionen genutzt werden. Als Kommunikationsmittel dienen dabei ebenfalls Statusmeldungen, Videos, Bilder und Links. Die Inhalte können selbst bestimmt publiziert werden, womit eine Unternehmensseite ein hervorragendes Marketinginstrument ist.

Mit der neuen Funktion, die Unternehmen in der Ergebnisliste auf den vorderen Plätzen positioniert, könnte die Popularität für Google+ im Wirtschaftssektor noch gesteigert werden. Schon jetzt sind fast alle Top-Marken in dem neuen sozialen Netzwerk vertreten. Das mag jedoch auch daran liegen, dass Unternehmen mittlerweile routinierter sind im Umgang im Social Web.

Noch kann Google+ mit Facebook nicht ganz mithalten – zumindest nicht was die Umsetzung betrifft. Die Blogosphäre bemängelt unter anderem, dass sich private als auch Unternehmensprofile optisch zu ähnlich sehen. Dadurch fehlt eine professionelle Separation der Intentionen, mit denen die beiden Angebote auftreten. Des Weiteren gibt es (noch) keine Multi-Admin-Option und auch keine Vanity URL. Doch solche Feinheiten können noch Schritt für Schritt ergänzt werden.

Für viele Nutzer waren die Unternehmensseiten des Suchmaschinen-Konzerns zu wenig ausgereift. Vielleicht steht Google+ vor allem deshalb beim Thema Popularität dem größten sozialen Netzwerk, Facebook, noch nach. Einer der Gründe, weshalb Google dennoch den frühzeitigen Launch gewagt hat, sind die zahllosen Privatprofile, die als Business-Seiten genutzt wurden. Um die Zweckentfremdung in den Griff zu bekommen, wurden die Google+ Pages aktiviert. Der Start der Google+ Unternehmensseiten mag holprig gewesen sein, doch mit der neuen Funktion könnte Google das erste Mal gegen Facebook die Nase vorn haben.

Was ist Eure Meinung dazu?

Weitere Infos (externe Seiten):

[related-links]

Seo: weitere Signale durch Google-Algorithmus-Änderungen

Das Panda Update von Google sorgte durch Abstrafungen von diversen Internetseiten in den USA sowie in Deutschland, Österreich und der Schweiz für Gesprächsstoff. Doch das Panda Update ist nicht die einzige Maßnahme die Google ergreifen wird, um zukünftig eine bessere Qualität der Suchergebnisse zu erzielen. Schon wieder einmal wurde der Algorithmus von Google angepasst.

Welche Veränderungen sind seit dem Panda Update hinzugekommen?

Snippets:

Die Snippets werden zukünftig verbessert dargestellt. Nicht nur Text, der direkt ganz oben auf der Startseite präsentiert wird, wird zukünftig von Google in den sogenannten „Snippets“ dargestellt, sondern auch Text aus bestimmten Bereichen einer Webseite. Snippet ist der Text, den Google in den Suchergebnissen unter der eigentlichen Webseite und dem Titel der Seite darstellt. In der Regel wurden in diesem Bereich bis dato fast immer die Meta-Discription gezeigt.

Themenrelevanz von Seite, Text und Title

Google achtet auf die Seiteninhalte. Wichtig ist, dass der frisch publizierte Content auch mit dem Rest einer Internetpräsenz harmoniert. Genauso ist die Auswahl des Meta-Tag-Titles für die Bewertung durch Google relevant. Der Nachrichtentext muss mit der Überschrift der Seite bzw. dem Meta-Tag-Title oder der URL übereinstimmen.

Neue Inhalte schaffen

Neue Inhalte bekommen eine gute Chance auf ein besseres Ranking, kündigte Matt Cutts auf seinem Blog an. Wer regelmäßig neue Inhalte publiziert, hat einfach bessere Chancen dauerhaft ein gutes Ranking zu erzielen. Auf 35 Prozent aller Suchanfragen kann sich die Google-Neuerung auswirken, aber bei nur 6-10 Prozent soll es sich spürbar bemerkbar machen.

Relevanz und Aktualität einer Nachricht

Die Relevanz einer Nachricht ist wichtiger denn je zuvor. Google möchte dauerhaft die relevantesten und maßgeblichen Suchergebnisse für die Benutzer darstellen. Offizielle Internetseiten werden belohnt durch die Wichtigkeit von Relevanz. D.h. wenn z.B. die Allianz Versicherung ein neues Produkt vorstellt, sollte das Ergebnis aus dem Blog der Allianz höher gelistet sein, als das von fremden Blogs. Ein bestimmtes Branding des eigenen Namens bzw. der eigenen Webseite wird immer wichtiger.

Fazit:

Google kündigte an, dass jährlich hunderte Veränderungen der Suchalgorithmen durchgeführt werden. Das Wichtigste ist, dass die Qualität der Inhalte sehr hoch gehalten wird. Abgeschriebene Inhalte werden lange nicht so gut bewertet als Texte, die vorher auf keiner anderen Webseite erschienen sind. Durch Seo kann zukünftig etwas weniger über die Platzierungen einer Internetseite bestimmt werden. Das kann man alleine daran schon erkennen, dass Google den Text der Snippets selbst bestimmen möchte und dieser nicht immer der festgelegten Meta-Discription entspricht. Professionelle Suchmaschinenoptimierung bedarf einer höheren Qualität als in den letzten Jahren.

Dies ist ein Gastbeitrag erstellt von In-SEO

In-Seo.de

Böhmerstraße 22
54290 Trier
Telefon: 06 51 -2 06 59 14
Email: info@seo-fuer-google.de
Homepage: www.in-seo.de

SEO Prozesse – Wie läuft eine Suchmaschinenoptimierung ab?

Dies ist ein Gastartikel

In diesem Artikel zeige ich euch, wie ein grundlegender SEO Prozess aussieht. Das Ziel eines jeden Suchmaschinenoptimierungs-Ablaufes ist es für relevante Suchbegriffe in Google unter den besten Suchergebnissen gelistet zu werden. Man muss jedoch beachten, dass der exakte SEO Ablauf von Web-Projekt zu Web-Projekt immer anders abläuft – da es sehr viele variierende Faktoren gibt die man beachten muss. Das Grund-Gerüst einer Optimierung für die Suchmaschinen sieht folgendermaßen aus:

1. Keyword Recherche:

Zu Beginn der Keyword Recherche muss man sich ein paar grobe Keywords einfallen lassen, welche Branchen-Relevant sind. Grundsätzlich unterscheidet man zwischen zwei Arten von Keywords, den Informationskeywords und den gewinn bringenden Keywords, hinter welchen eine Kaufabsicht vermutet wird. Für eine SEO Optimierung wählt man logischerweise am besten die gewinnbringenden Keywords aus. Info-Keywords bringen in manchen Fällen vielleicht mehr Traffic, aber gewinnbringende Keywords bringen, wie der Name schon sagt, später bessere Konversionen ein. Zur Veranschaulichung: Das Keyword „Computer“ hat zwar viel mehr Suchanfragen, jedoch kann man hinter der Keyword-Phrase „Computer kaufen“ eine Kaufabsicht vermuten und daher ist diese für SEO Zwecke besser geeignet. Denn man sollte immer im Hinterkopf behalten, dass die Suchmaschinen Optimierung eigentlich eine Marketing Maßnahme ist, welche zur Steigerung des Umsatzes von Unternehmen dient.

Um kostenlos und sofort Keywords recherchieren zu können verwendet man am besten das Google AdWords Keyword Tool. Mit diesem kann man herausfinden wieviele exakte Suchanfragen ein gewisses Keyword monatlich über Google erhält. Zusätzlich schlägt dieses Tool einem auch noch bis zu 800 relevante Suchbegriffe vor, welche man ebenfalls zur Optimierung verwenden kann. Wichtig ist, dass man bei der Analyse mit dem Google Keyword Tool immer einen Haken bei „Exakt“ macht, da man sonst verfälschte Ergenisse erhält.

Beim nächsten Schritt wird überprüft wie stark die Konkurrenz ist, bzw. Wie aktiv diese im mit der Suchmaschinenoptimierung sind. Dazu kann man zum Beispiel, wenn man keine teuren SEO Tools zur Verfügung hat simple Google Suchanfragen durchführen: „ihr keyword“ (mit Anführungszeichen), intitle:ihrkeyword, sowie inurl:ihrkeyword – Mit diesen drei Befehlen kann man anhand der Anzahl der Suchergebnisse in Google, ungefähr abschätzen wie viele Konkurrenten es gibt bzw. Wie viele das gewünschte Keyword im Title-Tag bzw. In der URL verwenden. Ein günstiges Tool, mit der man per Mausklick mehrere SEO-Werte erhält, ist zum Beispiel Maket Samurai. Dieses erleichtert einem die Arbeit um ein erhebliches und es bietet noch ein paar weitere nützliche Funktionen an. Wenn man es mit seinem Google Adwords Account verknüpft dann kann dieses sogar zum effektiven Keyword Research, mit vielen Filter Optionen, verwendet werden.

2. Domain:

Die Domain ist ein weiterer SEO Faktor, der gerne vernachlässigt hat. Will man zum Beispiel in Google.at (Österreich) gute Platzierungen erreichen, dann empfielt es sich eine auf .at endende TLD (Top Level Domain für Österreich) , sowie einen Web-Server mit Server-Standort in Österreich, zu wählen. Wenn man sich an diese Sachen bei der Domain Auswahl hält, sowie die Domain dann noch das Hauptkeyword im Namen hat (Keyworddomain) dann muss später nicht so viel Linkaufbau (Offpage Optimierung) betrieben werden.

3. On-Page Optimierung:

Diese Faktoren sind bei einer Onpage SEO Optimierung zu beachten:

  • Optimierung des Contents mit HTML Tags: H1, H2, H3, b, i, u
  • Inhalts-Optimierung und LSI ( Latent semantische Indexierung): In erster Linie sollte man Texte, besonders nach dem Panda Update für die Besucher und nicht für Suchmaschinen gestalten. Um jedoch ein passendes Wortumfeld im Text zu erschaffen kann das Google Adwords Keyword Tool hilfreich sein. Die von dem Keyword Tool vorgeschlagenen Wortgruppen und Keywords kann man dann in den Text mit einfließen lassen, jedoch sollte man immer darauf achten, dass das geschriebene einen Sinn für echte Leser ergibt. Ein weiterer Lieferant für nützliche Keyword-Vorschläge ist auch die Google Instant Search.
  • Index Prüfen: Ist das Projekt / die Webseite bereit im Google-Index? Überprüfen Sie mit dem Befehl: „site:ihredomain.de“ ob sich Ihre Seite bereits im Index befindet. Werden keine Ergebnisse bei Eingabe dieses Befehls gefunden, dann wurde Ihre Webseite von Google noch nicht gefunden und somit auch noch nicht indexiert. Um die Suchmaschine auf Ihr Projekt aufmerksam zu machen, bzw. Diese dazu bringen Ihre Webseite zu indexieren, sollten Sie einfach schon mit der Offpage Optimierung/Linkaufbau oder mit Pingen beginnen. Tipp: WordPress hat integrierte Ping-Funktion, bei Erstellung von neuen Artikel wird der neue Content automatisch gepingt – somit wissen die Suchmaschinen, dass Sie neuen Content geliefert haben, den die Crawler indexieren können.

4. Off-Page Optimierung:

Linkaufbau oder Linkbuilding nennt man Offpage Optimierung. Hierbei geht es einfach darum, wie der Name schon sagt, Links (bzw. Backlinks) zu Ihrem Projekt aufzubauen). Linkbuilding ist von Webseite zu Webseite verschieden, wie dieser in der ersten Phase genau gestaltet wird, das wird bereits mit dieser Frage entschieden: „Neue oder bereits gealterte Domain?“ Neu Domains müssen zu Anfang um einiges vorsichtiger mit Links versorgt werden als Domains, welche bereits ein paar Jahre alt sind. Zur Veranschaulichung können Sie eine Domain mit einem kleinen Kind gleichstellen: Wenn das Kind noch klein ist benötigt dieses auch noch weniger zu essen (Links) – desto größer (Content, mehr Links, etc.) dieses dann wird desto mehr Essen (mehr Links) kann man dem Kind geben. Halten Sie sich beim anfänglichen Linkaufbau daher immer an „Qualität vor Quantität“. Für nachhaltig gute Ergebnisse sollten Sie Spam Methoden, bzw. den Gebrauch von automatisierten Linkbuilding-Programmen vermeiden, um von Google keine Abstrafungen (Penalty) zu erhalten.

Der grundlegende Linkaufbau einer neuen Domain setzt sich z.B. aus Social Bookmarks, relevanten Forenkommentaren & Webkatalog Einträgen und nützlichen manuellen Blogkommentaren zu verwandten Themen zusammen. Erstellet man sich einen Plan für das Linkbuilding, den man täglich abarbeitet, dann verliert man nie den Überblick. Am Ende des ersten Linkaufbau-Monats sollte man schon sehr gut die Stärken bzw. die Schwächen der Webseite erkennen. Danach kann man sich auch auf die Suche nach guten Linktauschpartnern oder Artikeltauschpartner für Gastartikel in relevanten Blogs machen.

Ein SEO Linkaufbau ist von Projekt zu Projekt unterschieden und es gibt hierbei keine Formel die gewisse Rankings in Google garantiert. Am besten ist es wenn man als neuer Suchmaschinenoptimierer viel ausprobiert um eine Methode für das Linkbuilding zu finden, die für einen selbst am besten funktioniert. Sie werden sicher merken, dass dies sehr zeitraubend und anstregend werden kann, daher empfiehlt es sich auch eine SEO Agentur, wie incrim.com mit diesen Aufgaben zu beanspruchen.

Dies ist ein Gastartikel von:

Alessandro Reichgruber
Wiestalstraße 24
5322 Hof bei Salzburg
Österreich
E-Mail: a.reichgruber@incrim.com

Vielen Dank!

SEO Trends: Die Latent Semantische Optimierung – LSO

Das Content bei der Suchmaschinenoptimierung einer Website King ist, ist schon lange bekannt. Doch seitdem immer mehr Suchmaschinen einen erhöhten Wert auf qualitativ hochwertige Inhalte legen – wie das Algorithmus-Update Google Panda beweist – entwickeln sich in dieser Richtung ganz neue Trends. Einer davon ist die Latent Semantische Optimierung (engl. Latent Semantic Optimization), kurz LSO. Diese Technik kann als tiefer führende Maßnahme der OnPage-Optimierung verstanden werden, denn sie beschäftigt sich mit der optimalen Nutzung von sprachlichen Mustern in einem Text. Dabei liegt ein Schwerpunkt auf den Substantiven und Verben, denn sie bilden hauptsächlich die Keywords für die Suchmaschinenoptimierung. Im Einzelnen bedeutet das, dass die Schlagwörter nicht immer auf dieselbe Weise genutzt werden müssen, sondern auch durch Synonyme und Ausdrücke aus dem sprachlichen Umfeld verwendet werden. Lautet das Keyword etwa „Wasser“, dann gehören unter anderem „Tropfen“, „See“, „Fluss“ oder „Eis“ zum semantischen Paradigma.

Die technische Seite: Die Latent Semantische Indexierung (LSI)

LSO funktioniert deshalb, weil viele Suchmaschinen die Latent Semantische Indexierung nutzen. Mit Hilfe dieser Technologie werden Websites, die in den Indices der Suchmaschinen aufgenommen sind, auf semantische Zusammenhänge geprüft. Das bedeutet, das Google & Co. die Themen der Texte erkennen können und zwar über die Keyword-Abfrage hinaus. Vom Prinzip her ähnelt diese Methode der des menschlichen Hirns, nur das es weniger komplex strukturiert ist. Wirklich neu ist die Technik der Latent Semantischen Indexierung (LSI) zudem nicht, denn Google hat sie schon vor ein paar Jahren eingeführt. Doch mit dem neuen Priorisieren des inhaltlichen Mehrwerts beim Ranking gewinnt LSI und LSO immer mehr an Bedeutung.

Das Verbindungsglied zwischen LSO und LSO ist die Latent Semantische Analyse (LSA). Sie ist ein ausgeklügelte Methodik zur Überprüfung von semantischen Zusammenhängen zwischen Wörtern und Satzstrukturen. So werden etwa die Abstände zwischen Wörtern gemessen und es kommen sogar Vektorräume zum Einsatz. Bei der Analyse werden also nicht nur die Keywords als positiver Wert gezählt, sondern auch alle semantisch verwandten Begriffe.

Was bedeutet der LSO-Trend für Website-Betreiber?

LSO bedeutet mehr Flexibilität bei der kreativen Texterstellung – mehr Freiheiten bei der Wortwahl und somit auch eine höhere Qualität im Text. Für Website-Inhaber heißt das aber auch, noch mehr Aufwand in die Produktion der redaktionellen Inhalte der Internetpräsenzen zu investieren. Schlägt die LSA der Indexierung positiv an, dann wirkt sich dies positiv auf das Ranking innerhalb der Suchergebnisse aus. Mit der LSO ergibt sich für Website-Betreiber also ein neues praktisches Tool, um die Online-Reputation des Unternehmens oder eines Produkts zu stärken. Die intensive Beschäftigung mit den Textinhalten wird in Zukunft immer wichtiger werden.
Professionelle Texter stellen Begriff-Sammlungen aus dem sprachlichen Umfeld von Keywords zusammen und verarbeiten diese geschickt in den einzelnen Texten. Dadurch ergibt sich ein Content-Konstrukt, das sich durch einen hohen Informations- und Mehrwert auszeichnet und den Anforderungen der Suchmaschinen gerecht wird.

Weitere Infos (externe Seiten):

[related-links]

Google Penalties: Was tun nach der Abstrafung einer Website?

Um eine Website bei Google in eine Top-Position zu bringen, führen Betreiber und SEOs viele Bemühungen durch. Manchmal auch zu viele, denn immer wieder werden unlautere Mittel für die Verbesserung des PageRanks genutzt, die gegen die Richtlinien von Google verstoßen. Bemerkt der Internetkonzern dies, dann wendet er bestimmte Strafen, auch ‚Penalties‘ genannt, an. Diese richten sich in erster Linie gegen die Sichtbarkeit der Website, so dass die Betreiber erhebliche Reputations- und Traffic-Verluste hinnehmen müssen. Was also können Website-Inhaber tun, wenn ihre Seite abgestraft wurde? Und wie kann der Schaden behoben werden?

Ursachen für Abstrafungen erkennen

Wurde eine Google Penalty verhangen, dann steht eine gründliche Prüfung der eigenen Homepage bevor. Wer den Grund der Strafe nicht kennt, der muss sich auf Spurensuche begeben. Wurden zu viele Keywords in den Texten verarbeitet, so dass die Qualität mangelhaft ist? Oder wurden zu viele Backlinks in kürzester Zeit integriert? Viele Gründe können zu einer Abstrafung führen, deshalb sollte jede Komponente der Website untersucht werden. Wenn die Regelverstöße jedoch bewusst durchgeführt wurden, zum Beispiel durch den Verkauf oder dem Austausch von Verlinkungen, dann wissen die Inhaber in der Regel genau, wo die Schadensbehebung stattfinden muss. „Schlechte“ Links müssen entfernt oder mit dem Nofollow-Attribut versehen werden, versteckte Links müssen gefunden werden. Schnelles Linkwachstum sollte generell vermieden und stattdessen maximal ein bis drei Links pro Tag integriert werden. Zu überprüfen gilt auch, ob automatisierte Tools einen Einfluss haben – etwa Social Bookmarking Spammer oder Katalog-Submitter. Diese können ebenfalls zur Abstrafung führen und sollten dringend aufgespürt werden.

Liegt der Schwerpunkt der Suchmaschinenoptimierung in der Onpage-Optimierung und es kam zur Penalty, dann ist die Überarbeitung der Texte notwendig. Dazu zählen alle Meta-Daten wie Title und Description sowie alle redaktionellen Inhalte auf der Website. Eine zu hohe Keyword-Dichte und mangelhafte Qualität der Texte kann zur Herabsetzung des PageRanks führen. Blind-Texte, die im Hintergrund laufen, sind ebenfalls illegal und müssen entfernt werden.

Ganz wichtig: Sehen Sie in den Google Webmaster Tools nach!!!!!!!!!!!! Tante G ist längst nicht mehr so zurückhaltend mit diesbezüglichen Informationen als früher. Oft findet man in den Tools einen Hinweis!!

Am besten wird es aber sein Sie wenden sich an eine seriöse SEO Agentur!

Richtig Vorgehen nach der Fehlerbehebung

Sind die Fehler beseitigt, sodass die Website wieder den Maßgaben des so genannten „White Hat SEO“ entspricht, dann heißt es bei Google um Vergebung bitten.

Als Mittel fungiert hier der Reinclusion-Request, den Admins über die Google Webmaster-Tools entsenden können. Über diese Anfrage kann man sich bei dem Internetkonzern für die Fehler entschuldigen und ehrliche Reue demonstrieren. In den meisten Fällen wird die Penalty anschließend aufgehoben. Der Reiclusion-Request kann sowohl bei der Ranking-Herabsetzung als auch beim Delisting, also der Entfernung der kompletten Homepage aus dem Index, hilfreich sein.

Die Möglichkeit, eine Google Penalty rückgängig zu machen, hängt immer auch von der Schwere des SEO-Vergehens ab.

Bei leichten, womöglich unbeabsichtigten Fehlern, gibt Google der Website den ursprünglichen PageRank problemlos wieder, nachdem alle Regelverstöße behoben und die Reinclusion-Request verschickt wurde. Bei massiven Verstößen, bei denen Google Vorsatz wittert, ist es wesentlich schwieriger, das Vertrauen des Suchmaschinenanbieters wieder zu erlangen. Das führt in schweren Fällen sogar zum Delisting des Website-Betreibers selbst, dann kann er mit keiner Website mehr im Index landen – eine harte Strafe, vor allem für Unternehmer.

 

Google Penalties: Diese Ranking-Strafen sollten Website-Betreiber kennen

Immer wieder hört man davon, das Google ein strenges Regelwerk für die falsche Anwendung von SEO-Maßnahmen durchsetzt und dabei auch nicht mit Ranking-Strafen geizt. Die Richtlinien sind ziemlich umfangreich und betreffen sowohl die OnPage- als auch die OffPage-Optimierung: „Abgestraft“ werden zum Beispiel Doppel-Content, Invisible Texts, Link-Spamming, Keyword-Stuffing sowie Cloaking. Seit neuestem werden außerdem Websites mit zu viel Werbung abgestraft. Die Qualität der Inhalte ist seit dem Panda-Update ganz klar zur Priorität für Website-Betreiber geworden. Da der bewusste Missbrauch von Algorithmus-Lücken jedoch so verbreitet ist, dass dieser sogar einen eigenen Namen hat (Black Hat SEO), sind Strafen ganz offensichtlich weiterhin notwendig. Sistrix hat hierzu eine anschauliche Übersicht über mögliche Sanktionen erstellt:

1. Die Senkung des PageRank

Diese Strafe ist einer der essentiellen bei Google, denn der PageRank entscheidet über die Reputation einer Website bei Google. Je höher die Zahl, desto stärker ist eine Website und desto wertvoller sind Backlinks von ihr auf eine schwächere Internetpräsenz. Einen hohen PageRank gewinnen Seiten, indem sie viele und vor allem hochwertige Inhalte verwalten. Wird eine Homepage durch die Herabsetzung dieser Kennzahl „penalized“, dann verliert sie sozusagen ihren guten Ruf. Dass eine Seite abgestraft wurde, erkennt man in der Regel an einem niedrigen PageRank trotz zahlreicher Inhalte mit hohem Mehrwert – insbesondere hinsichtlich der Keywordoptimierung. Bedeutend ist dies jedoch hauptsächlich für die Startseite, bei Unterseiten ist die Senkung des PageRank kaum tragisch. Der PageRank einer Website kann zum Beispiel über die Google Toolbar überprüft werden. Angewandt wird diese Strafe vor allem bei Betreibern, die Links verkauft haben und dabei auf das „no-follow“-Attribut verzichtet haben.

2. Die Zurückstufung der Keywords

Bei dieser Abstrafung sind nur bestimmte Schlagwörter, über die eine Website bei Google gefunden werden kann, betroffen. Allerdings sind das meist wichtige Keywords, die eine Webpräsenz in der Ergebnisliste auf eine gute Position bringen. Die Strafe zu erkennen, ist nicht einfach, da dieser Faktor insgesamt sehr dynamisch ist. Bei drastischen Keyword Penalties können einzelne Schlüsselwörter und Schlagwortgruppen mehrere 10er-Punkte abgezogen bekommen. Das macht sich deutlich im Traffic einer Seite bemerkbar, denn der Internetauftritt verliert dadurch enorm an Sichtbarkeit. Mit den Google Webmaster Tools lassen sich solch schwerwiegenden Veränderungen gut überprüfen. Hierfür können etwa die Suchanfragen und das Suchwort-Ranking analysiert werden.

3. Seiten-Herabstufung und Delisting

Diese beiden Strafen sind die schwersten und bedeuten einen gewaltigen Einschnitt in die Sichtbarkeit einer Website. Bei der Seitenherabstufung werden nicht nur einzelne Keywords sanktioniert, sondern der gesamte Internetauftritt um mehrere Stufen im PageRank herabgesetzt. Das Delisting ist der endgültige „Todesstoß“: Die Website wird gänzlich aus dem Index entfernt und kann nicht mehr von den Usern gefunden werden. Und in den Index wieder aufgenommen zu werden, gestaltet sich schwierig. Nicht nur für die eine Domain, sondern auch für den Betreiber an sich. Google ist nachtragend. Allerdings bedarf es schon sehr fataler Verstöße seitens der Webadministratoren, ehe das Delisting zum Einsatz kommt.

[stextbox id=”info”]Unser Fazit: Suchmaschinenoptimierung muss „sauber“ durchgeführt werden. Es lohnt sich nicht, Google auszutricksen, denn die Konsequenzen bedeuten stets einen großen Kraftaufwand, um den Positionsverlust wieder auszugleichen.[/stextbox]

Weitere Infos (externe Seiten):

[related-links]

Augen auf bei der Wahl des Webhosting-Angebots!

Bevor eine Website überhaupt gelauncht werden kann, benötigt der Betreiber eine Domain sowie die Möglichkeit, die Internetpräsenz aufzubauen und zu verwalten. Den dafür verwendeten Webspace bezieht man in der Regel über einen Webhosting-Provider. In diversen Paketen können Interessenten unterschiedliche Leistungen einkaufen, die von der Domain-Registrierung über den Aufbau der Website bis hin zum Monitoring, also der technischen Überwachung des Servers, reichen. Beim Webhosting wird virtueller Raum „gemietet“, den man nach seinen Wünschen einrichten kann – ähnlich wie bei einer Wohnung. Doch die Auswahl an Webhosting-Anbietern ist groß und das technische Know-how der User oft nur lückenhaft. Wie findet man also auch als Laie das passende Angebot? Worauf gilt es bei der Wahl zu achten?

Kleine vs. große Webprojekte – die Anforderungen variieren

Für jedes Projekt gibt es die richtigen Paket-Angebote – man muss nur wissen, worauf es ankommt. Das beginnt etwa bei der Qualität der Netzwerkverbindung. Je größer der Webauftritt und je umfangreicher die multimediale Einbindung von Video, Sound oder Echtzeitkommunikation, desto wichtiger ist eine hohe Übertragungsrate. Nur mit einem angemessenen Traffic-Volumen ist die korrekte Darstellung und Nutzung einer komplexen Website möglich. Deshalb ist es empfehlenswert, im Vorfeld zu eruieren, mit welchen Netzknoten der Provider verbunden ist. Zu den größten zählen aktuell Amsterdam (AMS-IX) und Frankfurt (DE-CIX). Wenn es um die Wahl zwischen einem Angebot mit kostenlosem oder kostenpflichtigem Webspace geht, wählen seriöse KMU das kostenpflichtige. Bei den kostenlosen Paketen werden Werbebanner eingeblendet, und die haben auf einer Unternehmenswebsite nichts zu suchen. Zudem haben die der Website-Inhaber meist keine Kontrolle hat über die eingeblendeten Anzeigen, so dass Themenrelevanz nicht zwingend gegeben ist. Aber egal ob relevant oder nicht – Text- und Display-Anzeigen sind ein No-Go für seriöse Firmen-Websites.

Weiterhin stellt sich die Frage: Eigener Server oder Shared Hosting? Auch hier ist der Umfang des geplanten Webauftritts entscheidend. Für eine kleine Website mit statischen Inhalten ist Shared Hosting eine preiswerte und unkomplizierte Variante. Wer jedoch umfassende Einstellungen und Instrumente einbinden möchte, für den ist das Shared Hosting in den Funktionen zu eingeschränkt. Ein eigener Server ist zwar kostspieliger, bietet jedoch viel mehr Freiheiten für individuelle Konfigurationen.

Die Suchmaschinenoptimierung bei der Wahl bedenken

Die Wahl des richtigen Webhostings kann sich sogar auf die Suchmaschinenoptimierung auswirken. Etwa wenn die Domain eine eigene IP erhält – und das ist nicht bei jedem Provider gewährleistet. Bei Shared-Hosting-Angeboten beispielweise teilen sich viele Websites eine IP. Domains mit eigener IP werden von Google jedoch höher angesehen, was sich wiederum positiv auf das Ranking auswirkt. Aber ein eigene IP Adresse zu haben kostet wirklich viel Geld. Achten Sie also lieber darauf das Ihr Hoster eine IP Adresse zuweist die noch nicht “überlaufen” ist.

Mit einem eigenen Server können sogar mehrere eigene IP-Adressen eingerichtet werden. Zusammenfassend gilt es also, sich über die eigenen Anforderungen des Webprojekts klar zu werden. Des Weiteren lohnt es sich, wie bei allen Produkten, auch bei der Wahl des Webhosting-Providers einen Vergleich anzustellen. Dabei sind nicht nur die technischen Details wichtig, sondern auch die Serviceleistungen des Anbieters. Von kostenlosen Angeboten sollten KMU Abstand halten und lieber in eine professionelle Lösung investieren. Diese muss nicht zwingend technisch komplex sein, sondern ist dem Projektumfang entsprechend zu wählen.

Das die Hard- und Software des Hosters dem heutigen Stand der Technik entsprechen soll brauchen wir wohl nicht erwähnen.

Fragen Sie auch nach Backupmöglichkeiten und sicherheitstechnischen Einstellungen!

Wärmstens empfehlen können wir World4You als Hoster.

Weitere Infos (externe Seiten):

[related-links]

Tipps für eine gute OffPage-Optimierung

Anders als bei der OnPage-Optimierung, die vornehmlich über die aktive Gestaltung der Inhalte auf einer Website läuft, kann man die OffPage-Optimierung nur beschränkt direkt beeinflussen. Doch für die Suchmaschinenoptimierung ist sie ein elementarer Bestandteil. Deshalb ist es hilfreich, einige Hilfsmittel zu kennen, um diese positiv zu verstärken. Einer der Hauptmaßnahmen bei der OffPage-Optimierung ist das Linkbuilding.

Je mehr themenrelevante, externe Websites auf die eigene Internetpräsenz verweisen, umso höher ist der „Trust“ von den Suchmaschinen. Man bezeichnet dies auch als den quantitativen Faktor. Je höher dabei der PageRank des Backlinks ist, desto besser wirkt er sich auf die Reputation der Website aus. Und das wiederum wird als qualitativer Faktor bezeichnet. Diese beiden Faktoren helfen dem Seitenbetreiber dabei, die Offpage-Optimierung voranzutreiben. Je erfolgreicher, umso besser. Denn beide Faktoren führen zu einem höheren Ranking-Ergebnis in der Trefferliste der Suchmaschinen.

Natürliches Link-Wachstum anstreben

Doch der Ranking-Erfolg hängt nicht davon ab, wie schnell man möglichst viele Backlinks generiert. Jegliche Anwendung von automatisierten Tools zur Generierung von Backlinks wird von Google spätestens seit der Aktualisierung des Algorithmus abgestraft. Dasselbe gilt auch für einen zu schnellen Aufbau von Linkbeständen bei neuen Websites oder der Verwendung von allzu ähnlichen Linkvariationen. Ein „natürlicher“, also langsamer Linkaufbau ist deshalb ratsam. Es sollten nach und nach Backlinks mit unterschiedlichem PageRank auf die Seite gesetzt werden, jedoch nicht mehr als drei pro Tag. Auch bei der Kombination der Links ist Natürlichkeit erwünscht. Das bedeutet also, dass gerade bei neuen Seiten nicht nur hochwertige Links vorhanden sein sollten.

Grenzen des Linkbuildings erkennen

Wovon wir weiterhin dringend abraten, ist der Kauf von Links. Diese Methode ist nicht nur berüchtigt, sondern auch höchst illegal. Wenn die Suchmaschinen den Kauf entdecken, droht Seitenbetreibern der Ausschluss aus dem Ranking. Dann taucht die Website gar nicht erst in den Ergebnislisten auf. Stattdessen können Links selbst generiert werden, etwa durch das Kommentieren in themenrelevanten Blogs oder durch die aktive Teilnahme an Fach-Foren. Bei jedem Eintrag wird ein Link zur eigenen Webpräsenz eingefügt und die Domain gewinnt damit an Bekanntheit im Internet. Nützliche Instrumente hierzu sind auch Social Bookmark-Portale, RSS-Feeds oder die Streuung in sozialen Netzwerken wie Facebook und Twitter.

Gastartikel als Eintrittskarte in den Content-Bereich

Besonders wertvoll sind Backlinks, die sich nicht im Kommentarbereich befinden, sondern innerhalb der redaktionellen Inhalte einer externen Website. Den Zutritt erhält man entweder durch eigene Inhalte mit Mehrwert, die andere Webseitenbetreiber als teilenswert einschätzen und deshalb einen Link innerhalb eines Texts setzen. Oder man verfasst einen Gastartikel und fügt, in Absprache mit dem Host, eigene Links ein. Nach und nach wird sich die Reputation der Webseite steigern und der PageRank verbessern. Und durch den natürlichen Linkaufbau sind Abstrafungen durch die Suchmaschinen kein Thema.

SEO: Was ist OffPage-Optimierung?

Worauf es bei der Suchmaschinenoptimierung (SEO) ankommt, haben wir kürzlich mit der OnPage-Optimierung dargestellt. Doch das ist nur ein Teil der möglichen SEO-Maßnahmen, denn es gibt noch ein nicht unwesentliches Gegenstück zur internen Bearbeitung, nämlich die OffPage-Optimierung. Sie beschäftigt sich mit allen Maßnahmen, die nicht unmittelbar auf der Website durchgeführt werden. Dazu zählt im Wesentlichen das so genannte Linkbuilding (auch Linkaufbau), das sich auf externe Webseiten bezieht, die auf die Präsenz verweisen. Für die Suchmaschinenoptimierung sind solche Backlinks wichtig, da mit ihnen das Ansehen einer Website bei Google & Co. gesteigert wird. Allgemein formuliert heißt das: Je mehr Websites auf die eigene verlinken, umso höher ist der „Trust“ bei den Suchmaschinen. Die OffPage-Optimierung ist also eine nützliche Methode, um die Reputation einer Website zu steigern und in der Trefferliste nach oben zu klettern.

Die Alternative zur Keyword-Optimierung

Wenn User an SEO denken, dann fallen vielen schlagartig die Begriffe „Keyword“ oder „Schlagwort“ ein – und damit wiederum ein Teilaspekt der OnPage-Optimierung. Doch Schlüsselwörter auf die Website einzubauen, reicht häufig nicht aus um einer Website einen Turbo zu verpassen. Vor allem dann nicht, wenn die gewünschten Keywords von Wettbewerbern bereits stark genutzt werden. Die OffPage-Optimierung ist deshalb vor allem dann nützlich, wenn durch eine reine OnPage-Optimierung keine große Wirkung bei der Sichtbarkeit erwartet werden kann und setzt demnach dort an, wo interne Verbesserungen an ihre Grenzen stoßen.

Die externe Optimierung umfasst sowohl qualitative Faktoren als auch quantitative. Wie sehr ein Backlink die eigene Domainpopularität stärkt, hängt von dessen Qualität ab. Sie hängt wiederum von der Reputation der externen Website ab, etwa welchen PageRank (Google), TrustRank (Yahoo) usw. diese besitzt. Je besser die externe Seite von den Suchmaschinen anerkannt sind, umso wertvoller ist ein Backlink von dieser Präsenz. Die quantitativen Faktoren betreffen ganz klar die „Beliebtheit“ der Website. Dabei wird zwischen drei Marker-Punkten unterschieden: die Linkpopularität, die IP-Popularität und die Domain-Popularität. Der erste Begriff umfasst die Summe aller externer Verlinkungen auf eine Website. Die Anzahl wirkt sich direkt auf das Ranking einer Seite bei Suchanfragen aus. Das klingt viel versprechend, hat aber mittlerweile an Bedeutung verloren, denn oft werden Links „seitenweit“ gesetzt und die Linkpopularität auf alle Unterseiten einer Homepage übertragen. Relevanter ist da schon die Domainpopularität. Sie zählt die Gesamtzahl der verlinkenden Domains zu einem Kennwert zusammen und gewinnt dadurch Gewicht. Auch hier wirkt sich eine hohe Zahl positiv auf das Ranking aus. Die IP-Domain ist noch eine Stufe konkreter, denn hier werden nicht nur die Domains zusammen gerechnet, sondern alle IPs, die auf eine Website verweisen. Für einen guten Wert sollten sich die IPs möglichst stark voneinander unterscheiden.

Eine gute OffPage-Optimierung überzeugt durch Einsatz in Maßen

Wer nun denkt, exzessives Linkbuidling bringt die Website an eine Top-Position, der irrt. Spätestens seit der Algorithmus-Aktualisierung von Google sind solche Maßnahmen, die womöglich noch durch automatisierte Tools gefördert werden, eher schädlich denn nützlich. Deshalb sollte die OffPage-Optimierung bewusst eingesetzt und aggressive Strategien vermieden werden. Maß halten und gesunden Wachstum der Vernetzung anstreben, lautet dabei die Devise. So können Websites ihre Bekanntheit bei Suchmaschinen erfolgreich steigern.

Weitere Infos (externe Seiten):

[related-links]

Wie mehrere Links von einer Seite zur einer anderen den PageRank beeinflussen

Was genau ist der „PageRank“ einer Webseite? Eignet sich das mehrfache Verlinken von einer Seite zur anderen, um den PageRank der Zielseite zu verbessern? Und wie verhält es sich mit der Verlinkung von einer Seite zu derselben, also von A zu A? Werden dadurch der PageRank (PR) verbessert und Ankertext-Daten weitergegeben? Mit diesen Fragen beschäftigt sich Matt Cutts, Software Ingenieur der Search Quality Group von Google, in einem aktuellen Artikel auf dem Google Webmaster-Zentrale Blog.

Gemäß der ursprünglichen Definition setzt sich der PageRank aus der Summe aller auf eine Seite verweisende Links zusammen. Diese Verlinkungen können sich jederzeit verändern, etwa indem sie entfernt werden oder ähnliches. Doch das wird durch die Berechnungsformeln wieder ausgeglichen, weshalb sich Betreiber über solche Veränderungen nicht ärgern müssen. Matt Cutts erklärt dies an einem Beispiel: Der verbleibende PageRank wird einfach durch die Anzahl der externen Links geteilt, um den PageRank gleichmäßig auf jeden vorhandenen Link zu verteilen. Bei vier Links wird der PR dem entsprechend durch vier geteilt. Und auch wenn nur eine Teilmenge auf diese Seite verlinkt und eine andere auf eine alternative Seite, dann würde der PageRank durch die Links weitergegeben. Das gilt auch bei einer Selbstschleife, wenn also ein Link von Seite A zu Seite A führt.

Doch Matt Cutts bemerkt, dass solche Fragen, wie und wodurch man den PR auf einer Website steigern kann, müßig und weitgehend uneffektiv sind. Pagerank-Sculpting sollte seines Erachtens ganz natürlich erreicht werden, nämlich durch interessante Inhalte. Diese werden fast selbstverständlich von anderen Usern geteilt, wodurch ganz automatisch nützliche Verlinkungen entstehen, die den PR verbessern. Des Weiteren gibt es einige nützliche Strategien, die Webseiten-Betreiber anwenden können, um Besuchern das Surfen auf der Site zu erleichtern – und damit auch das Teilen von Inhalten. So sollte die Website klar aufgebaut sein und wichtiger Content leicht zu finden sein. Zahllose Verlinkungen auf der Homepage einzubauen, die dann endlich mal zu relevanten Inhalten führen, sind nicht zielorientiert. Unterseiten, die für viele Conversions sorgen oder anderweitig profitabel sind, sollten optimal genutzt werden. Am besten verlinkt man solche Seiten direkt von der Startseite aus. Dann entdecken die Besucher viel schneller ein attraktives Produkt oder ähnliches, das sie anschließend kaufen, usw.

Zudem empfiehlt Matt Cutts, das Unternehmenslogo im Header einzubauen und mit der Startseite zu verlinken. Das erleichtert die Navigation durch die Website und die Besucher finden immer wieder zum Ausgangspunkt zurück. Insgesamt rät der Google-Experte vom kontrollierten PageRank-Sculpting ab, indem etwa die internen Anker-Texte auf eine maximale Anzahl gebracht werden oder alles dafür getan wird, um einen möglichst hohen PR zu erreichen. Denn die Mitarbeiter von Google setzen auf verschiedenste Methoden wie mathematische Formeln und Algorithmen, die es nicht lohnenswert machen, PR anzuhäufen. Schließlich ist Googles Intention nicht, dass alle Websites es schaffen, ihren PR zu maximieren. Nur qualitativ hochwertige Webpräsenzen haben eine Chance.

Deshalb ist es zwar sinnvoll, eine Website in klaren Strukturen aufzubauen. Allerdings sollten dabei die Besucher im Vordergrund stehen, nicht Google. Aus diesem Grund appelliert Cutts daran, nicht zu verbissen an der Optimierung der Sichtbarkeit bei der Suchmaschine zu arbeiten, sondern wirklich einen Mehrwert für die Nutzer zu schaffen. Denn dadurch erhalten Websites externe Verlinkungen, die den PR erhöhen. Was die Betreiber dann mit ihrem PageRank tun, bezeichnet Cutts als „nebensächlich“.

Quelle (externe Seite):

[related-links]

SEOadministrator – ein Multi SEO Tool

Ein wirklich hilfreiches Multi Tool kommt aus Russland (nicht schrecken) und nennt sich “Seoadministrator”.

Das Programm ist ein echtes Schnäppchen unter den SEO Suiten. In der Experten Ausführung kostet das Teil gerade einmal 249,– US Dollar. Man bezahlt einmal das Programm (oder einige Module daraus) und bekommt regelmäßig kostenlos Aktualisierungen, Updates und Erweiterungen. Es wird also ständig erweitert und aktuell gehalten. Ob es wirklich etwas taugt kann und soll jeder selber testen – deswegen steht eine kostenlose Trialversion zur Verfügung!

Interessant ist auch das man auch Daten aus der Yandex Suchmaschine erhält.

Auch toll: Man kann beliebig viele Projekte bzw. Domains pro Tool anlegen. Somit sind auch Konkurrenz Analysen schnell möglich.

Unter einer übersichtlichen Oberfläche sind zahlreiche Werkzeuge zur Suchmaschinenoptimierung vereint:

Weiterlesen