Beiträge

Starthilfe: SEO in 10 Minuten – Teil 2

Der Webserver als erster Steigbügelhalter zur glücklichen SEO-Optimierung

Mit diesem Teil setzen wir unsere Serie „Starthilfe: SEO in 10 Minuten“ nach dem positiven Feedback aus der Leserschaft gerne fort und folgen dabei weiter dem roten Faden der „Developer Programs Tech Lead“, Frau Maile Ohye aus dem Hause Google für uns in einer englischsprachigen Präsentation zusammengefassten Präsentation zusammengestellten Weichen, die sie in weniger als 10 Minuten stellen können, und so ihr System auf den Erfolgsweg zu ihrer erfolgreichen Platzierung in den Google-Suchergebnissen vorbereiten kann.

Mit ein wenig sanftem Druck die Entwicklung des Web bestimmend

Vielfach wird es unter den Tisch geschlagen, doch auch die korrekte Konfiguration eines Webservers auf dem naturgemäß eine Webseite gehostet wird, kann sich auf das Ranking in der Suchmaschine Google auswirken. In diesem Fall vielmehr eine fehlerhafte Konfiguration, die mit den Richtlinien der Suchmaschine unweigerlich kollidiert und konsequente Sanktionierung erfährt, mehr noch als vermeintlich eindeutigere und offensichtlichere Verstöße gegen die Google Webmaster Guidelines als absolutes „Kill Kriterium“ nicht direkt mit der Roten Karte, wohl aber ohne Verwarnung mit Gelb-Rot und einer Auszeit auf der Bank geahndet wird. Der Hintergrund dessen liegt in der chaotischen Vergangenheit des WWW, das mit seinen auf dem Papier zwar definierten Standards eine gemeinsame Grundlage Die Praxis jedoch zeigte, dass diese Richtlinien sowohl von Webmastern auf Anwenderseite, wie auch durch die Hersteller der Browser auf der Herstellerseite mitunter sehr abenteuerlich ausgelegt wurden und bis in Mitte der 2000er immer wieder zu inkompatibilitätsbedingten Einbußen in der User Experience führten. Die Unternehmen Microsoft, Netscape und Opera Software, die den überwiegenden Großteil des Browsermarktes bedienten, waren sogar ständige Mitglieder der W3C-Kommission und verstießen im Kampf um Marktanteile immer wieder gegen die HTML-Standards, etwa durch proprietäre Erweiterungen des Befehlssatzes.

Mit dem Aufstieg Googles als führende Suchmaschine des World Wide Webs jedoch war das Unternehmen auf möglichst einheitlich standardisierte Plattformen und den sich nach Standard verhaltenden Gegenstellen angewiesen um sein Geschäftsmodell, das gesamte Internet nicht nur zu indexieren, sondern nach der Relevanz im Verhältnis der abgefragten Suchbegriffe zu ordnen, einen barrierefreien Zugang zu den in HTML gebetteten Informationen durch seine Crawler zu erhalten. Ebenso war es notwendig, das die seinerseits noch lange nicht standardisierten Webserver, die teilweise noch in Eigenleistung als Projektarbeiten der Studiengänge der Informationstechnologie programmiert und verwendet wurden und in ihrem Funktionsumfang oftmals von den geltenden Standards abwichen und den umfassenden crawl des Internets behinderten.

Um diesem Problem langfristig Herr zu werden und einen Anpassungsdruck gegenüber den vom, freilich von Google veranschlagten, Standard abweichenden Webservern zu erzeugen – Seinerzeit war der Erfolg einer Seite nahezu ausschließlich in Page Impressions und Unique Visitors bemessen und generierte seine Popularität vor allem durch Verlinkungen auf Seiten mit hohem Publikumsverkehr, da die vorhandenen Suchmaschinen in ihrer unzähligen Vielfalt und den unterschiedlichen Erfassungskriterien eine breitbandige Optimierung verhinderten – begann Google mit der Anwendung strikter Sanktionen, die sich vor allem im Ausschluss der entsprechenden Webserver und der darauf gehosteten Webseiten manifestierten, oder gar nicht zu einer Aufnahme in den Index der Suchmaschine führte, die binnen kürzester Zeit eine ungeahnter Reichweite erzielte und schon bald die Ambition zur Marktführerschaft entwickelte.

Dieser rigorose Lock-Out führte zu einer raschen Anpassung an die technischen Richtlinien der nun Ton angebenden Suchmaschine Google, die damit eine Einhaltung der geforderten Standards durch Einsatz der Ellenbogen sicherstellte und den ersten, koordinierten Schritte zur Vereinheitlichung des WWW und seiner Technologien unternahm.

Wie die Konfiguration ihres Webservers ihre

„EntWWWeder oder“: Um bei der erstmaligen Erfassung durch die Google-Crawler nicht Gefahr zu laufen durch sogenannten Duplicated Content, also doppelter Inhalte die Google auf zwei unterschiedlichen URL indiziert, eine Penalty zur riskieren, sollten sie sich schon im Vorfeld im klaren sein ob ihre Webseite mit dem Präfix „www“ erfasst werden soll, oder ob sie darauf verzichten und in diesem Zuge die dafür notwendigen technischen Vorkehrungen in der Konfiguration ihres Treffen.

Dazu müssen sie die, im Root-Verzeichnis ihres Webservers hinterlegte Datei „.htaccess“ editieren. (Aufgrund der hohen Verbreitung des Apache-Webservers verzichten wie an dieser Stelle auf die Erläuterung des Prozedere für andere Webserver aus Relevanzgesichtspunkten)

Die Datei „.htaccess“ enthält Instruktionen zu einer bestimmten Verhaltensweise, die beim einem Zugriff auf das Heimatverzeichnis, in dem die Konfigurationsdatei abgelegt ist, ausgelöst werden und mittels der hinterlegten Befehle ein bestimmtes Verhalten des Servers erzwingt.

Beispielhaft könnte ihre „.htaccess“ etwa wie in diesem Beispiel aussehen:

RewriteEngine On
RewriteCond %{HTTP_HOST} !^www.ihredomain.de
RewriteCond %{HTTP_HOST} !^www.ihredomain.com
RewriteRule ^(.*)$ http://www.ihredomain.de/$1 [L,R=301]

Damit haben sie bereits den wichtigsten Schritt getan und eine der häufigsten Fußangeln bei der Suchmaschinenoptimierung elegant umgangen und somit das Tor für die kommenden Teile unserer Serie zum Thema „Einfache Suchmaschinenoptimierung in 10 Minuten“, für SEO-Profis und Amateure aufgestoßen!

Update: 24.10.2012
Diese Artikelserie ist inzwischen abgeschlossen. 

Hier finden Sie alle 10 Teile:

  1. Das erste Grundlagenwissen für ihre SEO-Erfolge
  2. Der Webserver als erster Steigbügelhalter zur glücklichen SEO-Optimierung
  3. Intelligente Textgestaltung als effiziente SEO-Maßnahme
  4. Einheitlicher Domainzugriff und Google Webmaster Tools erleichtern den Aufstieg
  5. Mail Forwarding in den Webmaster Tools zur Benachrichtigung nutzen
  6. Altlasten ihrer Domain klären und mit einfach mit Google die eigene Domain prüfen
  7. Strategische Grundlagen: Zielgruppendefinition, Design & Social Media
  8. Strategische Grundlagen: Content Management und Corporate Design
  9. Multimedia neu begriffen – Unterhaltung und Dienstleistung
  10. Analyse ihres Erfolgs mit Google Webmaster Tools

Weitere Infos (externe Seiten):

IP-Adressen werden knapp – Was kommt dann?

Wer professionell Suchmaschinenoptimierung betreiben will muss sich zwangsweise auch mit Servern und IP Adressen auseinandersetzen.

Aber nun werden die IP Adressen knapp – aber was kommt dann?

Bereits im Jahr 2008 machte ein Bericht der OECD (Organisation for Economic Co-operation and Development) in den Medien Schlagzeilen, der besagte, dass im Jahr 2011 die verfügbaren IP-Adressen des bisher genutzten IPv4-Protokolls zur Neige gehen werden. Nun schreiben wir besagtes Jahr 2011 – und das Problem existiert nach wie vor. Die rund 4,3 Millionen IP-Adressen sind angeblich fast alle vergeben – wie viele es sind, kann allerdings niemand genau sagen. Doch die Lösung für das „Platzproblem“ steht bereits in den Startlöchern: das Internet Protocol Version 6, kurz IPv6. Wirklich neu ist es nicht, denn es wurde bereits Ende der 1990er Jahre als unmittelbarer Nachfolger des IPv4-Protokolls entwickelt. Es ermöglicht immense 340 Sextillionen IP-Adressen, die angeblich jedem Quadratmillimeter der Erde 600 Billionen Adressen zuweisen könnten. Eine kaum vorstellbare Relation. Experten gehen davon aus, dass das neue Protokoll den Adressmangel für unbestimmte Zeit aus der Welt schaffen wird. Viele deutsche Provider, darunter die Telekom, wollen das bisher fast ungenutzte IP-Protokoll bereits in naher Zukunft weitläufig einsetzen.

Mit der Einführung des IPv6-Protokolls werden sich einige Elemente ändern. So werden Netzwerkmasken überflüssig, außerdem sollen die Netzwerkkonfiguration sowie der Betrieb einfacher werden. Vermutlich wird auch die umständliche Adressverwaltung wegfallen, die bei IPv4 aufgrund der IP-Knappheit unausweichlich war. Der Wechsel von IPv4 auf das neue Protokoll im LAN ist in der Regal unkompliziert, da es bereits von den gängigen Betriebssystemen wie Windows 7, Linux oder McOS beherrscht wird. Aufpassen muss man jedoch bei WLAN-Router und DSL-Modem: Die wenigsten sind auf das IPv6-Protokoll eingestellt, so dass der Austausch dieser Geräte vonnöten sein kann.

Diese Inkompatibilität kann Störungen in der Vernetzung verursachen. So genügt bereits ein einzelner Router, um ein Netzwerk streckenweise lahm zu legen. Dennoch ist die Initiation von IPv6 notwendig – und sie steht kurz bevor: mit dem „World IPv6 Day“. Diesen haben Internet-Konzerne wie Google, Facebook & Co für den 8. Juni 2011 ausgerufen. Er ist als Präsentationsplattform für neue Produkte rund um IPv6 geplant. Experten gehen übrigens davon aus, dass beide IP-Techniken in den kommenden zehn Jahren noch parallel angewandt werden. Grund zur Eile besteht für den privaten Anwender beim Wechsel also nicht.

Doch warum sind IP-Adressen überhaupt wichtig? Ganz einfach: Sie sind für die Kommunikation und Vernetzung zwischen Endgeräten unverzichtbar. Die 12-stellige Nummer dient der Identifizierung von Computern oder Smartphones und ist deren ‚Anschrift’ für die Übermittlung von Datenpaketen. Wer im Internet unterwegs ist, könnte ohne IP-Adresse nicht eine Seite anschauen.

Weitere Infos und Quellen (externe Seiten):