Wofür braucht man eine .htaccess Datei?

.htaccess ist eine Konfigurationsdatei, in der verzeichnisspezifische Einstellungen auf Webservern (z. B. Apache) vorgenommen werden können.

.htaccess-Dateien sind vor allem auf Apache-Servern zu finden, exakter ausgedrückt auf NCSA-Servern und solchen, die zu diesen kompatibel sind. Weil Apache-Server immer weitere Verbreitung finden, wird diese Art des Zugriffsschutzes auch immer populärer und verbreitet sich mit der Nutzung dieser Server. Andere Server-Familien nutzen aber oft eine ähnliche Technologie.

Beispielsweise lässt sich mit .htaccess-Dateien ein Zugriffsschutz durch HTTP-Authentifizierung für ein Verzeichnis oder einzelne Dateien einrichten. Aber auch Fehlerseiten oder interne Verknüpfungen lassen sich hierüber einstellen, ohne den Server neu starten zu müssen: Änderungen in der .htaccess Datei treten sofort in Kraft, da diese bei jeder Anfrage an den Webserver ausgewertet werden, woraus aber auch ein möglicher Performanceverlust resultiert.

In diesen Dateien vorgenommene Einstellungen wirken wie -Abschnitte in zentralen Konfigurationsdateien, welche den .htaccess-Dateien vorzuziehen sind. Ausnahme: Man hat keinen Zugriff auf die Konfiguration des Servers, oder dieser kann nicht ohne weiteres neu gestartet werden. Sie gelten nur für das Verzeichnis, in dem sie gespeichert sind, sowie in allen Unterverzeichnissen.

Generell benutzen .htaccess-Dateien dieselbe Syntax wie die Hauptkonfigurationsdateien. Um die darin enthaltenen Anweisungen wirksam zu machen, müssen die entsprechenden Festlegungen in den Hauptkonfigurationsdateien als überschreibbar (AllowOverride) gekennzeichnet werden, da diese sonst ignoriert werden.

.htaccess-Dateien sollten genutzt werden, wenn Konfigurationsänderungen per Verzeichnis gemacht werden sollen, aber kein Vollzugriff auf das Serversystem besteht oder der Systemadministrator den Nutzern das Ändern von bestimmten Konfigurationen gestatten will. Es kann auch genutzt werden, wenn mehrere Seiten auf einem System gehostet werden und deren Konfiguration individuell angepasst werden soll.

Grundsätzlich sollte der Gebrauch von .htaccess-Dateien vermieden werden, da die Konfigurationsmöglichkeiten auch in -Sektionen in der Hauptkonfiguration vorhanden sind.

Gebräuchliche Verwendung von .htaccess-Dateien:

Authorisierung
.htaccess-Dateien werden oftmals genutzt, um Sicherheitsbeschränkungen für bestimmte Verzeichnisse zu spezifizieren. Dann werden sie meist von .htpasswd-Dateien begleitet, die zulässige Nutzernamen sowie Passwörter beinhalten.

Umschreiben von URLs
Server nutzen oft .htaccess-Dateien, um lange und unverständliche Adressen in kürzere, einfache zu merkende Adressen umzuwandeln.
Gerade für den bereich Suchmaschinenoptimierung sehr, sehr wichtig wenn sich die Verzeichnisstruktur der Webseite ändert!!

Blocken
Kann genutzt werden, um Nutzer abhängig von ihrer IP, Domäne oder anderen Kriterien den Zugriff auf Inhalte des Verzeichnisses zu blockieren.

Serverseitige Includes
Einbinden von serverseitig gebrauchten Bibliotheken oder anderem.

Directory Listing
Steuern, wie der Server reagiert, wenn keine spezifische Webseite angegeben ist.

Individuelle Fehlermeldungen
Die Seite verändern, die angezeigt wird, wenn z.B. ein HTTP 404 (Seite nicht gefunden) Fehler auftritt.

MIME Typen
Den Server anweisen, wie verschiedene variierende Datentypen behandelt werden sollen.

Cache Kontrolle
.htaccess-Dateien erlauben die Kontrolle über das Cachen von bestimmen Seiten durch Browser oder Proxies, um Bandbreitennutzung und Serverauslastung zu reduzieren.

Übrigens hat sich der Dateiname .htaccess zwar allgemein eingebürgert, ist aber nicht grundsätzlich Pflicht. In der Konfigurationsdatei des Servers kann der Server-Administrator festlegen, dass ein anderer Name benutzt wird. Dass der Dateiname mit einem Punkt beginnt, ist ein Erbteil aus der Unix-Welt. Hier beginnen die Namen von Konfigurationsdateien oft mit einem Punkt. Das kann aber den Nachteil haben, dass sie als „unsichtbar“ behandelt werden, z.B. auf einem FTP-Server. Dann könnte der Eindruck entstehen, dass sie überhaupt nicht existieren.

Weitere Infos (externe Seiten):

[related-links]

Die Unterschiede zwischen SEM und SEO

Warum SEO Agenturen nicht billig sein können

Um zu profitieren muss man investieren

Search Engine Optimization oder kurz SEO bedeutet zu Deutsch Suchmaschinenoptimierung. Eine manuelle Suche nach Seiten im Netz wäre unmöglich. So betrug vor etwa 3 Jahren die Anzahl der sich im World-Wide-Web befindlichen Seiten ungefähr 3,8 Trillionen und es werden mitnichten weniger.

Man müsste sich also ein bisschen Zeit einplanen, um die Informationen zu erklicken, nach denen man sucht.

Weitaus vielversprechender klingt da die Nutzung von Suchmaschinen. Hier werden nur die Seiten aufgelistet, deren Themen auch mit dem Suchwort in Zusammenhang zu bringen sind.

Vielfältig kann diese Eigenschaft genutzt werden, für die Suche nach Chatrooms, Informationen oder das Online-Shopping.

Einkaufen, egal um welches Produkt oder Dienstleistung es sich dreht, wird immer beliebter bzw. muss sein, wenn es sich eventuell um Importware handelt.

Betrachtet man das ganze Szenario aus der Sicht der Produzenten, Vertreiber und Anbieter, so hat jeder das Bestreben, ganz vorne im Ranking dabei zu sein. Die Suchmaschine arbeitet mit autonom laufenden Programmen, die Webcrawler genannt werden. Jene durchforsten die Seiten, speziell den Quelltext und die Seiteninhalte und erstellen so nach bestimmten Auswahlkriterien eine Rankinglist.

Es ist also nicht nur die optische Attraktivität der Seite wichtig, sondern sie muss inhaltlich informativ und korrekt und zusätzlich suchmaschinenfreundlich aufgebaut sein, um bei den Rankinglisten zu punkten.

An dieser Stelle kommt die Suchmaschinenoptimierung aktiv ins Spiel. Eigentlich schon vorher – bei der Planung des Webprojektes.

Um auf den ersten Plätzen bei Google und Co. zu landen ist es nötig das die Seite den Operatoren der Webcrawler möglichst weit entspricht. Leider unterscheiden sich die Kriterien der diversen Suchmaschinen doch erheblich. Bing wertet anders als Google usw…….

Die Komplexität dieses Verfahrens ist hoch und es reicht in der Regel nicht aus, einfach nur korrekten Quelltext zu erstellen. Die Kriterien der Webcrawler ändern sich stetig und fast Tag für Tag. Es ist also schon einmal ein enormer Zeitaufwand nötig um immer auf dem Laufenden zu bleiben. Versuch und Irrtum Tests mit Dummy Webseiten helfen oft SEO Agenturen neue Kriterien zu erkennen.

Jedes Unternehmen weiß, dass in der Wirtschaft das Wort Zeit ein Synonym für Geld ist. Üblich ist es also (bei hart umkämpften Schlagwörtern), auf professionelle Unterstützung wie SEO-Agenturen zurückzugreifen, da es gilt sich um eine Vielzahl von Kriterien wie zum Beispiel On-Page, Off-Page, Keys, Metatags, Titletags und Verlinkungen, Domainpopularität, Linkpopularität usw. zu kümmern.

Ein enormer Arbeitsaufwand und vor allem Zeit sind notwendig um auf Grund der hohen Anzahl (und ständig ansteigenden) Internetseiten es in die Top 10 oder besser der wichtigsten Suchmaschinen zu schaffen.

Qualität kostet aber nun einmal. Bei dieser Art von Marketing bringt es nichts, wenn man die Kosten scheut. Jeder neue Klick könnte ein potentieller Kunde sein und des Weiteren sollte man bedenken welchen Wert ein Neukunde wirklich für das Unternehmen besitzt.

Übrigens sind SEO Maßnahmen mittelfristig gesehen meistens wesentlich günstiger als AdWords Kampagnen! Die SEO Agentur muss aber dafür ganze Arbeit leisten und den Kunden wirklich mit relevanten und wichtigen Schlagworten in die Top 5 oder besser bringen. Dann rentiert sich das für den Kunden.

Wenn man schon Geld in Werbung fließen lässt, wäre es angebracht, dies sinnvoll und von Anfang an richtig und gut durchdacht zu tun.

Schließlich sollen die potentiellen Kunden ja auch das Angebot zu Gesicht bekommen.

Die alles andere als lichte Marktdichte erzeugt ein riesiges Potential an Wettbewerb, in der man ganz schnell untergehen kann.

Sparmaßnahmen am falschen Ende sind tödlich für die eigenen Umsätze und gerade die Internetpräsenz ist in der heutigen Zeit das Alpha und Omega der Aufrüstung gegen den oligopolen Markt. Auch die sozialen Netzwerke wie Facebook, Twitter & Co sollten für Marketing und SEO Maßnahmen berücksichtigt werden.

Deswegen ist eine Symbiose zwischen Kunde und SEO Agentur so wichtig!

  1. Die Chemie zwischen beiden Partnern muss stimmen und beide Parteien müssen auf die andere “horchen”.
  2. Die SEO Agentur sollte schon bei der Planung des Webprojektes beraten können. Die Wahl des Domainnamens, der Domainendung, des Webhosters, der Seitenaufbau, die Seitenstruktur, die Art der internen Verlinkung, die Einbindung von Grafiken usw. – das sind alles kleine Puzzlesteine die zusammengesetzt ein Bild ergeben.
  3. Der Kunde sollte möglichst viel seines Fachwissens seiner Produkte bzw. Dienstleistungen auf der Homepage zur Verfügung stellen. Das Webprojekt sollte inhaltlich interessant, korrekt und aktuell sein. Zusätzlich sollte das Projekt stetig erweitert werden. Immer neue, themenrelevante Inhalte dazu bekommen.
  4. Die SEO Agentur übernimmt dann den Rest um bei Google & Co gut platziert zu werden.
  5. Der Kunde sollte so weit wie möglich auf die Vorgaben und Vorschläge der SEO Agentur hören und diese auch kurzfristig umsetzen. Oft kann ein kleiner umformulierte Text oder ein weggelassener externer Link schon Wunder im Ranking bewirken.

Das funktioniert aber nur wenn echtes Vertrauen zwischen beiden Parteien herrscht.

Deswegen raten wir Ihnen dringend

  • Fragen Sie bei mehreren SEO Agenturen an (am besten bei denen die bei Google & Co auch gut gelistet sind)
  • Lassen Sie sich unbedingt aussagekräftige Referenzen nennen.
  • Fragen Sie nach was passiert wenn die Arbeiten keinen bzw. nicht den versprochenen, erwarteten Erfolg bringen. Eine seriöse Agentur wird Ihnen anbieten die Kosten oder zumindest einen beträchtlichen Teil der angefallenen Kosten zurück zu erstatten. Oder auch gut: Die SEO Agentur nenne ihnen eine geringe monatliche Pauschale und erst wenn die wichtigen Phrasen wirklich gut platziert sind kommen Prämien zum tragen.

 

Meta Tag “Keywords” wird von Google nicht gewertet

Matt Cuts selber räumt mit SEO Missverständnissen bzw. Trugschlüssen auf.

Unter anderem bestätigt er das die Keywords Meta Tags seitens Google NICHT gewertet werden und keinen Einfluss auf das Ranking haben.

 

Zitat (übersetzt):

[stextbox id=”alert” caption=”Trugschluss Meta Keyword Tag”]Ein spezieller Trugschluss, auf den ich hinweisen will, ist, dass das Meta-Tag der Keywords im Such-Ranking von Google irgendeine Rolle spielen würde. Tut es einfach nicht. Wir verwenden das Meta-Keywords-Tag nicht.[/stextbox]

Weitere Trugschlüsse betreffend Suchmaschinenoptimierung u. Google Ranking klärt Cutts hier auf: Artikel in der Google Webmaster Zentrale

 

Google Webmaster Tools in Symbiose mit Google Analytics verknüpfen

….. ab sofort geht das.

Dieses neue Feature steht angemeldeten Webmastern ab sofort zur Verfügung.

Voraussetzung:

  1. Sie haben such sowohl für die Webmastertools als auch Analytics registriert
  2. Sie verwenden für beide das selbe Google Konto

Das ist ziemlich praktisch da man nun in den Webmaster Tools auch einige Funktionen von Analytics nutzen kann.

Es gibt da nun einen Bericht über allgemeine Trends betreffend Zugriffszahlen von Links bzw. auch über die Webseiten die genau diese Trends beeinflussen.

Man kann direkt auf das Analytics Dashbord zugreifen.

Und so funktioniert das:

  1. Webmaster Tools Startseite >> neben der gewünschten Homepage auf “verwalten” klicken
  2. Klick auf das Google Analytics Profil
  3. Gewünschtes Profil auswählen >> Speichern klicken

Achtung aufpassen – wenn die Webseite mehrere Inhaber hat, dann muss jeder der Inhaber sein eigenes Konto mit einem Google Analytics Profil verknüpfen!!

 

Quelle: Google Webmaster Blog

 

 

Umfrage: Melden Sie Homepages die Links mieten oder kaufen und erkannte Linkfarmen an Google?

Google hat schon länger eine Meldefunktion in den Webmastertools integriert wo (angemeldete) Webmaster Webprojekte an Google melden können wo der Verdacht des Linkkaufs bzw. Linkmiete besteht.

Eine Browser Erweiterung zum noch leichteren “petzen” wurde seitens Google ebenfalls schon zur Verfügung gestellt.

Seit kurzem gibt es nun auch eine Browsererweiterung mit der man (indirekt) erkannte Webseiten aus Linkfarmen melden kann.

Uns interessiert nun Ihre Meinung dazu!

Wie freuen und über eine angeregte Diskussion über die Kommentarfunktion.

[poll id=”2″]

Weitere Infos (externe Seiten):

[related-links]

Testlauf – so will Google Linkfarmen besser erkennen

Google experimentiert lt. eigenen Aussagen mit unterschiedlichen algorithmischen Lösungen um sogenannte Linkfarmen zu identifizieren.

Linkfarmen sind Webseiten / Homepages mit relativ niedriger Qualität die erstellt wurden um andere Homepages mit Backlinks zu versorgen.

Google testet nun ob explizites Feedback von Google Usern eventuell hilfreich sein könnte.

Für diesen Test wurde eine neue Google-Chrome Browser-Erweiterung vorgestellt: Personal Blocklist

Ist diese Erweiterung installiert und eine Webseite “blockt” wird das sofort an Tante G weitergeleitet. G möchte so herausfinden ob dieses Feedback als “potentielles Ranking Signal” zu verwenden wäre.

Ist eine Webseite mit diesem Tool geblockt wird Sie in Ihren Suchergebnissen bei G nicht mehr angezeigt. Theretisch kann man auch eiter entblocken.

Wenn ihr eine Website mit der Erweiterung blockt, wird diese Domain nicht mehr in euren Suchergebnissen erscheinen. Ihr könnt dies aber auch wieder rückgängig machen: Ein Link am Ende der Suchergebnisseite zeigt euch die geblockten Suchergebnisse an und macht es einfach, sie wieder zu entblocken.

Dies ist momentan einmal nur ein Testlauf meint Google. Die Erweiterung steht in 20 Sprachen zur Verfügung.

Unsere Meinung: Ein zweischneidiges Schwert – bereits in den Google Webmaster Tools kann man Webseiten petzen bei denen man den verdacht hat sie kaufen oder mieten Links. Es gibt mehrere browser Erweiterungen die diesen petzen vereinfachen und nun gibt es ein weiteres Petz-Tool um angeblich Linkfarmen zu erkennen.

Zugegeben, es ist praktisch Webseiten ausblenden zu können. Aber ob man so Linkfarmen erkennt? Ganz ehrlich, man sieht sich ja nur die ersten paar Treffer im Ergebnis Index an. Ist eine Webseite mit bestimmten Keywords da sehr gut gelistet muss die Seite ja etwas haben was sie dorthin bringt. Gute Backlinks, guten Inhalt usw……

Ist die Homepage aber auf Seite 110 im Index …… wem stört sie da und wie soll diese helfen andere Projekte zu pushen?

Weitere Infos (externe Seiten):

[related-links]

Social Networking – Sicherheit und Social Reputation

Wir sind die richtigen Ansprechpartner für Sie, wenn es um das Social Networking und das Web 2.0 geht. Mit unserem Wissen gelingt es Ihnen nicht nur den eigenen Bekanntheitsgrad zu erhöhen, sondern auch Ihre Daten zu schützen.

Dies ist sehr wichtig, wenn man das Web 2.0 oder auch soziales Netzwerk genannt, für sich professionell nutzen möchte.

Wenn Sie die Entscheidung getroffen haben soziale Netzwerke für Ihr Unternehmen zu nutzen, möchten wir Ihnen auf jeden Fall schon einmal gratulieren, denn dass soziale Netzwerk ist perfekt dafür, neue Kunden zu gewinnen, Geschäftspartner zu treffen, Werbung für sich zu machen und mehr.

Kennen Sie Myspace, Facebook und die anderen Treffpunkte des sozialen Netzwerkes, wissen aber nicht, wie Ihnen dies weiterhelfen soll?

Dann wenden Sie sich vertrauensvoll an uns. Wir stehen Ihnen beratend zur Seite und können Ihnen helfen bei Facebook, Twitter & Co effektiv die Werbetrommel zu rühren, Ihre Unternehmen optimal darzustellen und gleichzeitig zusätzlichen Traffic für Ihre Homepage zu generieren.

Auch können wir Ihnen helfen etwaige Ausrutscher und “no goes” in den Netzwerken zu vermeiden. Ein einziges unbedachtes Posting eines Mitarbeiters kann die Reputation eines ganzen Unternehmens schädigen.

Geplante Downtime einer Homepage – was sollte man dazu wissen

Ab und zu kann es vorkommen das man eine Homepage kurz- oder längerfristig vom netz nehmen muss. Sei es wegen Aktualisierungen, Wartungen, rechtlichen Problemen oder was auch immer.

Nun kommt der Google Crawler vorbei und findet “nichts”. Das ist nicht so gut. Der Crawler kann selbstständig nicht wissen ist die Homepage jetzt nur temporär offline oder dauerhaft – liegt ein Fehler am Server vor – usw…..

Standardmäßig wird normalerweise in so einem Fall ein Statuscode 404 ausgegeben. Dieser steht für “nicht gefunden”. Oder man kommt auf eine Fehlerseite mit dem Statuscode 202 (OK).

Viel, viel besser ist wenn man den HTTP Statuscode 503 – Service nicht verfügbar – verwendet. Dadurch teilt man den Suchmaschinen Crawlern mit das es sich wirklich nur um eine temporäre Downtime handelt.

Noch besser ist es wenn man den Crawlern (und auch den Seitenbesuchern) mitteilt wann die Homepage wieder normal erreichbar ist. Durch ein optionales “Retry-After”-Header-Feld kann man, theoretisch sekundengenau, die Dauer der Ausfallzeit bzw. auch das geschätzte Datum der “Wieder Erreichbarkeit” definieren.

Der Googlebot checkt das dann auch!!

Man sollten den 503 er Statuscode aber nicht zu lange ausgeben lassen. Das könnte den Bots suggerieren das eine URL doch dauerhaft nicht erreichbar ist.

Weitere Infos (externe Seiten):

[related-links]

Unique Content für SEO Arbeiten

Die Erstellung von unique Content ist ein Teilbereich unseres Portfolios.

Aber was ist uC eigentlich und was kann er bewirken? Darauf gehen wir heute ein wenig ein. Zwar nicht wissenschaftlich korrekt aber für Laien hoffentlich verständlich und vor allem leicht umsetzbar!!!

Jeder Betreiber einer geschäftlichen Webseite möchte im Internet natürlich erfolgreich sein. Dies ist aber gar nicht so einfach wie man dies immer glaubt, denn es reicht schon lange nicht mehr aus einfach nur eine Internetpräsenz zu erstellen. Man ist mehr oder weniger auf die Suchmaschine Google angewiesen wenn man im Internet gefunden werden möchte.

Hat man eine neue Webseite erstellt hat diese Homepage erst einmal keinen Pagerank. Der PR ist eine Art Zeugnisnote die G. verwendet um eine Art Relevanz Wert der Homapge anzuzeigen. Je höher dieser Pagerank nun ist um so wahrscheinlicher ist es diese Homepage öfter im Ranking vorzufinden. Hat also eine Homepage über Kroatien eine PR von 6 ist es recht wahrscheinlich genau die Homepage im Ranking weit vorne zu finden wenn man Suchbegriffe rund um “Kroatien” verwendet.

Aber der (in der Google Toolbar angezeigte) Pagerank sagt heute fast nichts mehr aus. Am besten Sie konzentrieren sich nicht auf den Pagerank sondern die Qualität Ihres Webprojektes. Je attraktiver und informativer Ihre Homepage ist um so besser wird sie mit der Zeit im Google Ranking gelistet werden. Natürlich sind gute Backlinks auch wichtig aber unterschätzen Sie nicht “die Macht der eigenen Inhalte”.

Möchte man eine eigene Webseite erstellen, braucht man somit ein wenig Zeit für den korrekten Aufbau.

Im Prinzip weiß jeder Internetnutzer, dass Suchmaschinen zwar oft genutzt werden, aber die User meist nur die ersten Seiten einer Suchmaschine anschauen. Manche belassen es sogar bei der ersten Seite. Somit bringt es einem Betreiber einer Webseite absolut gar nichts, wenn er aber erst auf der Seite 2222 zu finden ist. Anmerkung – etwa 60 bis 80% der Klicks teilen sich die ersten 4 im Ranking angezeigten Domains…..

Unique Content für SEO Arbeiten ist das Geheimnis, mit dem man die Konkurrenz im Ranking überholen kann. Sorgen Sie also dafür das Auf Ihren Webseiten bessere und mehr Informationen zu finden sind als bei Ihren Konkurrenten. Achten Sie dabei unbedingt auf die themenrelevanz!!! Wenn Sie Garagentore vertreiben macht es keinen Sinn Informationen über Alu-Profilrohre online zustellen.

Nun ist für Laien der Begriff Unique Content sehr nichtssagend, ebenso wie SEO Arbeiten. Aber dies ist schnell erläutert.

SEO bedeutet Suchmaschinenoptimierung, was man erreichen möchte und muss. Suchmaschinen indexieren die Internetseite teilweise aufgrund der vorhandenen (sichtbaren) Texte und Bilder – sprich Inhalte.

Unique Content bedeutet einzigartige Inhalte so wie sie im Internet nicht noch einmal zu finden sind.

Somit definieren sich die Homepages über den Inhalt.

Der Text ist das A und O für den Unique Content für SEO Arbeiten. Die Texte der Webseite dürfen nicht kopiert oder abgeschrieben sein, man muss sich also selbst etwas einfallen lassen und nicht einfach bei der Konkurrenz abschreiben. Kopiert man Texte, Textpassagen oder schreibt man einen Text gänzlich ab, nennt man dies Duplicate Content, was von den Suchmaschinen gar nicht gewünscht wird und sogar zu Abwertungen im Ranking führen können. Sprich: So wird man nie mit der eigenen Internetpräsenz auf den ersten Seiten der Suchergebnisse erscheinen. Dies bezieht sich auch darauf, wenn man einen Onlineshop betreibt und keine eigenen Produktbeschreibungen erfasst. Nimmt man nur die Texte der Hersteller, hat man schon einen Duplicate Content. Also auch wenn es etwas Mühe bereitet, der Text muss selbst geschrieben werden!

Leider war das aber noch nicht alles, wenn es um den Unique Content für SEO Arbeiten geht. Man muss in den Texten der Webseite auch noch spezielle Keywords für die Optimierung nutzen. So schwer ist dies aber eigentlich doch nicht, man muss sich nur die eigene Webseite anschauen und überlegen, was man selbst als User in einer Suchmaschine eingeben würde, wenn man genau diese Internetpräsenz finden möchte. Schon hat man die Keywords gefunden, die nun noch in den Texten der Webseite verstreut werden müssen. Hat man dies getan, kann man seinen Internetauftritt recht gut positionieren und Menschen auf sich aufmerksam machen, was man ja genau so will. Denn nur wenn man auch wirklich gefunden wird, kann man sich im Internet durchsetzen.

Kurz zusammengefasst:

  • Erstellen Sie ein möglichst umfangreiches Webprojekt
  • Verwenden Sie nur selber geschriebene Inhalte
  • Je mehr (sinnvoller, themenrelevanter) Text um so besser ist es
  • Erweitern Sie Ihre Webpräsenz so oft wie möglich um gute, zu Ihrem Portfolio passende, Inhalte
  • Bauen Sie Ihre Homepage so auf das sie informativer, übersichtlicher und somit attraktiver als die Konkurrenz-Hompages ist
  • Achten Sie auch auf eine übersichtliche Menüstruktur
  • Unbedingt darauf achten das Suchmaschinen die Inhalte auch erkennen können. Also verstecken Sie die Texte nicht in Javascript & Co

Im übrigen kann man auch noch etwas mehr tun, als nur den richtigen Unique Content für SEO Arbeiten zu nutzen. Denn natürlich spielt auch die Domain eine große Rolle, die man sich für wenige Euro im Jahr kaufen kann. Wenn in der Webadresse schon ein Keyword enthalten ist, hat man noch bessere Chancen auf ein gutes Ranking. Betreibt man zum Beispiel einen Shop für Holzspielzeug, könnte die Webadresse „www.holzspielzeug-online.de“ oder „www.holzspielzeug-shop.de“ lauten.

Und wenn Sie Bilder oder Grafiken mit einbinden verwenden Sie nicht die Original Dateinamen wie Sie Digitalkameras automatisch anlegen sondern benennen Sie diese um.

Aus PC1245465.jpg wird so z.B.  holzspielzeug_schaukelpferd.jpg

Alles in allem klingt es eigentlich schwerer als es ist die eigene Internetseite mittels EIGENEN Inhalten präsent zu machen.

 

Stirbt der Google Pagerank? Was meinen Sie?

Im Internet kursiert schon seit längerer Zeit das Gerücht, dass der Google Pagerank stirbt. Der Pagerank der dazu dient die Wichtigkeit/Relevanz einer Webseite anzuzeigen. Durch die Verlinkung der eigenen Webseite kann man das eigene Ranking in die Höhe treiben, was natürlich auch einige Geschäftsleute für sich nutzen. Dies ist auch kein Wunder, denn viele Internetdienstleistende sind darauf angewiesen, dass man sie gleich auf der ersten Seite in der Suchmaschine findet. Ist doch bekannt, dass jeder User, der über Google etwas sucht, sich nur die erste Seite anschaut und davon meist auch nur die ersten Ergebnisse.

Immer mehr Webmaster haben die Notwendigkeit des guten Rankings erkannt und verkaufen oder vermieten daher Links von Webseiten, die schon genügend PR besitzen. Die Käufer oder aber Bucher des Dienstes sind natürlich Shopbetreiber oder auch Portale, die auf Kunden angewiesen sind und somit auch auf ein hohes Ranking angewiesen sind. Für viele Internetnutzer ein recht guter Service!

Google selbst hat sich über die Verkäufe jedoch nicht gefreut und hat mit der Zeit die Pagerank Updates nur mehr unregelmäßig durchgeführt und auch die Intervalle verlängert bzw. lässt den echten PR in der Google Toolbar teilweise auch nicht mehr anzeigen, so dass der Kauf/Miete einer Webseite oder eines Links nicht mehr sichert, dass der PR auch wirklich hoch ist. Er kann ebenso niedrig sein oder gar einen 0 Wert mit sich bringen. Anhand dieses Sachverhaltes kommt die Vermutung zustande, dass der Google Pagerank nicht mehr wirksam ist. Ein Indiz dafür ist die Tatsache, dass in den Webmaster Tools bei den Crawling Statistiken keine Pagerank Verteilung mehr vorhanden ist. Diese Vermutung wurde aber vielleicht einfach zu schnell angestellt, denn natürlich gibt es auch genügend Fakten, die dagegen sprechen.

Es wird immer einen Grund geben, warum man davon sprechen könnte, dass der PR stirbt, ebenso gibt es aber viele Gründe, die dafür sprechen, dass genau dies nie passieren wird. Einer davon ist der Grund, dass sich der Pagerank enorm etabliert hat und es von daher gar keinen wirklichen Grund gibt, dass Google darauf verzichten sollte. Selbst wenn Webdesigner den Pagerank nicht mehr sehen können, so muss er nicht gleich sterben. Google möchte damit lediglich vermeiden, dass Webdesigner bzw.Firmen Unsummen daran verdienen. Dies ist auch das gute Recht des Unternehmens, immerhin soll der Pagerank einen Sinn ergeben und nicht künstlich gezüchtet worden sein.

Ein weiterer Punkt der weiterhin für den Pagerank steht, wäre die Bedeutung, dass man im Grunde viel Geld ausgeben müsste, um die Technologie des PR kaufen zu müssen. Da Google aber ein wirtschaftlich denkendes Unternehmen ist, würde es diesen Machtfaktor nicht einfach ohne Grund aufgeben. Immerhin hat sich eine weltweite Industrie um den Pagerank herum aufgebaut. Ohne Pagerank würde das Qualitätscontrolling sehr leiden! Vielleicht müsste Google aber auch sogar mit Einbußungen rechnen, was die User anbelangt. Welches Unternehmen möchte so etwas erreichen?

Ebenso ist der Pagerank ein sinnvolles Hilfsmitteln, niemand wünscht sich ständig wechselnde Parameter, an denen man sich ständig neu orientieren muss. Dies bezieht sich auf Google und ebenso auf die ganze Internetindustrie. Nicht selten beschäftigt eine Firma einige Mitarbeiter, die sich nur um die Suchmaschinenoptimierung zu kümmern haben. Mit dem Pagerank ist dies eine sinnvolle Aufgabe, aber ohne Pagerank hätten es sehr viele Firmen enorm schwer, sich im Internet gut zu halten.

Der Google Pagerank kann gar nicht sterben, denn es hat sehr lange gedauert bis er sich durchgesetzt hat. Eine Richtlinie, die sich etabliert hat und die enorm viel Zeit und Arbeit einspart. Selbst wenn es zu Schwankungen im PR kommt, ist dies kein Grund, gleich das Schlimmste zu befürchten. Schwankungen sind völlig normal und wenn der Nutzer nicht extrem gegen Richtlinien verstößt, wird er auch nicht von Google abgestraft.

Somit sollte man Gerüchte um den PR gar nicht so ernst nehmen. Wenn dieser wirklich sterben würde, müsste man davon ausgehen, dass Google sich dazu äußern würde, was bisher nicht geschehen ist! Dieses zuverlässige Unternehmen würde wohl kaum die ganzen Nutzer einfach im Regen stehen lassen und den PR heimlich abschaffen!

Was meinen Sie? Diskussionen erwünscht!

Weitere Infos (externe Seiten):

[related-links]

Die richtige Domain für die neue Homepage finden

Es stimmt, der Domainname kann helfen das Ranking bei Gugl positiv zu beeinflussen. Aber man kann im Prinzip jede beliebige Domain verwenden. Ein guter Domainname ist hilfreich aber er ist nur ein kleiner Puzzlestein im Bereich “Suchmaschinenoptimierung”. Aber viele kleine Teilchen werden zu einem großen Teil und unsere Erfahrung hat gezeigt das es wirklich ein wenig einfacher ist wenn der Domainname einfach der “Richtige” ist. Warum nicht also auch hier das beste geben/nehmen ……..

Ratsam ist es vor der Domainregistrierung ein wenig Hirnschmalz in die Auswahl der Domain zu investieren.

Auf der einen Seite soll die Domain kurz und einprägsam sein und auf der anderen Seite sollte sie schon ein für Ihr Webprojekt wichtige(s) Schlagwort(e) enthalten. Wichtig ist auch die Domainendung. Wählt man eine Länderkennung wie .at, .de, .ch usw. – oder aber nimmt man etwas länderneutrales wie .com, .net, .org, .info, .biz …………

Aber auch eine .eu Domain ist anzudenken.

Jetzt aber einmal ganz von vorne – wichtiges für die Suchmaschinenoptimierung im Bezug auf eine Domain:

Wählen Sie (vorzugsweise) für Ihre zukünftige Homepage einen Domainnamen aus der ein wichtiges Suchwort / Schlagwort /Keyword enthält.

Angenommen Ihre Firma heißt “Gusi” und Sie möchten eine Webseite über einen Abschleppdienst erstellen. Dann sollten Sie z.B. NICHT www.firma-gusi.at als Domain wählen sondern eher solche Domains:

www.abschleppdienst-gusi.at
www.abschleppdienst-wien.at
www.gusi-abschleppdienst.at
usw.

Auch Städtenamen sind von Vorteil. Wenn Sie in Wien und und Wien Umgebung einen Service anbieten stellt man so schon einen Bezug her. Viele “Suchende” geben im Suchfeld schon vor das sie in Ihrer näheren Umgebung etwas suchen. Beispiele dafür: Friseur Wien, Friseur 1220 Wien usw.

Natürlich ist Google heute schon so weit das sie Suchenden automatisch die Umkreis Suche anbietet und ganz automatisiert (bei vielen Keywords – noch nicht bei allen) schon Dienste/Suchtreffer in der näheren Umgebung des Suchenden anzeigt, trotzdem kann ein Orts- oder Stadtname, bzw. ein Bundesland oder Landkreis im Ranking ein paar Plätze gut machen.

Natürlich macht es KEINEN Sinn Ortsnamen ode rähnliches in der Domain zu verwenden wenn Sie EU weit anbieten möchten.

Domainnamen wie www.abschleppdienstgusi.at sollten Sie auch vermeiden.

Achten Sie unbedingt auch darauf das die Domain aussagekräftig ist und einprägsam. Auch Schlagwortansammlungen im Domainnamen lassen bitte lieber sein. www.friseur-kosmetik-bedarf.at wirkt unseriös und lächerlich.

Berücksichtigen Sie Länderkennungen

Länderkennung wie .de .at oder .ch helfen sehr von den richtigen Personen gefunden zu werden.

Wenn wir unseren Abschleppdienst ausschließlich in Österreich zur Verfügung stellen möchten und erwarten das unser Klientel ebenfalls aus Österreich kommt, dann sollten wir uns für eine.at Domain entscheiden.

Bei Google.at “Suche das Web” bekommen wir so den “Österreicher Bonus” und werden leicht bevorzugt. Bei “Webseiten aus Österreich” ja dann sowieso.

Ist und Google.at aber nicht so wichtig sondern wir wollen (als östereichisches Unternehmen) eher bei Google.de gut gelistet werden, dann nehmen wir lieber eine Domainendung wie .com net .org. usw.

Wo liegt nun Ihr Schwerpunkt?

Nur Google.at? Dann nehmen Sie eine .at Domain
Nur Google.de? Nehmen Sie eine .de .com .net .org …..
Google.at ist am wichtigsten aber auch bei Google.de halbwegs gut gelistet werden? Nehmen Sie eine .at Domain
Google.de ist am wichtigsten aber auch bei Google.at halbwegs gut gelistet werden? Nehmen Sie eine .de .com .net .org …..
Google.at und .de und .ch sollen Top Plätze sein? Hier nehmen wir eine .eu Domain
Wir wollen bei Google international gut gelistet sein?  Domainendung ist fast egal – viel Zeit einplanen

Vorstehende Angaben beziehen sich jeweils auf die Standard Suche “Suche das Web”.

Nehmen Sie keine kostenlosen Domains wie www.abschleppdienst-gusi.at.tf usw..

Der Nachteil – Die Domain wird in der regel als “Frame” über Ihre Webseite gestülpt und mitunter werden Sie auch mit Werbebanner zugepflastert.

Promotet man nun diese kostenlose Domain, erkennt Google nur eine einzige Seite unter dieser Domain. Denn Ihre Unterseiten sind nicht über die URL erreichbar.

Achten Sie darauf das man auch Ihre Unterseiten mit der Domain aufrufen kann.

Eine Unterseite Ihrer Domain muß auf alle Fälle so aufrufbar sein: www.ihredomain.at/unterseite.html (php,pl usw.)

Wenn Sie Ihre Domain aufrufen und im Menü eine Unterseite von Ihnen anklicken und oben in der Adressleiste des Browsers steht immer noch www.ihredomain.at und nicht www.ihredomain.at/unterseite.htm ist es für eine Suchmaschinenoptimierung FALSCH!

Bereits verwendete aber freie Domains kann man ebenfalls nehmen.

Im Internet gibt es einige Anbieter wie z.B. Sedo.de die es einem ermöglichen bereits registrierte Domains jemanden abzukaufen. Ist die Domain themenrelevant und hat die für Sie richtige Domainendung kann man durchaus in Erwägung ziehen. Abgesehen vom Preis sollten Sie aber auch die Domian unter die Lupe nehmen.

  1. Ist sie im Google Index?
    Wenn ja, hervorragend. Ist auch einfach zu testen – nur die Domain im Suchfeld von Google eingeben
  2. Wie viele andere Webseiten (und welche) verlinken bereits auf diese Domain?
    Je mehr themenrelevante, andere Webseiten bereits auf die Domain verlinken um so besser. Hier gibt es gute Tools wie z.B. SEO Spyglass (kostenpflichtig) aber es gibt auch kostenlose Online Tools. Googlen sie infach nach “Backlinkchecker” und verwenden Sie 3 bis 4 Angebote. So bekommt man einen besseren Überblick. Was der eine nicht findet, hat der andere vielleicht dann doch gefunden.
  3. Wie viele Seitenbesucher hat die Domain zur Zeit?
    Sedo.de und Co zeigen das standardmäßig an, es gibt aber auch Online Dienste wie seitenreport.de die man verwenden kann. Ist schon Traffic auf der Domain ist das ebenfalls von Vorteil!
  4. Achten Sie auf die Vertrauenswürdigkeit gebrauchter Domains
    Lesen Sie dazu bitte was Google selbst dazu meint: Webmaster Zentrale Blog

Und noch eine wichtige Frage wollen wir an dieser Stelle beantworten:

Wird der Pagerank älterer Domains anders berechnet?

Es gibt ein mittlerweile altes SEO gerücht das Domains die vor 2004 registriert wurden seiten Google einen PR Bonus genießen (können). Stimmt das wirklich?

Matt Cutts sagt: NEIN!! Besorgt euch eine Domain, die funktioniert, die für euch funktioniert, und macht euch keine Sorgen, ob sie vor 2004 existiert hat.

Hier können Sie das selber nachlesen: Google Webmaster Zentrale Blog