Die Entstehung und Geschichte der Künstlichen Intelligenz

Die Geschichte der künstlichen Intelligenz (KI) ist eine faszinierende Reise, die tief in die Wurzeln der Mathematik, Philosophie und Informatik reicht. Sie beginnt lange vor dem modernen Computerzeitalter und ist geprägt von visionären Ideen, bahnbrechenden Entdeckungen und der ständigen Frage, was Intelligenz wirklich bedeutet.

Geschichte

Die Anfänge (1940er-1950er Jahre)

Alan Turing: Der Visionär

Ein wesentlicher Meilenstein in der Geschichte der KI ist die Arbeit des britischen Mathematikers Alan Turing. In den 1940er Jahren stellte Turing die bahnbrechende Frage: “Können Maschinen denken?” Sein 1950 veröffentlichter Turing-Test wurde zu einem Standardkriterium zur Beurteilung künstlicher Intelligenz.

Der Turing Test

Der Turing-Test, entwickelt vom britischen Mathematiker und Computerwissenschaftler Alan Turing im Jahr 1950, ist ein Kriterium zur Beurteilung der Fähigkeit einer Maschine, menschenähnliche Intelligenz zu demonstrieren. Der Test wurde in Turings Aufsatz “Computing Machinery and Intelligence” beschrieben, der in der Zeitschrift “Mind” veröffentlicht wurde.

Grundprinzip des Turing-Tests

Der Turing-Test basiert auf der Idee, dass ein Computer als intelligent angesehen werden kann, wenn er in der Lage ist, menschliche Kommunikation so überzeugend zu imitieren, dass ein menschlicher Beobachter nicht unterscheiden kann, ob er mit einer Maschine oder einem Menschen kommuniziert. Der Test funktioniert folgendermaßen:

    1. Einrichtung: Es gibt drei Teilnehmer: einen Computer, einen menschlichen Befrager und einen menschlichen Respondenten.
    2. Kommunikation: Die Kommunikation zwischen dem Befrager und den beiden anderen Teilnehmern erfolgt über eine textbasierte Schnittstelle, um das Erscheinungsbild und die Stimme auszuschließen.
    3. Aufgabe des Befragers: Der Befrager stellt Fragen oder führt eine Konversation und versucht zu bestimmen, welcher der beiden Respondenten der Mensch ist und welcher die Maschine.
    4. Bewertung: Wenn der Befrager nicht zuverlässig feststellen kann, welcher Respondent der Computer ist, oder wenn der Computer genauso häufig für einen Menschen gehalten wird wie der menschliche Respondent, gilt der Computer als bestanden im Test.

Bedeutung des Turing-Tests

Der Turing-Test war einflussreich, weil er einen der ersten Versuche darstellte, Intelligenz bei Maschinen zu definieren und zu messen. Er führte auch zu vielen Diskussionen und Debatten über die Natur der Intelligenz, das Bewusstsein und die Möglichkeiten der künstlichen Intelligenz.

Kritik und Weiterentwicklung

Obwohl der Turing-Test als ein wichtiger Meilenstein in der Geschichte der KI angesehen wird, ist er auch Gegenstand von Kritik. Einige Experten argumentieren, dass der Test mehr über die Fähigkeit einer Maschine zur Täuschung aussagt als über ihre Intelligenz. Außerdem berücksichtigt der Test nicht die Fähigkeit zur emotionalen Intelligenz oder zum kreativen Denken.

Im Laufe der Zeit haben Wissenschaftler verschiedene Variationen und Erweiterungen des Turing-Tests vorgeschlagen, um diese Einschränkungen zu überwinden und ein breiteres Spektrum an intelligentem Verhalten zu erfassen. Trotz seiner Einschränkungen bleibt der Turing-Test jedoch ein bedeutendes Konzept in der Diskussion über künstliche Intelligenz.

Die Geburtsstunde der KI: Dartmouth-Konferenz (1956)

Der Begriff “künstliche Intelligenz” wurde offiziell 1956 von John McCarthy während der Dartmouth-Konferenz geprägt. Diese Konferenz markierte den Beginn der KI als eigenständiges Forschungsfeld und brachte Wissenschaftler wie Marvin Minsky, Claude Shannon und viele andere zusammen.

Frühe Entwicklungen (1960er-1970er Jahre)

Die Entwicklung von KI-Sprachen

In den 1960er Jahren wurden spezielle Programmiersprachen für die KI-Forschung entwickelt. Lisp, geschaffen von John McCarthy im Jahr 1958, wurde eine der führenden Sprachen in diesem Bereich.

Expertensysteme

Die 1970er Jahre sahen die Entstehung von Expertensystemen. Diese Programme simulierten das Wissen und analytische Fähigkeiten eines menschlichen Experten. Eines der bekanntesten Systeme dieser Zeit war MYCIN, entwickelt an der Stanford University, das in der Lage war, Bakterieninfektionen zu diagnostizieren und Antibiotika vorzuschlagen.

Der KI-Winter (1980er Jahre)

In den 1980er Jahren erlebte die KI-Forschung einen Rückschlag, bekannt als der “KI-Winter”. Hohe Erwartungen an die KI wurden enttäuscht, was zu einem drastischen Rückgang der Förderung führte. Dies war teilweise auf die Grenzen der damaligen Computerhardware und eine Überschätzung der Fähigkeiten von KI-Systemen zurückzuführen.

Neubeginn und Fortschritt (1990er Jahre bis heute)

Maschinelles Lernen

Mit der Verbesserung der Computerleistung und der Verfügbarkeit großer Datenmengen kam es in den 1990er Jahren zu einem Wiederaufleben der KI. Insbesondere das Gebiet des maschinellen Lernens, bei dem Computerprogramme lernen, Muster und Beziehungen in Daten zu erkennen, gewann an Bedeutung.

Deep Learning und Neuronale Netze

In den 2000er Jahren führten Fortschritte im Bereich der neuronalen Netze und des Deep Learning zu signifikanten Durchbrüchen. 2012 markierte einen Wendepunkt, als das von Geoffrey Hinton geleitete Team ein tiefes neuronales Netzwerk entwickelte, das den Wettbewerb ImageNet gewann. Diese Technologie liegt heutigen KI-Anwendungen wie Sprach- und Bilderkennung zugrunde.

KI in der Gegenwart

Heute ist KI allgegenwärtig und treibt Innovationen in nahezu jedem Sektor voran, von der Medizin über die Automobilindustrie bis hin zur Unterhaltung. KI-Systeme sind in der Lage, komplexe Aufgaben durchzuführen, die von autonomen Fahrzeugen bis hin zu personalisierten Gesundheitsdiagnosen reichen.

Die Geschichte der künstlichen Intelligenz ist eine Geschichte von Höhen und Tiefen, geprägt von bahnbrechenden Entdeckungen und vorübergehenden Rückschlägen. Von den frühen Tagen der Computerwissenschaften bis hin zur heutigen Ära des maschinellen Lernens und der neuronalen Netzwerke hat die KI stets die Grenzen dessen, was technologisch

Die Wichtigsten KI-Modelle und Anbieter von Heute

Künstliche Intelligenz (KI) hat in den letzten Jahren erhebliche Fortschritte gemacht, angeführt von einer Reihe von bedeutenden Modellen und Anbietern. Diese Entwicklungen haben die Art und Weise, wie wir über maschinelles Lernen, natürliche Sprachverarbeitung und andere KI-Technologien denken, grundlegend verändert. In diesem Artikel werfen wir einen Blick auf einige der wichtigsten KI-Modelle und ihre Schöpfer oder die dahinterstehenden Teams.

OpenAI und GPT-Modelle

GPT-3

  • Entwickler: OpenAI, ein KI-Forschungslabor mit Sitz in San Francisco.
  • Schöpfer/Programmierer: Ein Team von Forschern unter der Leitung von Ilya Sutskever, einem der Mitbegründer von OpenAI.
  • Beschreibung: GPT-3 (Generative Pre-trained Transformer 3) ist ein hochmodernes Sprachverarbeitungsmodell, das in der Lage ist, menschenähnlichen Text zu generieren. Es wird in einer Vielzahl von Anwendungen eingesetzt, von Chatbots bis hin zu Inhaltserstellung.

DALL-E

  • Entwickler: Ebenfalls von OpenAI.
  • Schöpfer/Programmierer: Ein Team bei OpenAI, unter anderem von Forschern wie Aditya Ramesh und Prafulla Dhariwal.
  • Beschreibung: DALL-E ist ein KI-Modell, das darauf spezialisiert ist, Bilder aus Beschreibungen in natürlicher Sprache zu generieren. Es demonstriert beeindruckende Fähigkeiten im Bereich der Kreativität und Bildsynthese.

Google und seine KI-Entwicklungen

BERT

  • Entwickler: Google AI.
  • Schöpfer/Programmierer: Ein Team von Forschern bei Google, darunter Jacob Devlin und Ming-Wei Chang.
  • Beschreibung: BERT (Bidirectional Encoder Representations from Transformers) ist ein Modell für natürliche Sprachverarbeitung, das darauf abzielt, das Verständnis von Kontext in der Sprache zu verbessern. Es wird in Googles Suchalgorithmus verwendet und hat einen großen Einfluss auf die Suchmaschinenoptimierung.

TensorFlow

  • Entwickler: Google Brain Team.
  • Schöpfer/Programmierer: Das Google Brain Team, unter der Leitung von Jeff Dean und Rajat Monga.
  • Beschreibung: TensorFlow ist eine Open-Source-Plattform für maschinelles Lernen und wird in einer Vielzahl von Anwendungen und Forschungsprojekten verwendet.

Andere bemerkenswerte KI-Modelle

IBM Watson

  • Entwickler: IBM.
  • Schöpfer/Programmierer: Ein großes Team bei IBM, geleitet von David Ferrucci.
  • Beschreibung: Watson ist bekannt für seinen Sieg in der Spielshow “Jeopardy!” und ist ein Pionier im Bereich der Frage-Antwort-Systeme. Es wird in verschiedenen Branchen eingesetzt, von Gesundheitswesen bis hin zu Finanzdienstleistungen.

YOLO (You Only Look Once)

  • Entwickler: Joseph Redmon und Santosh Divvala (University of Washington), Ross Girshick und Ali Farhadi.
  • Beschreibung: YOLO ist ein bedeutendes Modell im Bereich der Echtzeit-Objekterkennung und hat die Art und Weise, wie Computer visuelle Daten verarbeiten, revolutioniert.

Schlussfolgerung

Die Entwicklung der KI hat eine beeindruckende Dynamik gezeigt, mit bahnbrechenden Modellen und Technologien, die ständig neu definiert werden. Von OpenAIs GPT-3 und DALL-E bis hin zu Googles BERT und TensorFlow reicht das Spektrum der Innovationen. Diese Entwicklungen sind nicht nur technische Meisterleistungen, sondern auch das Ergebnis der harten Arbeit und des Engagements vieler talentierter Individuen und Teams. Sie legen den Grundstein für eine Zukunft, in der KI eine immer wichtigere Rolle in unserem täglichen Leben spielen wird.

Wie kann künstliche Intelligenz bei der Erstellung von Webseiten helfen

Künstliche Intelligenz (KI) kann auf verschiedene Weise bei der Erstellung und Optimierung von Webseiten hilfreich sein. Durch den Einsatz von KI-Technologien können sowohl der Entwicklungsprozess beschleunigt als auch die Benutzererfahrung verbessert werden.

Hier sind einige Schlüsselbereiche, in denen KI eine Rolle spielt:

  1. Automatisches Webdesign: KI-gestützte Tools können das Layout, Farbschema und Design einer Webseite automatisch anpassen. Sie analysieren Best Practices und aktuelle Design-Trends, um benutzerfreundliche und ästhetisch ansprechende Designs zu erstellen.
  2. Personalisierung der Nutzererfahrung: KI kann das Verhalten und die Vorlieben der Nutzer analysieren und darauf basierend personalisierte Inhalte, Produktvorschläge und personalisierte Werbung anbieten. Dies erhöht die Relevanz und Effektivität der Webseite für den einzelnen Nutzer.
  3. Suchmaschinenoptimierung (SEO): KI-Tools können dabei helfen, die SEO-Leistung einer Webseite zu verbessern, indem sie Keywords analysieren, den Content optimieren und Vorschläge für Backlinks machen. Sie können auch Trends vorhersagen und Empfehlungen für zukünftige Inhalte geben.
  4. Chatbots und Kundenservice: KI-basierte Chatbots können auf Webseiten eingesetzt werden, um Besucherfragen zu beantworten, Unterstützung anzubieten und Leads zu generieren. Diese Bots können lernen und sich im Laufe der Zeit verbessern, um effektiver auf die Bedürfnisse der Benutzer einzugehen.
  5. Content-Erstellung und Management: KI kann bei der Generierung von Inhalten helfen, sei es durch das Schreiben von Texten, das Erstellen von Bildern oder das Vorschlagen von Content-Ideen. Sie kann auch dabei helfen, den Content zu verwalten und zu organisieren, z.B. durch automatisierte Kategorisierung und Tagging.
  6. Testen und Optimieren der Benutzererfahrung: Mithilfe von KI können A/B-Tests und andere Benutzertests effizienter durchgeführt werden. KI-Systeme können Muster in Benutzerdaten erkennen und Vorschläge machen, wie die Benutzererfahrung verbessert werden kann.
  7. Barrierefreiheit: KI kann dabei helfen, Webseiten für Menschen mit Behinderungen zugänglicher zu machen, indem sie beispielsweise Inhalte für Screenreader optimiert oder automatisch Untertitel für Videos generiert.
  8. Analyse und Datenverarbeitung: Durch die Verwendung von KI zur Analyse von Webseiten-Traffic und Benutzerinteraktionen können wertvolle Einblicke gewonnen werden, die zur weiteren Optimierung der Webseite verwendet werden können.

Insgesamt bietet KI ein enormes Potenzial, um den Prozess der Webseitenerstellung und -pflege zu revolutionieren, indem sie Automatisierung, Personalisierung und Effizienzsteigerung ermöglicht.

Asperner Erntedank 2014

Ganz nach Tradition findet auch heuer wieder ein Erntedankfest in Aspern statt! Am 21. September 2014 ist es wieder so weit.

  • Es beginnt natürlich mit der Festmesse zum Erntedank in der Kirche d. Pfarre Aspern
  • Anschließend folgt der Erntedank-Festumzug (gegen 14:00). Vor 14 Uhr beginnt die Aufstellung der geschmückten Wagen in der Benjowskigasse. Der Festzug führt dann durch Aspern über den Biberhaufenweg – Wulzendorfstraße – Bergengasse – Osloplatz – Trondheimgasse – Langobardenstraße – Asperner Heldenplatz – Siegesplatz – Zachgasse – Lohwaggasse – Haberlandtgasse – Jasmingasse – Pilotengasse – Ehrensteingasse – Haberlandtgasse – Eisenhutgasse wieder zum Asperner Heldenplatz.
  • Danach gibt es Tanz und Unterhaltung im St. Martin Pfarrzentrum

Weiterlesen

Sei cool – informiere Dich

Erntedankfest mit Festumzug in Aspern 2013

Am Sonntag, 15. September 2013

Für Aspern sowieso und für uns auch schon Tradtion geworden ist das alljährliches Erntedankfest.

Großes Asperner Erntedankfest
Festmesse, Dampfdreschen, Frühschoppen, Festumzug, Tanz und Unterhaltung, Jungschar, Tomola u.v.m.

Das weitere Programm:

Festmesse zum Erntedank: So, 15. September (St. Martin – Pfarrkirche)

9:30 Uhr
Ort: St. Martin – Pfarrkirche
Einholen der Erntekrone von der Kapelle Oberdorfstraße

Erntedank-Festumzug: So, 15. September (Aspern)

14:00 Uhr
Ort: Aspern

Erntedank Umzug 2012Benjowskigasse – Biberhaufenweg – Wulzendorfstraße – Bergengasse – Osloplatz – Trondheimgasse – Langobardenstraße – Asperner Heldenplatz – Siegesplatz – Zachgasse – Lohwaggasse – Haberlandtgasse – Jasmingasse – Pilotengasse – Ehrensteingasse – Haberlandtgasse – Eisenhutgasse – Asperner Heldenplatz

Tanz und Unterhaltung: So, 15. September (St. Martin – Pfarrzentrum)

14:00 Uhr
Ort: St. Martin – Pfarrzentrum

Erntedank – Tanz und Unterhaltungim Pfarrgarten mit der Gruppe THE MERRYMEN und dem Kindervergnügungsbetrieb A. Matous.

Für das leibliches Wohl sorgen Restaurant Lahodny, Getränkehandel Schaffer sowie freiwillige Helferinnen und Helfer der Pfarre Aspern.

Der Festumzug mit vielen geschmückten Fahrzeugen ist für junge und alte Asperner (und auch alle anderen) ein Highligt. Viele ansässige Vereine und Firmen fahren hier mit und es gibt so manches kuriose Vehikel zu bestaunen. Und die meisten dieser Festtagszügler sind recht großzügig mit diversen kleinen Geschenken ….. Wein, Most, Bier, Schnaps, Werbegeschenke aller Art ………. besonders die Kinder freuen sich über diese kleinen Gimmicks.

Organisiert wird das ganze wieder von Herrn Holba, in dessen Auftrag wir dieses Jahr die Festzug Teilnehmer wieder fotografieren werden!

 

Prosaldo Money Review

Saldo statt Soll – Wie sie ihre Finanzen sicher im Griff behalten

Die Software-Suite „ProSaldo® Money“ hat erfolgreich bewiesen, wie sich die Verwaltung privater und selbständiger Finanzen über alle Produkte hinweg unter einen Hut bringen lässt – Speziell für Österreicher

Achtung – diese Software ist nicht für Firmen gedacht – es ist ein Programm für Privatpersonen. Diese profitieren aber stark davon!

Ein Tool zur Verwaltung der eigenen Finanzen, das ist bei weitem keine neue Idee, jedoch sind viele erhältliche Pakete sehr eng geschnürt oder nur unzulänglich auf die Gegebenheiten in Österreich angepasst – Was deutschsprachig ist, wird auch meist auf den Deutschen Markt zugeschnitten, während man in Austria das nachsehen hatte.

Dieser Umstand verschärfte sich spätestens dann, als um die Jahrtausendwende als Bekanntgegeben wurde, das eines der wohl renommiertesten Programme für die EDV-gestützte Finanzverwaltung zukünftig nicht mehr für den österreichischen Markt weiterentwickelt würde.

Die dadurch entstehende Lücke in der Deckung des Bedarfes war von hier an nicht mehr zu übersehen, woraufhin sich Softwarehäuser, wie die haude electronica GmbH dazu aufmachten diese Lücke zu schliessen. Gerade Haude bietet mit der Software „ ProSaldo Money“ einen, speziell auf die österreichischen Reglements und Gesetze zugeschnitten, Lösungsansatz des vollumfänglichen Finanzmanagements aus einer Hand, und setzt sich dabei alles andere als schlecht in Szene!

Das „All-Inclusive“-Paket für die Verwaltung ihrer Finanzen

Die Zielgruppe für die Funktionen von „Pro Saldo Money“ sind vorrangig Privatleute und Selbständige ohne gesonderte Fachkenntnisse in Sachen Finanzbuchhaltung. Dies zeigt sich schon in der nutzerfreundlichen Oberfläche, welche sich mit einer steilen Lernkurve in einem sauber gegliederten Umfeld begreifen und erlernen lässt, mit umfangreichen Hilfe-stellungen unterstützt, schon nach kurzer Zeit sehr natürlich in den Menüs des Programms bewegen können.

Dem Nutzer steht dennoch ein mächtiges Werkzeug zur Verwaltung aller Finanzen zur Hand, abgestimmt auf die Geset-zeslage in Österreich. Der Einstieg ist nach kurzer Eingewöhnung schnell bewerkstelligt und nach der Eingabe notwen-diger Stammdaten für alle zu verwaltenen Konten kann es im Prinzip schon losgehen, und zwar mit den Features:

– Der Import von Bankdaten von nahezu jeder österreichischen Bank ermöglicht bequem, alle Daten an einem Flecken zu aggregieren. Zu dem Funktionsumfang der Importschnittstelle gehören auch Übernahme von Datensätzen aus Dritt-anbieter-Software

– Vom Girokonto, über Sparkonten bis hin zu Kreditkarten-und Verbindlichkeitenkonten, bietet Pro Saldo hier Unter-stützung für jede nur denkbare Art von Konto

– Besonderes Schmankerl ist die Integration der Online-Schnittstellen für Kunden der BAWAG und der easybank, die direktes Online-Banking aus dem Programm heraus ermöglichen. Die Aufgabe von Online-Überweisungen gehen hier ebenso leicht von der Hand wie der Abruf von Kontoumsätzen und den aktuellen Kontoständen

– Die Wertpapierverwaltung erleichtert ihnen, getreu dem Anspruch an vollumfängliche Funktionalität von “Pro Saldo Money”, die Verwaltung von Aktienkäufen und ihren Verkäufen und berücksichtigt alle Wertpapierbewegungen inklusi-ve der behandelten Valuta

– Ihre Verträge haben sie mit der Vertragsverwaltung von “Pro Saldo Money” im Blick: Das Versäumen von Kündi-gungsfristen, sei es die Versicherung oder der Mobilfunkvertrag gehört zur Vergangenheit. Denn die Überwachung der Laufzeiten ihrer Verträge ist hier spielend geregelt und listet ihre Verträge vom Kostenpunkt bis zur Polizzennummer – Übersicht garantiert

Kill-Kriterium: Auf nahezu jedem modernen Windows-PC lauffähig – Ressourcensparend und effizient!

Vom technischen Aspekt her zeigt sich “Pro Saldo Money” als genügsam: Ab Windows XP und mit rund 1GB auf ihrer Systemparition und 55 Megabyte Festplattenplatz auf dem Zielmedium sind sie dabei! Zur Ausführung wird der Win-dows Installer 3.1 und das Microsoft NET Framework in der Version benötigt, welche ab Windows 7 zum Systemum-fang gehören. Selbstverständlich wird auch das aktuelle Windows 8 von der Software unterstützt.

Das Fazit zur “Pro Saldo Money” – Finanzverwaltung

Gerade für Österreicher, die sich auf eine langfristig planbare Software verlassen wollen, die speziell auf ihre Bedürfnisse zugeschnitten ist und ständig in ihrer Funktionalität erweitert und kontinuierlich auf dem gesetzlichen wie technischen Stand der Zeit gehalten wird, der nicht 5 verschiedene Programme für die Verwaltung seiner Finanzprodukte, Verträge und Konten betreiben will, für den bietet sich die „Pro Saldo Money“-Suite ohne Einwände an.

Weitere Infos (externe Seiten):

[related-links]

Erntedankfest Aspern 2012 – Fotos vom Umzug

 

SONY DSC

Bei Sonnenschein und vielen Besuchern war der Korso mit der Erntedankkrone wieder das Highlight des Erntedankfestes der Pfarre Aspern.

Nachfolgend viele Fotos vom Umzug mit den schön geschmückten Festwagen.

Wer Fotos in Originalauflösung haben möchte schickt einfach eine Email an office@austrianweb.at.

Wir schicken Euch dann gerne die Fotos per Email.

 

Erntedankfest mit Festumzug in Aspern

 

Am Sonntag, 16. September 2012

Alle Jahre wieder … nicht zu Weihnachten sondern im September findet im Aspern traditionell das Erntedankfest statt.

Der Festumzug mit vielen geschmückten Fahrzeugen ist für junge und alte Asperner (und auch alle anderen) ein Highligt. Viele ansässige Vereine und Firmen fahren hier mit und es gibt so manches kuriose Vehikel zu bestaunen. Und die meisten dieser Festtagszügler sind recht großzügig mit diversen kleinen Geschenken ….. Wein, Most, Bier, Schnaps, Werbegeschenke aller Art ………. besonders die Kinder freuen sich über diese kleinen Gimmicks.

Livemusik und Dampfdreschen bei der Kirche wird wieder Jung und Alt begeistern.

Organisiert wird das ganze wieder von Herrn Holba, in dessen Auftrag wir dieses Jahr die Festzug Teilnehmer wieder fotografieren werden!

Einen kleinen Auszug an Fotos vom Vorjahre finden Sie hier: Fotos vom Festumzug Erntedankfest in Aspern

Hier das aktuelle Programm:

8:00 St. Martin – Pfarrkirche hl. Messe
9:30 St. Katharina – Seelsorgezentrum hl. Messe
9:30 St. Martin – Pfarrkirche hl. Messe zum Erntedank
Einholen der Erntekorne von der Kapelle Oberdorfstraße Festmesse
10:30 St. Martin – Pfarrkirche Erntedank – Frühschoppen
mit der Beskiden-Gruppe “Walasi” (aus Polen) Gemüsemarkt,
12:30 Park Asperner Heldenplatz Dampfdreschen
Anheizen der Dampfmaschine und Dampfdreschen – vorgeführt
14:00 AspernFestumzug
Benjowskigasse – Biberhaufenweg – Wulzendorfstraße
14:00 St. Martin – Pfarrzentrum Tanz und Unterhaltung
im Pfarrgarten mit der Gruppe THE MERRYMEN und dem
19:00 St. Martin – Pfarrkirche

 

Vom offenen Web zurück in die Sandbox – Teil 2.2

Eine Betrachtung auf die Entwicklung von Google und der SEO-Branche in drei Akten
In Vergangenheit, Gegenwart und Zukunft

…bis in die Gegenwart… (Zweiter Teil)

Die Hyperlinks die die Google Crawler durch die vergleichsweise an Zahl und Umfang geringen Inhalte (Web Content) des frühen World Wide Web führten, stellten in den späten 1990er Jahren also zunächst die einzige Möglichkeit dar, weite Teile des bekannten Internets zu durchsuchen und der geplanten Katalogisierung zu unterziehen um das Angebot der Suchmaschine Google zu erweitern. Die dabei generell in Textform (In Grafiken gebundene Informationen werden bis heute generell von Google nicht erfasst und müssen separiert für die Spider im HTML-Quelltext deklariert werden) dargebrachten zur Erfassung freigaben und durch die Bots des Unternehmens nach bestimmten Schwerpunkten in Form von Suchbegriffen, sogenannten Keywords durchsuchte (Siehe → Content-Indexierung). Anhand dieser definierten Kriterien wurde eine Kategorisierung vorgenommen, die die für den eingegebenen Suchbegriff höchstwahrscheinlich relevante Verknüpfungen als Hyperlink auf einer organischen, dynamisch generierten Suchergebnisseite sortiert wieder gab und dem Nutzer zur Verfügung stellte.

– Die ersten Google Crawler erfassen das World Wide Web, die Geburtsstunde der SEO-Agenturen –

Dieser Augenblick war ebenfalls die Geburtsstunde der SEO-Agenturen, die im unregulierten und mit kaum gemeinsamen Standards versehenen Internets die Aufgabe übernahmen, den Content des Kunden entsprechend für diese Erfassung und positive auf Relevanz abzielende Prüfung aufzubereiten.Es entstand in wortwörtlicher Windeseile eine ganze Branche, die sich auf die optimierte Darreichungsform von Informationen für die von Google ins Web entsendeten Bots spezialisierte: Die SEO-Branche (Search Engine Optimization),die später unter dem Oberbegriff des Suchmaschinenmarketings als Teilgebiet dessen definiert wird, einem der Mittel des Online-Marketings durch die Optimierung von Inhalten und technischen Frameworks (Wie etwa Content Management Systemen) zur Verbesserung der Kundenplatzierung innerhalb der organischen Suchergebnisse in den Google SERPs und durch gezieltes Search Engine Marketing dem Bewerben von definierten Claims und dem erzeugen einer konsistenten Brand Presence zur Reichweitensteigerung des Kundenprodukts in den angepeilten Zielgruppen, die über die für das Internet klassischen Formen der Bannerwerbung (Banner Ads) über das Affiliate Marketing durch Partnerwerbung bis in das Social Media Marketing (SMM) , das bis zur Etablierung der Social Networks vorrangig in den Vorstufen der heutigen sozialen Netzwerke, den Internet-Foren und Communities oftmals in Form des Cloaked Marketing in Erscheinung getreten ist.

– Neue Marketingformen entwickeln sich im Mikrokosmos des Internets – Dank Google SEM

Anhand der bekanntgewordenen Kriterien der Suchalgorithmen wurden die ersten Webseiten angepasst und auch in der Entwicklung von HTML schlug sich diese Entwicklung nieder, Definitionen für die kontrollierte Erfassung durch die Spider und Crawler ( Ab dem Jahr 2005 z.B der „nofollow“ Rel-Tag ) wurden unter der Federführung der Google Inc. in die Syntax eingebunden und nach der konstant stattfindenden Expansion des Marktes, der das wachsende Internet mit sich brachte wurden auch die Erfassungskriterien der Suchmaschine immer feiner ausgearbeitet, da auch die Bedürfnisse der Nutzer sich weiter entwickelten, je mehr die technische Entwicklung der Standards zur Darstellung von Webseiten im Internet und andere web-basierende Technologien hergaben.

– Die frühen Tage: Hand in Hand mit den Webmastern das Web katalogisieren und für Google optimieren –

Es zählte schon bald nicht mehr nur allein der Inhalt einer Webseite, um auf den SERPs (Search Engine Result Pages) zu erscheinen: Anhand der Zugänglichkeit, Sprache und auch dem Umfeld einer Seite wurden die Webseiten mit dem bald als Google Pagerank bekannt gewordenen Kriterium nach Relevanz und Bedeutung eingestuft um der Flut an neuen Inhalten, gemeinhin der in der Branche vorherrschenden Sprache Englisch als „Content“ bezeichnet, Herr zu werden und der ersten, optimierten Indexierung, SEO-Maßnahmen, wie etwa der Erstellung von möglichst breit gefächerten Suchworten oder gar in den Hintergrund einer Webseite unsichtbar eingebundenen Suchbegriffen (Aus dem englischen: Keywords) entgegen zu wirken und diese, meist unseriösen SEO-Maßnahmen zu bekämpfen.

Denn dass diese selten zum gewünschten Ziel führten wurde den Beteiligten, allen voran der Google Inc. sehr schnell klar. Was fortan als „Black-Hat“-Suchmaschinenoptimierung benannt und rigoros sanktioniert wurde, ganz zu Recht, wie jeder seriöse SEO-Profiler ohne zögern bestätigen wird:

Denn schon in der frühen Entwicklungsphase der Suchmaschine standen ausreichend legale und nicht sanktionierte Mittel der Optimierung zur Verfügung. Begriffe, die heute als selbstverständlich und unbedingt zu meiden galten, fanden in diesem Zeitraum ihre erste Prägung durch auftretende, handfeste Probleme, die erst noch definiert und so schnell wie möglich unterbunden werden mussten werden mussten.

Black Hat SEO als allgemein anerkannter und verwendeter Fachbegriff bezeichnet SEO-Agenturen und einzelne SEO-Profiler und SEM-Agents, die gezielt Schwächen und Fehler des Suchalgorithmus von Google bewerben und ausnutzen. Im Laufe der Zeit erweiterte diese Definition sich ebenfalls auf EULA Violations, Maßnahmen zur Popularitätssteigerung einer Webadresse, wie etwa dem Link-Spamming, ebenso des Einbaus von Code, der aktives Content Cloaking betreibt, der also das Auslesen der Inhalte durch den Google Spider gezielt manipuliert während der Verbraucher vollkommen anderen Content erhält. Es wird zusätzlich, nach Grad der Legalität der Maßnahmen, von White Hat oder Grey Hat SEO gesprochen. Der wohl bekannteste Vertreter der ersten Stunde der als Black-Hat geflaggten SEO-Maßnahmen war wohl der Keyword Spam. Diese populäre Methode basierte darauf, die Katalogisierung des behandelten Angebotes nachhaltig zu beeinflussen: Durch eine Vielzahl, bis in die mehreren Tausend gehenden, thematisch gruppierten oder alphabetisch sortierte Einflechtung von Keywords in den Quellcode und in das darin definierte Erscheinungsbild einer Webseite vermochten die ersten Black-Hatter eine unglaubliche Keyword-Bandbreite für die von ihnen „optimierten“ Webseiten erreichen.

– Nicht nur auf Keyword Spamming erfolgte schnell die Penalty durch Google: Ein erfolgreiches Konzept –

Es zeigte sich der erbitterte Ernst, mit dem der damals noch viel belächelte – hinter der Hand jedoch gefürchtete – kleine Inc. die hinter der Suchmaschine Google stand, das angestrebte Firmenziel zu verteidigen bereit war um konsequent hochqualitativen Content zu fördern, das Benutzererlebnis auf Google.com zu verbessern und vor allem seine Guidelines zur Google-Optimierung einer Webseite rigoros durchzusetzen und damit einen de-facto Standard zu schaffen. Denn der Erfolg der Schwarzhüte sollte nicht lange währen und die konsequente Abwertung der von Black-Hat-Maßnahmen betroffenen Objekte darf mit Fug und Recht als „verbrannte Erde“ bezeichnet werden.

Währenddessen waren die Google Exploiter weiter nach dem Prinzip des „Hit and Run“ vorgegangen: In kurzen, präzise durchgeführten Aktionen ihre zeitlich straff geplanten Maßnahmen und Eingriffe in das korrekte Page-Ranking und der Domainpopularität einzubringen und dabei möglichst viel Geld damit zu ergaunern. Der Verkauf von scheinbar wertvollen Top-Level-Domains wäre hier zum Beispiel anzuführen.

Dieses Katz-und-Maus-Spiel zwischen den Sheriffs (Google Engineering Team), den Guten (White Hat SEO), den bösen (Black Hat SEO) sowie den Hässlichen (Grey Hat SEO) zieht sich mit anderen Mitteln, aber nach den selben Schemen bis heute hin, nur das die Eskalation ebenso wie die Werte um die es bei diesen schnell durchgeführten Manipulationen und Ausnutzen der Schwächen der Algorithmen um bedeutende Summen geht und die Infrastruktur kleineren Armeen gleichgestellt ist, denn erfolgreicher Betrug war und ist ein wenig populäres, dennoch sehr einträgliches Geschäft, das viele moralisch flexible Techniker und Vermarkter sowie Algo/Logarithmen-Spezialisten anzulocken scheint.

– Erstes High Noon im Internet: „The Good, the Bad and the Ugly“ alá Google, wider dem Black-Hat-SEO –

… Fortsetzung folgt morgen!

Das Internet: Was wäre wenn alles schief läuft?

An dieser Stelle nur ein Artikel Quickie:

Was wäre wenn …………. alles schief läuft mit dem Internet?

Die vierteilige Artikel Serie finden Sie hier: Quo vadis? – Eine mögliche Zukunft des Internets

Vom offenen Web zurück in die Sandbox – Teil 2.1

Eine Betrachtung auf die Entwicklung von Google und der SEO-Branche in drei Akten
In Vergangenheit, Gegenwart und Zukunft

…bis in die Gegenwart… (Erster Teil)

Viele Suchmaschinen der ersten Stunden, wie etwa Lycos und Yahoo, waren nämlich nach dem alten Prinzip aufgebaut, das Google so erfolgreich zerschlagen sollte: Dem Versuch, das Internet und den Konsum desselben ausschließlich über das eigene Portal und die eigenen Inhalte, wie Nachrichten, Email-Postfächer und andere Dienstleistungen, wie etwa die ersten Spiele (Eine Entwicklung, die später als Social Games bekannt werden sollte) auf den Plattformen zu verbinden und so den Nutzer einen eigenen Ausschnitt des Internets zu präsentieren, der nach den eigenen Vorstellungen gestaltet. Viele User haben diese an ihrer statt getroffene Vorauswahl an Informationen als nur allzu unbefriedigend empfunden und schon früh über die Verwendung alternativer Proxy-Server und eigener oder zumindest unabhängiger DNS-Server Auswege aus diesem goldenen Käfig gesucht.

– Durch neutrale Behandlung allen Content brachte Google die Netzneutralität voran –

Google war in diesem Sinne ein Befreiungsschlag gegen die vorherrschende Sandkasten-Mentalität der Internet Service Provider (ISPs) und die frühen Suchmaschinen-Dienstleister, denn zum ersten Mal wurde das Internet nach für alle Teilnehmer gleichen Kriterien indexiert und der breiten Öffentlichkeit über eine leichtgewichtige, schnell zu begreifende und von Nutzerkonten ungebundene Suchmaske mit einer direkt angeschlossenen, dynamisch nach aktuellsten Stand der Datenbank generierter Suchergebnisseite (SERP, Search Engine Result Page), einfach und unkompliziert zugänglich gemacht. Weiterer Vorteil des von Google in den Markt gebrachten Konzeptes – das schon in seiner Erprobungsphase (Beta-Stadium) sich großer Beliebtheit erfreut und damit den Weg des Erfolges als marktführenden Anbieters für Suchergebnisse im Internet eingeschlagen hatte, das eine inhaltliche Zensur der Suchergebnisse unter keinem Umstand mit Ausnahme einer durch gerichtlichen Verfügungen erwirkten Entfernung aus dem Suchregister aus rechtlichen gründen, stattfand und ausschließlich eine technische Bewertung der Webseite hinsichtlich der Zugänglichkeit und darauf folgend, ihrem Inhalt und der Katalogisierung des Content und seine Relevanz für inhaltsbezogene Suchbegriffe unterzogen wurde. Mit dem Hochhalten des in den Vereinigten Staaten verfassungsmäßig garantierten Recht auf freie Meinungsäußerung konnte die junge Google Inc. sowohl bei Endkunden als auch bei fachlich versierten Nutzern, dem späteren Kapital der Suchmaschine über die Mundpropaganda hinaus, effektiv punkten, versuchten doch diverse dienstleistende Unternehmen sowie anderweitige Initiativen, das Internet schon bei seinem Aufstieg als Kommunikationsmedium Nummer Eins in der westlichen Welt, entsprechend der eigenen Meinung und Moralvorstellung zu beschneiden, wenngleich sich diverse Content-Bereiche durch ihre unseriösen Methoden zur Suchmaschinenoptimierung und meist damit einhergehendem Spam (Spam, unerwünschte Werbe-Emails) umgehend durch die Verletzung der Nutzungspolitik der Google Inc. selbst aus dem Bereich der SERPs verbannten.

– Googles früher Erfolg: Mit unzensierten Suchergebnissen und einfachem Handling den Markt erobern –

Dem Anfangserfolg geschuldet, wurde die Google Search eine der zentralen Anlaufstellen für Nutzer des sich ausbreitenden Internets, das nun, um die Jahrtausendwende also auch die Mitte der Gesellschaft erreicht hatte, hier auch in Deutschland ob der Privatisierung der Telekommunikationsdienstleistungen und der Freigabe der Teledienste und der Liberalisierung der Nutzung mit dem entsprechenden Einbruch der Kosten und der Einführung der Ersten Flatrates für den Zugang zum Internet, womit der Grundstein für die explosionsartige Verbreitung des Internets als neues Medium gelegt wurde und so auch im deutschsprachigen Raum die Saat ausbrachte, aus der später die deutsche SEO-Community entwickeln sollte, die in ihren ersten Jahren als Online-Marketeer fungierte und weltumspannende Netzwerke aufbaute um die eigenen betreuten Objekte und Projekte an prominenter Stelle zu verlinken, dem damals einzigen Weg, innerhalb der digitalen Medien eine Zielgruppe anzusprechen und so entsprechende Page Visits ( Seitenbesuche einer Webseite ) für die Seiten zu generieren, was seine Spitze, vor der Übernahme der Suchmaschinen als zentrale Anlaufstellen für Internet-User, in den Bannertausch-Programmen und frühen formen des Onlinemarketings fand, die unter anderem später in der sogenannten Dot-Com-Blase in einem Feuerwerk verpuffen sollten, zumindest hat das Geschäftsmodell dieser Unternehmen sich nie wieder wirklich im Internet etablieren können, mit Ausnahmen derer, die dem Bauernfang auf den Leim gegangen sind.

– Erst die Privatisierung der TelKo-Märkte brachte europaweit den Durchbruch des Internets –

Im September 1998 erhob sich nun ein Stern über das Firmament des jungen Internets, das von den wissenschaftlichen Mitarbeitern der Stanford University, den Doktoranden Larry Page und Sergey Brin bereits im Jahr 1996 unter dem Projektnamen „BackRub“ wenig Erfolg verzeichnen konnte: Die Suchmaschine mit dem Kunstwort „Google“ als Namen war geboren. Als die ersten Google Crawler den Betrieb aufnahmen und das Internet kategorisch zu erfassen, sprangen diese scriptartigen, automatisierten Programme von Link zu Link, denn: Das frühe Internet kannte wie gesagt keine zentralen Indizes neben den Domain Name Servern die reine Verwaltung von Domainzuordnungen übernahmen – Also operierten die Spider über die Hyperlink-Verbindung von einer Seite zur nächsten, Sprung um Sprung über in der „Hyper Text Markup Language“ verfasste Webseiten, die in ihrer Jungfernzeit mehr oder minder Texte mit definierten Sprungmarken auf andere, wenn extern verlinkend, IP-Adressen oder Adressen der ersten Top Level Domains. Später würde dieses Verfahren der Verlinkung mit dem Begriff „Backlink“ versehen werden und anfangs des Suchmaschinenzeitalters essentielles Gewicht neben anderen Kriterien besitzen.

– Der Beginn einer Erfolgsgeschichte: Vom Start-Up zum Marktführer der Suchmaschinen –

… Fortsetzung folgt morgen!

Vom offenen Web zurück in die Sandbox

Eine Betrachtung auf die Entwicklung von Google und der SEO-Branche in Vergangenheit, Gegenwart und Zukunft

Von der Vergangenheit…

Es war einmal das Internet – So beginnen viele Geschichten, vor allem derer, die sich an die Pionierzeit des Internets und dem Entstehen des WWW, des World Wide Web, miterlebt hatten. Ein kleines Netzwerk, von wenigen Servern getragen, die mit ihren DNS die langen Zahlenketten der IP-Adressen in für den Menschen einfacher zu verarbeitende Form brachte. So war das einst als dezentrales militärisches Netzwerk geplante Internet auch im zivilen angekommen. In diesen Tagen dachte noch niemand an den Durchschlagenden Erfolg des Internets und auch der Begriff der Suchmaschinenoptimierung war in weiter Ferne. Marketing fand ausschließlich im direkten Kontakt und durch Werbe- und Marketingmittel vorrangig im Bereich der analogen Printmedien statt, an Online-Marketing war zu dieser Zeit schon alleine aus Mangel einer geeigneten, homogenen Zielgruppe noch lange nicht zu denken. Die dominante Rolle die das Internet gut 50 Jahre nach dem Aufbau des Vorläufernetzwerkes und Urvater des World Wide Web, dem ARPANET (Advanced Research Projects Agency Network) im Jahre 1962 zeichnete sich hier noch nicht ab, alleine schon da eine Konsumentennutzung durch Endverbraucher in den Plänen der Luftwaffenmilitärs ursprünglich nicht vorgesehen war und die ersten Nutznießer der neuen Technologie der universitäre Bildungssektor war, der die Entwicklung zum Beispiel im Massachusetts Institute of Technology (M.I.T., eine amerikanische Elite-Universität) im Regierungsauftrag entwickelt und nach dem Fall des eisernen Vorhangs zivil weiter genutzt wurde.

– ARPANET: Aus dem militärischen Tele-Netzwerk entsteht die revolutionäre Datenautobahn der Zukunft –

In dieser Zeit musste man noch wissen, was man suchte, und die Internet-fähigen Terminals an den Mainframes der Universität waren längst keine Selbstverständlichkeit, geschweige denn die Bedienung dieser komplexen technologischen Neuerung. Anfang der 1990er Jahre, mit dem zunächst gemächlichen infrastrukturellen Aufwuchs des Internets gab es keine Suchmaschinen, die Entwickler der späteren Suchmaschine Google waren noch grüne Schuljungs und der Bedarf für einen automatisierten und SEO-tauglichen Index des Internets, wie es keine 10 Jahre später Google durchsetzen sollte, war bei einer Anzahl von Webseiten im Bereich von wenigen hundert Top-Level-Domains mit daran gekoppelten Webseiten zunächst nicht gegeben. In dieser Pionierzeit fehlte es schlicht am Entwicklungsdruck, da zu dieser Zeit ein sich durchsetzen des Internets über den Regierungs- und den Wissenschaftlichen- wie auch den Bildungssektor hinaus war längst nicht gesichert. Diese Entwicklung sollten vor allem von zivilen Dienstleistern voran getragen werden, denn der Zwang, das als dezentrales Kommunikationsnetzwerk militärischer Natur geplante ARPANET über den Status quo hinaus weiter zu entwickeln, um die Handlungsfähigkeit von Regierung und Militär im Notfall garantieren zu können, schwand mit dem Zusammenbruch der Sowjetunion, dem Fall der Berliner Mauer und dem damit verbundenen Kollaps des Warschauer Pakts, der seit Ausbruch des Kalten Krieges einen technologischen Wettlauf über die Überlegenheit heraus gefordert hatte.

– Wie die Universitäten das Internet retteten und den Grundstein für das WWW weiter entwickelten –

Erste Versuche, zentralisierte Anlaufstellen im Netz zu schaffen, gab es dennoch auch in dieser Entwicklungsstufe des WWW, vorrangig durch Telekommunikations-Anbieter wie CompuServe oder AOL (America Online) und auch hierzulande gab es entsprechende Versuche, die jedoch durch die wenigen Nutzer des Internets, dank der damals noch staatlichen Post, später der Telekom, nur ein kleiner Markt für das Internet, besser: Des World Wide Webs. Bildschirmtext, das war der Begriff für die meisten deutschen Nutzer von Telekommunikationsdienste, alles weit entfernt, was kaum 10 Jahre später eine ganze Industrie hervorbringen sollte, die sich ausschließlich mit der Suchmaschinenoptimierung, also der möglichst guten Aufbereitung von Inhalten im Internet für den Nutzer von den aufkommenden Suchmaschinen entwickeln sollte, inklusive der neuen Form des Marketings: dem Suchmaschinenmarketing, bestehend aus den Elementen SEO und SEA, dem Search Engine Advertising, das bereits heute, durch Google Updates wie aktuell „Penguin“ in seiner jetzigen Form bereits wieder auf dem Prüfstand steht und damit den beständigen Wandel der Bedingungen im World Wide Web demonstriert.

– DNS-Server als einzige Register des neuen Netzes: Bis zu Google ein langer Weg zu gehen –

Auf Mailboxen erreichbare Newsgroups und dem generischen Kettenbrief ähnliche Email-Listen waren über lange Zeiträume die verbreitetste Form der Netz-Betätigung, die über deutsche Kupferkabel durch das junge Weltnetz noch über klackende Relais in den Fernmeldeämtern und ihrer technischen Nebenstellen ihre Wege zu den Zielrufnummern führte. Auch hier musste nichts optimiert werden, denn entweder man kannte ein Register mit Mailboxen, oder eben nicht. Das dezentrale Internet kannte noch keinen Bedarf für Großkonzerne, und Mailboxen waren nicht selten selbst programmierte Oberflächen die über verschiedene Protokolle an den Nutzer gesendet wurden. Die „Suchmaschine“ dieser frühen Epoche des Internets war unzweifelhaft die Mundpropaganda, da zu diesem Zeitpunkt keine weitere Verwaltung von hinter TLD (Top Level Domains) zugeordneten IP-Adressen samt untergeordneter Subdomains etc. vorgesehen, als eben die Verwaltung durch den zuständigen Domain Name Server, der die Zahlenkolonnen schlichtweg mit der Domain koppelte.

– Mailboxen, BBS und Mailinglisten dominierten die frühe Kommunikation im Internet –

…und dem Übergang in die nahe Zukunft…

Die überragende Qualität der organischen Suchergebnisse war von der ersten Stunde an das Hauptziel der Google Inc., das damals unter den anderen Webverzeichnissen und Suchmaschinen noch keine führende Rolle einnahm und sich gegen die etablierten Suchmaschinen daher mit flotter Bedienung und hoch qualitativen Search Results profilieren musste. Neben den Möglichkeit, aktiv Umsätze mit Google AdWords zu generieren, bestimmte Angebote in Form von digitalen Textanzeigen und anderen Maßnahmen besser zu stellen und Keyword-bezogen in der AdWords-Leiste auf jeder SERP darzustellen, war die Realität eben diese, das ein Großteil des Content vor allem auf die Zukunft hin betrachtet, primär aus dem privaten oder nicht-kommerziellen Sektor ( u.a. NGOs ) – sprich geldloser Klientel – kommen würde und dementsprechend die Qualität der Ergebnisse und ihrer Ausführung Vorrang haben musste um die ersten Anfangserfolge zu sichern und zu zementieren. So würde Google den Vorsprung durch die bessere Firmenpolitik und die frischeren Ideen mit einem treuen Nutzerfundament auszubauen. Diese Epoche der Suchmaschine – die des Fair Plays – sollte sich halten, bis eine neue Form der weltweiten Vernetzung ihren Siegeszug durch das Internet antreten sollte und eine im Jahr 2012 geschätzte Zielgruppe von 1,2 Milliarden Menschen weltweit mit steiler Tendenz nach oben ansprechen sollte: Die sozialen Netzwerke.

– 1,2 Milliarden Menschen weltweit in der altersrelevanten Zielgruppe: Der SEO-Markt um Google ist gewaltig –

Damit sollte eine Entwicklung beginnen, die alles althergebrachte, kaum zwanzig Jahre nach der Unternehmensgründung Googles als Geschichte verblassen, denn das Unternehmen entwickelte sich von hier an auf den Erhalt von Marktanteilen gegenüber der neuen Konkurrenz, den sozialen Netzwerken (Social Networks) vor allem in Form des weltgrößten und nahezu allseits präsenten, in sich geschlossenen Netzwerk Facebook immer weiter und expandierte mit diesem Produktangebot, vor allem gefördert durch das massive Potential und die nahezu unbegrenzten finanziellen Mittel nach dem Start-Up und der Eroberung des Suchmaschinen-Marktes immer weiter und begann die schon von erster Stunde gepflegte Politik, die über die eigenen Angebote generierten Inhalte, von der Mail bis zum Softwareprojekt im Google Code Hosting vollständig zu erfassen, katalogisieren und für personalisierte Suchergebnisse ohne Rückfrage an den User auch kommerziell zu verwenden und sich damit eine Goldmine zu schaffen, von der die meisten im mittleren bis oberen Segment des Online-Marketings ihren Lebtag nur träumen dürfen, vor allem da die Daten über Surfverhalten, Pageviews und ähnliche, auch für das Suchmaschinenmarketing sehr interessante Profildaten quasi „En Passant“ abgreift und diese Position durch die über 90% liegenden Marktanteile und die vollkommene Durchdringung des Marktes mit Cookie-gesteuerten Applets und Plug-Ins für nahezu alle populären Publikationssysteme (CMS, Content Management Systeme) eine unerschöpfliche Datenmine zu erschlossen haben schien

– Der Wandel vom Web-Dienstleister vom allumfassenden Datensammler zeichnet sich bei Google ab –

Mit dem kometenhaften Aufstieg der sozialen Netzwerke, wie eben Facebook im globalen als Marktführer und darüber hinaus lokaler Angebote wie der VZ-Netzwerke in Deutschland (SchülerVZ, StudiVZ und MeinVZ als jeweilige eigenständige Soziale Netzwerke), vKontakte im russischsprachigen Raum, Orkut vorrangig auf dem südamerikanischen Kontinent oder Qzone, Sina Weibo und RenRen in der bevölkerungsreichen Volksrepublik China und LinkedIn in englischsprachigen Staaten außerhalb des angelsächsischen Spektrums und des Commonwealth, bildete sich jedoch ein ähnlich operierender, rasch wachsender Konkurrenzmarkt, der basierend auf den tiefgreifend detaillierten Datensätzen ihrer Nutzer Inseln im bis zu diesem Zeitpunkt von Google kontrollierten Markt begann, die Monopolstellung der Suchmaschine anzukratzen, mit ihrem Aufwuchs auf Milliarden von aktiven Nutzern, mit der tiefgreifenden Bereitstellung von Internetfähigen Geräten auch in Drittweltländern einen rasant wachsenden Markt erschließend, schlussendlich auch auf den Radarschirmen der Betreiber von Google als bedrohliche Variable wahr genommen wurde. So sollte es auch nicht lange dauern bis man seitens Google, angefeuert vom Erfolg und dem dadurch entstehenden Konkurrenzdruck des vom Harvard-Studienabbrechers Mark Zuckerberg gegründeten Netzwerks Facebook, sein eigenes „Social Network“ präsentieren sollte: Google+.

– Die Bedrohung des Google-Monopols durch die sozialen Netzwerke –

Dieses Netzwerk sollte perfekten Symbiose zwischen sich eher statisch verhaltenden Inhalten der von Google erfassten Webseiten inklusive der dort platzierten Applets sowie der dynamischen Verwertung von Kundendaten den eingeloggten User optimal mit auf seine Interessen abgestimmte Online-Werbung mit höherer Click-Through-Rates versorgen um die gewonnenen Anteile im Ad-Marketing-Segment zu halten, bestenfalls sogar auszubauen. Im im Gegenzug eine technisch auf dem Stand der Zeit befindliche systemübergreifende, bereits in die zusammengefassten Dienstleistungen der Google Inc. integrierten Plattform der Social Media zu bieten und das Dienstleistungspaket für
Die offensive Ausweitung dieses Marktes würde für die angestammte SEM-Agenturen schwere Zeiten bringen: Denn die geschlossenen Social Media-Plattformen waren bereits bei ihrem ersten Erscheinen ein Bereich, in dem die Suchmaschinenmarketing-Branche zunächst nur durch die Vermittlung und Erstellung von Social Media Marketing Related Content und dem klassischen, wenig Ertrag abwerfenden, da von Google und Facebook strikt durch und durch auch Preislich reglementierten, Anzeigengeschäft teilnehmen konnte. Die vorhandenen Strukturen waren gerade beim Marktführer unter den Social Networks, Zuckerbergs‘ Facebook, durch dokumentierte APIs die Möglichkeiten für Suchmaschinenoptimierer ideal um sich mit dem soziale Netzwerk zu verbinden, doch die Spielregeln blieben fest in der Hand des Unternehmens.

– Harte Bandagen: Daumenschrauben für SEM-Profiler und Marketingagenturen in den sozialen Medien sind längst angelegt –

Ebenso wie die Hoheit über die gesammelten Daten und Einsicht in die zwar gesammelten, aber nicht dem eigentlichen bewerbenden Anbieter zuzurechnenden Nutzerprofile der Facebook-User, auf die der Content Publisher zwar Zugriff haben sollte aber in durch das eng definierte Framework der Netzwerke schnell in seine Grenzen verwiesen wurde, einem eklatanten Einschnitt gegenüber dem „freien“ Internet außerhalb dieser digitalen Soziotope, der die Rolle des Suchmaschinenmarketings und der in diesem Bereich tätigen SEO-Agents und Profiler vorrangig in eine Vermittler- und Verwalter-Rolle drängte und das weiterbestehen dieses Berufszweiges in Frage stellt, da man durch die Begrenzungen durch die Netzwerkbetreiber statt, wie gewohnt, eigenständig und nur durch die Grenzen der aktuellen Technik eingeschränkt, durch für Suchmaschinen optimierten Content und Präsentationsformen und Frameworks entwickeln zu können nur noch in eng gesteckten Zwischenräumen mit den vorhandenen Mitteln des Online-Marketings arbeiten kann.

– Die gefürchtete Geißel aller Suchmaschinenoptimierer: Die gesammelten Daten bleiben beim Plattformbetreiber ohne Chance auf kommerzielle Verwertung –

Ein wichtiger Grund für die rasche Entwicklung und den Release von Google+ ist in einer einfachen Milchmädchenrechnung zu erklären: Google ist für Facebook wie für die Mitglieder der SEO-Branche als Unternehmens-Externe ohne Partnerstatus klar als feindliche Konkurrenz deklariert, da hier um den selben Markt gekämpft wird. Die Außenstehenden haben also nur begrenzten, kaum kommerziell nutzbaren Zugang zu den von ihnen aufgebrachten Zahlen, insbesondere die fehlende Möglichkeit zur Verknüpfung von Datensätzen mit Besucherprofilen schlägt den – Vollzugriff auf alle Auswertungen gewohnten – SEO-Professionellen schwer auf den Magen, da hier wichtige Waffen auf dem Feld des digitalen Marketings schlichtweg fehlen und so die gezielte Steuerung und Platzierung von eigenem Content bewusst erschwert, wenn nicht gänzlich behindert wird.

– Google erhebt Mimikry zur Taktik: Wenn ich den Gegner Facebook nicht besiegen kann, imitiere ich ihn, der SEO-Markt leidet dennoch –

Denn anfallende Daten – abseits von Fragestellungen über die datenschutzrechtliche Lage zur Erhebung dieser – so detailliert auszuwerten, wie es die eigenen, im freien Web verwendeten Tools erlauben würden um eine kommerzielle Nutzbarmachung dieser, gerade für das kampagnengestützte Suchmaschinenmarketing essentiellen Datensätze zu erlauben liegt den Betreibern der Social Networks freilich fern. Der Weg führt alleine über eine Kooperation mit dem Betreiber, der an diesen Kampagnen durch sein Insiderwissen und die damit in der Reichweite seines Netzwerks befindlichen Werbeflächen besonderen Verdienst einfährt, denn: „Alleine Facebook weiß, was Facebook weiß.“.

– Datenentzug für die Branche des Online-Marketing: Alleine Facebook weiß, was Facebook weiß.“

Das Unternehmen Facebook selbst hatte von vorne herein das beste Interesse daran sein Kapital, die vom Benutzer gesammelten und aggregierten Datensätze, für sich zu behalten und die Nutzungsrechte ebenso wie die Offenlegungspflichten per EULA und AGB zu seinen Gunsten zu gestalten. Die Personalisierung der Werbeanzeigen war schlichtweg die einzige reale Einnahmequelle des vergleichsweise jungen Online-Angebotes und rückte schnell auch in den Fokus der begierlichkeiten der Wirtschaft, die ihren Platz für professionelles Advertising in den neuen Medien noch suchte und die Entwicklung einer Aufspaltung des Marktes und damit der faktischen Auflösung eines Google-geführten Datenmonopols tatkräftig zur Seite zu stehen, so weit, das auch Facebook schlussendlich ein Aktienunternehmen wurde und seine Zulassung an der Börse erhielt und seit 2012 dotiert wird.

– Google gezwungen durch Mächtige Gegner: Facebook wird AG, fordert Google offen heraus –

Die darauf von der Google Inc. ergriffenen Gegenmaßnahmen in Form von Updates und Veränderungen an der Unternehmensstruktur und dem Produkt-Portfolio lässt sich durchaus als ein Vorläufer, einen Prototypen des kommerziellen Cyber-Wars, eines virtuellen Wirtschaftskrieges beschreiben: Der Kampf um die Ressource Mensch und der für die monetäre Vermarktung zwingend zu sammelnden Nutzerprofile, ein Kampf zwischen zwei Schwergewichten im Internet, in dem sich Google von der primären Funktion als Netzindex und Suchmaschine abwenden und zu einem umfassenden, ganzheitlich vernetzt agierenden Datenriesen entwickeln würde und die bereits früh auftretenden Kritiker der Datenschutzpolitik von Google, die seit jeher von Datenschützern ob ihrer Datensammlung zu kommerziellen Zwecken in der Kritik standen, geltendes Recht zu verletzen, in jeder noch so schlimmen Prophezeiung zu bestätigen, der Begriff einer „Datenkrake“ prägte sich in dieser Zeit zusehends, wie einige Urteile in der Europäischen Union und den USA gegen die Intransparenz der Datenschutzklauseln der Google Inc. Bestätigten und den Riesen zumindest in datenschutzrechtlicher Hinsicht zu Lippenbekenntnissen zwang.

– Schmutziger digitaler Wirtschaftskrieg auf Kosten der zuarbeitenden Unternehmen und den Nutzern als eierlegende Wollmilchsau –

Zwischen diesen beiden großen Parteien jedoch steht nicht nur die SEO-Branche vor den bedrohten Märkten, die sowohl Google als auch Facebook unter die jeweilige Kontrolle bringen wollen: Durch die Dominanz der beiden Unternehmen im Bereich der sozialen Medien gibt es auch für die Markt-Teilnehmer, die nicht zum „Big Business“ gehören, nur noch – zumindest um den Anschluss an die frequentierten Knotenpunkte des Internets, die Wahl zwischen Pest und Cholera, denn tatsächlich selbstbestimmtes, effektives Marketing ist mit der geplanten, stellenweise in Ansätzen bereits realisierten Einführung des „sozialen Faktors“, der Bewertung durch die Nutzerbasis via Google Plus‘ „+1“ oder etwa Facebooks bekanntem „Like“-Button, der SERP-Platzierungen und Bewertungen, wie der Vergabe des begehrten Google Page Rank sowie der Seitenpopularität eines Angebotes als auch der laufenden Umstrukturierung des Dienstleistungsangebotes der Google Inc. in eine, dem Facebook ähnelnden, umzäunten digitalen Netzwerk, das sich vom Begriff der Netzfreiheit in ziemlich jeder Form entfremdet und den Markt für die kleineren Teilnehmer am Markt zusehends erschwert, wie wir im folgenden Teil unserer Serie erläutern wollen.

– Die Unternehmen des Suchmaschinenmarketings stehen vor einer handfesten Krise. Wie könnte es weitergehen? –

… Ende?

Druckerpatronen und Toner für Ihren Drucker

Jedes Büro braucht Toner und/oder Druckerpatronen. Dieses Verbrauchsmaterial ist wichtig und muss immer lagernd sein.

Ein ausgesprochen nutzerfreundlicher Online-Shop für Canon Druckerpatronen, Hp Toner und andere Druckerpatronen verbirgt sich hinter dem Namen CrossPrint.

Der geprüfte Onlinehändler mit dem Trusted Shop Gütesiegel sorgt mit seinem speziellen Käuferschutz in ganz Österreich für die Zufriedenheit seiner Kunden.

Neben der umfassenden Produktpalette, die mit fast 7500 Artikeln für fast jedes Druckermodell die passenden Druckerpatronen liefert, zeichnet sich CrossPrint durch einen optimalen Kundenservice aus. Das Sortiment umfasst neben Hp Toner, Canon Druckerpatronen, Lasertoner alles was sich Kunden unter günstigem Druckerverbrauchsmaterial vorstellen. Von Trommeln über Druckköpfe und Fotoleiter bis zu den Druckerpatronen findet der Kunde alles was für einen reibungslosen Druckablauf notwendig ist.

Doch noch viel wichtiger ist der persönliche Service den CrossPrint liefert. Schnelle Bestellabwicklung, zuverlässige Lieferung und ein engagierter Kundendienst werden bei diesem Online-Shop groß geschrieben. Selbst wenn ein Produkt nicht im Sortiment enthalten ist, bemüht sich das CrossPrint Team um eine schnelle Hilfestellung und versucht das entsprechende Produkt zu besorgen. Und das zu konkurrenzfähigen Preisen und fairen Konditionen.

Die Bestellung kann ganz einfach per Mausklick aufgegeben werden. Danach erhält der Kunde eine Bestätigungsmail. Die Lieferung erfolgt Österreich weit mit DPD. CrossPrint gewährt zudem ein kundenfreundliches Rückgabe von 14 Tagen, in denen die Produkte in der Originalverpackung zurückgesandt werden können. Geöffnete Druckerpatronen, Hp Toner, Canon Druckerpatronen oder Speichermedien sind wie auch in allen Fachgeschäften vom Umtausch ausgeschlossen.

Zahlungen können per Kreditkarte, sprich MasterCard oder Visa, per PayPal oder Payolution erfolgen. Von Payolution haben wahrscheinlich die Wenigsten schon einmal gehört. Für den Kunden bedeutet dies einen ganz regulären Kauf auf Rechnung oder einen Kauf auf Ratenzahlung. Die Forderung allerdings wird von CrossPrint auf eine Privatbank übertragen, so dass im Falle einer Nichtzahlung des Kunden diese an den Kunden herantreten würde. Für den Kunden ergibt sich der Vorteil, dass er eine Zahlungsfrist von 14 Tagen in Anspruch nehmen kann. Und wer pünktlich zu zahlen gedenkt, wie die meisten Kunden, ist froh über die Möglichkeit der Rechnungsstellung.

Neben einer Vielzahl von Druckerpatronen der wichtigsten Original-Hersteller führt CrossPrint auch Tintenpatronen und Lasertoner von Drittherstellern. Dies können sowohl kompatible Neukartuschen sein, die zum jeweiligen Druckertypen passen, als auch Rebuild-Toner oder Refill-Kartuschen. Diese umweltfreundlichen Refill-Toner oder Rebuild-Toner werden auf die jeweiligen Druckermodelle zugeschnitten, so dass neben einem günstigen Preis auch eine gute Druckqualität erzielt werden können.

Die Umwelt und deren Schutz ist heutzutage ein sehr wichtiges Thema, mit dem man sich auch bei der Auswahl der Druckpatronen auseinandersetzen sollte. Umweltfreundliche Tinte und Toner sind daher immer gefragt. Rebuild-Toner und Refill-Druckpatronen ersparen der Umwelt eine starke Belastung mit Sondermüll, zu dem die leeren Druckpatronen ja zählen. Kein Wunder also, dass auch der Online-Shop von CrossPrint diesem Umstand Rechnung trägt.

Schaut man sich alle Aspekte, die der Kundenzufriedenheit zuträglich sind an, so ist CrossPrint ein sehr empfehlenswerter Online-Shop. Hier kann der Kunde vertrauensvoll auch herstellerfremde Druckerpatronen zum günstigeren Preis als die Originalkartuschen kaufen. Nicht nur die hochwertige Qualität der angebotenen Produkte sondern insbesondere der Service und die Kundenfreundlichkeit sprechen für sich. Genauso wie es sich für einen Trusted Shop gehört.