Machtmißbrauch?

Das Googlepol

Das Quasi-Monopol von Google ruft immer mehr Kritiker auf den Plan.
Von Thomas Wischniewski

Wer im Internet etwas recherchieren will, surft heute beinahe automatisch zu Google. Schon jetzt ist "to google" für englische Internetnutzer zum Synonym für die Suche im Internet geworden. Und mittlerweile gilt wohl weltweit: Was Google findet, ist Maßstab. Das ehemals kleine Start-up ist innerhalb weniger Jahre zum wichtigsten Schleusenwärter des Internet avanciert. Eine Entwicklung, die von immer mehr Kritikern argwöhnisch beäugt wird.

Marktanteil in Deutschland: 70 Prozent

Schon heute sollen weltweit mehr als 90 Prozent aller Nutzer des Netzes die Suchmaschine nutzen. In Europa kommt die spartanisch gestaltete Suchmaschine auf 70 Prozent Marktanteil, in Deutschland sollen angeblich rund drei Viertel aller Suchanfragen im World Wide Web über Google erledigt werden. Berücksichtigt man die Suchanfragen, die über andere Websites und Portale mittels lizensierter Google-Technologie statt finden, dürfte der Anteil wohl noch größer sein. Inzwischen gibt die Suchmaschine täglich Antworten auf mehr als 200 Millionen Suchanfragen in 88 Sprachen - und das in Bruchteilen von Sekunden.

Den beiden Google-Gründern Sergey Brin und Larry Page ist damit etwas gelungen, wovon jeder Marketingchef träumen dürfte: Die Schaffung eines Quasi-Monopols, ohne je einen Cent für Werbung ausgegeben zu haben. Die beinahe beherrschende Marktstellung von Google beruht einzig auf Mundpropaganda und der einfachen, aber genialen Idee hinter der verwendeten Technologie.

Was Google von anderen Suchmaschinen unterscheidet

Hinter dem Google-Erfolg steht die so genannte Page-Rank-Technologie - und die Schwäche herkömmlicher Suchmaschinen. Diese bewerten die Relevanz einer Seite nämlich nach einem all zu simplen Prinzip: Eine Kombination aus Häufigkeit des jeweiligen Suchbegriffes im Fließtext, in den Meta-Tags, im Seitentitel, in den Überschriften und in der Domain entscheidet darüber, ob eine Seite in der entsprechenden Trefferliste der Suchmaschine ganz oben oder irgendwo auf Seite 2409 erscheint. Dieses System war und ist natürlich verwundbar: Schließlich ist nichts leichter, als eine HTML-Seite im Title, Body, Meta-Tag, etc. hundertfach mit Schlüsselbegriffen zu füttern und sich gegebenenfalls noch entsprechende Domains mit exotischen Länderdomains zu sichern.

Anders funktioniert dagegen die von Google patentierte Page-Rank-Technologie: Sie setzt nicht auf das Prinzip "Häufigkeit des gesuchten Schlüsselbegriffes", sondern auf das Prinzip "Relevanz". Da Computer (und natürlich auch die Google-Maschinen) jedoch schlicht zu blöd sind, um Relevantes von Irrelevantem zu trennen, können als Anhaltspunkt zur Unterscheidung nur die von Menschenhand hergestellten Verknüpfungen des Webs als Qualitätskriterium dienen - die Links.

Denn allgemein unterscheiden sich gute von schlechten Websites dadurch, wie häufig von anderen Seiten auf sie per Link verwiesen wird. Beispielsweise wird niemand auf eine Website verlinken, die zwar zig-fach in den HTML-Meta-Tags den gesuchten Begriff vorweist, letztlich aber auf der erscheinenden Seite nur einen Dialer anzubieten hat. Somit landen bei Google schließlich die Websites ganz oben auf den Trefferlisten, auf die möglichst viele andere Seiten verweisen.

Jedoch ist der Grad der Vernetzung nicht die einzige Kategorie, nach der bei Google eine Internetseite bewertet wird: Auch der Text und die Position der Seite in einer Navigationsstruktur sollen berücksichtigt werden. Viel mehr ist über den Algorithmus des Google-Programms aber auch schon nicht bekannt.

Die Haken an der Sache

Allerdings hat auch diese Technologie ihre Haken: Häufig werden neue Versionen von Web-Inhalten von den Google-Suchrobotern erst nach Wochen registriert. Deswegen haben neue Webseiten zunächst schlechte Karten - egal, wie relevant und interessant sie sind. Denn um in der Google-Trefferliste aufzutauchen, muss sich die betreffende Seite die Links ja quasi erst mühsam erarbeiten. Ein Problem, mit dem aber auch auch Googles Konkurrenten zu kämpfen haben und das sie teils noch schlechter in den Griff bekommen.

Ein weiteres Problem: Mittlerweile ist bekannt, dass einige Online-Anbieter gezielt versuchen, mit einer Masse aufeinander verweisender eigener Sites den Listenplatz bei Google zu verbessern. Stellt Google dies fest, werden die entsprechenden Angebote herabgestuft.

Droht die Googlelisierung des Webs?

Problematisch an der starken Stellung von Google ist aber nicht nur die mangelnde Transparenz bei der Erstellung der Rankings, sondern auch die drohende Marktbeherrschung. Nutzten vor zwei, drei Jahren viele Internetnutzer häufig mehrere Suchmaschinen zur Webrecherche, die unterschiedliche Ergebnisse brachten, verlässt sich heute ein Großteil der Webgemeinde auf Google. Zwar kennt Google nach eigenen Angaben derzeit etwa drei Milliarden Webseiten und damit mehr als andere Suchmaschinen. Doch gehen Experten davon aus, dass Google trotzdem nur etwa ein Viertel aller Netzinhalte berücksichtigt. So werden beispielsweise Inhalte in Datenbanken nicht berücksichtigt.

Das bleibt natürlich nicht ohne Folgen: Wer sich bei der Recherche nur auf Google verlässt, läuft Gefahr, eben nur die Inhalte des von Google abgebildeten Teil des Webs zu finden. Das alleine ist sicherlich noch zu verkraften und durch die Nutzung anderer Suchmaschinen auszugleichen. Nur: Immer mehr Search-Engines arbeiten mit der Google-Technologie, da die Firma ihre Suchtechnik an andere große Internet-Seiten lizenziert. Große Webseiten wie AOL oder T-Online haben sich solche Lizenzen schon gesichert. Letztlich ist das nichts anderes als eine gewaltige Konzentration auf dem Markt für Suchmaschinen, der die Vielfalt des Webs zu beschneiden droht.

Der Medienwissenschaftler Marcel Machill von der Universität Leipzig warnte daher auch im der Studie "Wegweiser im Netz. Qualität und Nutzung von Suchmaschinen" für die Bertelsmann-Stiftung [Link entfernt] vor dieser Konzentration, von der viele Nutzer nichts ahnen. "Das ist so, als würde die Tagesschau die Nachrichten für das heute-journal mitliefern", zitiert ihn die Süddeutsche Zeitung.

Zudem halten sich immer wieder Gerüchte, dass Google gezielt bestimmte Verweise sperrt. Negativschlagzeilen machte etwa ein Fall, in dem Google die Webseiten von Kritikern der Scientology aus der Datenbank getilgt haben soll. Die Website www.google-watch.org hat sich ebenfalls die Verdeutlichung der Gefahr des Google-Monopols auf die Fahnen geschrieben. Dort werden auch konkret Fälle aufgezeigt, in denen Google nach Meinung der Autoren sein Monopol missbräuchlich ausnutzt.

Kommt nach dem Browser-Krieg die Suchmaschinen-Schlacht?

Eine mögliche Linderung dieser Konzentration auf dem Suchmaschinenmarkt kommt nun ausgerechnet von einer Seite, die bis dato von der Netzgemeinde eher mit Häme überschüttet wurde: Microsoft-Gründer Bill Gates. Angeblich soll der Software-Gigant aus Redmond schon im August Gespräche über eine Beteiligung oder gar Übernahme mit den Google-Gründern Sergey Brin und Larry Page geführt haben - doch die ließen ihn abblitzen. Deshalb basteln Microsoft-Entwickler nun um so energischer an einer eigenen Suchmaschine. Da werden für viele Internetnutzer Erinnerungen an die 90er Jahre wach. Damals hatte Microsoft beinahe das Geschäft mit den Web-Browsern verpasst und musste zunächst zusehen, wie Konkurrent Netscape sich enorme Marktanteile in Zukunftsmarkt World Wide Web sicherte. Nach einem ersten Schock über den beinahe verschlafenen Milliarden-Markt drückte Microsoft den Internet-Explorer dann aber mit so viel Macht in den Markt, dass das Vorbild Netscape bald aufgeben musste.

Ob sich die Schlacht um die Vorherrschaft im Suchmaschinenmarkt ähnlich entwickelt, ist noch völlig offen. Zumindest scheinen die Google-Gründer Gates' Bestrebungen ernst zu nehmen. Um für den zu erwartetenden Konkurrenzkampf neues Kapital flüssig zu machen, will das Unternehmen nächstes Jahr an die Börse gehen. Zwar hat Google noch nie eine Gewinn- oder Verlustrechnung veröffentlicht, Börsenexperten taxieren den Aktienwert des Unternehmens auf 15 bis 25 Milliarden Dollar, wovon in der ersten Jahreshälfte 2004 in einer ersten Tranche zehn bis 15 Prozent als Aktien verkauft oder bei einer Auktion versteigert werden sollen.