© Reuters/Robert Galbraith, Google Schriftzug und Silhouetten von Personen

Die Herrschaft der Suchmaschinen

GOOGLE & CO.
08.05.2010

Suchmaschinen leisten einen wichtigen Dienst an der Gesellschaft, indem sie Informationen im Internet auffindbar machen. Darum, was der einzelne Bürger für das kostenlose Service aber hinnehmen muss, und die Macht der Suchmaschinen geht es bei der Ende Mai in Wien stattfindenden Konferenz Deep Search II. ORF.at sprach mit den Konferenzveranstaltern Konrad Becker und Felix Stalder.

Am 28. Mai findet zum zweiten Mal bei freiem Eintritt die Konferenz Deep Search statt. Auch heuer werden wieder internationale Experten über die Politik der Suche sowie die Konflikte und Dimensionen der Macht von Suchmaschinen bei der vom World-Information Institute organisierten Veranstaltung referieren.

Konrad Becker, Felix Stalder (Hg.): Deep Search. Politik des Suchens jenseits von Google. Studienverlag & Transaction Publishers, 2009, ca. 220 Seiten. ISBN 978-3-7065-4794-9

Anlass für das Interview ist der kürzlich erschienene Konferenzband zu Deep Search I vom vergangenen Jahr. Im Gespräch erläutern die Organisatoren Stalder und Becker, dass Google durch die Menge an Informationen und vor allem durch die mangelnde Transparenz über ein Herrschaftswissen verfügt, dass an längst vergangene Tage erinnert.

Neben den Gefahren, die durch die starke Stellung des Internet-Konzerns bestehen, kommt auch ein möglicher Lösungsansatz zur Sprache. Ähnlich der Lösung bei Telekomunternehmen, die ihre Leitungen künftig allen Anbietern zur Verfügung stellen müssen, solle auch Google zu einer Offenlegung seines Index gesetzlich verpflichtet werden, um etwa alternative Formen von Suchalgorithmen und somit mehr Vielfalt bei Suchmaschinen zu ermöglichen, so die Autoren.

ORF.at: Trotz des Titels "Politik des Suchens jenseits von Google" nimmt Google im Buch eine sehr zentrale Stellung ein, während andere Suchmaschinen kaum Erwähnung finden. Warum steht Google so stark im Zentrum der Kritik?

Stalder: Google steht im Zentrum, weil es für die meisten Menschen ein zentrales Interface zwischen dem, was sie wollen, und dem, was sie finden, geworden ist. Wir haben das Buch aber deshalb jenseits von Google angesetzt, weil es auch wichtig ist, das Problem der Suchmaschinen von Google zu trennen. Erstens gibt es auch andere Vorstellungen davon, was Suche ist, als das, was Google uns anbietet. Und dann macht Google auch sehr viel mehr, denn in erster Linie ist es eine Werbeplattform, und die Suche und diversen Dienste sind lediglich die Medien, mit denen sie ihre Werbung verkaufen können.

Becker: Interessant ist auch, abgesehen von Googles Monopolstellung, das Prinzip der automatisierten Klassifizierung von Daten, das sich in allen gesellschaftlich-ökonomischen Bereichen findet, ob im Politikmarketing, im Gesundheitswesen bis hin zum Kreditwesen oder den No-Fly-Listen. Dein ganzer persönlicher Status als Datenkörper wird von diesen automatischen Klassifizierungsmechanismen bewerkstelligt, deshalb spielt Google quasi im Consumer-Bereich eine Rolle in dem, was öffentlich zugänglich wird. Auch die Konvergenz - es funktioniert umso besser, wenn du auch noch ein Android-Phone hast und sie bestimmen können, wo du dich gerade geografisch aufhältst - ist kein Zufall. Diese Datenkonvergenz verbunden mit einer automatisierten Klassifizierung ist etwas, das gerade unsere Gesellschaft und Politiklandschaft verändert.

ORF.at: In Ihrem Buchbeitrag schreiben Sie über den "zweiten Index", Herr Stalder. Was zeichnet diesen aus?

Stalder: Das Problem mit den Suchmaschinen ist, dass sie in der Zwischenzeit sehr viel über die Topologie des Netzes wissen: Was ist mit was verlinkt, was sind thematische Cluster usw. Aber es besteht sehr wenig Wissen darüber, was einen spezifischen Nutzer interessiert. Je größer die Informationsmenge wird, desto schwieriger ist es, ein spezifisches individuelles Nutzerinteresse mit der Informationstopologie zusammenzubringen. Google und auch andere versuchen jetzt, möglichst viel zu personalisieren. Das heißt, sie versuchen, möglichst viel über den Nutzer in Erfahrung zu bringen, konstruieren Profile, kategorisieren die Person und legen das als zusätzlichen Filter über die Suchresultate. Andere Suchresultate werden nach oben gerankt, oder Dinge verschwinden, weil der Anbieter die Vorstellung hat zu wissen, was die Person sucht. Mittelfristig unterscheidet sich Google von den anderen durch die Größe und den Umfang der Profile, die sie haben, mit denen sie dann zusätzlich für bessere Suchresultate sorgen können. Das haben wir den zweiten Index genannt. Der erste Index ist ein Index über die Informationen, die online erhältlich sind, der zweite beinhaltet die Informationen über die individuellen Nutzer. Dieser ist geschlossen und komplementär, und wir haben keine Möglichkeit herauszufinden, was genau drinnen steht, und wir wissen kaum, was damit gemacht wird. Und das ist das Problem, das wir in dem Artikel aufmachen: Wo ist die Grenze zwischen einem besseren Service und einer noch sich verstärkenden Form der Manipulation?

ORF.at: Wie weit darf man dem Credo der personalisierten Suche Glauben schenken? Wo stehen wir heute?

Stalder: Google hat zwei Interessen: einerseits eine gute Suchmaschine und andererseits eine gute Werbeplattform zu sein. Insofern dient Personalisierung beiden Interessen: die User mit der gesuchten Information zu verbinden und die Werbekunden mit den ausgesuchten potenziellen Kunden in Beziehung zu bringen. Wo das heute steht, ist sehr schwierig zu sagen. Im Moment - das zeigen die wenigen Untersuchungen, die es gibt - ist die Personalisierung noch sehr schwach, aber die Entwicklungsrichtung, das auszubauen, wird sehr systematisch verfolgt.

Becker: Es ist schon so, dass man auch als nicht personalisierter User bereits scheinbar aufgrund der Cookies andere Ergebnisse bekommst. Auch wenn man nicht als personalisierter User eingeloggt ist, erhalten die Nutzer unterschiedliche Rankings.

ORF.at: Wie könnte eine Alternative zu diesen Methoden aussehen?

Stalder: Die Alternative ist nicht: Entweder man akzeptiert die Situation, wie sie ist, oder man verzichtet quasi darauf. Suchmaschinen decken ein Defizit im Internet ab, das kein eigenes Indexingsystem und kein eigenes Klassifikationssystem hat. Das macht seine Offenheit aus. Einerseits besteht zunächst einmal die Frage der Transparenz: Woher wissen wir, welche Klassifikationsentscheidungen getroffen werden, was wird wie miteinander in Verbindung gesetzt. Das andere ist die Frage des Monopols: Gibt es tatsächlich verschiedene Klassifikationsmechanismen, verschiedene Suchalgorithmen, und wie lösen wir das Problem der mangelnden Vielfalt.

Becker: Es gibt große Defizite im Bereich der Technikfolgenabschätzung. Aber es gibt bereits ein paar Eckpunkte, die sich herauskristallisieren. Es geht darum, politische Rahmenbedingungen sicherzustellen, die den Missbrauch von solchen Systemen zumindest einschränken, und dazu gehört etwa die Frage der Transparenz. Es kann nicht sein, dass sämtliches Allgemeinwissen über das Monopol einer Blackbox einer einzelnen Firma läuft. Die Frage ist, inwieweit man Google zwingen kann, seine schwarzen Algorithmen offenzulegen. Es müsste die Möglichkeit für Mitbewerber, Non-Profits und Forschung geben, Zugang zu diesen Daten zu haben, um ein anderes Ranking oder eine andere Analyse zu machen.

Stalder: Gewisse Dinge sind sehr schwierig zu replizieren und sehr aufwändig, wie die Datenzentren und das Erstellen des Index. Ein Suchalgorithmus ist immer noch aufwändig, aber einfacher zu replizieren. Eine mögliche Forderung ist zu sagen, Googles Index ist eine Ressource im öffentlichen Interesse, und er muss geöffnet werden, so dass andere Suchalgorithmen darüber laufen können. Ähnlich wie die Politik einmal entschieden hat, die Kabel der Telekom für andere Dienstleister zu öffnen, weil es unverhältnismäßig gewesen wäre, wenn alle ihre eigenen Kabel verlegen. Natürlich ist die Idee etwas utopisch, aber sie zeigt, dass es einen Raum geben kann.

ORF.at: Das heißt, es wäre vor allem eine politische Lösung notwendig?

Becker: In Österreich gibt es ein so zahnloses Datenschutzgesetz, was immer noch besser ist als das amerikanische, nur inzwischen löst es sich vollkommen auf. Wie etwa, dass die deutsche Bundesregierung völlig hilflos ist gegenüber Facebook und die Bürger aufruft, dass die sich darüber aufregen sollen. Das ist eine nette Aufforderung. Wir regen uns ja auf, aber in letzter Konsequenz wird es da auch Gesetze geben müssen.

Stalder: Ein anderer Ansatz wäre, die Datenschutzgesetze neu zu regeln, dass nicht so sehr das Sammeln von Daten geregelt wird, sondern was damit gemacht wird. Nehmen wir an, dass die Personalisierung der Suchergebnisse erstrebenswert ist, dann wollen wir natürlich, dass das ein Suchanbieter mit einem genauen Profil der Person machen kann. Wir wollen aber nicht, dass aus diesem Profil weitere Dinge abgeleitet werden können und neue, schwierig zu kontrollierende Machtzentren entstehen. Das Wissen über die Menschen in der Gesellschaft in Echtzeit, das ist richtiges Herrschaftswissen über die Konstitution der Gesellschaft in Echtzeit. Und was mit diesem Wissen gemacht werden darf und was nicht, das ist natürlich etwas, über das es eine gesellschaftliche Debatte geben muss.

ORF.at: Rogers zitiert in seinem Aufsatz den Suchmaschinenbeobachter Danny Sullivan, der meinte, die Tage, an denen jeder die gleichen Ergebnisse für einen bestimmten Sucheintrag erhalte, seien gezählt. Was meinen Sie dazu?

Becker: Das scheint sich zu bewahrheiten. Wenn du ein normiertes Ergebnis hast, dann kannst du als Suchmaschinenbetreiber sagen, wir sehen hier ein komisches Missverhältnis von einer bestimmten Art von Medien gegenüber einer bestimmten anderen Art von Medien. Er kann dann quasi objektivieren, während es in Zukunft dann auf das Profil des Nutzers verweisen wird. Wenn Sie nur die eine Zeitung lesen und nichts anderes, dann sind Sie selber schuld. Insofern entziehen Sie sich auch immer mehr der Rechenschaft, und gleichzeitig akkumulieren Sie immer mehr das bereits erwähnte Herrschaftswissen, und der Manipulation wird potenziell Tür und Tor geöffnet.

Stalder: Die Frage ist, wie kann man beurteilen, was man - bezogen auf die Suchresultate - sieht? Es sind die zwei zuvor erwähnten dynamischen Systeme, die übereinander liegen. Das eine ist der Index selber, also die Welt selber sozusagen, die sich verändert, und das Zweite ist der Algorithmus, der aus dieser Welt Suchresultate produziert. Dazu kommt noch das individuelle Profil, das sich ändern kann. Wenn wir heute ein anderes Ergebnis haben als gestern, dann wissen wir nicht, auf welcher der drei Ebenen die Veränderungen stattgefunden haben.

ORF.at: Wie sieht das Programm der diesjährigen Konferenz aus?

Becker: Vergangenes Jahr war es uns ein Anliegen, einen Querschnitt zu produzieren. Diesmal interessieren uns die Vergangenheit und auch die Zukunft - von verschiedenen Aspekten: die Soziometrie und wie die Anwendung von solchen Datensystemen auf soziale Realitäten wirkt, auch historisch betrachtet, oder die Frage, wie in Zukunft mit sehr großen Datensätzen umgegangen wird. Im Endeffekt erfüllen Recommendations-Systems auch eine Art von Suchfunktion. Wir nennen es Push-Search, so wie Amazon dir ungefragt Empfehlungen anbietet, wenn du nach Büchern suchst. Auch das wird Thema sein.

Mehr zum Thema:

(futurezone/Claudia Glechner)