Süddeutsche Zeitung, 21. September 2017
Internetsuchmaschinen zeigen uns nur einen kleinen Teil aller verfügbaren Informationen an. Das ist eine große Verantwortung. Gefährlicher als die Personalisierung ist allerdings Googles Autocomplete Tool.
Was wäre, wenn ich eine untenschlossene Wählerin wäre? „Merkel“ tippe ich an einem Morgen im September an meinem Computer in die Suchmaschine Google, und Google rät, was ich wohl suche. Kaum habe ich das „l“ getippt, erscheinen die Empfehlungen „news“, „Rosenheim“ und „muss weg“ als Ergänzung. „Autocomplete“ heißt diese Funktion: die Suche wird automatisch vervollständigt abhängig davon was Google glaubt, was ich persönlich suche. Würde ich als unentschlossene Wählerin „muss weg“ anklicken und mich von den dargeboteten Ergebnissen beeinflussen lassen? An erster Stelle ein Beitrag der rechtspopulistischen Zeitschrift „Compact“, an dritter Stelle eine rechte Facebook-Gruppe namens „Merkel muss weg“, danach wieder Compact, dann Focus, dann eine rechte Anti-Merkel-Twittergruppe und schnell die AfD.
Google ich hingegen mit meinem Smartphone, bekomme ich keinen „muss weg“ Ergänzungsvorschlag, sondern unter anderem „Alter“ und „Augsburg“. Und selbst die Suche nach „Merkel muss weg“ führt mich dort nicht in den ersten drei Newstreffern zu Compact, sondern zur Augsburger Allgemeinen und zu einer kritischen Gruppe der Jusos.
Dieses unrepräsentative und zufällige Experiment zeigt zumindest eines: was die Suchmaschine ihren Nutzern als relevante Information empfiehlt, ist nicht immer das gleiche. Nun ist Google nicht etwa schizophren, sondern vielmehr bemüht, jedem Nutzer individuell das anzuzeigen, was für ihn persönlich interessant ist. Mit diesem Versprechen hat Google 2005 seine personalisierte Suche eingeführt, eine damals innovative Neuerung und bis heute Googles Alleinstellungsmerkmal. Dafür sammelt der Konzern Daten der Nutzer (welche Seiten haben sie bisher besucht? Was klicken sie an? Etc) und passt die Liste der Suchergebnisse an deren scheinbare Interessen an.
Diese personalisierte Suche mag bequem sein, weil Nutzer eventuell tatsächlich für sie persönlich relevante Ergebnisse angezeigt bekommen. Aber Google hat damit eine große Verantwortung. Der Internetaktivist Eli Pariser prägte 2011 den Begriff der Filterblase: solche Algorithmen könnten radikale Weltbilder stärken, wenn andere Meinungen ausgeblendet werden.
Allerdings ließ sich bisher aber kaum belegen, welchen Effekt diese Personalisierung de facto hat, da auch die Systematik hinter der Googlesuche ein gut gehütetes Geheimnis des Konzerns ist. Wer bekommt welche Ergebnisse angezeigt? Welchen Effekt hat die Personalisierung auf die Suchergebnisse tatsächlich? Wer wissen will, inwiefern sich die Treffer unterscheiden, die verschiedenen Nutzern angezeigt werden, muss Experimente wie das eingans erwähnte machen – nur in großem Stil. Doch selbst mit diesen Daten bleibt vieles Spekulation, was Ursache und Wirkung angeht: Die unterschiedlichen Ergebnisse des eingangs erwähnten Experiments könnten daher rühren, dass ich auf dem Computer Google normalerweise nicht benutze, in keinen Google-Account eingeloggt war und Cookies immer lösche: Google weiß kaum etwas über mein Rechner-Ich. Mein Android-Handy hingegen kennt mich eventuell etwas besser. Es könnte auch daran liegen, dass Suchergebnisse auf unterschiedlichen Geräten unterschiedlich ausfallen, es könnte etwas mit dem Standort zu tun haben oder damit, dass Google just in dem Moment, in dem ich von einem auf das andere Gerät wechselte Veränderungen im Algorithmus vorgenommen hat.
Das sind viele Konjunktive. Auf ähnliche Weise rätseln Forscher seit einigen Jahren, wie sich die Personalisierung und andere Faktoren des Rankings auf die Ergebnisse auswirken. Ein aktuelles Forschungsprojekt deutet nun darauf hin, dass sich zumindest bei der Personalisierung in jüngster Zeit wohl etwas geändert hat: Gab es vor einigen Jahren noch zahlreiche Beispiele für deutlich unterschiedliche Empfehlungen, scheint es inzwischen nur noch wenige Unterschiede zu geben. Das ergab das aktuelle „Datenspende“-Projekt der Initiative AlgorithmWatch ebenso wie eine Studie von Forschern aus Michigan und Oxford, die beide auf verschiedene Weise Daten zu dieser Frage gesammelt haben.
So bittet AlgorithmWatch Nutzer seit einigen Wochen darum, ein Zusatzprogramm zu installieren, das regelmäßig auf deren Computern Suchanfragen an Google stellt und die Ergebnisse an die Initiative schickt. Die bisherige Auswertung auf Anfragen wie Namen der Parteien und Kandidaten für die Bundestagswahl ergab, dass eine Personalisierung nur eine sehr geringe Rolle spielt.
"Acht bis neun Treffer waren für die meisten der knapp 600 Nutzer gleich und variierten hauptsächlich in der Reihenfolge“, sagt Katharina Zweig, Professorin für Netzwerktheorie an der TU Kaiserslautern. Dennoch seien auch einige auffällige Cluster aufgetaucht, die mit den anderen Nutzern nur zwei oder drei gemeinsame Ergebnisse haben: „Das können wir uns nicht erklären mit den Informationen, die wir haben.“ Allerdings fehlen auch Informationen zu Rahmenbedingungen wie: was interessiert diese Nutzer, was lesen sie ansonsten?
So bekamen beispielsweise zwei Nutzer bei der Suche nach „AFD“ vorallem Nachrichtenartikel aus etablierten Medien und erst auf dem vierten und fünften Platz die Website und das Facebook-Profil der Partei, während ein dritter Nutzer auf den ersten Plätzen die Homepage samt Facebook-Auftritt und schließlich eher allgemeine Informationen zur AFD bekam wie einen Wikipedia-Eintrag und Übersichtsartikel aus Zeitungen.
Auffällig ist auch der Unterschied zwischen Nutzern, die in Google-Accounts eingeloggt waren und solchen, die es nicht waren, zeigt Cornelius Puschmann, Leiter der Arbeitsgruppe Algorithmed Public Spheres (APS) am Hans-Bredow-Institut, der die Daten ebenfalls auswertete: so gab es 39 Internetseiten, die nur für eingeloggte Nutzer angezeigt wurden, darunter insbesondere für die Suche nach Angela Merkel eine große Bandbreite von den Deutschen Wirtschaftsnachrichten über Rushia Today (RT) bis zu Tichys Einblick. Für die Suche nach Martin Schulz gab es mit sechs für eingeloggte Nutzer exklusiven Internetseiten deutlich weniger Vielfalt, dafür Exoten darunter wie das Techblog Golem. „Golem und die DWN für Schulz sind ungewöhnlich, ebenso wie RT und Tichys Einblick für Merkel“, kommentiert Puschmann.
Ist das genug, um eine Filterblase zu schaffen? „Insgesamt sind die Ergebnisse recht ähnlich.“ Dennoch falle es auf, dass ein bis drei Prozent der Nutzer „diese sehr anderen“ Treffer bekämen – ein deutlicher Verweise auf Personalisierung, wenn auch in geringem Maße. „Ich glaube nicht, dass Personalisierung keine Rolle spielt“, sagt Zweig nach ihrer ersten Zwischenanalyse, „aber klar ist: wir leben nicht in geschlossenen Filterblasen.“ Dennoch habe sie sich auch gewundert: „Wir hatten alle das Gefühl, dass Personalisierung schonmal stärker war.“
Ist das so? Der einzige, der das beantworten könnte, schweigt beharrlich dazu: Google. Nur eines fällt auf: eine gewisse Empfindlichkeit diesem Thema gegenüber. Es scheint gerade so, als wolle Google weder, dass der Eindruck entstehe, dass Ergebnisse personalisiert sind noch, dass sie es nicht sind. Personalisierung ist einerseits das Alleinstellungsmerkmal und auch das, womit der Konzern gegenüber Werbekunden wirbt. Andererseits steht sie gerade in Deutschland und gerade vor der Wahl in der Kritik. Schließlich gab es nach der US-Wahl Diskussionen, inwiefern Filterblasen-Effekte Populismus verstärken. Anfragen anlässlich dieser Recherche werden derzeit nicht beantwortet. Man wolle warten, was das Datenspende-Projekt ergebe, so Google-Sprecher Ralf Bremer – gerade so, als bedürfe es einer externen Evaluation, um das eigene Vorgehen zu verstehen.
Einige der offenen Fragen von AlgorithmWatch kann Grant Blank von der University of Oxford eventuell beantworten. Der Forscher am Oxford Internet Institute hat mit Kollegen der Michigan State University im Rahmen der oben erwähnten Studie „Suche und Politik“ an sieben neuen Computern Google-Suchanfragen gestellt und diese unterschiedlich trainiert: an manchen Rechnern schien ein Anhänger der US-Demokraten zu sitzen, an anderen jemand, der republikanische Inhalte bevorzugt. Auch das brachte kaum Unterschiede zutage, im Wesentlichen habe sich die Reihenfolge der ersten zehn Suchergebnisse unterschieden: „Lediglich der Ort schien eine große Rolle zu spielen“, sagt Blank.
Etwas mehr Unterschiede fand die Gruppe rund um das „Autocomplete“-Tool, das dem Nutzer auf Basis der ersten Buchstaben oder des ersten Wortes Tipps gibt, wonach der suchen könnte. 30 bis 36 Prozent jener Vorschläge seien personalisiert gewesen, allerdings seien auch hier keine politischen Filterblasen entstanden, so die Forscher: Lediglich thematische Filterblasen seien denkbar, denn Nutzer, die stark nach politischen Themen suchten, erhielten auch politischere Vorschläge. So zeigt sich in der Tat, dass Suchanfragen vor dem Training eher allgemein ergänzt wurden, hinterher hingegen politischer: Beispielsweise wurde "terrorism" zunächst mit "news" ergänzt, nach dem Training hingegen mit "and privacy". Donald Trump zunächst mit "memes", nach dem Training hingegen mit "immigration" und "climate change". Deutliche Unterschiede für „rechte“ und „linke“ Nutzer hingegen fielen nicht auf. Um das zu beurteilen, dafür mag das Sample mit sieben „Nutzern“ aber auch zu klein gewesen sein.
Doch beeinflussen die Suchergebnisse überhaupt die politische Einstellung der Nutzer? Dazu hat die Studie von Blank und Kollegen Erhellendes ergeben: Sie befragten neben ihrer technischen Experimente auch je 2000 zufällig und nach repräsentativen Kriterien ausgewählte Internetnutzer aus Großbritannien, Frankreich, Deutschland, Polen, Italien, Spanien und den USA. Davon erklärte eine deutliche Mehrheit, dass die Internetsuche eine sehr zentrale Informationsquelle für sie sei und zudem vertrauenswürdiger als das Fernsehen, Radio sowie Freunde und Familie. 68 Prozent gaben an, die Suche zu nutzen, um zu entscheiden, wen sie wählen wollen und 42 Prozent geben die Suche als Quelle an, auf deren Basis sie ihre politischen Ansichten ändern.
Das ist eine große Verantwortung, betont Blank: „Die Art Information, die unterschiedliche Menschen bekommen, kann einen großen Einfluss darauf haben, wie diese ihre politische Meinung entwickeln.“ Da sich die Such-Algorithmen ständig änderten und zudem nicht einsehbar seien, sei es extrem schwierig zu wissen, was genau einzelne Nutzer zu sehen bekommen. Die Studie ist übrigens von Google finanziell unterstützt worden - „die Datensammlung ist teuer“, sagt Blank, doch es habe keinerlei inhaltliche Beeinflussung gegeben.
Die Forscher betonen allerdings auch, dass nicht nur Personalisierung eine Rolle spielt, sondern auch andere Faktoren des Rankings: der Algorithmus bewertet jene Internetseiten als relevanter, die die viel gelesen und angeklickt werden. „Das führt dazu, dass die Bekannten immer bekannter werden, während die Unbekannten unbekannt bleiben.“ Und das nutze in Zeiten wie diesem vorallem dem Populismus. Die Nutzer haben zusätzlich einen Populismus-Fragebogen ausgefüllt, und dabei sei ein Zusammenhang deutlich geworden, erklärt Blank: „Solche Leute lassen sich leichter von den Suchergebnissen beeinflussen als andere: die vertrauen den Medien nicht.“