Spektrum.de, 6. Dezember 2016 - Link
Ein Text über psychologische Profilbildung mittels Facebookdaten schreckt viele auf. Der Text beschreibt aber weder eine neue Technologie, noch ist seine Schlussfolgerung seriös, nach der Trump die Wahl dank Algorithmen gewonnen hat. Dennoch besteht kein Anlass sich zurück zu lehnen, kommentiert Eva Wolfangel.
Ist Bigdata schuld an Trump? Dieses Luder, diese gefährliche Technologie, das sieht ihr ähnlich! Sie bringt Unheil über die Welt – jetzt haben wir den Beweis! So oder ähnlich denken offenbar viele nach der Lektüre des Textes „Ich habe nur gezeigt, dass es die Bombe gibt“. Die vage Hoffnung, dass vielleicht doch nicht Menschen sondern Maschinen schuld sind am Wahlsieg des künftigen US-Präsidenten, scheint viele zu mobilisieren: der Text dreht derzeit so nachhaltig seine Runden in den sozialen Netzwerken, dass man meinen könnte, er verkünde revolutionäres. Das tut er aber nicht.
Kurz zusammengefasst handelt er von einem Psychologen, der anhand von Facebook-Daten und Mustererkennungsalgorithmen Persönlichkeitsprofile von Nutzern errechnet hat. Diese Technologie nutzt ein Unternehmen namens Cambridge Analytica, um Politikern eine zielgruppengenaue Ansprache möglicher Wähler zu versprechen. Donald Trump hat dieses Angebot offenbar in seinem Wahlkampf genutzt.
Zur mutmaßlichen Enttäuschung des ein oder anderen Lesers muss hier zweierlei klargestellt werden: auch wenn der Text den Eindruck erweckt, ist es alles andere als erwiesen, dass Trump die Wahl zum US-Präsidenten nur dank algorithmischer Unterstützung gewonnen hat. Und: auch die im Text beschriebene Methode ist nicht neu. Immer wieder versuchen Forscher, aus persönlichen Daten im Netz und geposteten Inhalten in Sozialen Netzwerken intime Details über die Nutzer herauszubekommen – ohne dass jene sie geteilt haben. Das klappt mit wechselndem Erfolg: (http://scilogs.spektrum.de/fischblog/pers-nlichkeitseigenschaften-mit-facebook-likes-vorhersagen-echt-jetzt/) manchmal liegt die Erkennungswahrscheinlichkeit beispielsweise Homo- versus heterosexueller Nutzer nur knapp über dem Zufall, oft aber auch deutlich darüber. (http://texperimentales.hypotheses.org/841) Und das hat bisweilen selbst die Forscher erschreckt. Nachdem Eric Horvitz und Kollegen von Microsoft Research die Wahrscheinlichkeit, nach der junge Mütter nach der Geburt eine Wochenbettdepression erleiden, allein aufgrund von Facebook- und Twitterdaten bereits 2014 mit immerhin 70prozentiger Wahrscheinlichkeit vorhersagten – und das auch anhand von Testdaten überprüften - (http://www.aaai.org/ocs/index.php/ICWSM/ICWSM13/paper/viewFile/6124/6351), bekamen diese offenbar selbst Bauchschmerzen: im Nachgang warnten Horvitz und andere in einem großen Science-Schwerpunkt vor dem Potential der neuen Technologie und vorallem vor dem Desinteresse der Gesellschaft daran, sich mit den möglichen Gefahren zu beschäftigen. (http://www.spektrum.de/kolumne/muessen-wir-uns-mehr-mit-kuenstlicher-intelligenz-auseinandersetzen/1356240)
Dieses Desinteresse hat der erwähnte Artikel ziemlich erfolgreich durchbrochen. Bedenklich ist allerdings, dass dafür die reißerische Behauptungen nötig war, dass Donald Trump die Wahl dank dieser Technologie gewonnen habe. Denn das ist nicht nur an keiner Stelle belegt, sondern bei genauerem Hinsehen auch eher unwahrscheinlich. Auch wenn Algorithmen ihm sicherlich Auftrieb verschafft haben: nämlich jene von Facebook und Google, die ihre Nutzer in eine gemütliche Filterbubble einquartieren und sie vor anderen Meinungen schützen. Diese entsteht dadurch, dass beispielsweise Facebook seine eigene zielgruppengenaue Ansprache hat – ganz ohne psychologisches Profiling. Die algorithmischen Filter des Netzwerkes führen jedem einzelnen Nutzer vorallem jene Meldungen vor Augen, die mutmaßlich dessen Meinung entsprechen. Die Grundlage sind bisherige Aktivitäten des Betreffenden im Netz.
Das führt dazu, dass sich Menschen in ihrer Wahrnehmung gestärkt fühlen, weil ja scheinbar alle anderen ähnliche Inhalte teilen – nur ein Bruchteil der Facebooknutzer weiß, dass die Inhalte individuell angepasst sind. Diesen Effekt könnte der digitale Wahlkampf Trumps verstärkt haben: glaubt man dem Text, versucht Cambridge Analytics diese Filterbubble ins reale Leben zu übertragen, indem Wahlkämpfer mit Informationen über Menschen ausgestattet wurden, bevor sie diese besuchten. Wie treffsicher sie dabei waren, weiß man allerdings nicht – dafür müsste man die Betroffenen direkt befragen. Zweifellos allerdings spielten die Algorithmen der sozialen Netzwerke Trump zudem in die Hände, weil sie Falschmeldungen besonders effektiv verbreiteten, die beispielsweise Clinton diskreditierten oder behaupteten, der Papst stehe hinter Trump. Vielleicht erscheint vielen deshalb die Schlussfolgerung des aktuellen Textes so naheliegend, dass Algorithmen schließlich auch Menschen überzeugt haben könnten, Trump zu wählen, die ursprünglich Clinton favorisierten.
Das erscheint unwahrscheinlich. Aber selbst für die naheliegendere These, dass sich zumindest Unentschlossene durch die neue Technologie auf eine Seite ziehen ließen, gibt es keinen Beweis. Das ist der Haken an der Arbeit mit Daten: wenn Bigdata-Algorithmen Muster in Datenmassen finden, sind das ausschließlich Korrelationen. Wie diese Muster aber zusammenhängen, das lässt sich nicht so einfach klären. Bigdata-Evangelisten sagen zwar immer wieder: Es ist egal, über welchen Weg etwas zusammenhängt, solange es viele Daten gibt und das Muster eindeutig ist. Deshalb ist es auch egal, wieso Menschen, die Filzgleiter für ihre Möbel kaufen, ihr Konto seltener überziehen (ja, auch dieses Muster haben Algorithmen gefunden!): sie bekommen in Zukunft womöglich eher einen Kredit.
Wer Daten aber zur politischen Analyse nutzen möchte, braucht weiterhin Kausalitäten. Hat das ausgefeilte Targeting von Cambridge Analytics also Menschen dazu gebracht, Trump zu wählen, die das ohne die gezielte Ansprache nicht gemacht hätten? Der Text versucht das zu belegen, indem er Alexander Nix, den Chief Executive Officer von Cambridge Analytica, bei einem Werbevortrag beobachtet. Und genau das ist der Haken: Nix versucht dort, seine Technologie zu verkaufen. Wenn er sagt: „Wir haben Psychogramme von allen erwachsenen US Bürgern – 220 Millionen Menschen“, darf man das nicht für bare Münze nehmen. Das ist nicht die Aussage eines Wissenschaftlers, sondern die eines Marketingmannes.
Während der Text suggeriert, dass diese Psychogramme dazu beigetragen haben, Menschen zu überzeugen, muss man ehrlich sagen: Man weiß es nicht. Hier fallen die Autoren des Textes auf eine Verwechslung von Korrelationen und Kausalitäten herein: Trump hat eine ausgefeilte Technologie der Werbebranche eingesetzt. Und er hat die Wahl gewonnen. Hat das eine das andere verursacht? Um diese Frage seriös zu beantworten, müsste man eine klassische qualitative Forschung machen, die Menschen befragen, die jene zielgruppengenaue Ansprache „genossen“ haben, besser noch an ihrem Leben teilhaben.
Es gibt aber auch keinen Beleg dafür, dass es nicht so ist. Wenn nun Kommentatoren wegen der Unzulänglichkeiten des Textes schreiben, das alles sei nichts neues, schließlich habe es schon immer zielgruppenorientierte Werbung gegeben, ist das Unsinn. Die Möglichkeit, große Datenmengen auszuwerten, verändert diese Ansprache auf jeden Fall. Noch mögen die Algorithmen nicht besonders treffsicher sein und deren Genauigkeit von Forschern schön gerechnet. Aber es kommt nicht von ungefähr, dass viele Wissenschaftler den rasanten Aufstieg des Deep Learning – eine besonders effiziente Art des maschinellen Lernens – mit einer Revolution vergleichen. Noch sind die Unternehmen mit den Datenmassen aus dem Netz häufig überfordert. Selbst Google gibt zu, momentan vor allem zu sammeln, und mit der Auswertung erst am Anfang zu stehen. Aber das wird sich in Zukunft ändern. Es ist also nicht an der Zeit sich zurück zu lehnen.
Was man dem Text trotz seiner unzulässigen Schlussfolgerung zugute halten muss: ganz offensichtlich hat er einige Menschen aufgeweckt, die bisher immun waren gegen das Mantra „schütze deine Daten,“ so dass in Zukunft die „ich hab ja nichts zu verbergen“-Mentalität hoffentlich eingedämmt wird. Wieso nun bei vielen die Verwunderung so groß ist, dass sie den Text wahlweise mit dem Kommentar „Wahnsinn!“ oder „Bombe!“ weiter verbreiten, bleibt ein Rätsel. Wenn das alles aber dazu führt, dass die Nutzer die Facebook-Datenschutzerklärung künftig lesen anstatt sie blind anzuklicken, und dass eine gesellschaftliche Debatte in Gang kommt, wozu wir Bigdata nutzen wollen und wozu nicht, ist schon viel gewonnen.