Wissenschaftsreportage Technik Eva Wolfangel

Berliner Zeitung, 3. September 2016

Im Hintergrund entscheiden Computer viele Dinge in unserem alltäglichen Leben. Das bringt nicht nur Vorteile mit sich.

Die Bank verweigert einen Kredit trotz bester Bonität, Amazon schlägt beharrlich Bücher vor, die man nie lesen würde und der Ganzkörperscanner am Flughafen findet irgendetwas auffällig am eigenen Körper: das kann zwar keiner der freundlichen Beamten erklären, es zieht aber eine aufwendige Sicherheitskontrolle und einen Sprint zum Gate nach sich: Das alles sind die Folgen von Computerentscheidungen, die auf der Grundlage von Algorithmen getroffen wurden. Jeder kennt sie aus dem Alltag, aber die wenigsten machen sich bewusst, dass dahinter Rechenvorschriften liegen, die unser Leben immer mehr bestimmen. Drei Beispiele aus dem Alltag, die gleichzeitig auch die Probleme beschreiben:

Facebook und Google

Kann ein Computerprogramm die Menschen so beeinflussen, dass sie ihr Wahlverhalten ändern?Was klingt wie aus einem Sciencefictionfilm, treibt immer mehr Forscher um: Sie warnen vor den Ranking-Algorithmen von Google und Facebook, die unterschiedlichen Nutzern verschiedene Ergebnisse anzeigen, und die laut aktueller Studien in der Tat Wahlergebnisse verändern können. Die Präsidentschaftswahl in den USA könnte die erste Wahl sein, in der das tatsächlich geschieht, so die Befürchtungen.

Facebook hat selbst in mehreren Studien gezeigt, dass nur winzige Veränderungen in diesem Algorithmus die Meinung der Nutzer zu den geteilten Inhalten anderer verändern. Auch die Wahlbeteiligung kann der Konzern laut einer eigenen Studie beeinflussen: Während der Kongresswahlen 2010 schickte Facebook 61 Millionen Nutzern eine Nachricht, die sie an die Wahl erinnerte und anzeigte, wie viele ihrer Freunde schon wählen waren. Jene Nutzer gingen signifikant häufiger wählen als die Kontrollgruppe ohne entsprechende Nachricht. Bei einem knappen Ausgang kann diese Manipulation wahlentscheidend sein, warnt die amerikanische Technik-Soziologin Zeynep Tufekci: „Facebook kann Wahlen beeinflussen – ohne dass wir das nachweisen können.“ Die Beeinflussung ist schließlich so subtil, dass sie weder für den Einzelnen noch für übergeordnete Stellen wie Gerichte oder Regulierungsbehörden nachvollziehbar ist.

Facebook ist nicht allein: Auch bei der Suchmaschine Google entscheidet eine komplexe Rechenvorschrift im Hintergrund, welcher Nutzer welche Ergebnisse angezeigt bekommt. Studien des US-Psychologen Robert Epstein zeigen, wie eine veränderte Auswahl an Suchergebnissen Wähler eher zugunsten des einen oder des anderen Kandidaten entscheiden ließen. Nachdem Epstein das zunächst in einer Laborstudie testete, nutzte er schließlich die Wahlen in Indien 2014 für ein Experiment. Er rekrutierte mehr als 2000 noch unentschlossene Wähler und teilte sie in Gruppen ein: eine Gruppe bekam bei ihrer Internet-Recherche mehr Suchergebnisse über den einen, eine zweite Gruppe mehr über den anderen Kandidaten präsentiert: Die Vorlieben verschoben sich um durchschnittlich 9,5 Prozent jeweils zugunsten des Kandidaten, der in den Suchergebnissen bevorzugt vorkam.

Welche Faktoren genau in die Ranking-Algorithmen von Google und Facebook einfließen und wie sie gewichtet sind, ist ein gut gehütetes Geheimnis. Bekannt ist bei Facebook der große Einfluss des „Like-Buttons“, mit dem Nutzer Nachrichten mit „Gefällt mir“ markieren können. Verschiedene Experimente zeigen das: So entschied sich beispielsweise die Designerin Elan Morgan, zwei Wochen lang den Like-Button zu ignorieren – und war begeistert: „Das machte Facebook eindeutig besser!“ Sie habe viel weniger Dinge angezeigt bekommen, die sie nicht sehen wollte. Denn offenbar hatte der Algorithmus manches falsch verstanden: wenn sie ein Foto süßer Katzenbabys mit „Gefällt mir“ markierte, bekam sie auch Fotos von Katzen, die von Tierquälern misshandelt worden waren. „Der Algorithmus versteht die vielen politischen, philosophischen und emotionalen Schattierungen eines Themas nicht“, bilanziert Morgan ihr Experiment.

Computer als Cops

In verschiedenen Bundesländern gibt es Pilotversuche mit Predictive Policing, vorhersagender Polizeiarbeit. Der Computer soll dabei die Erfahrung langjähriger Polizisten ersetzen und erweitern, die im Laufe ihrer Laufbahn ein „Bauchgefühl“ dafür entwickeln, wo oft zugeschlagen wird. Die meisten Bundesländer nutzen die deutsche Software Precobs, die ein Familienunternehmen in Oberhausen entwickelt hat: das Institut für musterbasierte Prognosetechnik IfmPt. Diese basiert auf der Annahme, dass professionelle Täter nach bestimmten Mustern vorgehen. Sie handeln planvoll, bevorzugen Gebiete, in denen sie nicht auffallen und die gute Fluchtmöglichkeiten bieten, sie haben es auf ganz bestimmte Beute abgesehen – und kommen wieder, wenn sie erfolgreich waren. „Near repeat“ heißt das in der Fachsprache: ein Täter sucht den Tatort ein zweites Mal auf. Diese Folgedelikte sagt der Computer auf Basis eines Mustererkennungs-Algorithmus voraus. Basis sind die Daten vergangener Einbrüche. Ist es sich zu 70 oder 80 Prozent sicher, schlägt das System Alarm – und die zuständigen Behörden entscheiden, ob sie eine Streife vorbeischicken.

Medien berichten allerdings immer wieder von Fällen, in denen eine solche Software angeschlagen hat, Polizisten vor Ort verstärkt Streife fuhren – und trotzdem eingebrochen wurde. Das mögen Einzelfälle sein, doch die Frage, ob die Einbrüche durch solche Maßnahmen generell zurückgehen, lässt sich kaum seriös beurteilen. Immer wieder hört man von Gebieten, in denen die Einbrüche rückläufig seien – und im Jahr darauf steigen sie wieder. „Das ist das absurde an der ganzen Geschichte“, sagt Michael Schweer vom IfmPt, „das Nicht-Eintreten des Folgedeliktes ist unser Erfolg, lässt sich aber durch das Nicht-Eintreten nicht nachweisen.“ Dennoch ist Schweer überzeugt, dass Precobs funktioniert: „Wir sind jetzt an sieben Standorten, und an allen liegen die Einbrüche signifikant unter den Vergleichswerten. Es wäre doch komisch zu sagen: das hat nichts mit dem System zu tun.“ Andere Bundesländer arbeiten mit eigenen Algorithmen. So testet das LKA Nordrhein-Westfalen derzeit, welche Daten die eigene Software noch treffsicherer werden lassen – beispielsweise Echtzeit-Informationen über den Stromverbrauch, die anzeigen, wo gerade wenige Zuhause sind (was Einbrecher anlocken könnte).

Wie schnell die musterbasierte Verdachtserhebung nach hinten losgehen kann, zeigen allerdings aktuelle Vorfälle in den USA. Dort wird die Wahrscheinlichkeit, nach der ein Straftäter rückfällig wird, per Computer berechnet. Das Ergebnis wirkt sich auf dessen Haftzeit aus. Eine große Recherche des investigativen Journalistenbüros propublica ergab kürzlich, dass der dahinterliegende Algorithmus Schwarze systematisch benachteiligt. Ein Fehler im System? Die Verantwortlichen blieben in der Folge erschreckend sprachlos – offenbar hatte das selbstlernende System eigene Schlüsse gezogen, die nun kaum zu überprüfen sind. Ein Problem, vor dem Forscher immer wieder gewarnt hatten und weshalb manche fordern, Algorithmen keine Entscheidungen über Menschen treffen zu lassen, anhand derer diese Nachteile erleiden. Dass dennoch immer wieder Fälle auftreten, in denen entsprechende Mustererkennungsalgorithmen beispielsweise Dunkelhäutige diskriminieren, ärgert Schweer. „Das darf nicht passieren.“ Bewusst sei Precobs kein selbstlernendes System, keine künstliche Intelligenz, die ihre eigenen Schlüsse zieht, sondern werde ausschließlich von Menschen erweitert. „Wir wollen vermeiden, dass sich Fehler einschleichen. Selbstlernende Systeme fallen gerne auf Scheinkorrelationen herein.“

Kreditvergabe

Über diese Theorielosigkeit der automatisierten Mustererkennung, auf der heute ein Großteil der Künstliche-Intelligenz-Algorithmen basiert, ärgert sich auch Katharina Zweig, Leiterin der Arbeitsgruppe Graphentheorie und Analyse komplexer Netzwerke an der TU Kaiserslautern. Auch die Schufa berechne die Kreditwürdigkeit anhand von Algorithmen, in die verschiedene Informationen einfließen. Der Bankmitarbeiter bekommt am Ende nur einen Wert und den Ratschlag, diesem oder jenem Kunden besser keinen Kredit zu geben. Was soll der Bankmitarbeiter beispielsweise demjenigen sagen, der keinen Kredit bekommt? „Du hast diesen Wert. Wieso, das weiß ich nicht, jedenfalls bekommst du keinen Kredit.“ Aus ihrer Sicht sollte man Betroffenen sagen können, was sie ändern können, um einen Kredit zu bekommen, aus welchen Gründen ihnen der Algorithmus diesen Wert zugewiesen hat. Nur wie, wenn das die Anwender eines Systems selbst nicht wissen können? Und was, wenn das Ergebnis falsch ist? Um solche Probleme mehr ins Bewusstsein der Menschen zu bringen, hat sie kürzlich die Organisation „Algorithm Watch“ gegründet.

Auch ihre Kollegen hat sie dabei im Blick: „Das größte Problem: wir als Informatiker sind nicht dafür ausgebildet zu modellieren.“ Modellieren bedeutet beispielsweise die Entscheidung, welche Daten als Trainingsdaten relevant sind und welche Art von Algorithmus auf diese angewendet wird. Ein umstrittenes Projekt, das die Schufa vor einiger Zeit gemeinsam mit dem Hasso-Plattner-Institut angekündigt hatte, aus Daten aus sozialen Netzwerken die Kreditwürdigkeit Einzelner vorhersagen zu können, beruhe auf einem Modell: der Idee, dass diese Daten dafür geeignet sein könnten. Welcher Algorithmus darauf angewendet wird, werde im Zweifel danach entschieden, welcher des beste Ergebnis bringt: welcher also die nicht Kreditwürdigen findet und nicht zu viele Kreditwürdige fälschlich aussortiert. Schließlich wissen die Forscher aus der Zusammenarbeit mit der Schufa, wer als kreditwürdig eingeschätzt wird. Ein Algorithmus sucht dann Gemeinsamkeiten der Betroffenen anhand der Daten, die sie auf Facebook geteilt haben. Aber woher weiß man, dass das nicht zufällige Korrelationen sind? Und ist das dann seriös, Menschen auf dieser Grundlage einen Kredit zu verwehren? Das Projekt wurde nach öffentlichen Protesten eingestellt.

EVTL KÜRZEN? (Aber das Ganze hat auch noch ein größeres, statistisches Problem, das häufig übersehen wird – auch von Informatikern: angenommen, am Ende entsteht ein Algorithmus, der anhand von Facebook-Daten zu 90 Prozent richtig vorhersagen würde, wen die Schufa als nicht kreditwürdig ansehen würde, und lediglich 5 Prozent Kreditwürdige fälschlicherweise als nicht kreditwürdig einstuft. Auf den ersten Blick wirkt das wie ein recht gutes Ergebnis. Man könnte auf die Idee kommen, dass Facebook eine gute Datenquelle ist, um die Kreditwürdigkeit von Menschen zu berechnen. Aber es gibt eine Falle, warnt Zweig: „Man muss betrachten, in welchem Verhältnis diese in der Bevölkerung vorliegen.“ Nur wenige bezahlen schließlich ihren Kredit nicht zurück. Angenommen, von 5000 Menschen zahlen 150 einen Kredit nicht zurück: der Algorithmus würde davon 90 Prozent - also 135 - identifizieren, hochgerechnet würden aber aufgrund des scheinbar recht treffsicheren Algorithmus gut 240 weitere Personen keinen Kredit bekommen (fünf Prozent der 4850 eigentlich Kreditwürdigen). „Damit liegt die Trefferquote, bei allen, die der Algorithmus als nicht-kreditwürdig ansieht, nur bei etwa 36 Prozent. Solche prozentuale Maße sind also ein Problem in der Künstlichen Intelligenz, wenn die vorherzusagenden Kategorien sehr unbalanciert auftreten“, warnt Zweig, „Und oft wenden wir KI dann an, wenn wir wenig wissen: bei seltenen Krankheiten beispielsweise.“ Aber genau dann fallen Vorhersagefehler stark ins Gewicht: „Man sortiert zu viele aus oder detektiert die Leute nicht, die eigentlich dazugehören.“)

Infobox: Was ist ein Algorithmus?

Ein Algorithmus ist eine Reihe von Anweisungen, um ein Problem zu lösen. Meist wird der Begriff in Zusammenhang mit Computern verwendet: hier ist die Anleitung zur Problemlösung in Form von Programmiercode vorhanden. Der Computer erfährt so, durch welche Schritte in welcher Reihenfolge er eine Aufgabe lösen soll. Der Ranking-Algorithmus von Google gibt beispielsweise vor, welche Faktoren dazu beitragen sollen, dass ein Suchergebnisse bei diesem konkreten Nutzer weiter oben erscheint. Etwa, weil es etwas mit seinem Wohnort zu tun hat oder weil er bereits in der Vergangenheit ähnliche Links angeklickt hat.