Wissenschaftsreportage Technik Eva Wolfangel

Technology Review 02/16, Februar 2016

Politiker fordern Propagandamaterial von Terrororganisationen wie dem IS im Internet zu löschen. Sinnlos, sagt Zahed Amanullah vom Institute for Strategic Dialogue in London. Er setzt auf das Datenwissen von Google und Facebook, um dem Radikalismus Einhalt zu gebieten.

Herr Amanullah, Sie arbeiten mit Google, Facebook und Twitter zusammen, um Hasskommentare und Propaganda auf diesen Netzwerken einzudämmen. Dabei beeinflussen Sie die Inhalte, die Nutzer zu sehen bekommen. Wie haben Sie die Unternehmen dazu gebracht, mit Ihnen zusammen zu arbeiten?

Das war leicht. Wir haben ihnen in einer ersten Studie vor Augen geführt, wie sehr beispiesweise der IS ihre Netzwerke zur Propaganda benutzt, wie dort neue Terroristen rekrutiert werden. Sie waren sehr betroffen - und sehr offen für die Zusammenarbeit. Die Macher von Facebook und Co wollen schließlich, dass ihre Plattformen für Gutes genutzt werden.

Wenn diese Frage bei den Netzwerken Priorität hat, wieso kommen diese dann so schlecht dagegen an?

Die Anbieter haben lange versucht, entsprechende Profile und Posts zu löschen. Aber die Extremisten sind so gut vernetzt, dass das zu langsam ist. Die Inhalte gehen trotzdem raus und verbreiten sich schnell. Löschen funktioniert nicht.

Ist es nicht dennoch wichtig, entsprechende Posts zu löschen – allein um den Opfern gerecht zu werden?

Ja, sie werden auch weiterhin gelöscht, aber es ist wenig effektiv.

Wenn der Mensch zu langsam ist: Wie steht es ums automatische Erkennen und Löschen entsprechender Posts und Profile mittels maschinellen Lernens?

Die Technik ist noch nicht weit genug. Wir haben noch keine Algorithmen, die Hass oder Propaganda zuverlässig erkennen. Deshalb trifft automatisches Löschen häufig die Falschen: die dagegen reden. Die Unternehmen setzen von daher verstärkt auf ihre Nutzer, entsprechende Accounts zu melden. Das klappt deutlich besser als die technische Lösung. Aber wie gesagt: auch nicht gut genug. Man kann eine Idee nicht löschen, indem man den Inhalt löscht.

Was ist Ihr Lösungsvorschlag?

Wir brauchen einen Wandel in der Gesellschaft. Wir sprechen viel zu wenig über solche Themen. Besser als Löschen ist aus unserer Sicht deshalb die Gegenrede. Wir müssen entsprechende Ansätze stärken. Das tun wir mit der Unterstützung von Google, Facebook, Youtube und Twitter. Ähnlich wie das im Kommerziellen mit Werbung geschieht, pushen wir die Inhalte gegen Radikalisierung.

Gegenrede als Werbeanzeige auf Facebook? Oder wie sieht das konkret aus?

Beispielsweise identifizieren wir dank des Trackings von Google Nutzer, die am Beginn einer Radikalisierung stehen anhand ihrer Suchbegriffe. Google kann mit zusätzlichen Daten aus öffentlichen Profile auch einschätzen, wie alt diese in etwa sind, welches Geschlecht sie haben, wo sie leben, was sie sonst so interessiert. Unsere Pilotstudien haben sich auf junge Männer aus dem UK und den USA konzentriert. Wenn solche dann auf Youtube nach einem Video des IS suchen, weil sie sich fragen, ob sie sich anschließen sollen, bekommen sie auf den vorderen Plätzen Filme gezeigt, die ihnen davon abraten.

Ist das nachhaltig? Wieso sollten sich die Nutzer von so einem Film angesprochen fühlen, wenn sie genau das Gegenteil suchen?

Weil er authentisch ist. Wir produzieren dafür keine eigenen Filme, wir suchen nach geeigneten Aktivisten und unterstützen diese. Beispielsweise gibt es Filme ehemaliger IS-Kämpfer, die davon abraten in den Krieg zu ziehen. Wir sorgen dafür, dass solche Filme besser gefunden werden und verpacken sie so, dass sie auf den ersten Blick in den Suchergebnissen aussehen wie ein IS-Video.

Ist das nicht Manipulation – wenn auch für einen guten Zweck?

Wir machen im Prinzip nicht viel anderes als Suchmaschinenoptimierung. Wir geben niemandem vor, was er sagen oder schreiben soll. Wir verändern auch die Filme der Gegen-Aktivisten nicht. Wir verkaufen sie nur besser auf Youtube, wir helfen guten Inhalten nach vorne.

Und bei Facebook?

Das ist ein wenig anders, denn es ist ein geschlossenes Netzwerk. Zu Beginn haben wir die Graph-Suche genutzt, mittels derer man sehr detailliert nach Nutzern und deren Interessen, Vorlieben und Aktivitäten suchen konnte.

Weshalb diese Suche von Datenschützern heftig kritisiert wurde...

...aber für unsere Zwecke war es gut. Damals gab es zudem die Möglichkeit, auch Nutzern eine Nachricht zu schicken, mit denen man nicht befreundet war – man musste dafür einen Dollar an Facebook bezahlen. Das nutzten wir, um identifizierte Nutzer anzusprechen: beispielsweise boten sich IS-Aussteiger für Gespräche an. Das gibt es leider nicht mehr in dieser Form – aber wir verhandeln gerade mit Facebook, ob sie diese Möglichkeit zumindest für solche Zwecke nicht wieder einführen wollen.

Dennoch: Sie spähen Nutzer aus mit Methoden, die in Europa häufig kritisiert werden. Ist das in diesem Fall ethisch in Ordnung?

Wir haben niemandes Privatsphäre verletzt. Alles was wir tun ist völlig legal. Und im kommerziellen Bereich werden ähnliche Methoden verwendet. Wir tun es für eine gute Sache.

Wie reagieren die Nutzer? Fühlen sie sich nicht ausgespäht, und könnte das dann nicht ins Gegenteil umschlagen?

Wir können natürlich schwer sagen, wie sie sich fühlen. Aber die große Mehrheit reagiert ausgesprochen positiv. In unserem ersten Experiment auf Facebook sprachen wir 160 Nutzer an, die das System aufgrund bestimmter Schlüsselwörter oder Bilder als Extremismus-gefährdet ansah. 60 Prozent reagierten in irgendeiner Form auf uns, viel mehr als wir gedacht hätten: manche änderten ihren Account, löschten beispielsweise provozierende Bilder – vielleicht auch, weil sie sich getrackt fühlten. Aber die große Mehrheit kam mit uns ins Gespräch.

Gibt es Zahlen, wie viele Sie damit vor einer Radikalisierung bewahrt haben?

Das ist natürlich schwer nachzuvollziehen. Wer am Ende dennoch vom IS angeworben wurde, das wissen wir nicht. Die Rekruter ziehen ihre Schützlinge schnell auf verschlüsselte Plattformen, um unbeobachtet agieren zu können. Das ist die dunkle Seite der Verschlüsselung.

Würde ein Verbot von Verschlüsselung oder eine Hintertür für Geheimdienste das Problem aus Ihrer Sicht lösen?

Ich fände es einerseits denkbar, denn dann kann zumindest nichts im Verborgenen stattfinden. In der Theorie stimme ich den Sicherheitsbehörden zu. Aber andererseits wird das praktisch nicht viel nutzen. Wir müssen die Leute vorher erreichen. Paris zeigte auch: Verschlüsselung spielte keine Rolle für die Täter. Sie kannten sich, sie trafen sich beim Bäcker und kommunizierten per sms. Unser Leben wir immer digitalisierter, da ist ein Interesse an Verschlüsselung völlig legitim. 99,9 Prozent der Nutzer, die Inhalte verschüsseln, gehören den Guten an. Am Ende geht es um einen Wettkampf der Ideen und nicht ums Aufrüsten in Sicherheitsfragen.