spektrum.de/Spektrum der Wissenschaft, 28. Juni 2016 - pdf
Predictive Policing etabliert sich in Deutschland. Allerdings fehlen belastbare Studien, die den Erfolg der vorhersagenden Polizeiarbeit belegen. Während Kritiker fürchten, dass zu viele Daten verwendet werden könnten, zeigen erste Erfahrungen: zu viele Daten verschlechtern die Vorhersage.
Das Polizeiauto parkt vor der Haustür eines Mehrfamilienhauses, der Beamte steigt aus und steht unschlüssig auf der Straße. Etwas ratlos schaut er über den Gartenzaun, schiebt einen Busch beiseite, lugt dahinter und reckt seinen Hals, um über den Fahrradschuppen hinwegsehen zu können. „Was machst du da?“, fragen ihn schließlich Kinder, die auf der Straße spielen. „Ein Computerprogramm hat vorhergesagt, dass hier in der Nähe bald eingebrochen werden könnte“, sagt der Beamte und zuckt ratlos mit den Schultern. „Natürlich nicht genau in Ihrem Haus“, ergänzt er, als er die erschrockenen Blicke der umstehenden Mütter sieht. Mit 70 prozentiger Wahrscheinlichkeit würden die Einbrecher aber in den nächsten Tagen in diesem Wohnviertel zuschlagen. Da zucken auch die Mütter mit den Schultern: Ja, dass hier viel eingebrochen wird, das wussten sie schon. Braucht man dafür einen Computer?
Szenen wie diese kürzlich in Stuttgart beobachtete dürften sich derzeit gehäuft in deutschen Wohngebieten abspielen. In verschiedenen Bundesländern, unter anderem Baden-Württemberg und Bayern gibt es Pilotversuche mit Predictive Policing, vorhersagender Polizeiarbeit, andere Bundesländer wie Brandenburg prüfen den Einsatz gerade. Der Computer soll dabei die Erfahrung langjähriger Polizisten ersetzen und erweitern, die im Laufe ihrer Laufbahn ein „Bauchgefühl“ dafür entwickeln, wo oft zugeschlagen wird, manche nennen es auch Intuition.
Die meisten Bundesländer nutzen die deutsche Software Precobs, die ein Familienunternehmen in Oberhausen entwickelt hat: das Institut für musterbasierte Prognosetechnik IfmPt. Diese basiert auf der Annahme, dass professionelle Täter nach bestimmten Mustern vorgehen. Sie handeln planvoll, bevorzugen Gebiete, in denen sie nicht auffallen und die gute Fluchtmöglichkeiten bieten, sie haben es auf ganz bestimmte Beute abgesehen – und kommen wieder, wenn sie erfolgreich waren. „Near repeat“ heißt das in der Fachsprache: ein Täter sucht den Tatort ein zweites Mal auf. Diese Folgedelikte sagt der Computer voraus. Ist er sich zu 70 oder 80 Prozent sicher, schlägt das System Alarm – und die zuständigen Behörden entscheiden, ob sie eine Streife vorbeischicken.
Medien berichten allerdings immer wieder von Fällen, in denen eine solche Software angeschlagen hat, Polizisten vor Ort verstärkt Streife fuhren – und trotzdem eingebrochen wurde. Das mögen Einzelfälle sein, doch die Frage, ob die Einbrüche durch solche Maßnahmen generell zurückgehen, lässt sich kaum seriös beurteilen. Auch wenn die Anbieter entsprechender Programme mit teils beeindruckenden Zahlen werben, fehlt dafür die Datengrundlage: noch werden die Systeme viel zu kurz eingesetzt. Die Anbieter lassen ihre Software über Daten der Vergangenheit laufen und schauen so, wie viele der tatsächlich erfolgten Einbrüche sie vorhergesagt hätte. Das sagt aber nichts über die Gegenwart aus. Immer wieder hört man von Gebieten, in denen die Einbrüche rückläufig seien – und im Jahr darauf steigen sie wieder. „Das ist das absurde an der ganzen Geschichte“, sagt Michael Schweer vom IfmPt, „das Nicht-Eintreten des Folgedeliktes ist unser Erfolg, lässt sich aber durch das Nicht-Eintreten nicht nachweisen.“ Dennoch ist Schweer überzeugt, dass Precobs funktioniert: „Wir sind jetzt an sieben Standorten, und an allen liegen die Einbrüche signifikant unter den Vergleichswerten. Es wäre doch komisch zu sagen: das hat nichts mit dem System zu tun.“
Eine Momentaufnahme liefert der Bericht des Analysechefs der Züricher Polizei Dominik Balogh im Magazin „Kriminalistik“ (5/2016). Im Winterhalbjahr 2013/14, in dem Precobs erstmals dort eingesetzt wurde, habe es 146 Alarme gegeben, von denen die zuständige Polizeileitung 92 verfolgte. „In 87,3 Prozent der Fälle kam es zu mindestens einem Folgedelikt innerhalb von 144 Stunden und 400 Metern Radius.“ In jenem Winter sei die Einbruchsstatistik prompt auf ein Fünfjahrestief gesunken. „Ob und in welchem Umfang das Programm tatsächlich zu diesem Resultat beigetragen hat, ist nicht hieb- und stichfest zu beweisen“, gibt Balogh allerdings zu.
Wieso es so wenig evaluierte Ergebnisse von Predictive Policing gibt, wundert den Nordrhein-Westfälischen Landeskriminaldirektor Dieter Schürmann: „Die Idee ist ja nicht neu.“ In den USA werde schon länger mit entsprechenden Mustererkennungs-Algorithmen gearbeitet. „Die Amerikaner berichten von 25 bis 30 Prozent rückgängiger Kriminalität – aber wenn man genauer nachfragt, gibt es keine wissenschaftlich belastbaren Erkenntnisse.“ Seine Behörde hat ein eigenes System namens Skala (System zur Kriminalitätsanalyse und Lageantizipation) entwickelt. Idealerweise solle dieses System nicht nur Einbrüche vorhersagen. „Wir haben Algorithmen aus unseren Erfahrungen formuliert“, erklärt er. Dabei werde das Landeskriminalamt NRW auch von Wissenschaftlern unterstützt, die in anderen Zusammenhängen mit der Analyse von Massendaten Erfahrungen gesammelt haben. „Menschliches Handeln wird von einer Vielzahl von komplexen Mustern bestimmt“, sagt er. Das Zurückkehren zum Ort erfolgreicher Taten sei dabei nur ein Aspekt. Der Ansatz von Precobs geht ihm daher nicht weit genug. „Wenn ich zumindest von 50 Prozent reisender Straftäter ausgehe, werden sich near-repeats möglicherweise schnell verlaufen.“ Allerdings gibt er zu, nicht genau zu wissen, wie die Oberhausener arbeiten: „Deren System ist geschlossen, sie lassen sich die Daten anliefern. Für uns ist das eine Blackbox.“
Schürmanns Kollegen experimentieren derzeit mit verschiedenen Daten unter anderem aus der Konsumforschung: Wo wohnen Pendler? Die polizeiliche Intuition sagt ihm, dass dort öfter eingebrochen werden müsste. Allerdings erleben die Polizisten immer wieder Überraschungen: „Wir denken, bestimmte Daten müssten Treiber sein, das sind sie dann aber nicht.“ Genaueres möchte er derzeit nicht verraten, da die Evaluierung noch läuft. Und auch die erfolgreichen Vorhersagen scheinen nicht immer zur polizeilichen Intuition zu passen: „Manchmal ertappen wir jemanden auf frischer Tat, und die Beamten sagen hinterher: das hätte mir mein Bauchgefühl nicht gesagt, da wäre ich nicht hingefahren.“ Revolutioniert der Computer die Polizeiarbeit? „Ich schwimme nicht auf einer Erfolgswelle“, sagt Schürmann, obgleich er optimistisch sei. Die Polizeiarbeit werde wohl verbessert: In Duisburg und Köln – die beiden Städte, die für die Evaluierung verglichen werden – habe es in der Tat erheblich weniger Einbrüche gegeben, in Köln mehr als 20 Prozent weniger. „Das kann aber auch Zufall sein. Wer kann das zweifelsfrei belegen?“
Schürmann überlegt derzeit, welche Daten noch interessant wären für die Verbrechensvorhersage. Aber er ist mit entsprechenden Aussagen vorsichtig geworden: „Die Medien kommen dann immer gleich mit dem Minority-Report“, klagt er. Dabei gehe es ja nicht darum, das Verhalten einzelner Menschen vorherzusagen oder diese gar aufgrund eines reinen Verdachts festzunehmen. „Was ist denn so kritisch daran, wenn sich die Polizei in einer digitalisierten Gesellschaft solcher Instrumente bedient?“ Zudem sorge der deutsche Datenschutz schon dafür, dass keine kritischen Verhältnisse eintreten. Aber als er vor einiger Zeit öffentlich überlegte, dass die Herkunft von GSM-Karten in Echtzeit ein guter Prediktor für die Straftaten reisender Täter sein könne – „da haben alle gleich den Orwell aus der Tasche gezogen.“ Um „vor die Lage“ zu kommen, wie es im Polizeideutsch heißt, also vor dem Einbrecher am Ort zu sein, wären einige Echtzeit-Daten dennoch gut, mutmaßt Schürmann: „Rechtlich unbedenklich könnte man für einen Bezirk den aktuellen Wasserverbrauch und den Stromverbrauch anzeigen lassen.“ Das würde wiederum darauf verweisen, wo gerade wenige Zuhause sind. Kriminelle finden das durch Beobachtung heraus – „aber wir können ja nicht vor jeder Haustür stehen.“
Der LKA-Chef kann Kritiker gut verstehen: „Manche sagen, wir sollten das Risiko, Opfer einer Straftat zu werden, in Kauf nehmen, um nicht Opfer einer Datenkrake zu werden. Solche Aussagen darf man nicht auf die leichte Schulter nehmen.“
Aber das scheint vorallem eine deutsche Sorge zu sein, wie Hans Faller (Name geändert: Herr Faller möchte nicht unter seinem richtigen Namen zitiert werden – dieser ist der Redaktion aber bekannt), Berater bei einem Technikdienstleister, bestätigt: „Die deutschen Regelungen sind da eher streng, da haben alle Angst vor dem foucaultschen Panoptikum.“ Er arbeitet vor allem in Projekten im Ausland. „Engländer und Amerikaner sind da lockerer.“ In einem Pilotprojekt in einer europäischen Großstadt hat er geholfen, die zentralen Täter aus 3000 Gangmitgliedern, die dort für 40 Prozent aller Straftaten verantwortlich sind, zu identifizieren. „Mittels unseres Ansatzes wurden so 300 Tophochrisiko-Individuen identifiziert, die in den nächsten zwei Wochen Straftaten verüben würden.“ Eine Analyse anhand historischer Daten zeigte: Die Polizei hatte einige übersehen. Sechs Personen, die der Computer aus diesen 300 identifiziert hatte, standen nicht unter polizeilicher Überwachung. Fünf von ihnen wurden in der Tat straffällig.
In das System flossen nur polizeiliche Vorgangsdaten ein. „Der nächste Ausbauschritt wären soziale Netzwerke“, sagt Faller. Daraus könne man unter anderem Netzwerke ableiten und sehen, welche Personen sich gerade radikalisierten. „Dann wäre Predictive Policing auch für den Terrorismus interessant.“ So ganz versteht er die deutsche Sorge nicht. „Unternehmen machen predictive analytics massiv, schon seit Jahren.“ Die wenigsten Menschen sorgten sich davor, was Facebook alles über sie wisse, um passgenaue Werbung anzubieten. „Technologisch gibt es keine Grenzen“, sagt Faller, „die Grenzen sind gesellschaftlicher Natur: was will man zulassen für mehr Sicherheit?“
Kritiker warnen allerdings davor, persönliche Daten in solche Algorithmen einfließen zu lassen oder gar Täterprofile zu erstellen. Wie schnell die musterbasierte Verdachtserhebung nach hinten losgehen kann, zeigen aktuelle Vorfälle in den USA. Dort wird die Wahrscheinlichkeit, nach der ein Straftäter rückfällig wird, per Computer berechnet. Das Ergebnis wirkt sich auf dessen Haftzeit aus. Eine große Recherche des investigativen Journalistenbüros propublica ergab kürzlich, dass der dahinterliegende Algorithmus Schwarze systematisch benachteiligt. (https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing) Ein Fehler im System? Die Verantwortlichen blieben in der Folge erschreckend sprachlos – offenbar hatte das selbstlernende System eigene Schlüsse gezogen, die nun kaum zu überprüfen sind. Ein Problem übrigens, vor dem Forscher immer wieder gewarnt hatten und weshalb manche fordern, Algorithmen keine Entscheidungen über Menschen treffen zu lassen, anhand derer diese Nachteile erleiden. (http://www.spektrum.de/news/wie-sichern-wir-unsere-unberechenbarkeit/1368439)
Vor diesem Hintergrund erscheint es bedenklich, dass das IfmPt in Baden-Württemberg erstmals testet, ob Informationen über den Ausländeranteil eines Wohnviertels Precobs noch verbessern. „Wir geben sozio-ökonomische Daten hinzu“, sagt Precobs-Mitgründer Michael Schweer: Informationen über gut betuchte Wohngegenden oder eben Bezirke mit vielen Ausländern. Er beteuert, dass eine Diskriminierung Einzelner oder von Gruppen durch sein System ausgeschlossen ist. „Wir verwenden keine personenbezogenen Daten.“ Auch Datenschützer geben Entwarnung: „Das Analysesystem ist in der aktuellen Ausgestaltung datenschutzrechtlich nicht zu beanstanden“, so der Bayerische Landesbeautragte für den Datenschutz Thomas Petri nach seiner Prüfung (allerdings vor der sozioökonomischen Erweiterung). Wichtig sei neben dem Verzicht auf personenbezogene Daten, dass ein Mensch und nicht die Software das letzte Wort habe, wenn es um konkrete Einsätze gehe.
Schweer gibt zu, dass es natürlich geschehen könne, dass in den verstärkt durch Streifenpolizisten besuchten Gebieten mehr Ausländer kontrolliert werden. „Aber diese Vorurteile stecken im Kopf der Polizisten, nicht in der Software.“ Dass dennoch immer wieder Fälle auftreten, in denen entsprechende Mustererkennungsalgorithmen beispielsweise Dunkelhäutige diskriminieren, ärgert ihn. „Das darf nicht passieren.“ Bewusst sei Precobs kein selbstlernendes System, keine künstliche Intelligenz, die ihre eigenen Schlüsse zieht, sondern werde ausschließlich von Menschen erweitert. „Wir wollen vermeiden, dass sich Fehler einschleichen. Selbstlernende Systeme fallen gerne auf Scheinkorrelationen herein.“
Während Berater Hans Faller und Polizei-Chef Dieter Schürmann überlegen, welche Daten man noch nutzen könnte, rät Schweer zu Genügsamkeit: Mehr sei hier nicht unbedingt sinnvoll. „Oft verschlechtert sich die Prognose dadurch sogar“, sagt er. Zehn Jahre lange haben die Forscher der Instituts ausgeknobelt, welche Daten zu einem guten Ergebnis führen. Sie landeten bei denkbar wenigen: Tatort und -zeit, Beute und Vorgehensweise. Aber auch diese Eingabedaten wollen gepflegt werden. „Man muss sie säubern.“ Schließlich dürfen nur jene Taten in die Vorhersage einfließen, die auf professionelle Täter zurückzuführen sind. Nur sie handeln planvoll und erzeugen damit die entsprechenden Muster, nach denen die Software sucht. „Beschaffungskriminelle hingegen schlagen beliebig zu, wenn sie etwas brauchen.“ Gelangen zu viele solcher Daten ins System, verwässert das die Vorhersage. Deshalb glaubt er nicht an die Eigenentwicklung aus NRW. „Deren System basiert auf einer IBM-Software, die nicht speziell für Predictive Policing entwickelt wurde - der Markt ist dafür viel zu klein.“ Wenn die Polizei ihre Fälle in ein solches Tool manuell einpflege, dauere das nicht nur lange, auch sei die Gefahr groß, dass zu viele Daten genutzt würden, die zu einer ungenauen Vorhersage führen. „Dann schlägt das System vielleicht bei 23 Gebieten Alarm mit 30-prozentiger Zuverlässigkeit“, sagt Schweer. Natürlich könne man die alle überprüfen, eventuell mit dem gleichen Erfolg. Aber wer soll das tun? „Das Ziel ist doch, weniger Personal sinnvoller einsetzen zu können.“ Precobs hingegen gebe zwei bis fünf Mal am Tag Alarm mit einer Wahrscheinlichkeit von 80 Prozent. „Das können die verfügbaren operativen Kräfte auch überprüfen.“
Allzu groß muss die Angst vor Überwachung aktuell noch nicht sein: wer genauer nachfragt erfährt, dass die Polizei in den meisten Fällen schon mit ihren eigenen Daten zu kämpfen hat. „Wir wissen nicht, was wir wissen“, gibt Schürmann zu: allein die verschiedenen Register zusammen zu führen, in denen Beamte über Jahre hinweg auf unterschiedlichste Weise Informationen über Taten notiert haben, ist eine Herausforderung. Und danach sind sie noch lange nicht sauber, erklärt Hans Faller: bei der Polizei in der erwähnten europäische Großsstadt haben er und seine Mitarbeiter geholfen, sieben verschiedene Register zu vereinen. Danach waren 19 Millionen Kriminelle im System. Scheinbar: denn viele waren doppelt vorhanden, weil ihre Namen teils falsch geschrieben wurden. „In Wirklichkeit waren es nur 12 Millionen.“ Schon der Weg zu dieser Erkenntnis war weit.