Wissenschaftsreportage Technik Eva Wolfangel

Wissenschaftsreportage / Technik

Wissenschafts- und Technikthemen mit der kreativen Stilform der Reportage zu verbinden, das ist meine Leidenschaft. So wird für die Leserinnen und Leser fühlbar, wie unsere Zukunft aussieht. Einige meiner großen Technik-Reportagen haben schon öffentliche Diskussionen in Gang gesetzt über die Frage, wie wir in Zukunft leben wollen.

spektrum-predictive.png

spektrum.de/Spektrum der Wissenschaft, 28. Juni 2016 - pdf

Predictive Policing etabliert sich in Deutschland. Allerdings fehlen belastbare Studien, die den Erfolg der vorhersagenden Polizeiarbeit belegen. Während Kritiker fürchten, dass zu viele Daten verwendet werden könnten, zeigen erste Erfahrungen: zu viele Daten verschlechtern die Vorhersage.

Das Polizeiauto parkt vor der Haustür eines Mehrfamilienhauses, der Beamte steigt aus und steht unschlüssig auf der Straße. Etwas ratlos schaut er über den Gartenzaun, schiebt einen Busch beiseite, lugt dahinter und reckt seinen Hals, um über den Fahrradschuppen hinwegsehen zu können. „Was machst du da?“, fragen ihn schließlich Kinder, die auf der Straße spielen. „Ein Computerprogramm hat vorhergesagt, dass hier in der Nähe bald eingebrochen werden könnte“, sagt der Beamte und zuckt ratlos mit den Schultern. „Natürlich nicht genau in Ihrem Haus“, ergänzt er, als er die erschrockenen Blicke der umstehenden Mütter sieht. Mit 70 prozentiger Wahrscheinlichkeit würden die Einbrecher aber in den nächsten Tagen in diesem Wohnviertel zuschlagen. Da zucken auch die Mütter mit den Schultern: Ja, dass hier viel eingebrochen wird, das wussten sie schon. Braucht man dafür einen Computer?

Szenen wie diese kürzlich in Stuttgart beobachtete dürften sich derzeit gehäuft in deutschen Wohngebieten abspielen. In verschiedenen Bundesländern, unter anderem Baden-Württemberg und Bayern gibt es Pilotversuche mit Predictive Policing, vorhersagender Polizeiarbeit, andere Bundesländer wie Brandenburg prüfen den Einsatz gerade. Der Computer soll dabei die Erfahrung langjähriger Polizisten ersetzen und erweitern, die im Laufe ihrer Laufbahn ein „Bauchgefühl“ dafür entwickeln, wo oft zugeschlagen wird, manche nennen es auch Intuition.

spektrum_ki-1.png

spektrum.de, 3. Mai 2016 - Link

Der Sieg einer Googlesoftware über den Weltmeister im Brettspiel Go hat der Technologie der künstlichen Intelligenz gesellschaftlichen Auftrieb verschafft. Die Mühen der Ebene zeigen aber, dass die Algorithmen des maschinellen Lernens allerlei Fallen bergen – auch für ihre Entwickler.

Die Bank verweigert einen Kredit trotz bester Bonität, Amazon schlägt beharrlich Bücher vor, die man nie lesen würde, und der Ganzkörperscanner am Flughafen findet irgendetwas auffällig am eigenen Körper: das kann zwar keiner der freundlichen Beamten erklären, es zieht aber eine aufwendige Sicherheitskontrolle und einen Sprint zum Gate nach sich: Die Auswirkungen maschinellen Lernens kennt jeder aus dem Alltag- auch wenn die wenigsten wissen, dass dahinter Künstliche-Intelligenz-Algorithmen liegen. Im Unterschied zum Brettspiel Go, wo jeder sehen kann, wer gewonnen hat, sind die meisten anderen Anwendungsgebiete weniger transparent: liegt der Schufa-Algorithmus falsch oder ist der Betroffene wirklich nicht kreditwürdig?

Je weitreichender die Einsatzgebiete solcher Algorithmen sind, umso gefährlicher sind  mögliche Fehlschlüsse oder Ungenauigkeiten solcher Systeme: Das kann jeder sofort nachvollziehen wenn es beispielsweise ums autonome Fahren oder um die Steuerung automatischer Waffensysteme geht. Experten glauben nicht daran, dass diese Fehler gänzlich auszumerzen sind. Sie liegen im System – und in der Anwendung: denn es ist längst kein Allgemeingut unter Informatikern, welcher Algorithmus für welche Anwendung geeignet ist. Dazu kommen Annahmen, die im Vorfeld getroffen werden müssen, und bei vielen Algorithmen die Unmöglichkeit, das Ergebnis auf die Richtigkeit oder statistische Relevanz hin zu überprüfen.

zeit.png

DIE ZEIT, 21. Januar 2016

Lässt sich alles, was wir erleben, digital speichern? Informatiker arbeiten daran. Wie ich Teil eines Experiments wurde.

Der Cyborg, der mir im Frühling 2013 in einem Stuttgarter Cafe gegenüber sitzt, sieht aus wie ein ganz normaler Mitvierziger mit leichten Geheimratsecken, in Hemd und Jeans. Nur sein türkiser Brillenbügel ist auffällig breit. Am vorderen Ende ist eine kleine Kamera eingearbeitet und ein Prisma. Seine rechte Hand steckt in der Hosentasche.

Thad Starner ist nicht allein. Er hat sein »System« bei sich. Das erkennt man an seiner Googlebrille und einer nahezu unsichtbaren rechteckigen Spiegelung auf seiner Netzhaut. In seiner Hosentasche hat er eine Fünffinger-Tastatur. Starner ist Informatikprofessor am Georgia Institute of Technology und ein Pionier der Erforschung anziehbarer Computer (wearable computing). Fast sein halbes Leben lang, seit mehr als 20 Jahren, trägt er wechselnde Versionen eines Prototypen am Körper. Er sieht sein »System« als Erweiterung seines Gehirns.

spektrum_krypto.png

spektrum.de/Spektrum der Wissenschaft, 28. April 2016 - Link

Seit dem iPhone-Hack durch das FBI und der Einführung der Ende-zu-Ende-Verschlüsselung von Whatsapp fragen sich viele, wie sicher Verschlüsselung ist und wie sie überhaupt funktioniert. Hier die zehn wichtigsten Fakten zum Thema – und ein kleines Rätsel, das einiges verdeutlicht.

amanullah.png

Technology Review 02/16, Februar 2016

Politiker fordern Propagandamaterial von Terrororganisationen wie dem IS im Internet zu löschen. Sinnlos, sagt Zahed Amanullah vom Institute for Strategic Dialogue in London. Er setzt auf das Datenwissen von Google und Facebook, um dem Radikalismus Einhalt zu gebieten.

Herr Amanullah, Sie arbeiten mit Google, Facebook und Twitter zusammen, um Hasskommentare und Propaganda auf diesen Netzwerken einzudämmen. Dabei beeinflussen Sie die Inhalte, die Nutzer zu sehen bekommen. Wie haben Sie die Unternehmen dazu gebracht, mit Ihnen zusammen zu arbeiten?

Das war leicht. Wir haben ihnen in einer ersten Studie vor Augen geführt, wie sehr beispiesweise der IS ihre Netzwerke zur Propaganda benutzt, wie dort neue Terroristen rekrutiert werden. Sie waren sehr betroffen - und sehr offen für die Zusammenarbeit. Die Macher von Facebook und Co wollen schließlich, dass ihre Plattformen für Gutes genutzt werden.

Wenn diese Frage bei den Netzwerken Priorität hat, wieso kommen diese dann so schlecht dagegen an?

Die Anbieter haben lange versucht, entsprechende Profile und Posts zu löschen. Aber die Extremisten sind so gut vernetzt, dass das zu langsam ist. Die Inhalte gehen trotzdem raus und verbreiten sich schnell. Löschen funktioniert nicht.