Meine Themengebiete

spektrum-navis-1.png

Spektrum.de/Spektrum der Wissenschaft, 6. September 2016 - pdf

Manche Forscher sind besorgt, dass die Nutzung von GPS & Co unser Gehirn verändert und wir unsere Orientierungsfähigkeit verlieren. Was ist dran?

Wer sich verfährt oder verläuft, muss nicht nur Umwege in Kauf nehmen. Im Extremfall kann er daran sterben. Das kommt in manchen Gegenden in der Tat immer häufiger vor, so dass diese Art zu sterben nun einen eigenen Namen bekommen hat: „Death by GPS“ nennen es die Ranger des Nationalparks Death Valley. Wer hier die Orientierung verliert und länger nicht gefunden wird, kann  wegen der großen Hitze schnell dehydrieren. Und das scheint im Zeitalter der Navigationsgeräte häufiger vorzukommen. Aus den USA erreichen uns immer wieder besonders krasse Geschichten von Menschen, die ihrem Navi gefolgt sind, auch wenn es Richtungen oder Straßen vorgeschlagen hat, die ganz offensichtlich falsch waren und sich damit in ersnthafte Gefahr begeben haben. Aber auch in Europa hört man immer wieder Geschichten von Menschen, die sehenden Auges beispielsweise in einen See fahren, weil ihr Navi behauptet, es handle sich um eine Straße oder andere, die alle Warnschilder auf unfertigen Brücken ignorieren und ins Meer stürzen – oder die schlicht zehn Stunden in die falsche Richtung fahren, bevor sie Verdacht schöpfen.

Machen Navis dumm? Die Frage mag provokativ sein, aber in der Tat mahnen Psychologen und Hirnforscher immer häufiger an, dass unser Gehirn auch Dinge verlernen kann (ohne dass wir dafür gleich in Gräben fahren müssen). Selbst der einstige Präsident des Royal Institutes of Navigation, das die Navigation technisch voranbringen will, Roger Mc Kinley warnte kürzlich in nature (http://www.nature.com/news/technology-use-or-lose-our-navigation-skills-1.19632) „Automatische Wegfindung untergräbt unsere natürlichen Fähigkeiten.“ Aber wie natürlich ist unser Orientierungssinn? Verlieren wir tatsächlich evolutionäre Fähigkeiten, weil wir Navis benutzen?

bildschirmfoto_2016-11-27_18-28-15.png

Blog über unser Datenjournalismus-Projekt Debate Explorer, August 2016

So gruselig der aktuelle Stuttgart-Tatort ist, in dem eine Künstliche Intelligenz unkontrollierbar wird, so sehr wünsche ich mir, wir hätten eine Maschine, die uns ein bisschen besser versteht! Wer mit Sprachdaten arbeitet und hofft, dass uns Journalisten die Automatisierung ein wenig Arbeit abnimmt, staunt nur ob der Ankündigung der ARD: „Der Tatort HAL spielt in der nahen Zukunft, die vielleicht schneller Gegenwart ist, als wir erwarten.“ Hach, wir arbeiten an dieser nahen Zukunft, die mir gerade doch wieder etwas weiter weg erscheint.

Zu gerne würde ich unserer Maschine zurufen: Versteh mich doch, es geht um Vorratsdatenspeicherung! Aber die Wortwolke in unserer Topicsuche, die mir helfen soll, ein Thema möglichst vollständig zu finden, ist ziemlich breit geworden: in ihrem Zentrum stehen nach wie vor Begriffe wie Datenschutz und Internet. Aber seit wir unsere Daten um Spiegel-Online-Artikel erweitert haben, bekomme ich eine breite Masse an Vorschlägen, die irgendwie auch in diesen Thementopf gehören aber mit Vorratsdatenspeicherung zu tun haben.

zeit_drohnen.png

Die ZEIT, 28. Juli 2016

Drohnenpiloten stoßen immer wieder auf harsche Ablehnung in der Öffentlichkeit. Die Regulierung ist unübersichtlich, uneinheitlich und bisweilen überraschend.

Sie treffen auf einem Feldweg aufeinander, der alte Mann mit dem Stock und der Schüler mit der Drohne: Ein weißer Quadrocopter des Marktführers DJI, kaum größer als ein Schuhkarton, eine Phantom 2, heute fast schon ein Oldtimer. Der Schüler hat dafür vor knapp drei Jahren mehr als 1000 Euro gezahlt und übt einen besonderen Flugmodus. „Da kommt der alte Mann auf mich zugehumpelt, schubst mich und schreit: Hol das Ding da sofort runter!“ Noch Wochen danach ist Robert die Empörung anzuhören. „Das darf der doch nicht, oder?“ fragt er. „Das darf ich doch, oder?“ Normalerweise hätte sich der 17-jährige Schüler an den Rechner gesetzt und Argumente gesammelt. Gegoogelt, was er als Drohnenpilot darf. Aber an diesem Thema ist er gescheitert. „Im Netz widersprechen sich alle.“ Deshalb hat sich der junge Mann mit den langen blonden Haaren von seinen Eltern heute von Karlsruhe nach Abtsteinach bei Mannheim fahren lassen zur „Grundlagenschulung Multikopter“.

Darf ich das? Bevor Robert seine Frage beantwortet bekommt, muss er sich durch Fachbegriffe, Luftfahrtkarten und Gesetzestexte wühlen. Der Kurs, das wird in den ersten Minuten klar, ist keiner, in dem junge Männer mit ihren neuesten Fluggeräten auf einer Wiese spielen und prahlen können. Das Luftverkehrsgesetz, die Regeln der internationalen Zivilluftfahrtorganisation, Sonderlufträume, Flugbeschränkungsgebiete, das Bundesdatenschutzgesetz und nicht zuletzt einen Flugwetterbericht – all das müssen Daniel Schmitts Schüler zu rate ziehen, um zu klären, ob Robert auf diesem Feldweg fliegen durfte. Den Kursteilnehmern fliegen die Fachbegriffe nur so um die Ohren. Im Bürokratendeutsch heißt Roberts Phantom „unbemanntes Luftfahrtsystem“ oder auch „Modellflugzeug“, und das wiederum hängt davon ab, was der junge Mann damit machen will. „Fliegen, schöne Bilder machen“, sagt der Schüler Schulter zuckend. Aber da fängt das Problem schon an: Ist „schöne Bilder machen“ noch ein privates Vergnügen oder macht sein Hobby Robert zum kommerziellen Piloten?

spektrum-predictive.png

spektrum.de/Spektrum der Wissenschaft, 28. Juni 2016 - pdf

Predictive Policing etabliert sich in Deutschland. Allerdings fehlen belastbare Studien, die den Erfolg der vorhersagenden Polizeiarbeit belegen. Während Kritiker fürchten, dass zu viele Daten verwendet werden könnten, zeigen erste Erfahrungen: zu viele Daten verschlechtern die Vorhersage.

Das Polizeiauto parkt vor der Haustür eines Mehrfamilienhauses, der Beamte steigt aus und steht unschlüssig auf der Straße. Etwas ratlos schaut er über den Gartenzaun, schiebt einen Busch beiseite, lugt dahinter und reckt seinen Hals, um über den Fahrradschuppen hinwegsehen zu können. „Was machst du da?“, fragen ihn schließlich Kinder, die auf der Straße spielen. „Ein Computerprogramm hat vorhergesagt, dass hier in der Nähe bald eingebrochen werden könnte“, sagt der Beamte und zuckt ratlos mit den Schultern. „Natürlich nicht genau in Ihrem Haus“, ergänzt er, als er die erschrockenen Blicke der umstehenden Mütter sieht. Mit 70 prozentiger Wahrscheinlichkeit würden die Einbrecher aber in den nächsten Tagen in diesem Wohnviertel zuschlagen. Da zucken auch die Mütter mit den Schultern: Ja, dass hier viel eingebrochen wird, das wussten sie schon. Braucht man dafür einen Computer?

Szenen wie diese kürzlich in Stuttgart beobachtete dürften sich derzeit gehäuft in deutschen Wohngebieten abspielen. In verschiedenen Bundesländern, unter anderem Baden-Württemberg und Bayern gibt es Pilotversuche mit Predictive Policing, vorhersagender Polizeiarbeit, andere Bundesländer wie Brandenburg prüfen den Einsatz gerade. Der Computer soll dabei die Erfahrung langjähriger Polizisten ersetzen und erweitern, die im Laufe ihrer Laufbahn ein „Bauchgefühl“ dafür entwickeln, wo oft zugeschlagen wird, manche nennen es auch Intuition.

spektrum_ki-1.png

spektrum.de, 3. Mai 2016 - Link

Der Sieg einer Googlesoftware über den Weltmeister im Brettspiel Go hat der Technologie der künstlichen Intelligenz gesellschaftlichen Auftrieb verschafft. Die Mühen der Ebene zeigen aber, dass die Algorithmen des maschinellen Lernens allerlei Fallen bergen – auch für ihre Entwickler.

Die Bank verweigert einen Kredit trotz bester Bonität, Amazon schlägt beharrlich Bücher vor, die man nie lesen würde, und der Ganzkörperscanner am Flughafen findet irgendetwas auffällig am eigenen Körper: das kann zwar keiner der freundlichen Beamten erklären, es zieht aber eine aufwendige Sicherheitskontrolle und einen Sprint zum Gate nach sich: Die Auswirkungen maschinellen Lernens kennt jeder aus dem Alltag- auch wenn die wenigsten wissen, dass dahinter Künstliche-Intelligenz-Algorithmen liegen. Im Unterschied zum Brettspiel Go, wo jeder sehen kann, wer gewonnen hat, sind die meisten anderen Anwendungsgebiete weniger transparent: liegt der Schufa-Algorithmus falsch oder ist der Betroffene wirklich nicht kreditwürdig?

Je weitreichender die Einsatzgebiete solcher Algorithmen sind, umso gefährlicher sind  mögliche Fehlschlüsse oder Ungenauigkeiten solcher Systeme: Das kann jeder sofort nachvollziehen wenn es beispielsweise ums autonome Fahren oder um die Steuerung automatischer Waffensysteme geht. Experten glauben nicht daran, dass diese Fehler gänzlich auszumerzen sind. Sie liegen im System – und in der Anwendung: denn es ist längst kein Allgemeingut unter Informatikern, welcher Algorithmus für welche Anwendung geeignet ist. Dazu kommen Annahmen, die im Vorfeld getroffen werden müssen, und bei vielen Algorithmen die Unmöglichkeit, das Ergebnis auf die Richtigkeit oder statistische Relevanz hin zu überprüfen.