Meine Themengebiete
- Details
- Thema: Datenjournalismus
Jetzt will ich es wissen! Wir sitzen im Besprechungsraum am Institut für Maschinelle Sprachverarbeitung und schauen gebannt auf die Leinwand, auf der Textwolken auftauchen. Wir: Stern-Investigativ-Reporter Rainer Nübel, die Computerlinguisten Andre Blessing und Jonas Kuhn und ich. Werden diese Wolken uns helfen können, Lobbyisten zu enttarnen?
Seit Jahren schreibe ich über Automatisierung, darüber, wie Maschinen uns Arbeit abnehmen können, über künstliche Intelligenz, lernende Algorithmen - und wie diese zu guten und richtigen Ergebnisse kommen, die uns weiter bringen. Eines hat sich durch viele Recherchen durchgezogen: die Erkenntnis, dass die Kombination aus Mensch und Maschine ein Erfolgsmodell ist: Maschinen sind gut darin, Muster in großen Datenmengen zu erkennen. Menschen sind gut darin zu erkennen, ob es sich um sinnvolle Muster handelt und können den Maschinen mit einigen wenigen Regeln die richtige Richtung weisen. Mit unserem Datenjournalismus-Projekt Debate Explorer habe ich erstmals die Möglichkeit, das in der Praxis zu verfolgen, worüber ich bisher nur aus der externen Perspektive geschrieben habe: selbst eine künstliche Intelligenz mit zu trainieren, die uns Journalisten in Zukunft die Fleißarbeit abnehmen könnte.
- Details
- Thema: Datenjournalismus
Im April 2015 bin ich auf einem Vortrag von Jonas Kuhn, Professor für Computerlinguistik an der Uni Stuttgart, über die automatische Analyse großer Textmengen. Er zeigt an beeindruckenden und einleuchtenden Beispielen, dass jene Algorithmen erfolgreich sind, die teilweise regelbasiert und teilweise selbst lernend nach Mustern suchen. Wenn Maschinen Sprache rein nach statistischen Verfahren lernen, kommen sie zwar recht weit, aber irgendwann stoßen sie an ihre Grenzen: So wird der englische Satz „Producing fluent German tends to be quite hard.“ (Es scheint schwierig zu sein, fließendes Deutsch zu erzeugen) bei Googletranslate zu dieser Zeit beispielsweise übersetzt mit „Herstellung fließend Deutsch neigt dazu, ziemlich hart.“ Also ziemlicher Buchstabenmüll.
Wenn Menschen hingegen ein paar Regeln hinzugeben, sind die Maschinen erfolgreicher, erklärt Jonas Kuhn auf seinem Vortrag. Die Herausforderung ist, die richtige Mischung herauszufinden: Die Maschine nicht zu sehr einzuschränken, aber ihr auch nicht zu große Freiheiten zu lassen, die sie auf die falsche Spur führt. Nach dem Vortrag frage ich Jonas Kuhn, ob wir nicht ein gemeinsames Projekt starten könnten: schon lange frage ich mich, inwiefern Lobbyisten Politiker beeinflussen.
- Details
- Thema: Datenjournalismus
- Details
- Thema: Wissenschaftsreportage / Technik
spektrum.de/Spektrum der Wissenschaft, 27. Oktober 2015 - Link
Michael Resch leitet seit 2003 das Höchstleistungsrechenzentrum Stuttgart, dessen aktueller Supercomputer zu den 20 schnellsten der Welt zählt. Vom gegenseitigen Aufrüsten hält der Herrscher über eines der schnellsten zivilen Rechensysteme Europas allerdings nichts. Im Interview warnt er außerdem vor dem Nimbus des Computer als unfehlbares Werkzeug.
Herr Resch, die USA und China wetteifern um den schnellsten Computer der Welt. Aktuell hat China die Nase vorn, aber vor wenigen Wochen haben die USA angekündigt, einen Supercomputer zu entwickeln, der einen Exaflop an Rechenoperationen pro Sekunde schafft, also eine Trillion Kalkulationen. Reizt es Sie nicht, bei diesem Wettkampf mitzumischen?
Miachel Resch: Nein, das reizt mich in der Tat kein bisschen. Wir haben völlig andere Voraussetzungen: China und die USA entwickeln mit ihren Supercomputern Atomwaffen, wir fördern die Wissenschaft und die deutsche Industrie. Wir stehen aktuell mit unseren 3,8 Petaflop gut da. Außerdem geht es mir nicht um einen kindischen Wettkampf, sondern darum, die passende Technik für unsere Anwendungen anzuschaffen.
- Details
- Thema: Wissenschaftsreportage / Technik
Technology Review 10/2015
Lange Zeit galten Sicherheit und Nutzbarkeit unter Informatikern als unvereinbar. Dabei muss man nur den Menschen und seine Stärken ernst nehmen.
Mantra eines Informatikers: „Lieber Nutzer, bitte verwende ein möglichst komplexes Passwort aus Buchstaben, Zahlen und Sonderzeichen, und nutze keinesfalls das Gleiche für verschiedene Dienste!“ Lieblingsreaktion des Durchschnitt-Nutzers: „Ok, dann nehme ich 123mail für den Mailaccount und 123ebay für Ebay, 123amazon für Amazon.“ Kein Wunder, dass manch ein Informatiker kapituliert. Aber das ist falsch, findet Emanuel von Zezschwitz von der Ludwig-Maximilians-Universität München: „Man könnte sagen: die Leute brauchen keine Sicherheit, wenn sie keine wollen, aber damit dürfen wir uns nicht zufrieden geben.“ Das Problem liegt woanders, ergänzt Albrecht Schmidt vom Lehrstuhl für Mensch-Computer-Interaktion der Universität Stuttgart: „Sicherheit wurde lange von Leuten entwickelt, die nur die mathematische Seite gesehen haben.“ Nur kann sich kaum jemand komplexe Passwörter merken: „Mit dem Menschen im System gibt es keine absolute Sicherheit.“ Wer die menschlichen Fähigkeiten mitdenkt, kann die Sicherheit enorm erhöhen, betont Matthew Smith, Leiter der Arbeitsgruppe Usable Security and Privacy an der Uni Bonn: „80 Prozent gelebte Sicherheit sind besser als 100 Prozent Sicherheit, die keiner nutzt.“