Meine Themengebiete

bildschirmfoto_2017-04-17_21-01-56.png

Spektrum.de/Spektrum der Wissenschaft, 17. Januar 2017 - Link

Aktuelle Aktivitäten gegen Fakenews konzentrieren sich vorallem darauf, unseriöse Quellen automatisch zu erkennen. Aber können Algorithmen Falschmeldungen an sich identifizieren? Es schien zeitweise so, als habe die Wissenschaft das schon zu den Akten gelegt. Aber eine Wette und ein Streit unter Forschern gibt neue Hoffnung.

Ende 2016 ächzte die Welt unter dem Problem der Fakenews – und 2017 wird das Problem aller Voraussicht nach nicht kleiner. Angesichts des anstehenden Bundestagswahlkampfs könnte es in Deutschland gar eine größere Dimension bekommen. Da ist eine Hoffnung nicht unberechtigt: Wie schön wäre es, wenn Computer die Welt von Falschmeldungen befreien könnten! Schließlich haben die Algorithmen unter anderem von Facebook Fakenews erst groß werden lassen. Doch während manche daran arbeiten, seriöse Quellen von unseriösen maschinell zu unterscheiden, warnen andere: das ist zu spät, so werden wir dem Phänomen nicht Herr. „Das Problem an seiner Quelle zu fassen ist in diesem Fall nicht die beste Strategie“, sagt Victoria Rubin, Associate Professor an der University of Western Ontario: dafür verbreiten sich Fakenews zu schnell. Zudem gibt es ständig neue Quellen und neue Webseiten, die Falschmeldungen produzieren – hat man eine identifiziert, gitb es bereits zehn neue.

bildschirmfoto_2017-04-17_21-07-32.png

Spektrum.de, 22. Dezember 2016 - Link

Wie sieht unsere Zukunft mit Sexrobotern aus? Wissenschaftler streiten sich über mögliche negative Folgen der Technologie. Während manche gar ein Verbot fordern, setzen andere auf eine wissenschaftliche Durchleuchtung des Themas.

Es ist schon verrückt, was für einen Staub eine Konferenz mit vielleicht 200 Teilnehmern aufwirbeln kann. In London haben sich am 19. und 20. Dezember 2016 Wissenschaftler aus aller Welt getroffen, um sich mit dem Thema "Sex and Love with Robots" zu beschäftigen. Wird es eines Tages Alltag sein, dass Menschen Sex mit Robotern haben? Wird es gesellschaftsfähig sein, einen maschinellen Lebenspartner zu geselligen Events auszuführen? Und wie wird sich das auf unser Zusammenleben auswirken? Die durchaus berechtigten Fragen der Philosophen, Soziologen, Informatiker und Psychologen gingen beinahe unter in der reißerischen Berichterstattung auf der einen Seite und in der Empörung, die das Thema auf der anderen Seite offenbar mit sich bringt.

bildschirmfoto_2017-04-17_21-44-24.png

Spektrum.de, 6. Dezember 2016 - Link

Ein Text über psychologische Profilbildung mittels Facebookdaten schreckt viele auf. Der Text beschreibt aber weder eine neue Technologie, noch ist seine Schlussfolgerung seriös, nach der Trump die Wahl dank Algorithmen gewonnen hat. Dennoch besteht kein Anlass sich zurück zu lehnen, kommentiert Eva Wolfangel.

Ist Bigdata schuld an Trump? Dieses Luder, diese gefährliche Technologie, das sieht ihr ähnlich! Sie bringt Unheil über die Welt – jetzt haben wir den Beweis! So oder ähnlich denken offenbar viele nach der Lektüre des Textes „Ich habe nur gezeigt, dass es die Bombe gibt“. Die vage Hoffnung, dass vielleicht doch nicht Menschen sondern Maschinen schuld sind am Wahlsieg des künftigen US-Präsidenten, scheint viele zu mobilisieren: der Text dreht derzeit so nachhaltig seine Runden in den sozialen Netzwerken, dass man meinen könnte, er verkünde revolutionäres. Das tut er aber nicht.

bildschirmfoto_2016-11-27_18-40-56.png

Blog über unser Datenjournalismus-Projekt DebateExplorer, November 2016

Auf der Wissenswerte, der Konferenz für Wissenschaftsjournalismus, präsentieren wir in einem Werkstattgespräch am Dienstag, 29.11., erste Ergebnisse unseres DebateExplorers: Können Maschinen Semantik verstehen, können sie sogar angesichts der verklausulierten Sprache der Politiker Muster in Bundestagsdebatten finden und uns Journalisten auf Auffälligkeiten stoßen, die wir ohne maschinelle Unterstützung nicht gefunden hätten? Unser Projekt auf der Basis der Förderung der Volkswagenstiftung im Projekt „Wissenschaft und Datenjournalismus“ erkundet seit Januar 2016 die Grenzen der Wissenschaft und versucht, sie zu verschieben. Wir wollen mit euch unsere Erfolge und die künftigen Herausforderungen diskutieren.

Unser Tool soll gerade in Zeiten knapper Mittel im Journalismus dafür sorgen, dass investigative Recherche nicht nur den großen Verlagen vorbehalten bleibt oder angesichts des Aufwands ganz ausstirbt. Wir nutzen öffentlich zugängliche Texte wie Bundestagsdebatten, Interviews und Artikel, um mittels automatischer Texterkennung aufzudecken, wie Debatten beeinflusst werden. Die Herausforderung dabei: die Algorithmen sollen nicht nur wortgleiche Passagen finden, sondern auch inhaltliche Gemeinsamkeiten, die verschieden formuliert sind. Dafür trainieren wir sie gemeinsam: JournalistInnen und ComputerlinguistInnen.

bildschirmfoto_2017-04-17_20-21-53.png

Süddeutsche Zeitung Wochenende, 29. Oktober 2016 - Link

Menschliches Handeln ist in weiten Teilen vorhersagbar. Roboter nutzen das erfolgreich, um soziales Verhalten zu imitieren. Aber wie echt ist diese berechnete Hilfsbereitschaft?

Der kleine Kerl bewegt seine Arme und folgt diesen Bewegungen mit großen Augen, als nehme er diese Arme zum ersten Mal wahr. Noch scheint der Weg weit zu sozialem Verhalten: Erst einmal geht es darum, den eigenen Körper zu erfassen und dessen Grenzen, um überhaupt verstehen zu können, dass es ein „Ich“ und ein „Du“ gibt. Bei jeder Bewegung des Arms scheint sich der Kleine zu fragen: „Bin das ich? Mache ich das?“ Er bewegt seine Gliedmaßen unermüdlich und scheinbar zufällig, er testet, welche Richtungen seine Gelenke zulassen. Er dreht den Kopf so weit er kann und schaut sich um. Mit der Zeit werden die Bewegungen gezielter. Er hat gelernt, wie weit sein Radius ist, welche Positionen er erreichen kann. Später, als er verstanden hat, wo der eigene Körper aufhört, kommt ein Mann und reicht ihm einen Ball. Der kleine Kerl will ihn haben, greift aber erst unbeholfen daneben. Aber auch darin wird er mit etwas Übung immer besser: die erste Interaktion funktioniert!