Süddeutsche Zeitung Wochenende, 29. Oktober 2016 - Link
Menschliches Handeln ist in weiten Teilen vorhersagbar. Roboter nutzen das erfolgreich, um soziales Verhalten zu imitieren. Aber wie echt ist diese berechnete Hilfsbereitschaft?
Der kleine Kerl bewegt seine Arme und folgt diesen Bewegungen mit großen Augen, als nehme er diese Arme zum ersten Mal wahr. Noch scheint der Weg weit zu sozialem Verhalten: Erst einmal geht es darum, den eigenen Körper zu erfassen und dessen Grenzen, um überhaupt verstehen zu können, dass es ein „Ich“ und ein „Du“ gibt. Bei jeder Bewegung des Arms scheint sich der Kleine zu fragen: „Bin das ich? Mache ich das?“ Er bewegt seine Gliedmaßen unermüdlich und scheinbar zufällig, er testet, welche Richtungen seine Gelenke zulassen. Er dreht den Kopf so weit er kann und schaut sich um. Mit der Zeit werden die Bewegungen gezielter. Er hat gelernt, wie weit sein Radius ist, welche Positionen er erreichen kann. Später, als er verstanden hat, wo der eigene Körper aufhört, kommt ein Mann und reicht ihm einen Ball. Der kleine Kerl will ihn haben, greift aber erst unbeholfen daneben. Aber auch darin wird er mit etwas Übung immer besser: die erste Interaktion funktioniert!
Verena Hafners kleiner Nao benimmt sich wie andere Babys, die ihren Körper und dessen Verhältnis zur Umwelt erkunden. Aber er ist kein Kind, er ist ein Roboter, der sich das Lernen von den Menschen abschaut und auf diese Weise auch soziales Verhalten lernen kann, glaubt Hafner: Ähnlich wie bei Kindern, die erst ihren Körper erkunden und was sie damit ausrichten können und schließlich erfahren, welchen Rahmen die gesellschaftlichen Konventionen dem eigenen Handeln geben.„Wir lehnen uns an die Entwicklungspsychologie an“, sagt die Professorin für adaptive Systeme an der Berliner Humboldt-Universität. Die Roboter in ihrem Labor werden dadurch flexibler als klassische Industrieroboter beispielsweise, die stets den gleichen Handgriff ausführen und deren Bewegungen exakt programmiert sind. Sie haben keine Alternative, als ihr jeweiliges Ziel auf dem genau vorgegebenen Weg zu erreichen, während Nao weiß, dass er einen Ball sowohl mit der rechten als auch mit der linken Hand greifen kann. „Wenn beispielsweise ein Motor nicht funktioniert, können unsere Roboter umstellen“, erklärt Hafner. Wie ein Mensch, der eine Verletzung kompensiert. Die Roboter bekommen Feedback von ihrem eigenen Körper, sie lernen ihn kennen wie ein Baby, das noch nicht einmal weiß, dass diese Hände zu ihm gehören und ähnlich wie Nao immer besser darin wird, diese bewusst zu nutzen.
Das Ganze hat allerdings ein größeres Ziel als Roboter dazu zu befähigen, flexibel nach Dingen zu greifen und Ausfälle selbst zu kompensieren. Forscher erhoffen sich, dass Maschinen aufgrund dieser Art zu lernen mitdenken können. Sie sollen Handlungen von Menschen vorhersehen und diese darin unterstützen können, ohne dass jede Reaktion als feste Regel programmiert werden muss. Hafner ist überzeugt: „Wenn wir in Zukunft enger mit Robotern zusammenleben, brauchen sie solche sozialen Fähigkeiten.“ Sie sollen uns die Wünsche von den Augen ablesen können. In ihrem Labor machen sie die ersten Schritte auf diesem Weg: Nao muss erst einmal lernen, was er mit seinem Körper überhaupt ausrichten kann. „Lernen braucht Verkörperung“, sagen Psychologen und Pädagogen schon lange. Jetzt stimmen Informatiker mit ein: Maschinen lernen nicht nur durch Simulation, sie brauchen einen physischen Körper, der durch die Interaktion mit seiner Umwelt selbst Daten erzeugt und diese auswertet. Nao lernt durch ausprobieren: er sieht durch seine Kameraaugen, welche der Dinge um ihn herum sich verändern, weil er aktiv wird – und welche von anderen Wesen verursacht werden. Im Hintergrund berechnen Künstliche-Intelligenz-Algorithmen aus diesen Daten, wie die Welt und vorallem wie die Menschen funktionieren.
Die japanische Forscherin Yukie Nagai geht in ihrem Labor an der Osaka University noch einen Schritt weiter. Dort beobachten humanoide Roboter erst, wie Menschen immer wieder nach Dingen greifen. Sie lernen, was die Menschen tun. Und sie werden zu Hellsehern: In einem ihrer Experimente will ein Student nach einem roten Spielzeugauto greifen, aber es liegt zu weit entfernt. Der Roboter sitzt näher dran, er kommt ihm zuvor, greift das Auto und reicht es ihm. „Natürlich hat der Roboter nicht die intrinsische Motivation zu helfen“, sagt die Robotik-Professorin, „er will nur den Vorhersagefehler reduzieren.“ Das ist die einzige Vorgabe für das Neuronale Netz, das den Roboter steuert: ‚Versuche vorherzusagen, was geschieht. Teste durch ausprobieren, ob du Recht hattest. Wenn nicht, lerne daraus und treffe bessere Vorhersagen.‘ Da der Roboter den Menschen zuvor lange beobachtet hat, hat er ein Muster erkannt: wenn der Mensch seine Hand in die Richtung eines Gegenstandes bewegt, greift er ihn schließlich. Nagai hat zusammen mit Psychologen lange beobachtet, wie Kinder lernen. In einem Experiment zeigten Eltern ihren Kleinkindern, wie sie Becher ineinander stapeln, immer wieder – Nagais Roboter lernten es auf die gleiche Weise. Kinder ahmen ihre Eltern nach – Nagais Roboter ahmen die Doktoranden der Professorin nach. „Was ist überhaupt der Unterschied zwischen menschlichem und maschinellem Lernen?“, fragt sie provokativ. Der einzige sei aus ihrer Sicht bisher gewesen, dass Menschen nie aufhören zu lernen, während Roboter nach dem Programmieren oder nach dem Training irgendwann „fertig“ sind. „Deshalb haben wir ihnen nun zur Aufgabe gemacht, den Vorhersagefehler zu reduzieren“, sagt sie – und damit hören Roboter ebenfalls nie auf zu lernen. Schließlich gibt es im menschlichen Verhalten unendlich viele Feinheiten und Schattierungen. Dank der Neuronalen Netze, die derzeit als die leistungsfähigsten Mustererkennungsverfahren im maschinellen Lernen gelten, können die Roboter auf diese Weise menschliches Verhalten vorhersagen, um passend darauf zu reagieren.
Menschen handeln auf einer ähnlichen Grundlage: Wenn ein Mensch am Zebrastreifen steht, wissen wir, was er mutmaßlich gleich tun wird und bremsen das Auto ab. Wenn der älteren Nachbarin der Schlüssel herunterfällt wissen wir, dass sie ihn gleich aufheben wird – und kommen ihr zuvor, weil es uns leichter fällt. Und es gibt Situationen, in denen uns die Vorhersage schwer fällt. Beispielsweise wenn wir in einem fremden Land auf andere Kulturen treffen – oder auf unsere Landsleute auf einem schmalen deutschen Gehweg: Wir versuchen vorherzusagen, in welche Richtung der andere ausweicht, um eine Kollision zu vermeiden. Oft endet das darin, dass wir falsch liegen und ein paar Mal in die gleiche Richtung ausweichen. „Das klappt am besten, wenn einer von beiden stur auf sein Handy schaut“, sagt Roboterforscherin Verena Hafner lachend. Dann ist die Vorhersage einfach: er wird nicht ausweichen. Mittels Versuchen zwischen Robotern will sie dem genauer auf die Schliche kommen: Wann kommt es zu Kollisionen? Wie oft und in welche Richtung weichen wir durchschnittlich aus – und wovon hängt das ab? Darin gibt es auch kulturelle Unterschiede. Die Roboter fungieren als eine Art Simulation des Menschen. Der Vorteil: man kann ihnen ins Gehirn schauen.
Die sozialen Roboter der Zukunft sollen sich aus ihrer Sicht nicht nur den Menschen anpassen und deren Handlungen besonders gut vorhersagen können. „Es ist auch gut, wenn es anders herum ähnlich funktioniert“, sagt Hafner, „wenn sich der Roboter so verhält, dass der Mensch es gut vorhersagen kann.“ Das erleichtert die Interaktion mit den Maschinen der Zukunft, es macht uns die Maschinen weniger fremd. Wenn sich diese allzu ähnlich verhalten wie Menschen, kann das allerdings auch Probleme mit sich bringen: „Wenn sie ganze Sätze sprechen, erwartet man von ihnen zu viel Intelligenz.“ Deshalb sei es sinnvoll, Roboter trotz der großen Fortschritte in der maschinellen Sprachverarbeitung weniger perfekt klingen zu lassen als möglich. Noch sei Intelligenz viel zu komplex – und wenn, dann führe der Weg zu ihr über diese Art des Abschauens von den Menschen.
Ihre japanische Kollegin Nagai ist überzeugt, dass vieles von dem, was wir „soziales Verhalten“ nennen, letztlich nichts anderes ist als eine simple Rechenoperation: „Kleinkinder sind nicht sozial im eigentlichen Sinn, sondern sie lernen wie unsere Roboter, den Vorhersagefehler zu reduzieren.“ So seien entsprechende Experimente erklärbar, in denen robbende Babys Erwachsenen heruntergefallene Gegenstände wieder aufheben: Babys berechnen, was gleich passieren wird, und überprüfen das, indem sie es vorwegnehmen. „Psychologen überinterpretieren das als soziales Verhalten.“ Seit Nagai so viele Roboter hat lernen sehen, ist die überzeugt, dass wir daraus ableiten können, wie menschliches Sozialverhalten entsteht. „Zumindest führt die Reduzierung des Vorhersagefehlers zum gleichen Ergebnis.“
Tatsächlich haben Forschungen wie die von Nagai und Hafner einen Streit in der Psychologie um genau diese Frage nach dem Wesen des sozialen Verhaltens angeheizt. Die Debatte, ob kleine Kinder in entsprechenden Experimenten einen angeborenen, prosozialen Instinkt haben oder ob sie nur versuchen, "den Zielzustand herzustellen", erhalte so neue Nahrung, sagt Markus Paulus, Entwicklungspsychologe an der Münchener Ludwig-Maximilians-Universität: „Die Forschung an sozialen Robotern befruchtet unser Fach.“ Auch in der kognitiven Psychologie sei das ein wachsender Forschungsansatz.
Doch nicht nur in Bezug auf menschliches Sozialverhalten wirft das weitere Fragen auf: Wie echt ist diese imitierte Hilfsbereitschaft der Maschinen? Schon der Begriff soziales Verhalten sei nicht eindeutig definiert, sagt die Stuttgarter Technikphilosophin Catrin Misselhorn: Er kann einerseits tatsächlich einfach nur Muster von Erwartungen betreffen. „Manchmal wird er aber auch im Sinn des Englischen ‚pro-social behavior‘ verwendet und meint dann altruistisches Verhalten, bei dem sich ein Akteur um die Belange eines anderen kümmert, ohne dass Eigeninteresse dahinter steckt.“ Grundsätzlich könnten Roboter zu beiderlei Verhalten trainiert werden.
Soziale Roboter müssen dafür nicht empathisch sein, auch wenn Psychologen entsprechende Experimente häufig mit der Fähigkeit begründen, sich in jemand anderen einzufühlen. Können Roboter Empathie empfinden? „Da bin ich beim gegenwärtigen State-of-the-Art skeptisch“, sagt Misselhorn: „Roboter können aus meiner Sicht keine Empathie empfinden, da sie derzeit auch kein Bewusstsein besitzen.“ Dennoch könnten sie auf der Grundlage psychologischer Verallgemeinerungen das Verhalten und die Wünsche anderer vorhersagen - auch wer sich in andere einfühlt, tut das. „Nur der Weg, wie die Roboter zu einer Verhaltensprognose gelangen, wäre ein anderer.“ Im Endergebnis macht das aber keinen großen Unterschied: Die Maschinen verhalten sich sozial. Und vielleicht ist es auch ganz beruhigend, wenn sie sich nicht in uns hineinversetzen können.