?Emotionale Bindungen k?nnen gef?hrlich werden“
Prof. Dr. Linda Onnasch mit Nao.
Foto: Matthias Heyde
Naos Hülle ist wei? und orange. Auf dem Tisch hockt er, die Knie angewinkelt, wie ein Primat mit abstehenden Ohren, und wenn Juniorprofessorin Linda Onnasch den kleinen Roboter über den Flur hinüber in die Versuchsr?ume tr?gt, dann k?nnte man ihre Haltung mit der einer Mutter verwechseln, die ein Kind im Arm h?lt. Ein schlechtes Gewissen hat die Psychologin dennoch nicht, wenn sie den in seiner Gestaltung menschen?hnlichen Nao abends in ihrem Büro zurückl?sst. ?Ich programmiere meine Roboter selbst und das bedeutet, dass ich immer wieder hinter die Fassade schaue.“
Bereits ihre Doktorarbeit schrieb Linda Onnasch über Vertrauen in Hinblick auf Assistenzsysteme, arbeitete für einige Zeit für kommerzielle Anbieter, bevor sie im Oktober 2017 als Professorin an die Humboldt-Universit?t zu Berlin (HU) kam. Seitdem forscht sie zur Interaktion mit Maschinen. ?An Robotern k?nnen wir viel über Mensch-Mensch-Interaktionen lernen“, ist die auf Automationspsychologie spezialisierte Forscherin überzeugt. Wo Linda Onnasch wenig soziale Impulse gegenüber Robotern verspürt, die sie für die Forschung angeschafft hat, geht es den meisten Menschen anders. Für die Neigung, mit blechernen Gegenübern soziale Beziehungen aufzubauen, gebe es unz?hlige Beispiele aus Forschung und Praxis, berichtet die Wissenschaftlerin. Nicht selten hat das unbeabsichtigte, mitunter gef?hrliche Konsequenzen.
?Roboter, die in Kriegsgebieten Bomben entsch?rfen etwa. Die Soldaten geben ihnen Namen, verleihen ihnen milit?rische Würden, wenn sie im Kampf zerst?rt wurden und gef?hrden teilweise sogar ihr eigenes Leben, um die Roboter aus einer brenzligen Situation zu retten.“ Offenbar würden die Maschinen durch die scheinbare Autonomie ihrer Bewegung als Objekte mit Intentionen wahrgenommen, als belebt also – ganz anders als etwa ein Mobiltelefon oder ein Laptop. Das berge erhebliche Manipulationspotenziale, sagt die Psychologin, die herausfinden will, wie sich die Gestaltung auf die Interaktion zwischen Mensch und Maschine auswirkt und welche Art von Gestaltung ethisch vertretbar ist.
Hierzu beendete Onnasch kürzlich gemeinsam mit dem Philosophen Peter Remmers von der Technischen Universit?t Berlin eine theoretische Forschungsarbeit. ?Herausgestellt hat sich unter anderem, dass vermenschlichende Beschreibungen von Robotern zu unangemessen Vorstellungen bei den Benutzern führen. ?hnliches gilt für humanoide oder zoomorphe Gestaltung und das Vergeben von Namen – zumindest im industriellen Kontext.“ Auf die Kooperationsbereitschaft des menschlichen Gegenübers wirkten sich solche Elemente zwar positiv aus, allerdings entstünden so auch unangemessene emotionale Bindungen.
Zur empirischen Prüfung der Ergebnisse nahmen Linda Onnasch und ihre Arbeitsgruppe kürzlich den Roboter Nao in den Dienst der Forschung: Versuchspersonen mussten mit Naos Hilfe eine komplizierte Aufgabe l?sen. W?hrend die eine H?lfte der Probanden vorab eine rein funktionale Beschreibung des Roboters erhielt, wurde der anderen H?lfte eine sehr vermenschlichende gegeben. Nach der gemeinsamen Aufgabenbearbeitung wurden die Versuchspersonen zu ihrer Bereitschaft befragt, Geld für eine anfallende Reparatur des Roboters zu spenden. Die These der Forscher war, dass eine vermenschlichende Sprache soziale Bindung begünstigen und die Spendenbereitschaft erh?hen würde.
Das verblüffende Ergebnis: Die Probanden, die in technischer Sprache an das Experiment herangeführt worden waren, spendeten nicht nur fast alle, sondern auch signifikant mehr als die Vergleichsgruppe. ?Eine erste These hierzu ist, dass es keine monet?re Bezifferung, keinen in Geld ausdrückbaren Referenzrahmen im Kontext des Mitfühlens gibt, wohl aber bei einem technischen Defekt. Ein weiterer Erkl?rungsansatz ist, dass vermenschlichende Sprache die Funktionalit?t des Roboters aus dem Blick geraten l?sst“, erl?utert Linda Onnasch, die das Experiment bald mit dem weniger menschen?hnlichen Industrieroboter Sawyer, der im Gegensatz zu Nao ein Industrieroboter ist, wie sie etwa in Lagerhallen zum Einsatz kommen, wiederholen will.
Neben Robotern sind es Assistenzsysteme wie sie etwa in Flugzeugen, beim autonomen Fahren oder bei komplexen medizinischen Verfahren zum Einsatz kommen, die die Ingenieurspsychologin umtreiben. ?Heutzutage kann man fast alles automatisieren, aber nicht immer ist das auch eine gute Idee“, sagt die Wissenschaftlerin. So geht es in Onnaschs Forschung zu Assistenzsystemen derzeit verst?rkt um das Rollenverst?ndnis der menschlichen Anwender und wie sich dieses auf die Sicherheit einer Technologie auswirkt. ?Menschen tendieren dazu, ?bervertrauen zu entwickeln. Und das birgt natürlich Gefahren.“ Immer h?ufiger würden Systeme wie das autonome Fahren entwickelt, bei denen der Anwender überwiegend in einer Art Stand-by-Modus als Kontrollinstanz fungiere. ?Die Idee ist, Menschen zu entlasten. Die Situation ist dann oft so, dass der Anwender über lange Zeitr?ume faktisch unbesch?ftigt ist, aber in einer pl?tzlich eintretenden, komplexen Ausnahmesituation Entscheidungen treffen soll. Das geht nicht selten schief – Daueraufmerksamkeit ist keine menschliche St?rke.“
Wie sich solche Systeme auf das Rollenverst?ndnis und somit das Verhalten von Anwendern auswirken, untersucht die Wissenschaftlerin derzeit in einer Studie, in der Probanden sechs Stunden lang über ein simuliertes Lebenserhaltungssystem in einer Raumstation wachen müssen. ?Das System hat eine Grundautomation und die Versuchspersonen müssen nur eingreifen, wenn ein Fehler eintritt.“ Das Assistenzsystem unterbreite dem Nutzer in einem solchen Fall einen Diagnosevorschlag oder führe die erforderliche Handlung selbst aus. Aufgabe des Probanden sei es, die Vorschl?ge des Systems zu bewerten und es dementsprechend gew?hren zu lassen oder einzugreifen. ?In diesem Zusammenhang untersuchen wir das Rollenverst?ndnis der Versuchsteilnehmenden und wollen herausfinden, wie Rollen- und Risikowahrnehmung miteinander zusammenh?ngen und sich dementsprechend die Involviertheit ver?ndert.“
Als Ingenieurspsychologin verstehe sie sich als Verfechterin der Nutzerinnen und Nutzer und wolle mit ihrer Forschung dazu beitragen, dass Systeme m?glichst sicher gestaltet seien, sagt Linda Onnasch. Neben aller Technikbegeisterung sei nicht zuletzt der Umstand zu bedenken, dass immer intelligenter werdende Maschinen und Assistenzsysteme Entscheidungen rein auf Basis von Daten treffen und nicht ohne weiteres in der Lage seien, Normen und Werte in ihre Berechnungen einzubeziehen. ?Da fehlt mir h?ufig der gesellschaftliche Disput. Dinge werden relativ unkritisch implementiert.“ Sie wünscht sich deshalb eine enge Kooperation mit der Industrie, um so bei der Entwicklung maximal sicherer Systeme zu helfen.“
Autorin: Nora Lessing