35
Nein. Es wäre eine naive Annahme, dass mimischer Ausdruck
alleine reicht, um Vorhersagen über den emotionalen Zustand
einer Person zu treffen. Dem ist nicht so. Menschen sind holis-
tische, also ganzheitlich wahrnehmende Menschen. In unsere
Wahrnehmung fließen immer Erfahrungen, Kontextinforma-
tionen, eigene Präferenzen, die Umgebung und vieles mehr
mit ein. Wenn die KI solche Dinge nicht berücksichtigt, bleibt
sie sehr rudimentär, ungenau und nur zu einem gewissen Grad
brauchbar. Und das ist die Herausforderung, mit denen sich
Wissenschaftler*innen, aber auch Firmen, Jurist*innen und
die Politik momentan konfrontiert sehen. Wir sind inzwischen
gut in der Lage, äußere Eindrücke, die einMensch aussendet, zu
erfassen und zu beschreiben. Dies ist ein erster und wichtiger
Schritt, reicht aber noch nicht, um eine KI auf natürliche, also
uns Menschen vertraute Weise, interagieren zu lassen.
In der Forschung wird daher an Simulationsmodellen ge-
arbeitet, diemenschliche emotionale Kompetenz, zumBeispiel
Empathie (André, 2014), nachzubilden versuchen. Dadurch
können nicht nur Emotionen des menschlichen Gegenübers
erfasst werden, sondern man ermöglicht der KI, angemessen
auf die Emotionen der Person zu reagieren. Eine sehr einfache
Methode, die man hier verwendet, ist das Spiegeln der vom
Menschen gezeigten Emotion: Schaut eine Person traurig und
ein Roboter, der KI verwendet, reagiert mit einem traurigen
Blick als Antwort, kann dies als mitfühlende Geste interpretiert
werden. Nicht immer ist es aber wünschenswert, die Emotion
zu spiegeln. Der Roboter wird eine aggressive Person kaummit
einemebenfalls aggressiven Emotionsausdruck beruhigen kön-
nen. Deeskalationsstrategien wären hier ein besserer Ansatz.
Zu entscheiden, wann welche Strategie am besten zumEinsatz
kommt, ist eineHerausforderung.WirMenschen treffen solche
Entscheidungen immer unter Bezugnahme auf die eigenen Er-
fahrungen und den Kontext, in dem wir uns gerade befinden.
Wir werden uns in einemBewerbungsgespräch gegenüber einer
Person, die unfreundlich zu uns ist, anders verhalten als im
vertrauten Kreise unserer Familie. Um angemessen reagieren
zu können, benötigt auch KI solche Informationen. Diese zu
erfassen und auszuwerten, stellt bis heute noch eine große He-
rausforderung dar (Schiller et al., 2019).
Bei all den Chancen und Herausforderungen, die uns KI
bietet, darf man einen wichtigen Punkt nicht vergessen: Es gibt
viele Anwendungen, in denen ein emotional intelligentes Sys-
tem sinnvoll ist. Es gibt aber auch Anwendungen, die dies nicht
benötigen. Wer würde zum Beispiel gerne ein emotionales Be-
triebssystem nutzen wollen, das intelligent auf die Emotionen
des Nutzers eingeht und den Computer herunterfährt, wenn
der Nutzer lange Zeit traurig oder genervt vor demBildschirm
sitzt? Auch das Training von gewünschten oder angemessenen
emotionalen Verhaltensweisen mithilfe von KI birgt Gefahren,
wenn es zu einem einseitigen oder manipulativen Zweck ge-
nutzt wird. Soll eine Person zum Beispiel nur positive Emo-
tionen zeigen, unabhängig von ihrem aktuellen Empfinden,
wird eher eine emotionale Abstumpfung als eine Entfaltung
erreicht und das Gefühl vermittelt, dass negative Emotionen per
se schlecht sind. Unterschätzt werden sollte nicht die Tatsache,
dass KI Emotionen nur imitieren kann. Man könnte sagen, sie
täuscht Emotionen vor und empfindet sie nicht wie wir Men-
schen. Selbst wenn ein Roboter mit KI glücklich schaut und in
Mensch, Maschine! Die Zukunft sozialer Interaktion mit KI
Fußnoten:
uni-augsburg.de/de/fakultaet/fai/informatik/prof/hcm/ forschung/emma uni-augsburg.de/de/fakultaet/fai/informatik/prof/hcm/ forschung/viva uni-augsburg.de/de/fakultaet/fai/informatik/prof/hcm/ forschung/fordigithealth uni-augsburg.de/de/fakultaet/fai/informatik/prof/hcm/ forschung/mindbot ec.europa.eu/futurium/en/ai-alliance-consultationProf. Dr. Elisabeth André und ihre Mitarbeiter*innen am Lehrstuhl für
Human-Centered Multimedia der Universität Augsburg erforschen die
Zukunft sozialer Interaktion zwischen Mensch und Maschine.
Interaktive Assistenzsysteme wie
EmmA
könnten in Zukunft Menschen vor
psychischen Überbelastungen am Arbeitsplatz schützen.
Foto unten: Charamel GmbH, Foto oben: privat
1
2
3
4
5