36
der Audioausgabe ein fröhlicher Untertonmitschwingt, fühlt er
nicht die Emotion, die er gerade darstellt. Trotzdemwird seine
simulierte Emotion bei uns Menschen eine echte emotionale
Reaktion auslösen.
Es ist daher wichtig, ethische Fragestellungen zu adres-
sieren. Was soll KI können? Wozu soll sie verwendet werden?
Was sollte vermieden werden? Welchen sozialen Normen soll
KI unterliegen und wen benachteiligt sie dadurch vielleicht?
Brauchen und wollen wir überhaupt Maschinen, die mit uns
sozial interagieren? Falls ja, wann und wofür wollen wir diese
Maschinen verwenden? Eine Vielzahl von Studien zeigen, dass
Menschen auf Computer ähnlich reagierenwie auf andereMen-
schen. Ohne dass es ihnen bewusst ist, erwarten vieleMenschen,
dass Computer soziale Normen erfüllen und beispielsweise Be-
dauern äußern, wenn die Software einmal nicht einwandfrei
funktionieren sollte. Jeder hat wohl schon einmal eineMeldung
wie »Entschuldigung, es ist ein Fehler passiert. Das Programm
wird beendet« erhalten, wenn er oder sie mit einem Programm
auf dem Computer gearbeitet hat. Auch Alexa oder Siri ver-
stehen manchmal nicht, was wir sagen und entschuldigen sich
dann bei uns. Wir Menschen kennen aber noch viele weitere
soziale Normen, die in sozialen Interaktionen von Bedeutung
sind. Solche sozialen Normen, die über eine Entschuldigungs-
nachricht hinausgehen, erwarten wir in Situationen, in denen
technische Systeme Nutzern als Assistent*in, Gefährt*in oder
Lehrer*in zur Seite stehen sollen. Dies ist zum Beispiel der
Fall bei Systemen mit KI, die ältere Menschen in ihrem Alltag
unterstützen sollen, oder einer KI, die Arbeitnehmer*innen
helfen soll, Stresssituationen am Arbeitsplatz zu bewältigen.
Forschungsprojekte wie EmmA1, VIVA2, ForDigitHealth3 und
MindBot4 widmen sich dieser Thematik.
Die Fragen, die wir hier stellen, sind noch nicht beantwor-
tet. Die Auseinandersetzung mit ihnen ist aber unumgänglich,
da KI ein Teil unserer Zukunft sein wird. Wir müssen als Ge-
sellschaft entscheiden, welche ethischen Ansprüche wir an die
Systeme stellen, die wir entwickeln. Welche sozialen Normen
und Werte wollen wir in unserer KI verankern, um am Ende
nicht eine wie in E.T.A Hoffmanns Erzählung menschenähn-
liche Maschine zu entwickeln, die das Leid der Nutzer noch
vergrößert, statt es zu lindern oder zu beseitigen?
Wohin führt uns die immer stärker zunehmende (soziale)
Interaktion mit KI letztendlich? Für ein abschließendes Fa-
zit wäre es wohl noch zu früh. Wir stehen erst am Anfang der
Mensch-Maschine-Interaktion. Es ist jedoch angekommen, dass
wir unsmit diesen vielen Fragen auseinandersetzenmüssen. Für
Europa wurden imApril 2019 Richtlinien für einen vertrauens-
würdigen, menschenzentrierten Einsatz von KI veröffentlicht.5
Diese Richtlinien zeigen einerseits, welcheWerte und Normen
Europa für die Zukunft mit KI setzen will. Anderseits zeigte
die Entwicklung des Dokuments unter Berücksichtigung von
Wissenschaftler*innen, Firmen und Politiker*innen in ganz
Europa, dass viele Ansichten, Vorstellungen und Erwartungen
aufeinanderstießen. Die Debatte ist wertvoll und die ungeklär-
ten Unstimmigkeiten weisen darauf hin, dass noch viel getan
werden muss. Diese Diskussionen und Debatten werden uns
helfen, die Möglichkeiten, die uns KI gibt, zu nutzen und uns
gleichzeitig umfassendmit den kritischen Aspekten dieser The-
matik auseinandersetzen.
Prof. Dr. Elisabeth André ist Inhaberin des Lehrstuhls für
Multimodale Mensch-Technik Interaktion am Institut für
Informatik der Universität Augsburg. Dort beschäftigt sie
sich mit der Erforschung neuer Paradigmen für die
Mensch-Technik-Interaktion. Vorrangiges Ziel ist die Ent-
wicklung intuitiver Kommunikationsformen für die Inte-
raktion zwischen Menschen, Robotern und Avataren, die
an der zwischenmenschlichen Kommunikation orientiert
sind und auf Gestik, Körperhaltung, Gesichtsmimik und
Sprache basieren. Für ihre herausragenden Forschungs-
leistungen wurde sie zum Mitglied in drei wissenschaft-
liche Gelehrtenvereine gewählt: die Nationale Akademie der
Wissenschaften Leopoldina, die Academy of Europe und
AcademiaNet. Im Jahr 2013 wurde sie in die Reihe der EurAI
Fellows aufgenommen, ein Programm, mit dem Forscher
gewürdigt werden, die maßgeblich das Gebiet der Künst-
lichen Intelligenz geprägt und zu dessen Weiterentwick-
lung beigetragen haben. Im Jahr 2017 erhielt sie für ihre
richtungsweisenden Forschungsarbeiten auf dem Gebiet
Mensch-Technik-Interaktion einen ACM SIGCHI Award
und wurde in die Computer-Human-Interaction (CHI) Aka-
demie gewählt. Im Jahr 2019 wurde sie von der Gesell-
schaft für Informatik (GI) zu einem der zehn prägenden
Köpfe der deutschen KI-Geschichte gekürt. Seit 2019 ist
sie Chefredakteurin der internationalen Zeitschrift
IEEE
Transactions on Affective Computing.
Informationen zu Katharina Weitz finden Sie unter ihrem
Beitrag zur Rubrik Science Slam 44 ff.
Literatur:
André, Elisabeth (2014).
Lässt sich Empathie simulieren? Ansätze
zur Erkennung und Generierung empathischer Reaktionen
anhand von Computermodellen.
Nova Acta Leopoldina NF, 120
(405), 81-105.
Schiller, D., Weitz, K., Janowski, K., & André, E. (2019).
Human-inspi-
red socially-aware interfaces.
In International Conference on
Theory and Practice of Natural Computing (pp. 41-53). Springer, Cham.
Weitere Informationen:
EmmA, VIVA, ForDigitHealth
und
MindBot
sind aktuelle Forschungs-
projekte am Lehrstuhl für Multimodale Mensch-Technik Interaktion
der Universität Augsburg.
Das Ziel des BMBF Projektes
EmmA
ist es, ein interaktives, mobiles
Assistenzsystem zu entwickeln, das bei psychischer Belastung in-
dividuell berät und darüber hinaus zur Gefährdungsbeurteilung am
Arbeitsplatz sowie der betrieblichen Wiedereingliederung nach einer
psychischen Erkrankung genutzt werden kann.
Das BMBF Projekt
VIVA
hat sich zum Ziel gesetzt, einen vertrauens-
würdigen, lebendigen, sozialen Roboter zu entwickeln, der von Nut-
zern im privaten Umfeld als attraktive Bereicherung empfunden wird.
VIVA soll das persönliche psychische Wohlbefinden der Nutzer ver-
bessern und sie bei der Pflege von Sozialkontakten unterstützen.
Das Bayerisches Staatsministerium für Wissenschaft und Kunst för-
dert den Forschungsverbund
ForDigitHealth.
Ziel ist es, die Gesund-
heitseffekte der zunehmenden Präsenz und intensivierten Nutzung
digitaler Technologien und Medien – speziell in Hinblick auf die
Entstehung von digitalem Stress und dessen Folgen – in ihrer Vielge-
staltigkeit zu erforschen sowie Präventions- und Interventionsoptio-
nen zu erarbeiten und zu evaluieren.
Das EU Projekt
MindBot
zielt darauf ab, Methoden und Lösungen zur
Förderung der psychischen Gesundheit von Arbeitnehmern in der
Industrie 4.0 zu entwickeln, die mit sogenannten Co-Bots kooperati-
ve Aufgaben durchführen. MindBot strebt an, Arbeitsplätze so zu
gestalten, dass die individuellen Bedürfnisse und Fähigkeiten der
Mitarbeiter*innen optimal unterstützt werden.
Neugierig geworden? Weitere Informationen über uns und unsere
Arbeit finden Sie unter
hcm-lab.deThema Künstliche Intelligenz