45
KI vertrauen, dass sie schon alles richtig macht? Aber möchte
man wirklich Systemen vertrauen, die man nicht versteht und
bei denen nicht sicher ist, ob und welche Fehler sie machen? Ist
die Alternative, KI gar nicht einzusetzen? Die Vorteile, die uns
diese Systeme bescheren, würden wir dann einfach wegschmei-
ßen. Die dritte Variante scheint vielversprechender zu sein:Wir
müssen dafür sorgen, dass diese Systeme nachvollziehbar und
transparent werden! Mit dieser Aufgabe beschäftige ich mich
und viele andere Forscher*innen imForschungsbereich der Er-
klärbaren Künstlichen Intelligenz (XAI). Was bringt XAI zum
Beispiel bei
der Er-
kennung von Emotionsausdrücken? Wir zeigen dem System
Bilder vonMenschen, die traurig, glücklich oder wütend ausse-
hen und lassen klassifizieren, umwelchen Emotionsausdruck es
sich handelt. Anschließend visualisierenwir, auf welche Bereiche
imBild die KI »geschaut« hat, als es die Entscheidung getroffen
hat. Die Visualisierung gibt uns ersteHinweise darauf, wie es um
die Fähigkeiten des Systems bestellt ist. Schaut es bei der Klas-
sifikation nicht auf das Gesicht, sondern auf den Hintergrund,
steht schnell fest: Da muss nachgebessert werden. Solche Visu-
alisierungen liefern aber noch mehr: Hinweise auf Fehler, die
sich zum Beispiel in Datensätzen verstecken. Diese Daten sind
das Einzige, was solche Systeme für das Lernen heranziehen.
Daher sollten sie die Realität gut abbilden. Wenn dies nicht der
Fall ist, kommt es zu Fehlschlüssen. Bekanntgeworden ist das
Beispiel von Google, deren Netz dunkelhäutige Menschen als
Gorillas klassifizierte. »Rassistische KI« hieß es in denMedien.
Der Fehler lag in dem Datensatz, der zum Lernen verwendet
wurde. Hier waren kaum oder keine dunkelhäutigen Men-
schen in den Bildern vertreten. Dies führte dazu, dass das
Netz eine Klasse, die ähnliche Merkmale zeigte, hier
also die Gorillas, die ein dunkles Fell haben, für die
Klassifikation verwendete. Sind wir nun mit er-
klärbarer KI gegen diese Probleme gewappnet?
Jein. Die derzeitigen Verfahren sind ein gu-
ter Anfang, aber es gibt noch viel zu tun.
Wir brauchen Erklärungen, die möglichst
aussagekräftige Informationen liefern. Vi-
sualisierungen sindnicht ausreichend. Und
dasGanzemuss verständlich sein, nicht nur
für KI-Experten*innen, sondern auch für
Endnutzer*innen. Es gilt, herauszufinden:
Wie sieht eine guteErklärung überKI- Sys-
teme aus? Wann brauchen wir Erklärun-
gen? Wie viele Details darf die Erklärung
haben, ohne Endnutzer zu überfordern?
Wie garantieren wir, dass die Erklärungen
den Inhalt vermitteln, den sie transportie-
ren sollen? Auf diese Fragen gibt es noch
keine endgültigen Antworten. Sie stellen
eine große Herausforderung an die derzei-
tigeForschungundEntwicklung vonKI dar
und machen unsere Forschung für meine
Kolleg*innen und mich so spannend.
Künstliche Intelligenz erklärbar machen
Katharina Weitz studierte Informatik und
Psychologie an der Universität Bamberg. Seit
Oktober 2018 arbeitet sie als wissenschaft-
liche Mitarbeiterin am Lehrstuhl für Multimo-
dale Mensch-Technik Interaktion der Uni-
versität Augsburg. Hier forscht sie an Möglich-
keiten, der KI in den »Kopf« zu schauen und
zu erklären, wie solche Systeme funktionieren
und zu ihren Entscheidungen gelangen. Sie
interessiert sich aber nicht nur für Computer
und Roboter, sondern auch für Menschen.
Daher bringt sie Forschungserkenntnisse Jung
undAlt näher –mit öffentlichen Vorträgen, Nach-
wuchsveranstaltungen und Science Slams.
Mehr von Tobi Frank
unter:
tobifrank.com