30
Thema Künstliche Intelligenz
Text: Thomas Riehm
Comic: Dominik Wendland
Roboter als Personen
im Rechtssinne?
Zur Diskussion um eine
digitale Rechtspersönlichkeit
ie Idee einer Anerkennung von »intelligenten« Robotern
als rechtlich eigenständige Personen ist beinahe so alt wie
die Vorstellung von künstlicher Intelligenz selbst: Schon die
berühmten »Robotergesetze« des Science-Fiction-Autors Isaac
Asimov aus dem Jahr 1950 wandten sich unmittelbar an die
Roboter selbst als Adressaten, nicht etwa an dieMenschen, die
die Roboter konstruiert hatten, und auch nicht an diejenigen,
die sie betrieben. Daher ist es nicht verwunderlich, dass sich
parallel zur technischen Forschung an künstlicher Intelligenz
auch die Rechtswissenschaft Gedanken gemacht hat, wie dieses
neue Phänomen juristisch erfasst werden kann.
Ausgangspunkt der rechtlichen Problematik ist, dass das
Verhalten von Systemen, die auf künstlicher Intelligenz basie-
ren, sowohl für ihre Betreiber als auch für ihre Hersteller und
Programmierer zunehmendunvorhersehbar ist. Anders als klas-
sische Computerprogramme beruhen diese regelmäßig nicht
auf vergleichsweise überschaubaren »Wenn-Dann«-Struk-
turen, sondern »erlernen« ihre Verhaltensweisen mehr oder
weniger selbständig aus großen Datenmassen, ohne dass das
Ergebnis des Lernprozesses für Menschen ohne weiteres nach-
vollziehbar wäre. Aus rechtlicher Sicht wird es damit allerdings
schwieriger, Erklärungen oder Handlungen von KI-Systemen
ihrem Hersteller oder Betreiber zuzurechnen, um diese dafür
einstehen zu lassen.
Zurechnung setzt willentliche Handlung voraus
Traditionell wird die Verantwortlichkeit aus rechtlicher Sicht
an bewusste Handlungen von Menschen angeknüpft: Für eine
Tat ist der Täter strafrechtlich verantwortlich, weil er sie selbst
vorsätzlich oder fahrlässig begangen hat; zivilrechtlich hat er
für Schäden einzustehen, weil er sie schuldhaft verursacht hat;
für Vertragserklärungen hat er einzustehen, weil er oder ein
von ihm ermächtigter (menschlicher) Stellvertreter sie selbst
abgegeben hat. Diese Anknüpfung rechtlicher Folgen an das
eigene (willentliche) Verhalten stößt an Grenzen, wenn KI-Sys-
teme zum Einsatz kommen, deren Aktionen weder für ihre
Hersteller noch für ihre Betreiber vorhersehbar sind. Denn
alle genannten Zurechnungsmechanismen beruhen im Kern
darauf, dass das Ergebnis – z. B. eine Körperverletzung oder
auch eine Vertragserklärung – letztlich auf eine willentliche
Handlung eines Menschen zurückgeht. Diese Handlung ist es,
die als strafbar oder rechtswidrig bewertet wird und dadurch
strafrechtliche oder haftungsrechtliche Konsequenzen auslöst.
Auch bei Vertragserklärungen wird die Bindung eines Men-
schen an das Erklärte damit gerechtfertigt, dass die Erklärung
mit seinemWillen in den Verkehr gelangt ist.
Diese Verbindung zwischen demWillen eines Menschen
und dem von einem KI-System bewirkten Ergebnis wird in-
frage gestellt, wenn das Verhalten des Systems für niemanden
vorhersehbar ist. Denn dann sind auch Szenarien denkbar, in
denen Hersteller und Betreiber »alles richtig gemacht haben«
und das KI-System gleichwohl Schäden verursacht oder Er-
klärungen abgibt, die die beteiligtenMenschen so nicht gewollt
hätten – schlicht, weil es sich aufgrund seiner inhärenten Lern-
fähigkeit anders verhalten hat, als Hersteller oder Betreiber es
erwartet hatten.
Lernfähige Geräte erzeugen Verantwortungslücken
So könnte etwa ein Rasenmäher-Roboter im Garten ein frem-
des Haustier verletzen, obwohl der Betreiber bei der Auswahl
und Konfiguration des Geräts alle Sorgfaltsmaßregeln beachtet
hatte, weil es aus Erfahrungen des bisherigen Betriebs »ge-
lernt« hat, dass Berührungen kleiner weicher Objekte un-
problematisch seien. In diesem Beispiel wäre dem Betreiber
eventuell kein Verschuldensvorwurf zu machen, sodass er für
den verursachten Schaden nicht haftet. Anders wäre es nur
dann, wenn man bereits den Einsatz eines lernfähigen Robo-
ters als fahrlässig bewerten würde, wodurch aber zugleich das
gesamte Innovationspotenzial derartiger Geräte durch ein fak-
tisches Verbot ungenutzt bliebe. Auch dem Hersteller könnte
evtl. nicht der Vorwurf gemacht werden, ein unsicheresGerät auf
den Markt gebracht zu haben, wenn der Roboter im Zeitpunkt
des Inverkehrbringens dieses Verhalten noch gar nicht erlernt
hatte, weil der Hersteller nicht dafür verantwortlich ist, was das
D