33
beim Einsatz von künstlicher Intelligenz abbilden zu können,
wird in der rechtswissenschaftlichen Literatur immer wieder
gefordert, auch KI-Systemen Rechtsfähigkeit im Sinne einer
»juristischen Person« zuzuerkennen. Derartige Systeme sollten
also über eine eigene Rechtspersönlichkeit (sog. »ePerson«)
und konsequenterweise über ein eigenes Vermögen verfügen,
aus welchem sie etwaige Haftungsansprüche begleichen könn-
ten. Eine derartige Konstruktion wird nicht nur vereinzelt in
derWissenschaft vertreten, sondern wurde auch vomEuropäi-
schen Parlament schon 2017 angeregt. Selbst die Einführung
einer Strafmündigkeit von Robotern wurde in der Literatur
bereits gefordert, sodass es etwa möglich sein sollte, diese bei
von ihnen begangenen Straftaten etwa durch Geldstrafen, aber
auch durch vorübergehende Betriebsverbote bis hin zur voll-
ständigen Abschaltung bestrafen zu können.
Sind Algorithmen als ePersonen greifbar?
Das Konstrukt einer »ePerson« bzw. einer »digitalen Rechts-
persönlichkeit« wirft allerdings mannigfaltige Fragen auf. Das
beginnt bereits mit demProblem, eine solche ePerson zu iden-
tifizieren: Einen konkreten Roboter bzw. ein konkretes auto-
nomes Fahrzeug mag man noch aufgrund seiner physischen
Verkörperung als greifbares »Ding« als Person erkennen können
– aber wie sieht es mit vernetzten »intelligenten Schwärmen«,
mit Infrastrukturrobotik oder mit reinen Softwareagenten aus?
Wie viele Siris, Alexas, Bixbys etc. soll es eigentlich geben: Will
man nur einem zentral betriebenen Agenten eine Rechtsper-
sönlichkeit verleihen, oder jeder individuellen Installation und
Konfiguration? Und überhaupt: Ab welchem Grad von Lern-
fähigkeit sollte ein System rechtsfähig sein – wie »intelligent«
muss ein System sein, damit ihmRechtsfähigkeit zugesprochen
wird, und wer soll das bestimmen?
Jenseits der Frage der Identifizierbarkeit einer ePerson,
die notfalls noch – in Anlehnung an die Rechtslage bei den
juristischen Personen, z. B. GmbH und AG – durch die Ein-
tragung in ein (digital geführtes) Register gelöst werden könnte,
stellt sich das Problem der Vermögensausstattung: Soll jeder
»intelligente« Algorithmus mit einem eigenen Vermögen als
Haftungsmasse ausgestattet werden? Das würde eine geradezu
groteske Kapitalbindung verursachen, ohne dass zugleich si-
chergestellt wäre, dass die Haftungsmasse für die verursachten
Schäden ausreichend wäre. Daher wird ergänzend vorgeschla-
gen, digitale Rechtspersonen mit einer obligatorischen Haft-
pflichtversicherung auszustatten, die für verursachte Schäden
aufkommen müsste. Auch hier würde sich allerdings die Frage
stellen, aus welchem Vermögen die Versicherungsbeiträge zu
zahlen wären. Zugleich könnte das gleiche Ergebnis dann durch
eine Versicherung des jeweiligen Betreibers erzielt werden.
Wollen »ePersonen« überleben?
Und zu guter Letzt wäre alles andere als sicher, dass jedes KI-Sys-
tem auch so programmiert ist, dass es versucht, sein Vermögen
zu erhalten. Während bei Menschen ein solcher »Selbsterhal-
tungstrieb« angeboren ist, kann dies bei KI-Systemen nicht als
selbstverständlich vorausgesetzt werden. Das hat allerdings
enorme Auswirkungen auf die Ansprechbarkeit durch recht-
liche Regelungen: Weil Menschen rechtliche Sanktionen (Scha-
densersatzpflichten, Geldstrafen, Haftstrafen) natürlicherweise
vermeiden wollen, passen sie ihr Verhalten in der Regel an die
rechtlichen Vorgaben an. Sollte hingegen ein KI-System so pro-
grammiert sein, dass ihmfinanzielle oder andere Konsequenzen
»egal« sind, weil es etwa mit dem Verlust von Geld oder seiner
Freiheit keinerlei negativen Gefühle assoziieren kann, hätte es
auch keinerlei Anlass, sich an rechtliche Vorgaben zu halten.
Die Verantwortung bleibt beim Menschen
All diese Probleme scheinen in der Praxis kaum zu bewälti-
gen. Ihre Lösung ist allerdings nach der heute im Vordringen
befindlichen Auffassung auch nicht erforderlich. Wenn der
Ausgangspunkt der Schaffung einer »ePerson« die befürch-
tete Haftungs- und Verantwortungslücke beim Einsatz von
KI-Systemen ist, sollte das Entstehen dieser Lücke bereits an
der Wurzel verhindert werden. Die Lösung dürfte daher darin
liegen, den Betreiber nach Auffassung Einiger auch denHerstel-
ler unabhängig von der Vorhersehbarkeit des Verhaltens eines
KI-Systems für dessen Handlungen verantwortlich zu machen.
Dieser genießt die Vorteile des Einsatzes eines solchen Sys-
tems, also erscheint es auch gerechtfertigt, ihm dessen Risiken
aufzuerlegen. Daher haben in jüngerer Zeit sowohl die Daten-
ethikkommission der Bundesregierung als auch die High-Level
Expert Group on Artificial Intelligence der Europäischen Kom-
mission die Einführung einer »digitalen Rechtspersönlichkeit«
abgelehnt und stattdessen die Anwendung bzw. Entwicklung
passender Zurechnungsregeln und Verantwortlichkeiten von
Herstellern und Betreibern angeregt.
Prof. Dr. Thomas Riehm ist Lehrstuhlinhaber für Deutsches und
Europäisches Privatrecht, Zivilverfahrensrecht und Rechtstheorie an
der Universität Passau. 2018 wurde er mit einem Ars legendi-Fakul-
tätenpreis ausgezeichnet. Er forscht und lehrt zu allen Bereichen des
Vertrags- und Haftungsrechts mit einem besonderen Fokus auf
Sachverhalte aus dem Bereich der IT.
Dominik Wendland lebt als Grafiker und Illustrator in München. Er
setzt sich seit über zehn Jahren mit dem Erzählen in Bildern und dem
Medium Comic auseinander und wurde dafür 2018 mit einem der
Bayerischen Kunstförderpreise ausgezeichnet. Sein aktueller Comic
EGOn,
der hier in Auszügen zu sehen ist, erschienen 2019 im Jaja Ver-
lag, gewann 2019 den Rudolph-Dirks-Award für beste Science Fiction.
Roboter als Personen im Rechtssinne?