Aktuell in CR

Deliktische Haftung für künstliche Intelligenz - Warum die Verschuldenshaftung des BGB auch künftig die bessere Schadensausgleichsordnung bedeutet (Denga, CR 2018, 69)

Technologische Neuerungen stellen das Rechtssystem vor besondere Herausforderungen. Neue Gesetze können dabei erforderlich werden. Die bestehenden Instrumentarien des Deliktsrechts können Sachschäden durch künstliche Intelligenz (KI) aber größtenteils effektiv ausgleichen. Weitergehende Novellierungsvorschläge auf europäischer Ebene sind bislang nicht stimmig. Der Beitrag skizziert zunächst die neuralgischen Punkte von KI-Agenten im Bereich zivilrechtlicher Haftung (I.) und untersucht sodann im Schwerpunkt den geltenden rechtlichen Haftungsrahmen beim Einsatz von KI-Agenten und arbeitet sorgfältig heraus, dass die Wertungen von § 831 BGB auch für KI-Agenten passen (II.). Dabei werden die Grundsätze deliktischer Haftung dogmatisch sauber analysiert und im Rahmen einer ganzheitlichen Betrachtung und gegen neuere Ansätze wie Risiko-Management als dritten Weg, Rechtspersönlichkeit für Roboter und „ethical coding“ verteidigt.

Inhaltsverzeichnis

 

  1. KI-Agenten und deren Implikationen
  2. Rechtlicher Haftungsrahmen beim Einsatz von KI-Agenten
    1. Lösung von Komplexität durch das Zivilrecht
    2. Anspruchsgrundlagen und Problemfelder der Deliktshaftung für KI
    3. Zurechnungsprobleme der Nutzerhaftung bei § 823 Abs. 1 BGB
      1. Kausalitätserwägungen
      2. Grundsätze der Verkehrspflichten bei KI-Agenten
    4. Verschuldensprobleme
    5. Nutzerhaftung nach § 831 Abs. 1 S. 1 BGB analog
      1. KI-Agenten als Verrichtungsgehilfen
      2. Zusammenhang von Schädigung und Verrichtung
      3. Doppelte Vermutung und Exkulpation
      4. Ergebnis
    6. Kritik europäischer Regelungsansätze
      1. Gefährdungshaftung mit Versicherungspflicht?
      2. Rechtspersönlichkeit für Roboter?
      3. Ethical Coding?
  3. Conclusio

 

I. KI-Agenten und deren Implikationen

Künstliche Intelligenz könnte die Welt verändern. Auswirkungen sind bereits etwa in der Medizin, der Automobilität, der Werbebranche oder der kollektiven Rechtewahrnehmung spürbar. Der KI-Agent erscheint als Roboter mit körperlicher Wirkung oder als reiner Algorithmus innerhalb eines Rechen- oder Kommunikationssystems.

1. Was ist „Künstliche Intelligenz“?

„Künstliche Intelligenz“ ist ein schillernder, schwer definierbarer Begriff. Sie ist in der Ausgestaltung von Programmfunktionen der Informatik zu verorten. Künstliche Intelligenz wird wie jede andere Funktion durch Programmierung in Code geschaffen, kann sich aber verselbstständigen. Code setzt grundsätzlich nach dem Kausalitätsprinzip menschlich definierten Signal-Input in menschlich definierten, gegebenenfalls physischen, Signal-Output um. Künstliche Intelligenz ist vom Programmierer mit einem eigenen Auswahl- und Entscheidungsermessen ausgestattet und kann die Entscheidung über In- und Output selbst treffen. Dies geschieht zunächst innerhalb einer menschlich bestimmten Rahmenprogrammierung, die ethische Prinzipien wie die asimovschen Robotergesetze enthalten kann.

2. Zwei neuralgische Haftungsaspekte

Verursacht ein KI-Agent einen Schaden, stellen vor allem zwei Aspekte Probleme in der rechtlichen Haftungsbewertung von Herstellern, Eigentümern und Nutzern. Das ist zum einen die Autonomie in der Entscheidungsfindung. Ein KI-Agent erlangt Autonomie durch unbegrenzte Lernfähigkeit und unbegrenzte Vernetzung. Die Methode des deep learning erlaubt etwa die Verarbeitung von Daten ohne vorherige menschliche Filterung, Einordnung in Theorien (daher auch eine These vom „Ende aller Theorien“) oder Programmierung der Verarbeitungsmethode. Die unbegrenzte Vernetzung und Interaktion eines Systems mit anderen Systemen und der Umwelt ermöglicht deren Erfahrungsaustausch und wechselseitige Beeinflussung. Ansätze solcher Inter-Systemkommunikation gibt es etwa beim Autonomen Fahren oder bei automatischen Warenbestellungen durch smarte Haushaltsgeräte. Die Verbindung von unbegrenzter Lernfähigkeit und Vernetzung kann menschliche Rahmenprogrammierungen überwinden, wenn Input- und Output-Signale eigenständig durch den KI-Agenten ausgewählt und bewertet werden. Ein Finanzanlage-Agent könnte so statt wie menschlich vorgegeben neben Aktien auch Rohstoffe oder Anleihen erwerben, um Gewinn zu erwirtschaften. Zum anderen und als Konsequenz der autonomen Entscheidungsfindung ist die Unvorhersehbarkeit der – auch physischen – Wirkungsweise der Künstlichen Intelligenz relevant.

Diese beiden Eigenschaften hängen in ihrer Ausprägung vom Entwicklungsstand der KI-Agenten, insbesondere von ihrer Lernfähigkeit, ab. Sie werden noch auf absehbare Zeit menschlich determiniert sein und insoweit nur geringe Haftungsprobleme stellen. Gesetzgeber in Europa und der Welt interessieren sich aber bereits für die nächste Stufe, auf der KI-Agenten menschlicher Autonomie zumindest sehr nahe sind.

3. Gesetzgeberischer Ansatz

Der Gesetzgeber kann dabei durch ein gesellschaftliches Stimmungsbild mehr als durch eine tatsächliche Gefahrenlage zur stark präventiven Regulierung verleitet werden. Bemerkenswert ist deshalb, dass der Diskurs um die Regulierung von KI-Agenten stark von negativen kulturellen Bildern, wie den Legenden von Frankenstein und dem Golem, geprägt ist. Solche kulturellen Ängste finden etwa in Asien keine Entsprechung. Sicher ist Vorsicht geboten, wenn Maschinen über Leben und Tod entscheiden könnten. So warnen Leitfiguren der technologischen Avantgarde wie Musk und Hawking vor den Gefahren der KI. Die Kehrseite von Angstszenarien ist aber eine innovationshemmende Überregulierung.

Im Blick zu behalten ist deshalb, dass KI nicht die erste gefahrengeneigte Technologie ist, die gesellschaftlich nutzbar gemacht wird. Zu denken ist neben Kfz vor allem an die friedliche Nutzung von Atomenergie. In beiden Bereichen wurde mit der Einführung einer ausdifferenzierten Gefährdungshaftung in StVG und AtomG reagiert. Hier soll indes aufgezeigt werden, dass eine interessen- und risikogerechte Regulierung von Schäden bereits mit dem bestehenden Zivilrechtsregime möglich ist. Gegebenenfalls sollte die bestehende Verschuldenshaftung nach § 831 BGB behutsam angepasst werden. Wesentlich ist eine transparente und europaweit harmonische Ausgestaltung des Stands der Technik und der Aufsichtspflichten der Akteure.

II. Rechtlicher Haftungsrahmen beim Einsatz von KI-Agenten

1. Lösung von Komplexität durch das Zivilrecht

Das bestehende Zivilrecht kennt eine Vielfalt von Haftungslösungen für komplexe Gefahrschaffung. Deshalb überfordert nicht jede soziale oder technische Neuerung die teilweise über 100 Jahre alten Institute des BGB. Es gibt auch bei Einsatz und Wirkung künstlicher Intelligenz kein „regulatorisches Vakuum“. Menschliche Interaktion ist immer von Komplexität geprägt, da Menschen zur Erreichung ihrer Ziele nicht nur physisch unmittelbar selbst „in die Welt greifen“, sondern sich dazu auch anderer Menschen und anderer Dinge bedienen. Das deutsche Recht hat dafür funktionierende Haftungslösungen, insbesondere durch die Kategorien der Gefährdungshaftung, der Verkehrssicherungspflichten und der Haftung für fremdes oder vermutetes Verschulden. Dies gilt auch in sehr komplexen, systemischen Situationen, wie etwa das Gesellschaftsrecht mit den Grundsätzen zur Organ- und Arbeitnehmernehmerhaftung zeigt. Eine existierende Vielzahl von Akteuren und Umwelteinflüssen schließt eine normative Zuordnung von Schäden zu einzelnen Personen nicht aus. Deshalb ist auch nicht kategorisch ein „Untergang des Handelnden im systemischen Kontext“ künstlicher Intelligenz zu beklagen. Eventuell sind die bestehenden normativen Haftungszuweisungen zu überdenken. Die zivilrechtliche Dogmatik ist aber hinreichend flexibel, um die Risiken technischen Fortschritts auch präventiv verhaltensregulierend einzuhegen. Dies nicht zuletzt auch deshalb, weil kontinentaleuropäisches Recht anders als das einzelfallbasierte Common Law auf abstrakten, technikneutralen Regeln basiert, die Auslegung und analoger Anwendung zugänglich sind.

Hier geht's direkt zum Aufsatz in juris PartnerModul IT-Recht:
Login für registrierte Kunden


Weiterlesen im CR Schnupperabo:
hier

Verlag Dr. Otto Schmidt vom 15.02.2018 11:27

zurück zur vorherigen Seite