Aktuell in der CR:

Die zivilrechtliche Haftung für KI nach dem Entwurf der geplanten KI-VO (Grützmacher, CR 2021, 433)

Mit der KI-​VO ist ein Stück spezifisches Sicherheitsrecht geplant. Sie soll zudem dem Schutz von Grund- bzw. Menschrechten dienen. Aus dieser Warte wird die KI-​VO mit Sicherheit kritisch betrachtet werden (zu einer ersten allgemeinen Analyse Spindler, CR 2021, 361 ff.). Nicht aus dem Blick sollte gelassen werden, dass eine KI-​VO auch erhebliche Auswirkungen auf die Frage der zivilrechtlichen oder gar strafrechtlichen Haftung haben wird. Nun ist es noch eine Weile hin, bis die KI-​VO ihren Weg durch die europäischen Mühlen der Gesetzgebung genommen haben wird. Aber es ist bei den dortigen Mechanismen nie zu früh, auch die zivilrechtliche Dimension des Verordnungsentwurfs mitzudenken.

Potentielle zivilrechtliche Auswirkungen des geplanten KI-​Sicherheitsrechts: ein neues Schutzgesetz i.S.v. § 823 Abs. 2 BGB am Horizont

INHALTSVERZEICHNIS:

I. Einleitung

1. Technischer Hintergrund

2. Grundproblematik des Umgangs mit KI im Recht

a) Zurechnung bzw. Verantwortlichkeit für KI-basierte Systeme trotz Entfernung vom menschlichen Handeln?

b) Wechsel der Verantwortlichen?

3. Die deliktische Haftung de lege lata

a) Die Haftung des Herstellers bzw. Anbieters

aa) Das Problem der Vorhersehbarkeit

bb) Das Trainingsproblem

cc) Das Beweisproblem

b) Haftung des Nutzers

aa) Gefährdungshaftung

bb) Haftung für vermutetes Verschulden des Nutzers/Betreibers nach § 823 Abs. 1 BGB

c) Unklare Sorgfaltsmaßstäbe

d) Zwischenfazit zur Haftung de lege lata

4. Lösungen für die Haftungsfragen de lege ferenda?

II. Die zivilrechtliche Haftung auf Basis des Kommissionsvorschlags für eine KI-VO (de lege ferenda)

1. Schutzgesetz i.S.v. § 823 Abs. 2 BGB

a) Verletzungen von Schutzgesetzen

aa) Hochrisiko-KI-Systeme

bb) Pflichten mit Blick auf Hochrisiko-KI-Systeme gem. Art. 6 ff. KI-VO-E

(i) Pflichten des Anbieters (insb. Herstellers)

(1) Das Risikomanagementsystem gem. Art. 9, 16 lit. a KI-VO-E (einschl. Post-Market Monitoring nach Art. 61 KI-VO-E)

(2) Vorgaben zur Data Governance gem. Art. 10, 16 lit. a KI-VO-E

(3) Pflicht zur Ermöglichung und Aufbewahrung von Event-Logs gem. Art. 12 und Art. 16 lit. a und d  KI-VO-E

(4) Das Qualitätsmanagementsystem gem. Art. 17 und Art. 16 lit. b KI-VO-E

(5) Pflicht zu unmittelbaren Korrekturmaßnahmen oder zum Rückruf gem. Art. 21 KI-VO-E

(ii) Pflichten des Nutzers

(1) Pflicht zur Befolgung der Instruktionen (Art. 29 Abs. 1 KI-VO-E)

(2) Pflicht zur Sicherstellung der Relevanz von Eingabedaten für die bestimmungsgemäßen Verwendungszwecke (Art. 29 Abs. 3 KI-VO-E)

(3) Überwachungspflichten für Hochrisiko-KI-Systeme sowie Informationspflichten und Pflicht zur Einstellung der Nutzung bei besonderen Gefahren (Art. 29 Abs. 4 KI-VO-E)

(4) Pflicht zum Logging und Event-Recording sowie zur Archivierung entsprechender Logging-Daten (Art. 29 Abs. 5 KI-VO-E)

b) Limitierung der Anbieter- und Erweiterung der Nutzer-Haftung durch den Grundsatz der bestimmungsgemäßen Verwendung sowie die Berücksichtigung vorhersehbaren Fehlgebrauchs

c) Verschulden, Kausalität sowie Schaden

2. Geltendmachung über das UWG

3. Auswirkung auf die nationale Rechtsordnung und Möglichkeiten der Beweisführung

a) Sorgfaltsmaßstäbe und Verkehrspflichten

b) Auswirkung auf die Beweislage und Beweisregeln

aa) Sekundäre Darlegungslast des vermeintlichen „Verletzers“

bb) Besichtigungsansprüche

cc) Vorlage von Urkunden nach § 142 ZPO

III. Fazit

 


 

I. Einleitung

1

Viele klassische Produkte sind mit dem Inver­kehr­bringen auf eine anhal­tende, konstante Qualität angelegt. Das gilt auch für Standard­software. In einigen Branchen – so im Automotive-Bereich und bei Medizin­pro­dukten – fordert die Regula­torik sogar, dass sich die Produkte vom Nutzer nicht verändern lassen. Allen­falls werden – wiederum vom Hersteller – Updates nachge­schoben.

2

KI-basierte Systeme hingegen zeichnen sich im Idealfall dadurch aus, dass sie nach dem Inver­kehr­bringen weiter lernen. Dieses stellt die klassische Herstel­ler­haftung in Frage,1 bedeutet aber nicht zwingend, dass das de lege lata beste­hende Haftungs­system per se versagen müsste.

3

Gleichwohl zeigt nachfol­gende Analyse des beste­henden Haftungs­systems Schwach­punkte, bei denen sich die Frage stellt, ob sie vom Kommis­si­ons­vor­schlag für eine KI-VO2 abgestellt oder zumindest abgeschwächt werden können.

 

1. Techni­scher Hinter­grund

4

Für die recht­liche Unter­su­chung ist entscheidend, ob das Handeln einer KI progno­s­ti­ziert bzw. zumindest auf die Handlungen des Herstellers zurück­ge­führt werden kann, ob KI-Systeme gut getestet werden können oder aber ob sie später erst noch trainiert werden bzw. mehr oder minder eigen­ständig dazulernen. Zu unter­scheiden sind insofern Systeme mit sog. schwacher KI und solche mit starker KI.

5

Heute im Einsatz befind­liche Systeme basieren wohl durch­gehend auf schwacher KI. Schwache KI zeichnet sich dadurch aus, dass sie der Lösung konkreter Anwen­dungs­pro­bleme bzw. klar definierter Aufgaben dient.3 Sie unter­stützt dabei mensch­liches Handeln bzw. Entschei­dungen. Vor allem nutzt schwache KI regel­mäßig Mittel der Mathe­matik und der Infor­matik, um intel­li­gentes Verhalten zu simulieren.4 Schwache KI kann demge­genüber die Methodik der Problem­lösung nicht ändern, auch wenn sie, was bedeutsam ist, bezogen auf die Einzel­aufgabe heute zusehends selbst­op­ti­mierend agiert. Einge­setzt wird sie für die Muste­rer­kennung oder -vorhersage (oft in Form neuro­naler Netze), im Bereich der Robotik und für Bots. Klassische Formen der schwachen KI sind überdies wissens­ba­sierte Systeme (etwa Exper­ten­systeme zur Beant­wortung von Fragen und zur Erstellung von Diagnosen durch Schluss­fol­ge­rungen). Teils werden auch regel­ba­sierte Systeme noch als Teil der (schwachen) KI verstanden.

6

Demge­genüber zeichnet sich starke KI, mit deren Durch­bruch, wenn überhaupt, in etwa 20 Jahren5 bzw. ggf. von einem Tag auf den anderen gerechnet wird, dadurch aus, dass sie auf Augenhöhe mit Menschen ist, diese bei schwie­rigen Aufgaben unter­stützen kann, sich also durch logisches Denkver­mögen auszeichnet; starker KI inhärent ist ihre Lernfä­higkeit und die Fähigkeit, mit Unsicherheit und proba­bi­lis­ti­schen Infor­ma­tionen umzugehen.6 Starke, überge­ordnete Ziele verfol­gende KI reagiert nicht nur, sondern handelt theore­tisch aus eigenem Antrieb, und zwar intel­ligent und flexibel. Zu dieser Form der starken KI zählen insb. die Techniken des Deep Learning oder sog. Seed AI. Derzeit sind derartige Systeme allen­falls ansatz­weise ersichtlich.

 

2. Grund­pro­ble­matik des Umgangs mit KI im Recht

 

a) Zurechnung bzw. Verant­wort­lichkeit für KI-basierte Systeme trotz Entfernung vom mensch­lichen Handeln?

7

Die recht­liche Grund­pro­ble­matik liegt jeden­falls bei starker KI 7 darin, dass diese das mensch­liche Handeln substi­tuiert, auf welches die Rechts­ordnung ausge­richtet ist: ...

Hier direkt weiterlesen im juris PartnerModul IT-Recht



Verlag Dr. Otto Schmidt vom 14.07.2021 10:12

zurück zur vorherigen Seite