Aktuell in der CR

Die Erklärbarkeit von Künstlicher Intelligenz (KI) - Entmystifizierung der Black Box und Chancen für das Recht (Käde/Maltzan, CR 2020, 66)

Für die gesellschaftliche Akzeptanz von KI ist unabdingbar, deren Einsatz, Ergebnis und Funktionsweise transparent und nachvollziehbar zu machen. Die berechtigte Forderung nach einer transparenten und nachvollziehbaren KI droht trotz zahlreicher Ansätze wirkungslos zu verhallen. Der Beitrag untersucht die gegenwärtigen Mechanismen zur Erklärbarkeit von KI und skizziert die dadurch entstehenden Chancen für das Recht.

I. Die Notwendigkeit einer erklärbaren KI

1. Fehleranfälligkeit und Risiken in der Praxis

2. Bisherige Gegenmaßnahmen

3. Herausforderungen auf dem Weg zur Akzeptanz von KI-Systemen

II. Die Erklärbarkeit als (intrinsische) Eigenschaft

1. Grundlagen der Erklärbarkeit und Definitionsversuch

2. Kategorisierung von Erkläransätzen

III. Technische Möglichkeiten und deren Reichweite

1. Random Forest-Modelle

a) Technische Grundlagen

b) Random Forests als Black Box

2. Künstliche neuronale Netze (KNN)

a) Technische Grundlagen

b) Künstliche Neuronale Netze als Black Box

IV. Bestehende Ansätze hinsichtlich Erklärung und Erklärbarkeit

1. Erklärbarkeit von Random Forest-Modellen

2. Erklärbarkeit Künstlicher Neuronaler Netze

3. Potential von Explainable AI (XAI)

V. Haftungsrechtliche Auswirkungen einer erklärbaren KI auf die Vorhersehbarkeit

1. Status Quo in der haftungsrechtlichen Diskussion

2. Kausalität und Korrelation im Kontext der Erklärbarkeit

VI. Urheberrechtliche Auswirkungen einer erklärbaren KI

VII. Zusammenfassung und Ausblick


I. Die Notwendigkeit einer erklärbaren KI

1
Grundlegende, den Menschen betreffende alltägliche Entscheidungen werden heute vermehrt durch Einsatz von Algorithmen getroffen. Auch die KI berührt immer mehr Bereiche des menschlichen Lebens und trifft Entscheidungen, die für technische Laien oft schwer zu verstehen sind. Diesen gesellschaftlichen Wandel begleitend bestimmen Forderungen nach einer transparenten und nachvollziehbaren KI seit einiger Zeit sowohl die interdisziplinäre Forschung als auch einer epistemischen Hybris folgend die gesellschaftliche und politische Debatte. In Anlehnung an die systemimmanente Intransparenz und Lernfähigkeit folgern einige prominente Stimmen, dass KI eine existenzielle Bedrohung für die Menschheit darstellt – ganz im Sinne des kanonischen Gedankenexperiments des ‚paperclip maximizer’, das aufzeigt, wie KI die Menschheit letztlich zerstören könnte. Auch der Historiker Yuval Noah Harari geht davon aus, dass der Aufstieg von KI eine gesellschaftliche Klasse ohne Nutzen („global useless class“) hervorbringen wird. Diese Ängste und Bedenken halten sich hartnäckig.

1. Fehleranfälligkeit und Risiken in der Praxis
2
Einzelne Vorfälle diskriminierender algorithmischer Entscheidungen sowie in der Vergangenheit aufgetretene gravierende Folgen mangelnder Robustheit – die Fehleranfälligkeit der Entscheidungen – verringern weiterhin die Akzeptanz der sog. Black Box Society. Beispielhaft ist auf einen Fall automatischer Bilderkennung im Straßenverkehr zu verweisen, in dem die KI durch aufgeklebte Sticker das Stoppschild mit einem Vorfahrtsschild verwechselte.

3
Darüber hinaus nutzen viele KI-Systeme nicht immer einen aus menschlicher Hinsicht sinnvollen Lösungsweg, sondern die sog. „Clever Hans Strategie“. Ähnlich dieser Strategie agieren viele Systeme, die beispielsweise Bilder lediglich durch den Kontext korrekt klassifizieren. Forscher der TU Berlin haben herausgefunden, dass Bilder der Kategorie Schiff durch die vorhandenen Wasser-Bildpunkte – also anhand des Kontextes – korrekt klassifiziert wurden. Das Schiff zu erkennen – die eigentliche Aufgabe – wurde nicht gelöst. Es bedarf daher Möglichkeiten der Überprüfbarkeit und Optimierung des Systems.

4
Schließlich erhöhen in den für Trainingsdaten zugänglichen Datenbanken enthaltene Vorurteile oder implizite Verzerrungen unbewusst das Risiko der Diskriminierung bei Implementierung des Systems. Alltägliche algorithmische Entscheidungsprozesse spiegeln damit ungewollt die Einstellung der Gesellschaft mit ihren alten, vertrauten Vorurteilen und Stereotypen wieder, die zu systematisch fehlerhaften und verzerrten Parametern führen können. Forscher um Aylin Caliskan bewiesen das eindrucksvoll durch Nutzung des in der Computerlinguistik bekannten „Common Crawl“. Mittels dessen sollte die KI lernen, welche Begriffe semantisch zusammengehören. Im Ergebnis fällte die KI implizite Werturteile.

2. Bisherige Gegenmaßnahmen
5
Diese Beispiele unterstreichen, dass es für die gesellschaftliche Akzeptanz von KI wichtig ist, ihren Einsatz und Funktionsweise transparent und nachvollziehbar zu gestalten. Dieser Aufgabe nachkommend, sind 2019 sowohl Ethik-Leitlinien durch die Europäische Kommission als auch das Gutachten der Datenethikkommission vorgestellt worden. Trotz konkreter Anforderungen und Handlungsempfehlungen bleiben diese auf einer abstrakten Ebene. Die Vieldeutigkeit und begriffliche Unschärfe von „KI“ und „Transparenz“ wie auch die Vielzahl von den in sich geschlossenen Ansätze der jeweiligen Fachdisziplinen hindern den Weg zu konkreten praxisorientierten Maßnahmen. Der berechtigte Ruf nach einer transparenten und nachvollziehbaren KI droht wirkungslos zu verhallen. Dessen praktische Umsetzung könnte ...

 


Verlag Dr. Otto Schmidt vom 22.01.2020 11:36
Quelle: Verlag Dr. Otto Schmidt

zurück zur vorherigen Seite

FD946C085F3D4D2F9A8DD1EABDE9AD8B