Künstliche Intelligenz ist nicht aufzuhalten und ihr Einsatz im Dienst des Menschen dürfte kaum verzichtbar sein. Aber wie geht man damit um, wenn beim Einsatz einer Maschine Schäden entstehen? Die EU-Kommission hat einen Entwurf zur Behandlung von Haftungsfragen beim Einsatz von Künstlicher Intelligenz vorgelegt.

Eine Kolumne
Diese Kolumne stellt die Sicht von Rolf Schwartmann dar. Informieren Sie sich, wie unsere Redaktion mit Meinungen in Texten umgeht.

Wenn eine zur Auslieferung programmierte Paketdrohne mit einem Fußgänger kollidiert, dann kann das übel enden. Ein chirurgischer Roboter, der bei einer Operation einen zu langen Schnitt setzt, kann gesundheitliche Folgeschäden verursachen. Wenn das algorithmische System einer Bank die Kreditwürdigkeit eines Kunden falsch einordnet, dann kann dieser deshalb vielleicht ein günstiges Immobilienangebot nicht annehmen.

Mehr zum Thema Digitales

Wenn für eine smarte Haustürschließanlage kein passendes Sicherheitsupdate angeboten wird, dann kann es nach einem Cyberangriff zu einem Hauseinbruch kommen. Wer haftet, wenn Mensch und Maschine zusammenwirken und nicht klar ist, ob der Hersteller oder Programmierer der Software oder derjenige, der das technische Gerät geschäftlich einsetzt, oder gar der von der KI Geschädigte einen Fehler beim Gebrauch gemacht hat?

Künstliche Intelligenz: Rechtsprobleme bei der Zusammenarbeit von Mensch und Maschine

Solche Fragen hat im Jahr 2019 die Datenethikkommission der Bundesregierung behandelt. Die aufgeworfenen Probleme liegen auf der Hand und sind grundsätzlich schnell umrissen. Der Hersteller oder Entwickler bzw. Verkäufer eines KI-Systems (in der Begrifflichkeit der KI-Regulierung Anbieter genannt) liefert etwa zur Ermittlung der Kreditwürdigkeit ein Programm an eine Bank (Nutzer), die dieses eigenverantwortlich beruflich nutzt.

Weil schon in der Programmierung ein Parameter für die Bestimmung des betroffenen Personenkreises übersehen wurde, werden bestimmte Personengruppen – als potenziell Geschädigte oder Opfer des KI-Einsatzes – zu Unrecht als nicht kreditwürdig eingestuft. Ob der Anbieter etwas falsch gemacht hat oder der Fehler im konkreten Fall (auch) aus einem Fehler bei der Anwendung der Software durch die Bank als Nutzer resultiert, ist für den Kunden der Bank nur schwer erkennbar.

Wer von der Kreditentscheidung betroffen ist, muss nach den allgemeinen Regeln des Zivilrechts seinen Schaden jedoch nachweisen. Weil er aber nicht nachvollziehen kann, wie der Fehler verursacht wurde, muss das Recht ihm helfen.

Es muss ein fairer Rechtsrahmen geschaffen werden, der Ansprüche auf Schadensersatz für Mängel von smarten Anwendungen oder Produkten, etwa Roboter oder Anwendungen in Smart-Home-Systemen, regelt. Ende September 2022 hat die EU-Kommission einen Entwurf für eine Richtlinie über KI-Haftung veröffentlicht.

Deren Idee ist es laut Begründung der Kommission unter anderem, "dass Opfer von Schäden, die durch KI verursacht wurden, im Rahmen der Vorschriften über die zivilrechtliche Haftung ein gleichwertiges Schutzniveau genießen wie Opfer von Schäden, die ohne den Einsatz von KI verursacht wurden".

Beweiserleichterung beim Streit über die Schuldfrage

Wer als KI-Geschädigter einen Schaden geltend macht, muss dessen Ursache und Reichweite vor Gericht darlegen. Das ist aber mangels Einblick in die Technik grundsätzlich nicht möglich. Opfer wissen nicht, wie das Programm, das ihren Schaden möglicherweise verursacht hat, funktioniert. Mit welchen Daten wurde die KI trainiert und wie wurde sie überwacht und angewendet?

Um dieses Wissensdefizit auszugleichen, sollen Geschädigte Zugang zu Beweismitteln bei Anbietern und Nutzern von relevanter Software erhalten. Opfer sollen Erleichterungen für den Nachweis ihres Schadens erhalten. Wer also etwa zur Auslieferung von Waren eine Paketdrohne einsetzt, die einen Schaden verursacht, muss Auskunft darüber geben, warum er aus seiner Sicht alles richtig gemacht hat.

Diese Anforderung muss sich aber im Rahmen der Verhältnismäßigkeit bewegen und Geschäftsgeheimnisse sowie Vertrauliches müssen geschützt bleiben. Legt der Anbieter oder Nutzer im Rahmen dessen nichts oder nichts Hinreichendes vor, wird sein Verstoß gegen eine Sorgfaltspflicht gerichtlich vermutet, wenn er die Vermutung nicht widerlegt.

Vernünftiges Ermessen entscheidet über Verursachung

Wenn der Pflichtverstoß feststeht, bleibt eine weitere Frage offen: Besteht ein Zusammenhang zwischen dem Fehler des KI-Systems und dem Verschulden des Anbieters, d. h. der Sorgfaltspflichtverletzung? Auch hier muss das Recht eine faire Lösung schaffen. Dazu hilft der Entwurf Opfern eines KI-unterstützen Prozesses mit einer "Kausalitätsvermutung".

Demnach müssen Geschädigte einer KI nicht beweisen, dass das Verschulden des Anbieters den Fehler der KI zur Folge hatte. Vielmehr kommt es darauf an, ob "auf der Grundlage der Umstände des Falls nach vernünftigem Ermessen davon ausgegangen werden kann, dass das Verschulden das vom KI-System hervorgebrachte Ergebnis oder die Tatsache, dass das KI-System kein Ergebnis hervorgebracht hat, beeinflusst hat".

Sondervorschrift für Anbieter und Nutzer von Hochrisiko-KI

Wenn es um den Einsatz von Hochrisikoanwendungen geht, bei denen etwa Gefahren für Leib oder Leben bestehen, sind potenzielle Opfer besonderen Risiken ausgesetzt. Damit alle Hochrisikoanwendungen behandelt werden, muss das Opfer einem Anbieter stets nachweisen, dass er Fehler bei der Konzeption der KI gemacht hat.

Das kann das Training einer KI sein, Mängel bei der Transparenz des Maschinenhandelns, die Möglichkeiten ihrer Beaufsichtigung, die Datensicherheit oder eine verspätete Fehlerkorrektur. Nutzern muss ein Fehler bei der nach der Gebrauchsanweisung vorgeschriebenen Überwachung oder ein Bedienfehler nachgewiesen werden.

Private Betreiber müssen sich Manipulationen gegenüber dem bestimmungsgemäßen Gebrauch entgegenhalten lassen.

Höheres Haftungsrisiko beim Einsatz von KI

Damit sind Anbieter und Nutzer von KI-Systemen höheren Haftungsrisiken als im regulären Haftungsrecht ausgesetzt. Das ist angemessen, denn schließlich erweitern sie ihren Geschäftskreis unter Einsatz intransparent agierender technischer "Erfüllungsgehilfen". Unsicherheiten bei Anbietern und Nutzern der Anwendungen sind vorprogrammiert.

Diesen dürfte zwar gefallen, dass sie nicht verschuldensunabhängig für ihre gefährliche Technik haften müssen. Über Schuldfragen und relevante Verursachungsbeiträge im "Bermudadreieck" zwischen Anbieter, Nutzer und Opfer wird man streiten. Viele Informationen über KI-Systeme sind konkret nur schwer von Geschäftsgeheimnissen abzugrenzen. All das lässt viel Raum für richterliche Rechtsanwendung.

Mehr Digitalthemen finden Sie hier

Interessiert Sie, wie unsere Redaktion arbeitet? In unserer Rubrik "So arbeitet die Redaktion" finden Sie unter anderem Informationen dazu, wann und worüber wir berichten, wie wir mit Fehlern umgehen und woher unsere Inhalte kommen. Unsere Berichterstattung findet in Übereinstimmung mit der Journalism Trust Initiative statt.
Tradition: Darum hat das iPhone auf Produktfotos immer die gleiche Uhrzeit

Tradition: Darum hat das iPhone auf Produktfotos immer die gleiche Uhrzeit

Ist Ihnen schon mal aufgefallen, dass es auf iPhone-Produktfotos immer 9:41 Uhr ist? Die Kuriosität geht bis ins Jahr 2007 zurück, damals hat Apple-Gründer Steve Jobs höchst persönlich das erste iPhone während einer sogenannten Keynote vorgestellt.
JTI zertifiziert JTI zertifiziert

"So arbeitet die Redaktion" informiert Sie, wann und worüber wir berichten, wie wir mit Fehlern umgehen und woher unsere Inhalte stammen. Bei der Berichterstattung halten wir uns an die Richtlinien der Journalism Trust Initiative.