"Black Lives Matter". Das ist ein Rechtssatz und eine Selbstverständlichkeit. Nach George Floyd ist in den USA der auf einem Parkplatz flüchtende Rayshard Brooks von der Polizei getötet worden, weil sie ihn für gefährlich hielt.

Dr. Rolf Schwartmann
Eine Kolumne
von Dr. Rolf Schwartmann

Polizisten müssen in Extremsituationen fast Übermenschliches leisten und können dabei versagen. Das ist ein Dilemma und in vielen Fällen nicht vorwerfbar. Sie sind Menschen und nicht davor gefeit, überfordert zu sein und unberechenbar zu handeln.

Kommen weitere Faktoren hinzu - wie aktuell in den USA Rassendiskriminierung - explodiert das System. Der Tod der beiden Schwarzen ist die Folge eines Fehlers in einem Rechtssystem, das ihn zugleich vorsieht. Kann künstliche Intelligenz hier helfen?

Grundsätzlich gilt: Der Mensch muss das Recht über den Menschen vollziehen und sprechen, nicht die Maschine. Menschen dürfen nicht zu Objekten von Maschinen werden. Aber wie gehen wir damit um, wenn die Fehlbarkeit, Unberechenbarkeit und Unkontrollierbarkeit des Menschen unnötig Menschenleben fordern?

Menschen sind immer fehlbar

Dass der Mensch auch dann, wenn er sein Bestes gibt fehlbar ist und in Behörden im Kleinen oftmals nicht Recht vollzogen wird, kann man kaum bestreiten. Schließlich wird so mancher Kindergartenplatz nach Sympathie vergeben und im Straßenverkehr so manches Auge nach demselben Motto zugedrückt.

Der Rechtsstaat nimmt die Fehlbarkeit des Einzelnen in diesen Situationen aus guten Gründen hin. Wer sich in Rechten verletzt sieht, kann den Staat verklagen und menschliche Richter entscheiden über den Fall. In letzter Konsequenz sind Fehlentscheidungen als Ausdruck der Fehlbarkeit des Menschen rechtsstaatlich hinzunehmen, solange es ein funktionierendes gesetzliches Verfahren zu deren Ausschluss gibt.

Aber wie gehen wir damit um, wenn das Systemversagen bei emotional aufgeladenen Polizeieinsätzen für Leib und Leben aller Beteiligter sich als Bestandteil eines Polizeisystems erweist, für das es eine bessere Alternative gibt? Wir kennen das Problem aus dem Straßenverkehr und gehen fest davon aus, dass die Zahl der Verkehrstoten sinken wird, wenn künstliche und auf risikoarmes Fahren programmierte Intelligenz das Steuer übernehmen wird. Man arbeitet heute in der industriellen Fertigung und in der Krankenpflege schon mit Hilfe von Robotern im Kontakt zum Menschen.

Maschinen können die besseren "Polizisten" sein

Wenn Polizisten im Einsatz maschinelle Helfer zur Verfügung gestellt würden, die etwa in konkreten Verhaftungssituationen, ohne Ansehung von Herkunft, sozialem Status oder Hautfarbe auf den Vollzug des Polizeirechts programmiert wären, dann hätte George Floyd kein Knie erstickt und Rayshard Brooks hätte vermutlich emotionslos und lebend festgesetzt werden können, bis man seinen Fall überprüft hätte.

An dieser Stelle wären die korrekt emotionslosen Maschinen die besseren "Polizisten", weil sie nicht reizbar, nicht manipulierbar, nicht verletzbar und auf das rechte Maß an Gewaltanwendung programmiert wären.

Solche Maschinen dürften niemals Richter über den Menschen werden. Aber warum dürften sie ihn nicht da ersetzen, wo nicht das Recht versagt, sondern der Mensch bei dessen Vollzug zum Risiko wird und Unschuldige gefährdet?

Die Datenethikkommission (DEK) hat die Frage aufgeworfen, ob es einen Anspruch auf den Einsatz künstlicher Intelligenz geben muss, wenn dieser in der Regel gerechtere Ergebnisse erzeugt.

Einsatz von algorithmischen Systemen könnte sogar "geboten" sein

"Nur selten dürfte die Situation gegeben sein, dass eine Abwägung zwischen menschlichem Handeln und dem Einsatz eines algorithmischen Systems verzichtbar ist, weil dieses in allen ethisch relevanten Belangen ein "besseres" Ergebnis erzielt als menschliche Akteure, die herkömmliche Technologien nutzen. Dort, wo dies der Fall ist, gilt nach Auffassung der DEK allerdings, dass der Einsatz algorithmischer Systeme ethisch geboten ist, denn ein genereller ethischer Vorzug menschlichen Handelns vor dem Einsatz von Maschinen zulasten des Schutzes wichtiger Rechtsgüter ist nach Auffassung der DEK nicht gerechtfertigt." So heißt es im Abschlussbericht der Kommission.

"Das menschliche Handeln bezieht seinen grundsätzlichen Wert aus seiner moralischen Bedeutung" sagt die Kommission weiter. Wenn eine Maschine die moralische Bedeutung des menschlichen Handelns besser umsetzen kann als ein Mensch, dann muss der Mensch sie als Werkzeug der Moral und des Rechts einsetzen.

Es geht dann nur noch darum, die Kontrolle über die "Künstliche Intelligenz" und deren Programmierung zu behalten. Verlieren wir diese Kontrolle, werden wir zum Objekt der Maschine.