Richterliche Entscheidungen muss der Mensch allein treffen. Doch die Maschine kann assistieren – wie beim Fußball.

Eine Kolumne
Diese Kolumne stellt die Sicht von Rolf Schwartmann dar. Informieren Sie sich, wie unsere Redaktion mit Meinungen in Texten umgeht.

Schiedsrichter in der Fußball-Bundesliga haben einen anspruchsvollen Job. Sie müssen in Sekundenschnelle entscheiden, ob in einer Strafraumsituation Foul gepfiffen werden oder Vorteil gelten muss. Diese Entscheidungen verlangen nicht nur dem Spielleiter in oft emotional aufgeladenen Situationen eine fast übermenschliche Auffassungsaufgabe ab. Fußball ist zwar nur ein Spiel, dessen Ausgang kann Menschen aber in Ausnahmezustände versetzen.

Mehr News zum Thema Fußball

Der Videoassistent hilft

Um dieser Lage gerecht zu werden, hat man in der Fußball-Bundesliga 2017 den Video-Schiedsrichterassistenten, kurz VAR (Video Assistant Referee) eingeführt. So will man klare Fehlentscheidungen verhindern und das Spiel fairer machen. Weil das Video-Assist-Center im Keller des RTL-Gebäudes angesiedelt ist, nennt man den Videoassistenten hierzulande auch den "Kölner Keller".

Wie funktioniert der VAR? Bei kniffligen Entscheidungen des allein verantwortlichen Schiedsrichters auf dem Spielfeld, die dieser mit Blick auf eine mögliche Fehlentscheidung überdenken sollte, greift der Assistent ein und ruft den Spielleiter an den Spielfeldrand. Dort zeigt er ihm Zeitlupenbilder von strittigen Spielszenen. Anhand dieser Information kann der Schiedsrichter auf dem Platz eine neue Entscheidung treffen oder bei seiner ursprünglichen Entscheidung bleiben, wenn er diese weiterhin für richtig hält.

Dreierkette: Mensch-Maschine-Mensch

Der Mechanismus des Videoassistenten kann beispielgebend für den Einsatz künstlicher Intelligenz in riskanten Kontexten sein. Wenn es darum geht, dass der Mensch und nicht die Maschine entscheidet, dann muss man Vorkehrungen dafür treffen, dass die Maschine dem Menschen nicht vorgreift. Unverhandelbares Paradebeispiel für diesen Fall ist die richterliche Entscheidung, weil sie nach der Verfassung nur durch den gesetzlichen (menschlichen) Richter getroffen werden darf, der vorher unbeeinflusst von Maschinen als Mensch rechtliches Gehör gewähren muss. Die KI darf allenfalls Denkanstöße zur richterlichen Selbstkontrolle geben.

Aber kann der Richter denn nicht einfach die Maschine überstimmen? Doch, das kann er, aber dabei steht ihm der sogenannte Ankereffekt im Weg. Der Entwurf der KI-Verordnung spricht von der möglichen "Neigung zu einem übermäßigen oder automatischen Vertrauen in das von einem Hochrisiko-KI-System hervorgebrachte Ergebnis ('Automatisierungsbias')". Der Ankereffekt beschreibt das psychologische Phänomen, wonach Menschen in ihrer Entscheidungsfindung unbewusst von vorhandenen Umgebungsinformationen beeinflusst werden.

Warum macht es der Ankereffekt Menschen so schwer?

Als Ursache gilt einerseits eine unzureichende Korrektur des vom Anker gesetzten Ergebnisvorschlags. Andererseits werden im Gehirn selektiv solche Gedächtnisinhalte aktiviert, die mit dem Anker kompatibel sind. Wer noch keine gefestigte Meinung hat, kann sich dem Ankereffekt nicht entziehen. Den Anker, den die KI setzt, kann man nicht mit dem Tipp eines Kollegen vergleichen. Das liegt daran, dass die Datenbasis der Maschine "autonom" agiert und keine Fehler im menschlichen Sinne macht. Deshalb kann die Verantwortung für einen falschen oder vom Programmierer bewusst gesetzten verzerrenden Impuls ("Bias") vom menschlichen Entscheider nicht übernommen werden.

Wie kann vermieden werden, dass die KI den Anker für die Meinung des Richters setzt? Hier kommt der Dreischritt des VAR ins Spiel: Der Richter verfasst eine Entscheidung. Diese präsentiert er, indem er eine Starttaste zum Einsatz der KI drückt, einer KI. Diese weist, darauf basierend, auf mögliche Schwachstellen der Entscheidung hin. Das könnte ein möglicherweise übersehener Rechtsgedanke oder ein Urteil sein, das man berücksichtigen könnte. Ob der Richter die Impulse der KI umsetzt, würde wiederum er entscheiden.

Das unterscheidet Richter von Ärzten

Es kommt beim Einsatz künstlicher Intelligenz in der Justiz also auf das Erstzugriffsrecht des Menschen bei der Entscheidung an. Bei Justiz-KI-Anwendungen sind daran strengere Anforderungen gestellt als etwa bei Anwendungen im medizinischen Bereich, bei denen Mediziner schon vor einer Diagnoseentscheidung, etwa im Rahmen bildgebender Medizin, KI einsetzen, um die Ergebnisse später zu bewerten. Verfassungsrechtlich erklärt sich dieser Unterschied aus der richterlichen Unabhängigkeit, die den Gedanken umsetzt, dass der nur dem Recht und dem Gewissen unterworfene Richter quasi als Treuhänder des Rechtsstaats im Namen des Volkes Staatsgewalt ausübt.

Das Rechtsgut der Rechtsunterworfenen, über das er richtet, steht nicht zu seiner Disposition. Diese Konstellation unterscheidet sich von der des Arztes im Verhältnis zum Patienten. Denn über die Gesundheitsbehandlung entscheidet nicht der Arzt, sondern die behandelte Person. Der Arzt hat "nur" die berufsethische Pflicht, den Patienten gegebenenfalls nach Konsultation von KI umfassend aufzuklären und zu beraten, damit der Patient die Entscheidung über seine Gesundheit treffen kann.

Nicht jede Software ist KI

Wichtig ist aber: Nicht jede Justizsoftware ist auch eine KI im Sinne der entstehenden KI-Verordnung, die deren hohe Anforderungen erfüllen muss. Erst recht ist nicht jede Anwendung hochriskant.

Keine KI-Systeme sind demnach Software zur Berechnung von Anwaltsgebühren oder Zahlungsraten. Bei KI-Systemen kommt es nach dem Vorschlag des Europaparlaments im Kern auf das maschinengestützte Hervorbringen von Entscheidungen durch autonom operierende Systeme mit der Möglichkeit an, das physische oder virtuelle Umfeld zu beeinflussen.

Wann muss der Mensch allein entscheiden?

Die Idee des "Kölner Kellers" müsste beim Einsatz von KI immer dann Anwendung finden, wenn es auf die Erstentscheidung des Menschen ankommt. Das kann etwa bei Entscheidungen über die Einstellung von Personal oder bei Verwaltungsentscheidungen sein - man denke nur die Gewährung von Asyl. Wie beim VAR könnte die KI als mögliches Korrektiv oder zweite Meinung zum Einsatz kommen, ohne dass die Entscheidung an das System delegiert würde.

Lesen Sie auch:

Wie wichtig es ist, dass der Mensch am Ende selbst entscheidet, konnte man kürzlich in der Premiere League sehen, als der FC Liverpool ein Spiel bei Tottenham verlor, weil der Schiedsrichter eine falsche "Abseitsentscheidung" des Videoassistenten auf Basis einer falschen Fotoauswertung einfach übernommen hatte. Es gab zu Recht mächtig Ärger.

JTI zertifiziert JTI zertifiziert

"So arbeitet die Redaktion" informiert Sie, wann und worüber wir berichten, wie wir mit Fehlern umgehen und woher unsere Inhalte stammen. Bei der Berichterstattung halten wir uns an die Richtlinien der Journalism Trust Initiative.