Seit November 2022 ist die Software ChatGPT für jedermann frei verfügbar. Die Software könnte die Menschheit an neue Grenzen bringen. Aber: Wir müssen unsere Selbstbestimmung bewahren.

Rolf Schwartmann
Eine Kolumne
Diese Kolumne stellt die Sicht von Rolf Schwartmann dar. Informieren Sie sich, wie unsere Redaktion mit Meinungen in Texten umgeht.

Nach einer "Selbstbeschreibung" ist ChatGPT "ein Chatbot-System, das darauf ausgelegt ist, menschliche Konversationen zu simulieren." Der Textroboter speist sich aus Daten des digital gespeicherten Weltwissens. Er kommuniziert mit uns über unsere komplexe Sprache. Das war bisher die alleinige Domäne des Menschen.

Mehr zum Thema Digitales

ChatGPT ist keine Zauberei. Die Anbieter solcher Programme geben ihr Ziele vor, die oft genug erreicht werden. Per Algorithmus werden in der Werbewirtschaft Kunden zum Produktwechsel animiert. Man kann auch Wähler, die für einen politischen Wechsel offen sind, gezielt beeinflussen. Es verleiht denen, die das Programm beherrschen, aber potenziell die Macht, die Welt im wahrsten Sinne nach ihrem Willen zu programmieren.

Offenheit für die neue Technik

Die Welt ist offen für die neue Technik, auch wenn deren Risiken offenkundig sind. An Schulen und Hochschulen wird der Einsatz erprobt. Da man die Anwendung nicht verbieten kann, soll man lernen, sie zu nutzen und zu verstehen. Ziel ist es, sich im Zweifel über deren Entscheidungen und Ratschläge hinwegzusetzen.

Auch nach dem Entwurf der KI-Verordnung der EU, der bis zum Frühjahr 2024 geltendes Recht sein soll, soll der Mensch die Letztentscheidung nach der Maschine haben. Da es um den Einsatz von KI im Alltag geht, setzt die Überprüfung und Kontrolle der Software aber Transparenz über die Funktionsweise des Programms und über dessen Datenbasis bei jedem Anwender voraus.

Man muss grundsätzlich vorhersehen oder wenigstens nachvollziehen können, warum die Software etwas auf eine bestimmte Weise "entscheidet". Das ist aber schon bei einem Navigationssystem oder einem Schachcomputer nicht möglich. Deren Entscheidungsvorschlägen kann man aus dem Bauch heraus nicht sinnvoll widersprechen.

Transparenz über Zwecke und Datenbasis

Auch Anbieter müssen offenlegen, was sie mit dem Einsatz des Programms, das künftig in das Office-Paket von Microsoft eingebunden werden soll, bezwecken. Schließlich kann der Programmierer über das Programm Einfluss auf unser Denken nehmen. Das kann fatale Folgen für die Selbstbestimmung der Nutzer haben.

(Hochschul-)Lehrer können die Software dann Aufgaben erstellen lassen, die Schüler und Studierende dem Bot dann zur Lösung eingeben. So wird die Maschine immer "schlauer" und der Mensch muss nicht mehr denken. Die Technik ist heute so modern, wie es 1690 der erste Prototyp der Dampfmaschine war.

Die industrielle Revolution nahm 1769 mit dem Patent auf die Dampfmaschine ihren Anfang. Mit ihr haben wir die Grenzen unserer Körperkraft überwunden.

ChatGPT darf unser Denken nicht ersetzen

Der Bot hat das Potenzial, die Grenzen unseres Denkens zu erweitern, indem er Denkprozesse simuliert. Schon heute liefert die Software bessere Ergebnisse als mäßig gute Schüler und Studierende. ChatGPT wird weltweit durch unzählige Nutzeranfragen trainiert.

Man kann seine Lösungen von menschlich generierten Resultaten nicht unterscheiden. Kontrollsoftware versagt derzeit. Selbst wenn ein Programm einer Aussage maschinelle Herkunft attestieren würde, wäre das wertlos. Man könnte die Richtigkeit der Überprüfung ja nicht nachvollziehen.

Umdenken in der Ausbildung

Wissensüberprüfung muss künftig auf mündliche Prüfungen und Klausuren setzen. Perspektivisch sind Hausarbeiten als Maßstab für eine faire Bewertung - gleich ob in Schule, Studium, Ausbildung - für berufsqualifizierende Leistungsbewertungen untauglich. Bachelor- und Masterarbeiten sind Auslaufmodelle. Den Einsatz der Technik zu verbieten oder gar unter Strafe zu stellen, hilft nicht, wenn die maschinelle Herkunft nicht nachweisbar ist.

Aber ist das alles ein Problem? Nicht in jedem Fall. Man kann selbstbestimmt gegen ärztlichen Rat einer medizinischen Empfehlung eines Computers folgen und aus Prinzip immer anders fahren, als das Navigationssystem es vorschlägt. In der Ausbildung ist es aber problematisch.

Lesen Sie auch: Übernimmt eine KI bald meinen Job?

Das Wissen der Technik kann man sich zunutze machen, indem Schüler mit der KI über Lessings Ringparabel im "Nathan" diskutieren und sich dann fragen, ob sie dummes Zeug erzählt. Man kann die KI sogar Ausbildungs- und Forschungsthemen empfehlen lassen. Der Mensch nutzt sie als kreativen Ideengeber, diskutiert die Themen mit ihr und erweitert so seinen Horizont um die Perspektive der Simulation der KI.

Selbstbestimmung in Gefahr

Dabei darf man nicht übersehen, dass die Maschine so Themen beeinflusst oder gar setzt, und dem Menschen Forschungsaufträge zur gemeinsamen Lösung erteilt.

Wir müssen die Technik aus unseren Köpfen fernhalten. Schließlich steht unsere Selbststimmung auf dem Spiel. Die Gefahr, sie abzugeben, ist jetzt real.

Interessiert Sie, wie unsere Redaktion arbeitet? In unserer Rubrik "So arbeitet die Redaktion" finden Sie unter anderem Informationen dazu, wann und worüber wir berichten, wie wir mit Fehlern umgehen und woher unsere Inhalte kommen. Unsere Berichterstattung findet in Übereinstimmung mit der Journalism Trust Initiative statt.
JTI zertifiziert JTI zertifiziert

"So arbeitet die Redaktion" informiert Sie, wann und worüber wir berichten, wie wir mit Fehlern umgehen und woher unsere Inhalte stammen. Bei der Berichterstattung halten wir uns an die Richtlinien der Journalism Trust Initiative.