Unglaublich nützlich, unglaublich gefährlich – Robotik und Künstliche Intelligenz (KI) kann beides sein. Welches sind die spannendsten Entwicklungen? Und wo lauern die größten Risiken?

"Die KI-Themen, an denen wir jetzt seit etwa 50 Jahren forschen und die lange als Science Fiction galten, beginnen so langsam zu funktionieren." Das sagt Prof. Dr. Joachim Hertzberg vom Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI). Er beschäftigt sich mit dem Thema Robotersteuerung und rechnet den Bereich der autonomen Fahrzeuge zu den spannendsten Neuentwicklungen.

Physiker erklärt, was nötig wäre, um eine Zeitmaschine zu bauen.

Autonome Systeme: Teil der Zukunft?

"Sie können schon jetzt eine Menge Dinge kaufen, die es vor fünf bis zehn Jahren noch nicht gegeben hat", so Prof. Hertzberg: Autos die eigenständig einparken, die sich an das Verkehrsschild mit der letzten Geschwindigkeitsbegrenzung erinnern, deren fahrzeuginterne Assistenten das Fahren im Stau übernehmen. Alles keine Science Fiction mehr, sondern marktreife Entwicklungen.

"Die Zukunft geht sicherlich in Richtung autonomes Fahren", sagt der KI-Forscher. Die Umgebungsanalyse im städtischen Bereich ist für Entwicklungen wie das berühmte Google-Auto allerdings so komplex, dass hier noch ein langer Weg vor den Forschern liegt.

Doch auch in der Landwirtschaft sind autonome Fahrzeuge im Kommen: "Den autonomen Mähdrescher etwa oder den Rübenernter gibt es schon als Prototypen." Gerade hat ein deutsches Start-up einen neuartigen Roboter vorgestellt, der Unkraut auf den Feldern selbstständig erkennt und mechanisch zerstört. Ein echter Hoffnungsträger für diejenigen, die sich eine Zukunft ohne Pestizide wünschen.

Maschinen sollen über Freund und Feind entscheiden

Häufig zitiert, selten verstanden: Schrödingers Experiment.

Leider gibt es nicht nur Licht im Bereich der Robotik und Künstlichen Intelligenz, sondern auch Schattenseiten: Es will schon etwas heißen, wenn sich die renommiertesten Wissenschaftler aus dem KI-Bereich in einem offenen Brief mit einer Warnung an die Welt wenden. So geschehen im Sommer dieses Jahres.

Unterschrieben haben diesen Brief nicht nur Stephen Hawking und Apple-Mitgründer Steve Wozniak, sondern auch deutsche Wissenschaftler. Zu den rund 2000 Unterzeichnern gehört auch Prof. Hertzberg: "Es ist nun absehbar, dass es autonome Waffensysteme geben wird."

Damit sind nicht unbemannte Flugkörper wie Drohnen gemeint, denn letztere werden immer noch durch Menschen gesteuert. Sondern Maschinen, die autonom über Freund und Feind entscheiden und selbständig Ziele auswählen und auslöschen.

Der offene Brief soll die Weltöffentlichkeit auf die Gefahren aufmerksam machen. Noch ist es früh genug zu entscheiden, ob die Uno und die Regierungen diese Waffen ächten wollen. "Diese Maschinen würden in den Händen von nichtregulären Armeen, von Terroristen oder Warlords eine ganz schreckliche und destabilisierende Form von Waffentechnik bedeuten."

Autonome Drohnenschwärme, die sich auf den Weg machen in eine europäische Großstadt, um dort großflächig menschliches Leben auszulöschen. Ohne eine Funkverbindung, die man kappen und deren Ursprung man feststellen könnte. Das wäre dann kein weit entferntes Science-Fiction-Szenario, sondern grausige Wirklichkeit.

Was würde ein Bann bewirken?

Ein Bann dieser Waffen könnte zumindest verhindern, dass riesige Geldmengen und Forschungsaufwand in die Entwicklung autonomer Waffensysteme fließen würde. Sicherlich gibt es andere gefährliche Massenvernichtungswaffen wie etwa Atombomben, die auch nicht gebannt wurden, jedoch: Atombomben sind unglaublich schwierig herzustellen.

Existieren erst die Baupläne für autonome Drohnen, könnten sich Terroristen die Teile in jedem Elektronikfachmarkt kaufen. "Wenn es diese Waffensysteme irgendwann verbreitet geben sollte, wird es sehr, sehr schwierig, diese zu kontrollieren, weil sie verglichen mit Atomwaffen so einfach gebaut und billig herzustellen sind."