Deepfake nennt man eine Technik, bei der per Mausklick virtuelle Aufnahmen von Gesichtern auf virtuelle Abbilder fremder Körper gesetzt werden können. Das funktioniert mit Fotos und Videos. Es ist lustig, wenn man sich auf diese Weise virtuell in Harry Potter oder Lara Croft verwandeln kann. Man kann die Technik aber auch missbrauchen.

Rolf Schwartmann
Eine Kolumne
Diese Kolumne stellt die Sicht des Autors dar. Hier finden Sie Informationen dazu, wie wir mit Meinungen in Texten umgehen.

"Deep-Fake" ist eine Technik mit großem Missbrauchspotential

Es gibt im Netz Angebote, die es möglich machen, Fotos von Köpfen gegen den Willen von Personen auf den nackten virtuellen Körper eines Pornodarstellers zu setzen. Das ist nicht nur abscheulich sondern ethisch und rechtlich indiskutabel. Das Austauschen von Gesichtern, sogenanntes "face swapping", ist nur eine Möglichkeit.

Man kann über Deepfakes auch Stimmen verändern ("voice swapping") und sogar Körperbewegungen übertragen ("body-puppetry"). Dass die Technik, deren Anbieter man nicht benennen sollte, um ihre Verbreitung nicht zu fördern, dazu geeignet ist, massive Persönlichkeitsverletzungen bis hin zur Strafbarkeit zu begehen, steht außer Frage.

Videos können kaum aus dem Netz entfernt werden

Wer gegen seinen Willen in einen pornografischen Kontext gesetzt wird, ist über die Mechanismen der schnellen Weiterverbreitung im Netz schnell Gespött ausgesetzt. Die Technik kann für sog. "Rachepornos" eingesetzt werden und massive psychische und berufliche Schäden nach sich ziehen.

Ist ein Video im Netz, kann man es kaum mehr wirksam entfernen. Wer es gesehen hat, wird Schwierigkeiten haben, durch die Suggestivkraft des Videos das Gesicht der abgebildeten Person aus dem Kontext zu lösen.

Unternehmerische Verantwortung ist gefragt

Besonders problematisch ist an diesen Anwendungen, dass sich betroffene Personen kaum dagegen schützen können. Schließlich sind Fotos von vielen Menschen im Netz - in sozialen Netzwerken oder in Statusmeldungen oder Profilbildern der Messengerdienste. Deshalb sind Anbieter aufgerufen, Anwendungen, deren Missbrauchspotential nicht beherrschbar ist, nicht anzubieten.

Dort wo das Angebot noch verantwortbar ist, müssen technische Mechanismen geschaffen werden, mit denen die Ersteller der verletzenden Inhalte identifiziert werden können. Und: Der Staat muss das Phänomen in den Blickwinkel des Strafrechts nehmen.

Fake News

So erkennen Sie Fake News

Nicht alles, was als Fake News bezeichnet wird, verdient auch diesen Namen. Dennoch: Das Vertrauen in die Presse im digitalen Zeitalter leidet. Doch was sind Fake News? Und wie kann man sich davor schützen?