Charles Deluvio / Unsplash

Gefährliche Deepfake-App: Mit nur einem Klick im Porno

Eine neue Deepfake-App ermöglicht, Gesichter von Menschen in Porno-Videos einzufügen. Das kann schwere Folgen für die Betroffenen haben.

Es ist wohl einer der größten Albträume vieler Menschen, wenn private sexuelle Aufnahmen ins Netz gelangen und veröffentlicht werden. Oft passiert dies im Rahmen von "Revenge Porn", auch Rachepornos genannt.

Für dich ausgesucht

Was ist "Revenge Porn"?

Wie "Saferinternet" erklärt, versteht man unter "Revenge Porn" Fotos und Videos, die Betroffene nackt oder bei sexuellen Handlungen zeigen und nach einer Trennung von dem/der Ex-PartnerIn im Internet veröffentlicht werden. Die Betroffenen wissen von der Veröffentlichung meist nichts – der/die Ex möchte sich auf diesem Wege an dem/der Verflossenen "rächen". 

Doch was passiert, wenn man das eigene Gesicht in einem Pornofilm wiedererkennt, in dem man nie mitgespielt hat? Solche Fälschungen können extrem echt wirken und für Betroffene unglaubliche Folgen haben. Schuld daran ist neuerdings eine Deepfake-App, die ermöglicht, dass Gesichter ganz einfach in Sexfilme eingebaut werden.

Für dich ausgesucht

Rachepornos als "böswillige Verwendung von Deepfakes"

Wie das Magazin "MIT Technology Review" berichtet, gibt es eine neue App, die es extrem einfach ermöglicht, Bilder beziehungsweise Gesichter in Pornofilme einzufügen. Die Website wirbt mit einer schlichten Anwendung, die Fotos hochzuladen. 

"Verwandle jeden in einen Pornostar, indem du mithilfe der Deepfake-Technologie das Gesicht der Person in ein Erwachsenenvideo einfügst", steht laut dem Magazin auf der Website der Deepfake-App, deren Name nicht genannt wird, um weitere Verbreitung zu vermeiden. Der Deepfake-Forscher Henry Ajder hat die Applikation entdeckt.

Wie das Magazin weiter berichtet, existiert die Deepfake-App noch relativ unbemerkt und hat auch nur eine kleine NutzerInnenbasis. Wer ein Foto in ein Video lädt, kann sich anschließend eine "Vorschau" ansehen. Wer das Video herunterladen möchte, muss dafür zahlen.

ForscherInnen hatten schon länger befürchtet, dass eine solche App entwickelt wird. In diesem Fall werden Grenzen überschritten: Wie Ajder auf Twitter erläutert, ist die Verwendung von intimen Nacktbildern – vor allem von Frauen – "mit großem Abstand die häufigste böswillige Verwendung von Deepfakes."

Für dich ausgesucht

Problematische Deepfake-Apps

Wie das "MIT Technology Review"-Magazin weiter berichtet, hat ein Reddit-User diese Art von Deepfakes berühmt gemacht. Er tauschte die Gesichter von Pornodarstellerinnen mit Fotos von weiblichen Stars aus und nutzte dafür frei zugängliche Programme wie Keras oder TensorFlow. Anschließend verbreitete er die Videos auf Reddit. 

Das Forschungsunternehmen Sensity AI geht davon aus, dass 90 bis 95 Prozent aller Deepfake-Videos im Internet ohne Konsens hochgeladen wurden. In 90 Prozent dieser Videos sind Frauen in nicht einvernehmlichen Pornos sehen.

Zwar gibt es zahlreiche Applikationen wie ZAO oder ReFace, die Gesichter in verschiedene Filmszenen einfügen können. Gegen diesen unschuldigen Spaß hat man nichts einzuwenden. Eine App namens DeepNude wurde jedoch erst 2019 eingestellt, da sie es ermöglichte, Bilder von Frauen in Nacktfotos zu verwandeln. Dabei wurde der Körper der Betroffenen durch einen nackten Körper ausgetauscht.

Die neue App ist umso problematischer. Sie wurde programmiert, um pornografische Bilder und Videos von Menschen zu erstellen, deren Zustimmung sie nicht hat.

Adam Dodge ist der Gründer der gemeinnützigen Organisation EndTAB. Diese klärt Menschen über technologiegestützten Missbrauch auf. Wie Dodge gegenüber dem "MIT Technology Review"-Magazin sagt, werde die Technologie immer weiter verbessert – leider auch für diesen speziellen Anwendungsfall, um eine Art von "Revenge Porn" zu erstellen. "Jedes Mal wenn man sich auf diese Weise spezialisiert, entsteht eine neue Ecke des Internets, die neue NutzerInnen anzieht", sagte Dodge.

Die neue App liefert jedoch keine "perfekten Ergebnisse", da die Gesichter häufig verzerrt oder verschwommen wirken, sobald sich der Winkel ändert. Dennoch sind die Fake-Pornos realistisch genug, um einige Menschen im Glauben zu lassen, dass sie ein Schmuddelfilmchen eines/einer NachbarIn gesehen haben. 

Für dich ausgesucht

Doch wenn es bei längerer Betrachtung offensichtlich fake ist, wozu dann der ganze Aufstand? Laut ExpertInnen spielt es absolut keine Rolle, wie gut die Qualität eines Deepfakes ist – der psychologische Schaden für die Opfer wurde bereits angerichtet. 

Zwar handelt es sich dabei nicht um "tatsächlichen" Racheporno, weil keine intimen Fotos oder Videos verwendet werden, sondern nur das Gesicht – doch stell dir vor, du tauchst plötzlich in einem pornografischen Video auf und wirst bei sexuellen Handlungen gezeigt, mit denen du dich nicht identifizierst. 

Wie "ABC" berichtete, wurde auch die australische Aktivistin Noelle Martin Opfer von Deepfake-Fotos im Internet. Mit 18 wurde ihr Gesicht auf nackte Körper von Pornodarstellerinnen platziert. Sie erklärte gegenüber "MIT Technology Review", dass diese Art des Missbrauchs der persönlichen Grenzen "absolut erschütternd" ist. 

Die Fake-Videos und -Bilder können sich noch jahrelang auf das Leben der Betroffenen auswirken und ihre "zwischenmenschlichen Beziehungen, die Jobsuche und potenzielle Liebesbeziehungen" beeinflussen. "Bis zum heutigen Tag ist es mir nie gelungen, die Bilder vollständig zu entfernen. Das wird für immer da draußen sein. Egal, was ich tue", erklärte Martin. 

Zwar ist die Mehrheit der Opfer von Porno-Deepfakes weiblich, doch auch Männer könnten die gefälschten Fotos und Videos in Schwierigkeiten bringen. Besonders dann, wenn sie aus Ländern stammen, in denen Homosexualität verboten ist. 

Das "MIT Technology Review"-Magazin versuchte, die EntwicklerInnen der Deepfake-App zu kontaktieren. Dieser und zwei weitere Kontaktversuche waren erfolglos. Die Verantwortlichen veröffentlichten auf der besagten Website nun einen Hinweis, dass die App nicht mehr für neue BenutzerInnen verfügbar sei.  

Für dich ausgesucht

Rechtliche Folgen gegen Deepfakes und Rachepornos

Kann man etwas tun, wenn Rachepornos im Netz landen oder Sexfilme mit meinem Gesicht erstellt werden? Ja, denn es ist strafbar.

Denn laut dem Strafgesetzbuch fällt es unter die Kategorie "Cyber-Mobbing", wenn eine Person die betroffene Person vor eine größere Zahl von Menschen "an der Ehre verletzt" oder "Bildaufnahmen des höchstpersönlichen Lebensbereiches einer Person ohne deren Zustimmung für eine größere Zahl von Menschen wahrnehmbar macht."

Wer gegen "Cyber-Mobbing" verstößt, muss mit einer Freiheitsstrafe von bis zu einem Jahr oder mit einer Geldstrafe bis zu 720 Tagessätzen rechnen. Ist auch noch Suizid der/des Betroffenen die Folge der begangenen Straftat, dann erhöht sich die Freiheitsstrafe auf bis zu drei Jahre. 

Falls du oder eine Person in deinem Umfeld von "Revenge Porn" oder Deepfakes betroffen ist, dann Rede mit einer Vertrauensperson in deiner Nähe darüber. Wer für weitere Hilfsangebote offen ist, kann sich rund um die Uhr kostenlos unter der Rufnummer 142 an die Telefonseelsorge wenden. Sie bietet schnelle erste Hilfe an und vermittelt ÄrztInnen, Beratungsstellen oder Kliniken.