2017 wurde die Tech-Journalistin Samantha Cole von „Vice" auf den Reddit-User „deepfake“ aufmerksam, der frei verfügbare Software nutze, um Deepfake-Pornos von prominenten Frauen zu erstellen. 2019 folgte die App „DeepNude“ mit der man Fotos von Frauen mit Künstlicher Intelligenz in Nacktbilder verwandeln konnte. Die Macher stellten die App aufgrund von missbräuchlicher Verwendung kurz darauf selbst ein. Die Software, die dahintersteckt, ist dennoch weiterhin im Internet verfügbar.
Zahlreiche Webseiten haben sich seitdem auf Deepfake-Pornos spezialisiert. Die vier größten Seiten stellten 2019 rund 134,4 Millionen dieser KI-Pornos bereit. Man kann davon ausgehen, dass es sich bei allen Inhalten um nicht einvernehmlich erstelltes Material handelt.
Besonders auffällig: 100 Prozent der manipulierten Personen in diesen Erotikfilme waren Frauen. Frauen aus der Mode- und Unterhaltungsbranche machten 2020 rund 80 Prozent der im Netz verfügbaren KI-Pornos aus. Den Rest bilden laut „Sensity“ unter anderem Politikerinnen, Nachrichtensprecherinnen und Sportlerinnen.
Deutsche machten 2020 zwar nur 1,3 Prozent der weltweiten Opfer von Deepfakes aus, doch auch hierzulande waren knapp 89 Prozent dieser Inhalte freizügiger bezeihungsweise pornografischer Natur. 95 Prozent dieser Fälschungen betrafen Frauen.
Diese Tatsache scheint Teil des Reizes sein, den solche Videos mit sich bringen: Sie sind moralisch falsch, verrucht, illegal. Frauen werden sexualisiert und objektiviert. Öffentlich zugängliche Deepfake-Software zur Erstellung von Nacktfotos von Männern gibt es bislang nicht.
Die US-amerikanische Juraprofessorin Danielle Citron beschreibt die Konfrontation mit Deepfake-Pornos gegenüber „Rolling Stone“ als eine Art digitale Vergewaltigung. „Wenn Sie ein falsches Sexvideo von sich selbst sehen, fühlt es sich an, als wäre es Ihr Körper. Es fühlt sich wie eine schreckliche Autonomie- und Körperverletzung an“, erklärt Citron.
In der Nachrichten-App Telegram gibt es seit 2020 Bots, die eine beliebige Frau auf einem Foto mit der Software der ehemaligen App „DeepNude” entkleiden. Dafür müssen die Nutzer:innen nur ein Foto der Person hochladen, die sie nackt sehen wollen. Nach einer kurzen Verarbeitungszeit spuckt der Deepfake-Bot dann ein manipulierte, entkleidete Version diese Fotos aus. Die Qualität dieser Fotos variiert wie bei anderen Webseiten und Apps zwar noch stark – manche sehen täuschend echt aus, andere katastrophal – doch die Gefahr ist dennoch real.
Laut einem Bericht von „Sensity” sind zwischen Juli und Oktober 2020 vermutlich mehr als 100.000 Frauen unwissentlich Opfer solcher Deepfake-Bots geworden. 70 Prozent des Materials, das zur Manipulation hochgeladen wurde sei privater Natur und beispielsweise von Social-Media-Kanälen bezogen worden. Damit ist wirklich jede Frau und jedes Mädchen, von dem es Fotos im Netz gibt, ein potenzielles Opfer.
Der 19-jährigen Charlotte aus Leipzig ist genau das passiert. Ihre Geschichte kannst du dir hier ansehen.
Anders als zu erwarten gaben bei einer anonymen Umfrage von „Sensity“ nur 16 Prozent der Nutzer:innen solcher Bots an, prominente Frauen deepfaken lassen zu wollen. 63 Prozent hingegen möchten Frauen, die sie persönlich kennen, „nackt“ sehen.
Der Reiz, die eigene Kollegin oder Mitschülerin virtuell zu entkleiden, ist also größer, als Megan Fox "nackt" zu sehen. Woran das liegt, lässt sich nur vermuten. Vielleicht ist es eine Form von sexualisierter Macht über Personen, die ein Täter im echten Leben nicht hat. Vielleicht ein verletztes Ego nach einer Abfuhr oder doch schlicht übergriffige Neugier.
In Kalifornien wurde die nicht einvernehmliche Erstellung von Deepfake-Pornos bereits explizit strafbar gemacht. In Australien kann das seit 2018 eine Gefängnisstrafe von bis zu sieben Jahren zur Folge haben.
Eine solche Gesetzgebung, die gezielt durch KI erstellte Inhalte reguliert, gibt es in noch Deutschland nicht. Rechtliche Schritte sind dennoch möglich. Deepfake-Pornos und -Nacktfotos verletzen in der Regel das Persönlichkeitsrecht, das Recht am eigenen Bild und nach § 184 des Strafgesetzbuches das Verbot der Verbreitung von pornografischen Schriften.
Auch in der EU wurden Künstliche Intelligenz und dadurch erstellte Inhalte jüngst Thema: Am 21. April 2021 legte die Europäische Kommission einen Gesetzesentwurf vor, der KI gezielt regulieren soll. Deepfakes werden darin als Technologie mit „begrenztem“ Risiko eingestuft und müssten nur als Deepfakes gekennzeichnet werden. Für Opfer von Deepfake-Pornos wohl ein schwacher Trost, schließlich lassen sich auch Wasserzeichen mit etwas Geschick entfernen.
Betroffene von Deepfake-Pornografie, die emotionalen oder rechtlichen Beistand benötigen, können sich an Hilfsorganisationen wie die Opferhilfe „Weißer Ring“ wenden