Meine Merkliste Geteilte Merkliste PDF oder EPUB erstellen

Pornografie | Wenn der Schein trügt – Deepfakes und die politische Realität | bpb.de

Wenn der Schein trügt – Deepfakes und die politische Realität Auf einen Blick Was ist KI und welche Formen von KI gibt es? KI in den Sozialen Medien Deepfakes: Technische Hintergründe und Trends Fake oder Wirklichkeit: Wieso und wie leicht lassen wir uns täuschen? Anwendungsbereiche von Deepfakes Politische Manipulation und Desinformation Pornografie Diskriminierung „Softfakes“ in Wahlkämpfen Chancen für die Demokratie Deepfakes als Unterhaltung Über den Tellerrand: Virtuelle Influencer*innen Governance von Deepfakes Regulierung von Deepfakes Strafrecht und Regulierung von Deepfake-Pornografie Technische Ansätze zur Deepfake-Erkennung und Prävention Politische Medienbildung Medien als (verzerrter) Spiegel der Realität? Unterrichtsmaterialien Redaktion

Pornografie Nicht einvernehmliche sexualisierende Deepfakes

Anja Schmidt

/ 7 Minuten zu lesen

Nicht einvernehmliche sexualisierende Deepfakes können schädlich für die betroffenen Personen sein. Und betroffen sind vor allem Frauen. | Illustration: www.leitwerk.com (© bpb)

Nicht einvernehmliche pornografische oder sexualisierende Deepfakes sind Videos oder Fotos, die mittels künstlicher Intelligenz so manipuliert wurden, dass die gezeigte Person nackt zu sein oder sexuelle Handlungen vorzunehmen scheint. Sie können seit 2017 in hoher Bildqualität mit allgemein verfügbaren Videoprogrammen und Apps hergestellt werden. Mittels sogenannter Face Swap Apps lässt sich das Gesicht einer Person in einen Porno montieren, mit DeepNude-Apps kann eine ursprünglich bekleidet abgebildete Person gewissermaßen ausgezogen werden. Die auf diese Weise erzeugten Bilder und Videos erscheinen als täuschend echt. Täter*innen nutzen Originalfotos, die sie entweder privat besitzen oder die sie von frei zugänglichen Internetseiten oder Social-media-Accounts herunterladen. Es kann also jeden Menschen treffen, von dem digitale Bilder verfügbar sind. Sexualisierende Deepfakes werden häufig auf Pornoplattformen hochgeladen, teils mit herabwürdigenden Kommentaren verbunden und mit persönlichen Daten versehen, die die Identifizierung der dargestellten Person erlauben.

Ursprung

Ein Reddit-Nutzer namens „deepfakes“ veröffentlichte 2017 gefälschte Videos, bei denen die Gesichter berühmter Schauspielerinnen in Pornofilme montiert worden waren. Zudem wurde der zugrunde liegende Algorithmus als Open-Source-Code mit einer Anleitung zur Verfügung gestellt, so dass auch andere ihn einfach nutzen konnten. Daraufhin verbreiteten sich Deepfakes auf Reddit rasant. Auch jüngst wurden sexualisierende Deepfakes, die Taylor Swift darstellten, massenhaft auf X (ehemals Twitter) verbreitet. Sie zeigten Swift angeblich nackt und waren mit einem KI-Dienst von Microsoft erstellt worden.

Doch es trifft nicht nur Prominente, sondern auch Privatpersonen. Noelle Martin, eine australische Jurastudentin, fand, schon vor dem Jahr 2015, zufällig durch eine umgekehrte Google Bildersuche heraus, dass Social-Media-Fotos von ihr mittels Photoshop in pornographische Inhalte montiert und auf pornografischen Internetseiten in überwältigender Zahl verbreitet worden waren. Ihr Bemühen darum, die Inhalte löschen zu lassen, das Geschehen bei der Polizei anzuzeigen und andere Unterstützung zu erhalten, verlief ergebnislos: Die Plattformen waren quasi unerreichbar, sie wusste nicht, wer der- oder diejenigen waren, die die Fotos manipuliert und verbreitet hatten, es gab keine Rechtsnormen, die das nicht einvernehmliche Herstellen von Deepfakes und ihre Verbreitung verboten, und auch Beratungs- und Unterstützungsangebote waren zu dieser Zeit noch nicht verfügbar. Psychisch extrem belastet entschied sich Martin schließlich, an die Öffentlichkeit zu gehen und sich aktivistisch für Gerechtigkeit für die von Deepfakes Betroffenen einzusetzen. Sie setzte sich für die Kriminalisierung von Deepfakes ein, was im Jahr 2018 in Australien auch umgesetzt wurde.

Verbreitung und Anteil an Deepfakes

Deepfakes können dazu genutzt werden, unmittelbar in politische und öffentliche Meinungsbildungsprozesse einzugreifen, beispielsweise indem Politiker*innen etwas zu sagen scheinen, was sie in Wirklichkeit nie gesagt haben. Teils werden ihnen auch mögliche positive Effekte zugesprochen, etwa im Rahmen von Satire, künstlerischen Prozessen oder im Bildungsbereich. Einer im Jahr 2019 erschienenen Studie zufolge, waren jedoch 96 % der im Netz aufgefunden Deepfake-Videos sexualisierende Deepfakes. In dieser Studie waren die von sexualisierenden Deepfakes betroffenen Personen ausschließlich Frauen. Es ist zu vermuten, dass auch Kinder betroffen sind, wobei sich das Phänomen kinderpornografischer Deepfakes deutlich schlechter empirisch untersuchen oder schätzen lässt. Denn das Herstellen und Zugänglichmachen kinderpornografischer Inhalte ist rechtlich verboten, so dass sie gewöhnlich nicht allgemein zugänglich verfügbar gemacht und getauscht werden.

Motive und Folgen für die Betroffenen

In einer Studie vermuteten Betroffene sexualisierender Deepfakes, dass die Täter durch das Bedürfnis, sie zu kontrollieren oder zu beherrschen, Rache und sexuelle Befriedigung motiviert wurden. Betroffene erleben bildbasierte sexualisierte Gewalt – zu der sexualisierende Deepfakes zählen – wie einen körperlichen sexuellen Übergriff. Sie kann lebenszerstörend wirken, denn sie geht mit erheblichen psychischen Belastungen einher und kann zum Rückzug von sozialen Online- und Offline-Kontakten führen, weil die Betroffenen befürchten, dass Personen aus dem privaten und beruflichen Bereich, die sie kennen, diese Bilder entdecken und dann negative Konsequenzen sozialer und finanzieller Art drohen. Personen, die im öffentlichen Bereich bspw. journalistisch oder politisch tätig sind, können durch sexualisierende Deepfakes diskreditiert werden und sich gezwungen sehen, sich aus öffentlichen Diskursen zurückzuziehen. Betroffene können zudem Opfer von Victim Blaming (Täter-Opfer-Umkehr) und Slut Shaming (u.a. Beschämung von Personen, insb. weiblichen Opfern sexualisierter Gewalt, oder sexuell aktiven Personen, als Schlampen) werden.

Einordnung als geschlechtsspezifische sexualisierte Gewalt und Demokratierelevanz

Die Daten zeigen, dass das nicht einvernehmliche Herstellen und Zugänglichmachen sexualisierender Deepfakes eine relativ neue Form sexualisierter Gewalt vor allem gegen Frauen ist, die durch Informations- und Kommunikationstechnologien ermöglicht wird. Nicht einvernehmliche sexualisierende Deepfakes sind damit ein weiteres Mittel, um Frauen geschlechtsbezogen zu marginalisieren. Es handelt sich um eine Form sexualisierter Gewalt, weil es sich um eine Verletzung von Grund- und Menschenrechten der betroffenen Personen als Recht am eigenen Bild in Verbindung mit dem Recht auf sexuelle Selbstbestimmung handelt, die äußerst schwerwiegende Folgen haben kann. Zudem zeigen die manipulierten Bilder die Körper der Betroffenen auf eine sexualisierte Weise. In Bezug auf Frauen ordnet sich dies ein in das „Kontinuum sexualisierter Gewalt“, dem Frauen im Laufe ihres Lebens ausgesetzt sind. Dies können unterschiedliche (nicht zwingend rechtsverletzende) Erfahrungen sexualisierender geschlechtsbezogener Marginalisierung sein, die Frauen gewöhnlich erleben und die sich aufgrund ihrer Häufigkeit und ihrem Kern, der Reduktion von Frauen auf ihre Sexualität und ihre diesbezügliche Unterordnung, zu einem Kontinuum verdichten. Auch andere Diskriminierungsdimensionen können eine Rolle spielen. Beispielsweise gibt es rassistische sexualisierende Deepfakes, die Schwarze Menschen sexualisiert darstellen und in Kreisen weißer Rassist*innen zirkulieren.

Bildbasierte sexualisierte Gewalt mag zwar nicht unmittelbar auf politische Einflussnahme zielen, sie schädigt aber die Demokratie auf schwerwiegende Weise. Denn sie verletzt den Kerngedanken des demokratischen Miteinanders, sich selbstbestimmt auf gleiche Weise frei von Diskriminierung einbringen zu können.

Einordnung als eine Form bildbasierter sexualisierter Gewalt

Nicht-einvernehmliche sexualisierende Deepfakes verletzen das Grund- und Menschenrecht der betroffenen Person als Persönlichkeitsrecht oder Recht auf Privatheit, genauer als Recht am eigenen Bild in Verbindung mit dem Recht auf sexuelle Selbstbestimmung. Denn es ist jeder Person selbst überlassen, ob und wie sie sich bildhaft im Hinblick auf ihre Sexualität darstellen will. Das gilt insbesondere für Personen, die wie Frauen, queere Personen oder Kinder, hinsichtlich ihrer sexuellen Selbstbestimmung besonders verletzlich sind. Außerdem kann das Recht auf Nichtdiskriminierung verletzt sein. Hinzu kommt bei sexualisierenden Deepfakes der verleumderische Aspekt.

Weil nicht einvernehmliche sexualisierenden Deepfakes die Grund- und Menschenrechte der betroffenen Personen auf schwerwiegende Weise verletzen, sollten sie nicht als pornografisch bezeichnet werden. Der Begriff des Pornografischen ist zwar durchaus noch negativ konnotiert, diese negative Konnotation verweist aber auf das als obszön empfundene öffentliche oder private Thematisieren von Sexualität und gerade nicht auf eine Verletzung der Rechte von Personen, die ohne ihre Einwilligung auf sexualisierte Weise dargestellt werden. Dies trifft nicht nur auf nicht einvernehmliche sexualisierende Deepfakes, sondern auf alle Formen von Nacktbildern oder sexuellen Inhalten zu, die ohne Einwilligung der dargestellten Personen hergestellt, gebraucht oder Dritten zugänglich gemacht werden, also auch auf Inhalte, die ein tatsächliches Geschehen wiedergeben.

Alle Formen des nicht einvernehmlichen Herstellens, Gebrauchens und Zugänglichmachens von Inhalten, die eine andere Person nackt oder sexualbezogen darstellen, sollten als bildbasierte sexualisierte Gewalt (Image-based sexual Abuse) bezeichnet werden. Dies ermöglicht zum einen eine klare Abgrenzung von Pornografie, deren einvernehmliches Herstellen und Zugänglichmachen sich als Ausübung des Rechts am eigenen Bild und des Rechts auf sexuelle Selbstbestimmung darstellen kann. Zum anderen kann damit das nicht einvernehmliche Herstellen von sexuellen Inhalten, das sexualisierende Manipulieren von Inhalten, deren Gebrauch und Zugänglichmachen an Dritte klar als eine schwerwiegende Verletzung der Grund- und Menschenrechte der dargestellten Personen charakterisiert werden. Bislang ist bildbasierte sexualisierte Gewalt im Interner Link: deutschen Recht nur unsystematisch und lückenhaft geregelt.

Strafwürdige Handlungen im Zusammenhang mit sexualisierenden Deepfakes

Sexualisierende Deepfakes werden häufig mit herabwürdigenden Kommentaren auf Pornoplattformen versehen, teils werden auch persönliche Daten der dargestellten Person hinzugefügt, die es ermöglichen, sie zu identifizieren (Doxing). Sexualisierende Deepfakes können zudem dazu benutzt werden, die dargestellte Person zu mobben oder ihr nachzustellen. Teils werden sie auch eingesetzt, um der dargestellten Person mit der Veröffentlichung zu drohen, um sie zu erpressen oder zu nötigen (Sextortion). Sexualbezogene Inhalte, die ein Kind darstellen, spielen auch eine wichtige Rolle beim Cybergrooming, bei denen Kindern damit gedroht wird, sexualbezogene Inhalte von ihnen zu veröffentlichen oder den Eltern zugänglich zu machen, wenn sie nicht weitere schicken oder sich nicht auf sexuelle Handlungen einlassen (als eine Form von Cybergrooming). Diese Verhaltensweisen sind teils strafbar, etwa als Beleidigung, Nötigung, Bedrohung, Nachstellung und als sexueller Missbrauch von Kindern, teils sind sie aber nicht strafbar, etwa beim Doxing und als Mobbing.

Fussnoten

Fußnoten

  1. Vgl. zum Ganzen HateAid gGmbH, Externer Link: https://hateaid.org/deepfakes/ (6.7.2024).

  2. Vgl. Ajder et al., The State of Deepfakes: Landscape, Threats, and Impact, 2019, p. 6.

  3. Vgl. Martin, Image-Based Sexual Abuse and Deepfakes: A Survivor Turned Activist’s Perspective, in Powell et al. (ed.), The Palgrave Handbook of Gendered Violence and Technology, 2021, pp. 57 f.; Ayyub, I was the victim of a Deepfake Porn Plot Intended to Silence me, Huffington Post, 21.11.2018, Externer Link: https://www.huffingtonpost.co.uk/entry/deepfake-porn_uk_5bf2c126e4b0f32bd58ba316 (6.7.2024).

  4. Ausführlich A-SIT Zentrum für sichere Informationstechnologie – Austria auf Externer Link: https://www.onlinesicherheit.gv.at/Services/News/Die-Entstehung-von-Deep-Fakes-auf-Reddit-und-ihre-Verbreitung.html (6.7.2024).

  5. Vgl. Kurz/Köver, Die Deepfake-Flut, Externer Link: https://netzpolitik.org/2024/sexualisierte-bilderfaelschungen-die-deepfake-flut/ (6.7.2024).

  6. Vgl. Martin (Fn. 3), pp. 57 f.

  7. Vgl. Martin (Fn. 3), pp. 58 f.

  8. Ausführlich Martin (Fn. 3), pp. 65 f.

  9. Vgl. Ajder et al. (Fn. 2), pp. 9 ff.

  10. Vgl. Pawelec, Deepfakes als Chance für die Demokratie?, in Bogner u.a. (Hrsg.), Digitalisierung und Zukunft der Demokratie, S. 89 (92 ff.).

  11. Vgl. Ajder et al. (Fn. 2), pp. 1 f.

  12. Vgl. Flynn et al., Deepfakes and Digitally Altered Imagery Abuse, The British Journal of Criminology 2021, 1 (11).

  13. Vgl. Henry et al., Image-based Sexual Abuse, 2021, pp. 45 ff.

  14. Vgl. Ayyub (Fn. 3).

  15. Vgl. Martin (Fn. 3), pp. 62 f.

  16. Vgl. Citron/Chesney, Deep Fakes, California Law Review, 2019, 1753 (1773).

  17. Vgl. Schmidt, Kritik des Pornografiestrafrechts am Maßstab gleicher sexueller Selbstbestimmung, in Bartsch et al. (Hrsg.), Gender & Crime, 2022, 42 (47 f.).

  18. Vgl. Henry et al. (Fn. 13), p. 38.

  19. Vgl. Kelly, Surviving Sexual Violence, 1988, pp. 73 ff.

  20. Vgl. Pawelec, Deepfakes and Democracy (Theory), Digital Society 2022, 1 (23).

  21. Vgl. Pawelec (Fn. 19), p. 21 ff.

  22. Vgl. Schmidt (Fn. 17), S. 47 f.

  23. Vgl. Schmidt (Fn. 17), S. 44.

  24. Vgl. Rackley/McGlynn, Image-Based Sexual Abuse, Oxford Journal of Legal Studies 37 (2017), p. 534 (p. 534 note 1; pp. 535 ff.); Henry et al., Not just “Revenge Pornography”, Australians’ experiences of Image-based Abuse, 2017 und den Zeitungsbericht von Mariner über diese Studie aus dem Jahr 2015: Revenge Porn: government urged to make it illegal, The Sydney Morning Herald vom 30.9.2015.

Lizenz

Dieser Text ist unter der Creative Commons Lizenz "CC BY-NC-ND 4.0 - Namensnennung - Nicht kommerziell - Keine Bearbeitungen 4.0 International" veröffentlicht. Autor/-in: Anja Schmidt für bpb.de

Sie dürfen den Text unter Nennung der Lizenz CC BY-NC-ND 4.0 und des/der Autors/-in teilen.
Urheberrechtliche Angaben zu Bildern / Grafiken / Videos finden sich direkt bei den Abbildungen.
Sie wollen einen Inhalt von bpb.de nutzen?

Weitere Inhalte

PD Dr. Anja Schmidt hat das DFG-Forschungsprojekt „Pornographie und sexuelle Selbstbestimmung“ an der Martin-Luther-Universität Halle-Wittenberg geleitet. Derzeit vertritt sie die Entlastungsprofessur für Strafrecht an der Goethe-Universität Frankfurt am Main, sie lehrt und forscht in den Bereichen des Strafrechts, der Grundlagen des Rechts und der Geschlechterforschung, unter anderem zu digitaler Gewalt.