Meine Merkliste Geteilte Merkliste PDF oder EPUB erstellen

Strafrecht und Regulierung von Deepfake-Pornografie | Wenn der Schein trügt – Deepfakes und die politische Realität | bpb.de

Wenn der Schein trügt – Deepfakes und die politische Realität Auf einen Blick Was ist KI und welche Formen von KI gibt es? KI in den Sozialen Medien Deepfakes: Technische Hintergründe und Trends Fake oder Wirklichkeit: Wieso und wie leicht lassen wir uns täuschen? Anwendungsbereiche von Deepfakes Politische Manipulation und Desinformation Pornografie Diskriminierung „Softfakes“ in Wahlkämpfen Chancen für die Demokratie Deepfakes als Unterhaltung Über den Tellerrand: Virtuelle Influencer*innen Governance von Deepfakes Regulierung von Deepfakes Strafrecht und Regulierung von Deepfake-Pornografie Technische Ansätze zur Deepfake-Erkennung und Prävention Politische Medienbildung Medien als (verzerrter) Spiegel der Realität? Unterrichtsmaterialien Redaktion

Strafrecht und Regulierung von Deepfake-Pornografie

Jacqueline Sittig

/ 13 Minuten zu lesen

Wie gut schützt das Strafrecht uns vor nicht einvernehmlichen (sexualisierenden) Deepfakes? | Illustration: www.leitwerk.com (© bpb)
Zitat

Wenn sie nicht möchte, dass Nacktbilder von ihr verbreitet werden, dann soll sie eben keine senden.

Immer wieder sehen sich Betroffene nach der Veröffentlichung von Nacktaufnahmen mit diesem oder vergleichbaren Vorwürfen konfrontiert. Die deutsche Wissenschaftlerin und Menschenrechtlerin Nivedita Prasad spricht von einer „erstaunlichen Renaissance“ des Victim Blaming im Kontext digitaler geschlechtsspezifischer Gewalt. Auch diese Schuldumkehrungen entbehren jeglicher Grundlage: Die fortschreitende Digitalisierung dient als Einfallstor für neue Dimensionen strafwürdiger Taten. Schon längst nicht mehr beschränken sich (audio-) visuelle Inhalte im Internet auf die Wiedergabe eines tatsächlichen Geschehens. Eine relevante Ausprägung dessen ist die sog. Deepfake-Pornografie. In einer nie dagewesenen Qualität werden Bilder-, Audio- und Videoinhalte unter Einsatz Künstlicher Intelligenz (KI) manipuliert und modifiziert. Das Ergebnis sind täuschend echt wirkende (pornografische) Inhalte, welche mit dem bloßen Auge nicht als Täuschung zu erkennen sind.

Deepfake-Pornografie ist keinesfalls im luftleeren Raum, sondern viel mehr in ihrem übergeordneten Kontext der bildbasierten sexualisierten Gewalt zu sehen. Geprägt durch die britischen Wissenschaftlerinnen Clare McGlynn und Erika Rackley wird der Begriff im deutschen Sprachraum für verschiedene Formen des Erstellens, Verbreitens und Verwendens intimer und/oder sexualbezogener Aufnahmen ohne Einverständnis der dargestellten Person verwendet. Intimes bzw. sexualbezogenes Bildmaterial bildet dabei unbedeckte oder in Unterwäsche gekleidete Genitalien oder den Analbereich einer Person, Brüste und weitere intime und/oder sexualbezogene Posen oder Aktivitäten ab. Kennzeichnend ist der häufig sexualisierte diffamierende Kontext der Inhalte. Umfasst werden vielfältige Erscheinungsformen.

Deepfakes betreffen uns alle – aber nicht alle gleich

Das wachsende niedrigschwellige und große Angebot von Deepfake Apps ermöglicht es jeder Person ohne Vorkenntnisse einfach Deepfakes zu erstellen. Gefährdet sind dabei nicht nur die Personen, die auf frei zugänglichen (audio-) visuelle Inhalten im Internet, etwa in den sozialen Netzwerken, dargestellt sind. Täter*innen bedienen sich zur Herstellung und Verbreitung von Deepfakes sowohl an im Einverständnis privat erlangten Inhalten als auch an Inhalten, zu denen sie sich unbefugt Zugang verschaffen. Im Verhältnis zwischen pornografischen und nicht-pornografischen Deepfakes überwiegt die Anzahl der veröffentlichten Deepfake-Pornografie deutlich; laut Auswertungen des Unternehmens Sensity im Jahr 2020 machten pornografische Inhalte bis zu 93 % aus, mit einer zunehmenden Bedeutung von und Nachfrage nach Deepfake-Pornografie.

Intersektionale Betrachtung: Geschlechtsspezifische Komponente der Deepfake-Pornografie

Eine intersektionale Perspektive auf das Phänomen zeigt eine besondere Betroffenheit von Frauen und weiteren marginalisierten Gruppen. Während nicht-pornografische Videos nach einer Auswertung des Unternehmens Deeptrace im Jahr 2019 in 61 % der Videos männliche und nur in 39 % weiblichen Personen darstellten, waren es hinsichtlich pornografischer Videos in allen Fällen (100 %) Frauen. Besonders betroffen waren Personen des öffentlichen Leben, insbesondere Politikerinnen, Wissenschaftlerinnen, Aktivistinnen und Frauen aus der Unterhaltungsbranche. Wie auch Deepfakes im Allgemeinen wirkt sich Deepfake-Pornografie vielseitig aus: Die schädlichen und schwerwiegenden Folgen entfalten sich sowohl auf gesamtgesellschaftlicher als auch auf individueller Ebene. Auf gesamtgesellschaftlicher Ebene kann sie zur Verdrängung von Diversität im virtuellen Raum in Rahmen des sogenannten Silencing -Effekts führen. Dies schwächt die Meinungsvielfalt im öffentlichen Raum und bedroht den demokratischen Diskurs. Auf individueller Ebene kann sie tiefgreifende und langanhaltende psychische sowie physische Schäden verursachen, insbesondere durch die herabstufende sexualisierende Objektivierung.

Verbreitung auf pornografischen und nicht pornografischen Plattformen – Misogyne Gruppen als Katalysator

Zur Verbreitung von Deepfake-Pornographie werden neben der Verwendung von etwa WhatsApp, Emails, SMS über das private Umfeld hinaus nicht-pornografische Plattformen, wie soziale Netzwerke und Dating-Plattformen, ebenso wie Mainstream-Pornografie Plattformen und spezifische Pornografie-Plattformen, wie Rache-Pornografie-Plattformen, genutzt. Befeuert wird die Verbreitung durch misogyne Gruppen, wie bspw. die Incel-Bewegung, welche es sich zur Aufgabe gemacht hat, Hass im Internet gegen Frauen zu verbreiten. Die deutschen Wissenschaftlerinnen Jenny-Kerstin Bauer und Ans Hartmann sprechen insofern von „einem bewusst gewählten frauenfeindlichen, gewaltvollen Milieu“. Der intimen und weitgehend unkontrollierbaren Natur des Phänomens liegt ein erhöhtes Risiko einer wiederholten, länger andauernden oder sogar ständigen Viktimisierung inne.

Harmlose vs. schädliche (pornografische) Deepfakes

Im Rahmen der rechtlichen Einordnung sind grundsätzlich harmlose von gezielt schädlichen Deepfakes abzugrenzen. Die Grenzen sind hierbei fließend: Das Beispiel der beliebten, leicht zugänglichen Face-Swapping Angebote, welche auf den Austausch von Gesichtern spezialisiert sind, verdeutlich dies. Neben der Generierung zunächst harmloser nicht-pornografischer Inhalte für humoristische oder künstlerische Zwecke ist der Missbrauch durch die Montage der Gesichter von Schauspielerinnen auf Darstellerinnen in pornografischen Inhalten weit verbreitet. Nicht nur die Rechte der im Ausgangsmaterial dargestellten Personen können durch Deepfake-Pornographie potenziell verletzt werden, sondern auch die der im manipulierten bzw. modifizierten Inhalt abgebildeten Menschen. Wird beispielsweise das Gesicht einer Pornodarstellerin ohne Einverständnis durch jenes einer Politikerin ausgetauscht, kann dies nicht nur die Rechte, der in neuem sexualbezogenem Kontext dargestellten Politikerin verletzen, sondern auch die der im Ausgangsmaterial dargestellten Pornodarstellerin.

Rechtliche Grenzen grundsätzlich harmloser und unschädlicher Deepfake-Pornografie

Grundsätzlich harmlose, im Einverständnis der dargestellten Personen erstellte, überwiegend nicht-pornografische Deepfakes finden ihren Einsatz etwa zu Unterhaltungszwecken, bspw. im Bereich der Werbung oder Filmindustrie. Jedoch auch im Bereich der Deepfake-Pornografie lässt der Einsatz von KI Spielraum für eine harmlose, unschädliche Verwendung – unter der Voraussetzung des Einverständnisses der dargestellten Person(en). Begründet werden kann dies z. B. mit der Nachfrage nach Science-Fiction-Pornografie, wie es als eigenständige Kategorie auf diversen Pornografie-Plattformen zu finden ist. Fehlt es an jedoch an dem entscheidenden Merkmal des Einverständnisses kann die Herstellung und Verwendung von Deepfake-Pornografie Rechtsverletzungen darstellen. Diese betreffen oft bestehende Urheberrechte gem. § 106 UrhG i. V. m. § 108 Abs. 1 Nr. 3, Nr. 7 UrhG oder des Rechts am eigenen Bild, aus Art. 2 Abs. 1 i. V. m. Art. 1 Abs. 1 GG, nach § 33 KUG i. V. m. § 22 f. KUG. Nicht selten werden Deepfakes zu humoristischen Zwecken und der Satire, etwa in Form von Memes, eingesetzt. Die rechtlichen Grenzen dieser Belustigung entscheidet im Einzelfall eine Abwägung der sich entgegenstehenden Rechte der sich äußernden und der betroffenen Person. Hinsichtlich der Beurteilung der Rechtsverletzung muss hier regelmäßig abgewogen werden, ob dabei das Allgemeine Persönlichkeitsrecht, etwa als Verletzung des Rechts am eigenen Bild (Art. 2 Abs. 1 i. V. m. Art. 1 Abs. 1 GG) oder der Verletzung der Meinungsfreiheit der abgebildeten Person (Art. 5 Abs. 1 GG) überwiegen. Es liegt in der intimen Natur der Deepfake-Pornografie, dass diese gewöhnlich das Recht auf sexuelle Selbstbestimmung aus Art. 2 Abs. 1 GG verletzen. Insbesondere dieser schwerwiegende Eingriff in die Intimsphäre der dargestellten Person kann das Recht auf Meinungsfreiheit aus Art. 5 Abs. 1 GG überwiegen.

Strafrechtliche Einordnung schädlicher Deepfake-Pornografie: nicht-einvernehmliche sexualisierte Deepfakes

Ganz maßgeblich kennzeichnet diese schädlichen sexualisierten Deepfakes, dass ihre Inhalte ohne Einverständnis der dargestellten Personen erstellt, verbreitet oder anderweitig verwendet werden. Dabei können nicht-einvernehmliche sexualisierte Deepfakes – häufig, aber nicht ausschließlich – geschützte Rechtsgüter wie das Recht auf sexuelle Selbstbestimmung (Art. 2 Abs. 1 GG) sowie das Allgemeine Persönlichkeitsrecht, etwa als Verletzung des Rechts am eigenen Bild (Art. 2 Abs. 1 i. V. m. Art. 1 Abs. 1 GG) durch die Erstellung, Verbreitung und anderweitigen Verwendung von nicht-einvernehmlicher sexualisierten Deepfakes verletzt werden. Ein Blick auf nationale sowie internationale Gesetzeslagen offenbart einen lückenhaften strafrechtlichen Schutzrahmen.

Wie sieht die rechtliche Lage in Deutschland aus?

Der strafrechtliche Schutzrahmen vor nicht-einvernehmlicher sexualisierten Deepfakes ergibt sich zunächst aus den nationalen Gesetzen, insbesondere dem StGB. Dabei trifft die strafrechtliche Einordnung der höchst aktuellen, modernen Taten auf ein für die analoge Welt geschaffenes Gesetz. Folge dessen ist eine über das Gesetz verteilte, teilweise als Einzelfallgesetzgebung einzuordnende, Gesetzgebung, deren vielfältige Straftatbestände unterschiedliche Aspekte nicht-einvernehmlicher sexualisierter Deepfakes erfassen. Es kommt auf den Einzelfall an, welche Straftatbestände einschlägig sein können.

  • Nicht-einvernehmliche sexualisierte Deepfakes betreffend Gewaltdarstellungen: Beinhaltet die Deepfake-Pornografie Gewaltdarstellungen, so könnte diese das Herstellen und Verbreiten von Gewaltdarstellungen nach § 131 Abs. 1 Nr. 1, 2 StGB erfasst werden. Darüber hinaus wird das Verbreiten gewaltpornografischer Inhalte nach § 184a 1. Alt. StGB erfasst. Es ist jedoch nicht abschließend entschieden, ob der Schutzrahmen auch „fiktive“, sprich mittels KI manipulierte, oder nur reale Darstellungen erfasst.

  • Weitere, typische Formen nicht-einvernehmlicher sexualisierter Deepfakes: Das Verbreiten sexualisierter Deepfakes, nicht jedoch das Herstellen kann als Verletzung des höchstpersönlichen Lebensbereichs und von Persönlichkeitsrechten durch Bildaufnahmen gem. § 201a Abs. 1 Nr. 1, Nr. 4, Abs. 2 StGB erfasst werden. Weiterhin kann die Verbreitung von nicht-einvernehmlichen sexualisierten Deepfakes unter dem Straftatbestand des Verbreitens pornografischer Inhalte gem. § 184 StGB gefasst werden. Denkbar ist, dass sowohl das Herstellen als auch das Verbreiten von sexualisierten Deepfakes sowie weitere Begleittaten, z. B. beleidigende Kommentare, die Tatbestände der Beleidigungsdelikte nach §§ 185 ff. StGB betreffen können. Unklar bleibt bisher, inwiefern die Verletzung des Intimbereichs durch Bildaufnahmen nach § 184k StGB auf Taten der Deepfake-Pornografie anwendbar ist.

  • Begleittaten nicht-einvernehmlicher sexualisierter Deepfakes: Begleitet wird Deepfake-Pornografie, häufig von weiteren strafrechtlich relevanten Taten. Neben beleidigenden Kommentaren (s. o.) können z. B. Hacking zur Beschaffung der Inhalte (Ausspähen von Daten strafbar gem. § 202a Abs. 1 StGB), der Sextortion (sexuelle Nötigung strafbar nach § 177 StGB; Erpressung nach § 253 StGB) und Doxing, das gefährdende Verbreiten personenbezogener Daten nach. § 126a StGB strafbar sein.

  • Geschlechtsspezifische Beweggründe als Strafschärfungsgrund: Mit einer geschlechtsspezifischen Perspektive auf das Phänomen kann zudem ein geschlechtsspezifischer Beweggrund als Strafschärfungsgrund nach § 46 Abs. 2 StGB gelten. Demnach können Taten gerichtet gegen Frauen aufgrund ihres Geschlechts, innerhalb des Strafrahmens, verschärft geahndet werden.

  • Ausblick: Ein zentraler Straftatbestand zur Ahndung von Deepfakes Zuletzt beschloss der Bundesrat im Juli 2024 mit Blick auf die gravierenden Schutzlücken vor und der wachsenden Gefahren durch genereller Deepfakes einen Gesetzentwurf zum strafrechtlichen Schutz von Persönlichkeitsrechten. Dieser sieht die Schaffung eines neuen Tatbestandes „Verletzung von Persönlichkeitsrechten durch digitale Fälschung“ gem. § 201b StGB vor. Darüber hinaus soll ein neues Gesetz gegen digitale Gewalt Betroffene dabei unterstützen, ihre Rechte auch vor Gericht durchsetzen zu können.

Wie sieht es auf internationaler Ebene aus?

Neben dem nationalen steht das internationale Recht. Das EU-Recht genießt bspw. bei Mitgliedsstaaten Anwendungsvorrang vor nationalem Recht:

  • Haftung der Plattformbetreibenden sowie Verantwortliche in der Entwicklung und im Betreiben von KI-Systemen: Im Kampf gegen sexualisierte Deepfakes ist es bedeutend, die Plattformbetreibenden und Entwickelnden sowie Betreibenden der KI-Systeme in die Verantwortung nehmen zu können. Schließlich stellt die überwiegende Anonymität der Nutzenden, die solche Inhalte verbreiten, eine große Hürde bei der Entfernung der Inhalte sowie der möglichen Strafverfolgung dar. Ansatzpunkte hierfür bietet die jüngste EU-Regulierung. Der im November 2022 in Kraft getretene DSA, umgesetzt durch das nationale DDG, legt großen Online-Plattformen und Suchmaschinen diverse Verpflichtungen auf, um unter anderem das Entfernen illegaler Inhalte durch ein vorgesehenes Meldeverfahren zu erleichtern und somit die Rechte der Nutzenden zu schützen. Der im August 2024 in Kraft getretene AI Act, stuft KI-Systeme mittels eines risikobasierten Ansatzes ein. Deepfake-Software wurde hierbei jedoch lediglich als KI-System mit begrenztem Risiko eingestuft, weswegen hier geringere Transparenzpflichten gelten.

  • Schutz von Frauen und weiteren marginalisierten Gruppen Zuletzt erfasst Art. 7 der Richtlinie zur Bekämpfung von Gewalt gegen Frauen und häuslicher Gewalt, in Kraft getreten im Juni 2024, die nicht-einvernehmliche Herstellung und Weitergabe von intimem oder manipuliertem Material. Und ist damit Ausdruck der besonderen Betroffenheit von Frauen und weiteren marginalisierten Gruppen von digitaler Gewalt

Ein (ernüchterndes) Fazit und hoffnungsvoller Ausblick

Gerade der unvollständige Schutz vor der Erstellung von nicht-einvernehmlichen sexualisierten Deepfakes sowie weiteren Erscheinungsformen bildbasierter sexualisierter Gewalt gegen Erwachsene sorgt für Schutzlücken zulasten Betroffener. Mit Blick auf die besondere Betroffenheit von Frauen sowie weiteren marginalisierten Gruppen gilt es nicht-einvernehmliche sexualisierte Deepfakes zu bekämpfen, um Diversität im Internet zu bewahren. Gleichzeitig geben kürzlich in Kraft getretene sowie bevorstehende nationale wie internationale neue Gesetzgebungen sowie ein wachsendes Bewusstsein in der Gesellschaft Hoffnung im Kampf gegen nicht-einvernehmliche sexualisierte Deepfakes.

Im Kampf gegen Deepfake-Pornografie

Wer sich nun fragt, ob er*sie selbst derzeit in (Deepfake-) Pornografie zu finden ist, kann sich KI-Detektoren zu eigen machen, um dies herauszufinden. Betroffene sind nicht auf sich allein gestellt; neben rechtlicher Beratung sind es allem voran Hilfsorganisationen, wie bspw. HateAid , die ihnen zur Seite stehen.

Fussnoten

Fußnoten

  1. Victim Blaming beschreibt die Übertragung der Verantwortung für die erlebte Gewalt auf die betroffene Person. Dabei wird die Gewalterfahrung individualisiert sowie häufig dem Opfer die Glaubwürdigkeit aberkannt. Victim Blaming kann traumatisierend für Betroffene wirken. Vgl. Bauer/Hartmann, in Geschlechtsspezifische Gewalt in Zeiten der Digitalisierung, 64 (94 f.).

  2. Prasad in, Geschlechtsspezifische Gewalt in Zeiten der Digitalisierung, 17 (39).

  3. Vgl. HateAid (20.11.2023). Bildbasierte Gewalt im Internet: Von Dickpics und Deepnudes, Externer Link: https://hateaid.org/bildbasierte-digitale-gewalt/ (zuletzt abgerufen am 16.8.2024).

  4. 92. Konferenz der Justizministerinnen und Justizminister (16.6.21). Beschl. TOP II. 8 Bekämpfung von Gefahren durch sog. Deepfakes.

  5. Vgl. Thiel, ZRP, 2021, 202 (202).

  6. Vgl. Kumkar/Rapp ZfDR, 2022, 199 (199).

  7. Vgl. Deutscher Juristinnenbund e.V. (7.6.2023). Policy Paper: Bekämpfung bildbasierter sexualisierter Gewalt, Externer Link: https://www.djb.de/fileadmin/user_upload/presse/stellungnahmen/st23-17_Bildbasierte_Gewalt.pdf S. 3 (zuletzt abgerufen am16.8.2024).

  8. Vgl. Greif, Fn. 8, S. 43; Bauer/Hartmann, Fn. 1, (63, 79 ff.).

  9. Ähnlich HateAid, Fn. 3; Deutscher Juristinnenbund e.V., Fn. 7 S. 1; Bauer/Hartmann, Fn. 1, S. 80.

  10. Vgl. Bauer/Hartmann, Fn. 8, S. 80.

  11. Zu unterscheiden sind einerseits ursprünglich im Einverständnis erstellte Inhalte, die anschließend ohne Zustimmung verbreitet oder anderweitig verwendet werden (sog. Rache-Pornografie) von andererseits jenen Inhalten, die schon unbefugt erstellt, verbreitet oder anderweitig verwendet werden. Darunter ist etwa das Zusenden pornografischer Inhalte, bspw. das unaufgeforderte und ungewollte Zusenden von Bildern der Genitalien (Dickpics und Vulvapics), das Verbreiten von Vergewaltigungsaufnahmen sowie Formen von modernem Voyeurismus (bekannt geworden als sog. Upskirting und Downblousing) zu zählen. Vgl. Das NETTZ, Gesellschaft für Medienpädagogik und Kommunikationskultur, HateAid und Neue deutsche Medienmacher*innen als Teil des Kompetenznetzwerks gegen Hass im Netz (Februar 2024). Lauter Hass – leiser Rückzug, Externer Link: https://kompetenznetzwerk-hass-im-netz.de/wp-content/uploads/2024/02/Studie_Lauter-Hass-leiser-Rueckzug.pdf, S. 41 (zuletzt abgerufen am 16.08.2024); Bauer/Hartmann, Fn. 1, S. 88 f.); Greif, Fn. 8, S. 44, 47; Deutscher Juristinnenbund e.V., Fn. 7, S. 1.

  12. Vgl. Deutscher Juristinnenbund e.V., Fn. 7, S. 1; Hinderks, ZUM, 2022, S. 110; Ajder/Patrini/Cavalli ua, The state of deepfakes, Landscape, threats, and impact, Vorwort.

  13. Vgl. Deutscher Juristinnenbund e.V., Fn. 7, S. 1; Greif, Fn. 8, S. 52.

  14. Vgl. Europäische Kommission (08.03.2022). Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates zur Bekämpfung von Gewalt gegen Frauen und häuslicher Gewalt, Externer Link: https://eur-lex.europa.eu/legal-content/DE/TXT/?uri=CELEX%3A52022PC010, S. 20 (zuletzt abgerufen am 16.8.2024).

  15. Reuther, Digital Rape: Women Are Most Likely to Fall Victim to Deepfakes, Externer Link: https://www.thedeepfake.report/en/09-digital-rape-en (zuletzt abgerufen am 16.8.2024). Bei 96 % der durch Deeptrace im Jahr 2018 ausgewerteten Inhalte handelte es sich um pornografische Inhalte, im Vergleich zu nur 4 % nicht pornografischer Inhalte, Ajder/Patrini/Cavalli ua, Fn. 12, S. 1.

  16. Vgl. Ajder/Patrini/Cavalli ua, Fn. 12, Vorwort; Thiel, Fn. 5, S. 202; 92. Konferenz der Justizministerinnen und Justizminister, Fn. 4, S. 1.

  17. Report aus dem Jahr 2019, Paris/Donavan Joan, Deepfakes and Cheap Fakes, The Manipulation of Audio and Visual Evidence, 2019, S. 7, 8; Ajder/Patrini/Cavalli ua, Fn. 12, S. 2.

  18. Ajder/Patrini/Cavalli ua, Fn. 12, S. 2.

  19. Zu einer Auswertung von Deeptrace im Juni und Juli des Jahres 2019, Ajder/Patrini/Cavalli ua, Fn. 12, S. 2, ebenso nach HateAid, Fn. 3.

  20. Das NETTZ, Gesellschaft für Medienpädagogik und Kommunikationskultur, HateAid und Neue deutsche Medienmacher*innen als Teil des Kompetenznetzwerks gegen Hass im Netz, Fn. 11g; HateAid, Fn. 3; ebenso nach Kumkar/Rapp Fn. 6, (200, 201). Hierzu vertieft auch Werner/Sittig, djbZ, 57.

  21. Vgl. Geschke/Klaßen/Quent ua, #Hass im Netz: Der schleichende Angriff auf unsere Demokratie, Eine bundesweite repräsentative Untersuchung, 2019, 28 ff; Das NETTZ, Gesellschaft für Medienpädagogik und Kommunikationskultur, HateAid und Neue deutsche Medienmacher*innen als Teil des Kompetenznetzwerks gegen Hass im Netz, Fn. 11, S. 7, 18 f, 57; Werner/Sittig, Fn. 20, (58).

  22. Vgl. Reuther, Fn.15; Europäische Kommission, Fn. 14, (18); Ajder/Patrini/Cavalli ua, Fn. 12 S. 6; Bauer/Hartmann, Fn. 1, (87); Greif, Fn. 8, S. 106.

  23. Vgl. Prasad, Fn. 2, (24, 25).; Bundesverband der Frauenberatungsstellen und Frauennotrufe in Deutschland, Fachberatungsstellen und die Digitalisierung Geschlechtsspezifischer Gewalt, Ergebnisse einer Umfrage unter Frauenberatungsstellen und Frauennotrufen im bff, S. 4 f., Externer Link: https://www.frauen-gegen-gewalt.de/de/aktionen-themen/bff-aktiv-gegen-digitale-gewalt/aktuelle-studien-und-veroeffentlichungen.html (zuletzt abgerufen am 16.08.2024); Greif, Fn. 8, S. 77.

  24. Vgl. Prasad, Fn. 2, (24, 25); Bundesverband der Frauenberatungsstellen und Frauennotrufe in Deutschland, Fn. 23, S. 4 f.; Greif, Fn. 8, S. 77.

  25. Vgl. Bundesverband der Frauenberatungsstellen und Frauennotrufe in Deutschland, Fn. 23, S. 4 f.; HateAid, Fn 3; Deutscher Juristinnenbund e.V., Fn. 7, S. 1Greif, Fn. 8, S 45, 78.

  26. Der Begriff Incel setzt sich aus den englischen Begriffen „involuntary“ und „celibate“ zusammen und beschreibt unfreiwillig zölibatär Lebende, Europäische Kommission, Fn. 14, S. 1.

  27. Europäische Kommission, Fn. 14, S. 1.

  28. Bauer/Hartmann, Fn. 1, (87 f.).

  29. Europäische Kommission, Fn. 14 (19, 39).

  30. Vgl. Greif, Fn. 8, S. 52.; Vgl. Kumkar/Rapp, Fn. 6, (200, 201).

  31. Face-Swapping-Apps werden zur Bildbearbeitung eingesetzt. Dabei wird i. d. R. das Gesicht einer Person ausgeschnitten und durch das Gesicht einer anderen Person ersetzt. Einerseits kann dies durch gewöhnliche, menschliche, hochqualitative Bildbearbeitung erfolgen (sog. Cheap Fakes), häufiger jedoch setzen die Apps auf die Erstellung der Bildbearbeitung unter Hinzuziehen von KI.

  32. Vgl. Paris/Donavan Joan, Fn. 17, S. 35 f.

  33. Vgl. Rapp, Herausforderung "Deep Fake", Wie digitale Fälschungen die Realität zerstören, 2021, S. 10; Thiel ZRP 2021, 202 (202).

  34. Urhebergesetz (UrhG).

  35. Grundgesetz (GG).

  36. Kunsturhebergesetz (KUG).

  37. Ausführlich hierzu Valentiner, Das Grundrecht auf sexuelle Selbstbestimmung.

  38. Vgl. Valentiner, Das Grundrecht auf sexuelle Selbstbestimmung.

  39. Strafgesetzbuch (StGB).

  40. Vgl. schon Prasad, Fn. 2, (27 f.). So zuletzt auch: Deutscher Juristinnenbund e.V., Fn. 7, S. 4; Greif, Fn. 8.

  41. Vgl. Eisele, in Schönke/Schröder, § 184a Rn. 3; Schumann, in: NK/StGB, § 184a Rn. 4.

  42. Vgl. Thiel ZRP 2021, 202 (204).

  43. Hacking beschreibt den Einsatz von Informations- und Kommunikationstechnologien, um persönliche Daten der Opfer zu erhalten, vgl. Europäische Kommission, Fn. 14, (20).

  44. Sextortion umfasst die Erpressung entweder zur Erlangung sexualbezogener und/oder intimer Aufnahmen oder dem Nutzen sexualbezogener und/oder intimer Inhalte als Drohmittel.

  45. Doxing erfasst das Sammeln und Verbreiten personenbezogener Daten, wie bspw. den Klarnamen, die Adresse oder Telefonnummer, einer Person, vgl. Bauer/Hartmann, Fn. 1, (76).

  46. Im Jahr 2023 wurden die Strafschärfungsgründe des § 46 Abs. 2 StGB erweitert., vgl. Çelebi Verfassungsblog 2022.

  47. Bestraft werden soll mit einer Freiheitsstrafe bis zu zwei Jahren, wer eine computertechnisch hergestellte oder veränderte, aber wirklichkeitsgetreu wirkende Aufnahme, verbreitet und dadurch das Persönlichkeitsrecht einer anderen Person verletzt. Mit einer Freiheitsstrafe bis zu fünf Jahren bei öffentlicher Verbreitung oder Verletzung des höchstpersönlichen Lebensbereichs, vgl. Bundesrat 05.7.2024. Deepfakes, Externer Link: https://www.bundesrat.de/DE/plenum/bundesrat-kompakt/24/1046/1046-pk.html;jsessionid=D645A399CF68ED52B2EB865A618658F4.live542?nn=4732016#top-15 (zuletzt abgerufen am 16.8.2024); Bundesrat (5.7.2024), BT-Drucksache 222/24, Externer Link: https://www.bundesrat.de/SharedDocs/drucksachen/2024/0201-0300/222-24(B).pdf?__blob=publicationFile&v=1 (zuletzt abgerufen am 16.8.2024).

  48. Vgl. Bundesministerium für Justiz (10.4.2024). Eckpunkte für ein Gesetz gegen digitale Gewalt, Externer Link: https://www.bmj.de/DE/themen/digitales/digitale_kommunikation/digitale_gewalt/digitale_gewalt_artikel.html (zuletzt abgerufen am 16.8.2024); HateAid (13.8.2024), Gesetz gegen Digitale Gewalt, Externer Link: https://hateaid.org/gesetz-gegen-digitale-gewalt/ (zuletzt abgerufen am 16.8.2024).

  49. Vgl. Deutscher Juristinnenbund e.V., Fn. 7, S. 12.

  50. Digital Services Act, dt. Gesetz über digitale Dienste, (DSA).

  51. Digitale-Dienste-Gesetz (DDG).

  52. Bundesregierung (14.5.2024). Das Gesetz über digitale Dienste, Externer Link: https://www.bundesregierung.de/breg-de/themen/digitalisierung/gesetz-ueber-digitale-dienste-2140944 (zuletzt abgerufen am 16.8.2024). DSA und DDG lösen das zuvor geltende Netzwerkdurchsetzungsgesetz (NetzDG) ab, siehe hierzu auch Galetzka/Sittig Kommunikation und Recht (K&R) 2023, 457.

  53. Bis zum 14.06.2027 haben die Mitgliedsstaaten Zeit, um die Richtlinie in nationales Recht umzusetzen. Europäische Kommission (13.6.2024). Prävention, Schutz und angemessene Bestrafung: EU-Gesetz gegen Gewalt gegen Frauen tritt in Kraft, Externer Link: https://germany.representation.ec.europa.eu/news/pravention-schutz-und-angemessene-bestrafung-eu-gesetz-gegen-gewalt-gegen-frauen-tritt-kraft-2024-06-13_de (zuletzt abgerufen am 16.8.2024).

  54. Vgl. Prasad, Fn. 2, (27 f.). Zuletzt auch: Deutscher Juristinnenbund e.V., Fn. 7, S. 4.

  55. Bspw. Am I In Porn, Externer Link: https://amiinporn.org/de/ (zuletzt aufgerufen am 16.8.2024).

  56. HateAid, Externer Link: https://hateaid.org/ (zuletzt abgerufen am 16.8.2024).

Lizenz

Dieser Text ist unter der Creative Commons Lizenz "CC BY-NC-ND 4.0 - Namensnennung - Nicht kommerziell - Keine Bearbeitungen 4.0 International" veröffentlicht. Autor/-in: Jacqueline Sittig für bpb.de

Sie dürfen den Text unter Nennung der Lizenz CC BY-NC-ND 4.0 und des/der Autors/-in teilen.
Urheberrechtliche Angaben zu Bildern / Grafiken / Videos finden sich direkt bei den Abbildungen.
Sie wollen einen Inhalt von bpb.de nutzen?

Weitere Inhalte

Jacqueline Sittig, Diplom-Juristin (Univ.), ist Wissenschaftliche Mitarbeiterin einer Kanzlei für IT- und Wirtschaftsrecht in Würzburg und Doktorandin an der Universität Würzburg mit dem Forschungsschwerpunkt der bildbasierten sexualisierten Gewalt als Ausdruck geschlechtsspezifischer Gewalt.