Meine Merkliste Geteilte Merkliste PDF oder EPUB erstellen

Governance von Deepfakes | Wenn der Schein trügt – Deepfakes und die politische Realität | bpb.de

Wenn der Schein trügt – Deepfakes und die politische Realität Auf einen Blick Was ist KI und welche Formen von KI gibt es? KI in den Sozialen Medien Deepfakes: Technische Hintergründe und Trends Fake oder Wirklichkeit: Wieso und wie leicht lassen wir uns täuschen? Anwendungsbereiche von Deepfakes Politische Manipulation und Desinformation Pornografie Diskriminierung „Softfakes“ in Wahlkämpfen Chancen für die Demokratie Deepfakes als Unterhaltung Über den Tellerrand: Virtuelle Influencer*innen Governance von Deepfakes Regulierung von Deepfakes Strafrecht und Regulierung von Deepfake-Pornografie Technische Ansätze zur Deepfake-Erkennung und Prävention Politische Medienbildung Medien als (verzerrter) Spiegel der Realität? Unterrichtsmaterialien Redaktion

Governance von Deepfakes

Maria Pawelec

/ 1 Minute zu lesen

Wer reguliert wie den Einsatz von KI und die Anwendung von Deepfakes? | Illustration: www.leitwerk.com (© bpb)

Wie kann und sollte unsere Gesellschaft auf die Herausforderungen von Deepfakes reagieren? Wie können wir gleichzeitig die Chancen der Technologie nutzen? Dafür müssen verschiedene gesellschaftliche, politische und institutionelle Akteure und Ansätze zusammenwirken. Eine wichtige Rolle spielen Politiker*innen, die entsprechende Regulierungsvorschläge auf nationaler, aber auch europäischer Ebene erarbeiten (siehe Interner Link: Kapitel 3.1 Regulierung von Deepfakes und Interner Link: 3.2 Strafrecht und Regulierung von Deepfake-Pornographie). Viele dieser Vorschläge zielen dabei auf die Betreiber*innen großer Social-Media-Plattformen. Diese stehen jedoch auch selbst in der Verantwortung, im Sinne einer Selbstregulierung dazu beizutragen, dass nicht-einvernehmliche Deepfake-Pornografie sowie Deepfakes für kriminelle Zwecke und zur Desinformation eingedämmt werden (siehe Interner Link: Kapitel 3.1). Gleichzeitig bedarf es verbesserter technischer Ansätze, um Deepfakes zu erkennen, Dateien für deren Training unbrauchbar zu machen und authentische Inhalte zu kennzeichnen (siehe Interner Link: Kapitel 3.3). Nicht zuletzt sind auch institutionelle und gesellschaftliche Ansätze gefragt, damit Bürger*innen weniger anfällig für Desinformation (siehe Interner Link: Kapitel 3.4 Medienkompetenz) und Journalist*innen im Umgang mit Deepfakes gestärkt werden (siehe Interner Link: Kapitel 3.5 Journalismus und Faktenchecking).

Quellen / Literatur

Pawelec M, Bieß C (2021) Deepfakes. Technikfolgen und Regulierungsfragen aus ethischer und sozialwissenschaftlicher Perspektive, 1. Aufl. Kommunikations- und Medienethik, Bd. 16. Nomos, Baden-Baden

Fussnoten

Fußnoten

  1. siehe auch: Pawelec M, Bieß C (2021) Deepfakes. Technikfolgen und Regulierungsfragen aus ethischer und sozialwissenschaftlicher Perspektive, 1. Aufl. Kommunikations- und Medienethik, Bd. 16. Nomos, Baden-Baden

Lizenz

Dieser Text ist unter der Creative Commons Lizenz "CC BY-NC-ND 4.0 - Namensnennung - Nicht kommerziell - Keine Bearbeitungen 4.0 International" veröffentlicht. Autor/-in: Maria Pawelec für bpb.de

Sie dürfen den Text unter Nennung der Lizenz CC BY-NC-ND 4.0 und des/der Autors/-in teilen.
Urheberrechtliche Angaben zu Bildern / Grafiken / Videos finden sich direkt bei den Abbildungen.
Sie wollen einen Inhalt von bpb.de nutzen?

Weitere Inhalte

Maria Pawelec ist wissenschaftliche Mitarbeiterin am Internationalen Zentrum für Ethik in den Wissenschaften (IZEW) der Universität Tübingen. Sie hat einen politikwissenschaftlichen Hintergrund und ihre Forschung konzentriert sich auf die Folgen technologischer Innovationen, Desinformation und Deepfakes.