Audio-visuelle Medien können heutzutage insbesondere mit Hilfe von (generativer) künstlicher Intelligenz (Interner Link: Kapitel 1.1) schnell und überzeugend manipuliert oder sogar synthetisch erstellt werden. Es entstehen so genannte „Interner Link: Deepfakes“, also Bilder, Videos und Audiospuren, die so aussehen beziehungsweise klingen, als ob Menschen Dinge getan oder gesagt hätten, die sie nie getan oder gesagt haben.
Die Technologie hinter Deepfakes hat sich rasant verbessert, seit sie 2017 im Kontext gefälschter Pornoaufnahmen erstmals in die Öffentlichkeit gelangte (Interner Link: Kapitel 2.2). Nicht zuletzt seit dem Aufkommen von Bild-, Audio- und Videogeneratoren haben inzwischen selbst Menschen ohne technisches Hintergrundwissen Zugriff auf Algorithmen und Tools, die es ihnen erlauben, mit geringem Aufwand und wenigen Input-Daten realistisch wirkende Bilder von Menschen und Audiospuren menschlicher Stimmen zu generieren (oder zu manipulieren) und sogar passable Deepfake-Videos zu erstellen (Interner Link: Kapitel 1.3). Die Qualität von Deepfakes nimmt daher ebenso zu wie ihre Zugänglichkeit und damit Quantität. Dies führt in Kombination mit der Dynamik der Verbreitung von (Des-)Informationen in den sozialen Medien (Interner Link: Kapitel 1.2) und der besonderen Wirkmacht (audio-)visueller Darstellungen (Interner Link: Kapitel 1.4) dazu, dass es für Betrachter*innen und Zuhörer*innen immer schwieriger wird, authentische von unauthentischen Inhalten zu unterscheiden.
Dies eröffnet neue Möglichkeiten der Manipulation und Desinformation. Entsprechend dreht sich die öffentliche, mediale und politische Debatte über Deepfakes hauptsächlich um ihr politisches Missbrauchspotenzial: Böswillige Akteure können Deepfakes zur Wahlmanipulation, für Angriffe auf politische Gegner*innen oder für versuchte ausländische Einflussnahme nutzen. Deepfakes untergraben das Vertrauen in Medien und demokratische Prozesse (Interner Link: Kapitel 2.1). Dabei wird in der Debatte häufig übersehen, dass die Technologie (noch immer) überwiegend zur Erstellung nicht-einvernehmlicher sexualisierender Deepfakes genutzt wird. Diese Deepfakes haben verheerenden Auswirkungen auf die Betroffenen, aber auch die Gesellschaft, und tragen zu einer (weiteren) gesellschaftlichen Marginalisierung von Frauen bei (Interner Link: Kapitel 2.2). Daneben sind weitere gesellschaftliche Gruppen von Diskriminierung und Marginalisierung durch KI und Deepfakes betroffen: Schwarze Menschen und People of Colour, Menschen aus der LGBTQ-Community, Jüdinnen und Juden, Muslim*innen, ältere Menschen und Menschen mit Behinderungen. Dabei können sowohl die Anwendungen von Deepfakes als auch die Technik selbst diskriminierend wirken, wenn sie auf unausgewogenen Trainingsdaten beruht und Angehörige ethnischer und weiterer Minderheiten durch die Technologie nur unzureichend dargestellt (oder im Falle von Detektionstools nur unzureichend erkannt) werden können (Interner Link: Kapitel 2.3). Deepfakes können somit bestehende gesellschaftliche und politische Probleme wie Desinformation, Polarisierung und Diskriminierung verstärken.
Die Technologie birgt gleichzeitig jedoch auch viele Chancen. Aus politischer und gesellschaftlicher Sicht ermöglichen Deepfakes neue Formen der historisch-politischen Bildung sowie der politischen Mobilisierung. Deepfake-Satire und Kunst können Machtverhältnisse anprangern und hinterfragen (Interner Link: Kapitel 2.5). Immer mehr Privatpersonen erstellen Deepfakes zu Unterhaltungszwecken und teilen sie in den sozialen Medien, über die häufig der erste Kontakt – insbesondere von jungen Mengen – mit der Technologie erfolgt. Die Film- und Werbeindustrie, aber auch weitere Branchen experimentieren mit einer kommerziellen Nutzung der Technologie (Interner Link: Kapitel 2.6). Dazu gehören auch virtuelle Influencer*innen, also mit Hilfe von Deepfakes erstellte virtuelle „Persönlichkeiten“, die in den sozialen Medien für bestimmte Marken und Produkte werben (Interner Link: Kapitel 2.7). In Zukunft ist darüber hinaus denkbar, dass Deepfakes mit großen Sprachmodellen wie ChatGPT kombiniert werden, um Chatbots „ein Gesicht zu geben“ und bereits bestehende virtuelle Assistent*innen zu verbessern. Doch auch solche kommerziellen, unterhaltenden, satirischen und aktivistischen Nutzungen von Deepfakes bergen neben vielen Potenzialen auch mögliche Gefahren, unter anderem in Hinblick auf die Persönlichkeitsrechte der Abgebildeten, den Verlust von Arbeitsplätzen, oder die Gefahr der Täuschung.
Wie sollten wir als Gesellschaft also mit Deepfakes umgehen? Um ihre Gefahren einzudämmen, aber gleichzeitig eine Nutzung ihrer Potenziale zu ermöglichen, müssen verschiedene Akteure und Regulierungsinstrumente zusammenspielen. Die Betreiber von Social Media-Plattformen stehen dabei in der Verantwortung, stärker gegen desinformierende und nicht einvernehmliche sexualisierende Deepfakes vorzugehen. Ebenso sollten die Entwickler*innen und Anbieter*innen der entsprechenden Technologien Verantwortung übernehmen und böswillige Nutzungen ihrer Technologien erschweren. Da Maßnahmen der Selbstregulierung jedoch nicht ausreichen, braucht es gleichzeitig eine Weiterentwicklung der gesetzlichen Regulierung von Deepfakes und eine effektive Rechtsdurchsetzung (Interner Link: Kapitel 3.1). Insbesondere im Bereich des Schutzes vor nicht-einvernehmlichen sexualisierenden Deepfakes bestehen in Deutschland, wie in vielen anderen Ländern, Schutzlücken zulasten der Betroffenen; aktuelle Gesetzesvorhaben stimmen hier jedoch hoffnungsvoller (Interner Link: Kapitel 3.2).
Neben einer verbesserten (Selbst-)Regulierung bedarf es technischer Lösungen, um Deepfakes überhaupt erkennen zu können, authentische Medien zu kennzeichnen, oder Daten für die Verwertung durch Deepfake-Generatoren unbrauchbar zu machen (Interner Link: Kapitel 3.3). Nicht zuletzt sind jedoch auch gesellschaftliche Lösungen gefragt. Eine zentrale Rolle spielen dabei Journalist*innen. Sie stehen durch Deepfakes vor neuen Herausforderungen sowie Aufgaben. Zu diesen Aufgaben gehören vermehrte Faktenchecks und die Kontextualisierung von Informationen, damit die Medien ihrer zentralen Rolle in Demokratien als Vermittler vertrauenswürdiger Informationen sowie als demokratische Kontrollinstanz weiterhin gerecht werden (Interner Link: Kapitel 3.5). Doch auch jede/r einzelne Nutzer*in der sozialen Medien kann dazu beitragen, die Risiken von Deepfakes zu minimieren, indem sie/er grundlegendes Wissen über die Technologie und ihre Auswirkungen erlangt und den Umgang mit ihr kritisch reflektiert (Interner Link: Kapitel 3.4). Das vorliegende Dossier dient als Unterstützung dafür und bietet eine breit gefächerte Einführung in die Technologie, ihre Implikationen, und in Möglichkeiten ihrer Regulierung. Unterrichtsmaterialien zur konkreten Thematisierung von Deepfakes im Schulunterricht folgen in Kürze.
Maria Pawelec ist wissenschaftliche Mitarbeiterin am Internationalen Zentrum für Ethik in den Wissenschaften (IZEW) der Universität Tübingen. Sie hat einen politikwissenschaftlichen Hintergrund und ihre Forschung konzentriert sich auf die Folgen technologischer Innovationen, Desinformation und Deepfakes.