Deepfakes werden häufig als Bedrohung für die Demokratie gesehen (siehe
Deepfakes für (historisch-)politische Bildung
Bildungsinstitutionen und Museen können Deepfakes verwenden, um zum Beispiel Lehrinhalte oder andere Angebote ansprechender, packender oder gar immersiv zu gestalten und neue Zugänge zu historischen Gegebenheiten zu eröffnen. Vor allem für die historisch-politische Bildung, für Gedenkstätten und Museen bieten Deepfakes damit ein großes Potenzial, um wichtige Zeugnisse und Zeug*innen der Geschichte zu erhalten und neu zugänglich zu machen.
Deepfakes berühmter Persönlichkeiten oder Zeitzeug*innen können in Museen nicht nur sprechen, sondern auch Fragen von Besucher*innen beantworten, so etwa im Dalí-Museum in St. Petersburg, USA in der Ausstellung Externer Link: „Dalí Lives“ (Dalí Lebt), wo man mit dem verstorbenen Künstler in Form eines Avatars „interagieren“ kann. Das eröffnet auch Möglichkeiten für historisch-politische Bildungsansätze. Denn denkbar wären solche Formate in Zukunft beispielsweise auch zur
Deepfakes verbessern auch immersive (Geschichts-)Erlebnisse. So bildet das Projekt Externer Link: „The March“ (Der Marsch) in einer Virtual-Reality-Umgebung die berühmte „I Have a Dream“ (Ich habe einen Traum)-Rede des Bürgerrechtsaktivisten Martin Luther King nach. Deepfakes ermöglichen dabei eine besonders lebensechte Nachbildung des Redners und von Personen im Publikum und damit ein überzeugendes Erlebnis. In Museen und Bildungseinrichtungen, die sich auf innovative Geschichtserlebnisse spezialisiert haben, wie z.B. das National Civil Rights Museum in Memphis, Tennessee, können Besucher*innen Kings Rede aus verschiedenen Perspektiven „beiwohnen“. Außerhalb von Museen ermöglichen Video- und Audio-Deepfakes intensive und neuartige Zugänge zu geschichtlichen Ereignissen und Persönlichkeiten. Beispiele sind ein Audio-Deepfake der Rede des ehemaligen Präsidenten John F. Kennedy, die er am Tag seiner Ermordung gehalten hätte („JFK Unsilenced“, erstellt von der Zeitung „The Times“ gemeinsam mit einer Werbeagentur) sowie ein Video-Deepfake der Rede, die der ehemalige US-Präsident Richard Nixon gehalten hätte, falls die Apollo-11 Mission gescheitert wäre („In Event of Moon Desaster“, erstellt vom Massachusetts Institute of Technology)
Historische Deepfakes ermöglichen also neue Zugänge zur Geschichte und könnten mehr Menschen dafür begeistern. Sie können zudem dazu anregen, über die Bedeutung geschichtlicher Ereignisse und Erfahrungen für die Gegenwart zu reflektieren, aktuelle Gegebenheiten zu hinterfragen, und sich politisch zu engagieren. Es ist jedoch unerlässlich, dass Deepfakes im Rahmen der historisch-politischen Bildung klar als solche gekennzeichnet werden, um Manipulation und Desinformation zu vermeiden. Darüber hinaus werfen Deepfakes Verstorbener eine Reihe ethischer und rechtlicher Fragen auf, zum Beispiel inwieweit das „digitale Weiterleben“ die Würde und Persönlichkeitsrechte der Verstorbenen oder aber ihre Angehörigen in ihrer Trauer verletzt, und welche Bedeutung die eigene Zustimmung zu Lebzeiten zu solchen Deepfakes beziehungsweise die Zustimmung der Angehörigen nach dem eigenen Tod hat
Interaktive und immersive Erlebnisse sind zudem besonders eindrucksvoll. Dies ist einerseits gewünscht, andererseits können die Rezipient*innen durch solche Erlebnisse emotional überwältigt werden. Zudem kann bei den Adressat*innen das Gefühl entstehen, tatsächlich „dabei“ gewesen zu sein und daher zu wissen, „wie es wirklich war“ – was aus mehreren Gründen kritisch zu betrachten ist: Es besteht die Gefahr, dass geschichtliche Ereignisse umgedeutet und verändert werden. Außerdem sind interaktive und immersive Deepfake-Erlebnisse stets nur eine Interpretation der Geschichte und können wesentliche Nuancen und unterschiedliche Perspektiven verlieren. Manche Beobachtende fürchten daher eine „Disneyisierung“ der Geschichte
Nicht zuletzt darf in diesem Zusammenhang die Gefahr nicht außer Acht gelassen werden, dass desinformierende Akteure gezielt Deepfakes schaffen könnten, um historische Tatsachen zu verzerren und damit Bürger*innen zu manipulieren, Verschwörungsideologien und Hass zu verbreiten und die Gesellschaft zu spalten (siehe
Die Nutzung von Deepfakes im Bildungskontext beschränkt sich somit bisher auf die historisch-politische Bildung. Auch im Bereich der politischen Bildung ist die Nutzung von Deepfakes jedoch denkbar, zum Beispiel um die Auswirkungen und Mechanismen von Desinformation und Manipulation zu verdeutlichen (siehe das Projekt „Spectre“ im folgenden Abschnitt). Darüber hinaus ist es denkbar, dass Deepfake-Technologien genutzt werden, um Virtual Reality-Erlebnisse mit politischen Bildungsabsichten überzeugender zu gestalten. Deepfakes Projekte wie bspw. Externer Link: „Deep Empathy“ des UN-Kinderhilfswerks UNICEF, in dem Teilnehmende sich – mit dem Ziel für Kriegsopfer in Syrien zu sensibilisieren – in einer Virtual Reality-Umgebung einer zerstörten Stadt bewegen können, sind Beispiele für die überzeugende Imitation realer Gegebenheiten. Diese könnten durch die technischen Möglichkeiten von Deepfakes noch überzeugender gestaltet werden und für (politische) Bildungsprojekte durchaus fruchtbar sein. Der Einsatz von Deepfakes zu Zwecken der politischen Bildung muss jedoch ebenfalls den Prinzipien des Beutelsbacher Konsens entsprechen, insbesondere hinsichtlich der Kennzeichnung und kritischen Reflexion der Technologien. Dadurch wird sichergestellt, dass sie nicht selbst zur Verbreitung von Desinformation beitragen.
Deepfakes in der politischen Kunst, für Satire und Parodien
Künstler*innen nutzen Deepfakes und insbesondere KI-basierte Bildgeneratoren zunehmend als neues Medium und Ausdrucksform
Schon 2019 verwies das Kunstprojekt „Spectre“ mit Video-Deepfakes unter anderem von Mark Zuckerberg (dem Gründer von Meta), Kim Kardashian und Donald Trump auf die Gefahren von Deepfakes selbst, aber auch breiter auf Überwachung, Desinformation, Plattformkapitalismus und die negativen Seiten der digitalen Influencer*innenökonomie
Künstlerische und satirische Deepfakes werden zudem auch für feministische Zwecke genutzt: 2019, als zur Erstellung eines Audio-Deepfakes noch stundenlanges Trainingsmaterial der Zielperson vonnöten war, entstand die anonyme Webseite NotJordanPeterson.com, auf der Besucher*innen Audio-Deepfakes des pro-patriarchalischen US-amerikanischen Professors Jordan Peterson erstellen konnten. Prompt ließen Nutzer*innen seine Stimme feministische Texte vorlesen, um seine anti-feministischen Überzeugungen zu kritisieren
Deepfakes in der Kunst können es aber auch Betroffenen ermöglichen, ihre Geschichten und Erfahrungen selbst auf eindrucksvolle Art und Weise zu erzählen. So nutzt der 2020 erschienene Dokumentarfilm Externer Link: „Welcome to Chechnya“ in zuvor unbekanntem Ausmaß Deepfakes, um Zeug*innenaussagen verfolgter Homosexueller und Aktivist*innen in Tschetschenien zu veröffentlichen. Die Gesichter der Verfolgten wurden mit Hilfe der Deepfake-Technologie durch Gesichter von Freiwilligen ersetzt, um die Betroffenen zu anonymisieren, sie damit zu schützen und es dem Publikum aber gleichzeitig zu ermöglichen, mit den Protagonist*innen mitzufühlen
Deepfakes für politische Kunst und Satire prangern mitunter auch bestehende Verhältnisse an, indem sie Handlungsalternativen aufzeigen. So verkündete Bundeskanzler Olaf Scholz 2023 in einem vom Künstlerkollektiv „Zentrum für politische Schönheit“ geschaffenen Deepfake-Video scheinbar ein Verbot der Partei „Alternative für Deutschland“
Deepfakes ermöglichen in der Kunst also neuartige Formen der Kreation von Inhalten. In der politischen Kunst und Satire können Deepfakes bestehende Machtverhältnisse anprangern, herausfordern und hinterfragen, Handlungsalternativen aufzeigen, und die Stimme und den Einfluss gesellschaftlich marginalisierter Gruppen stärken. Sie können somit dazu beitragen, dass politische Debatten gesellschaftliche Missstände aufgreifen und verschiedene Akteure einbezogen werden. All das stärkt die Demokratie.
Essenziell ist hierbei jedoch die Transparenz, dass es sich um synthetisch erstellte Medien handelt, damit die Betrachtenden (und Zuhörenden) nicht getäuscht werden. Problematisch ist dabei, dass Medien in den sozialen Netzwerken häufig in neuen Kontexten geteilt und weiterverbreitet werden, und Adressat*innen dabei mitunter nicht mehr klar ist, dass es sich um Satire oder politische Kunst handelt, wenn entsprechende Markierungen als Deepfake entfernt werden.
Darüber hinaus werfen künstlerische Deepfakes schwierige ethische Fragen auf, wenn die Abgebildeten damit nicht einverstanden sind. Dies zeigt der Deepfake von Bundeskanzler Olaf Scholz ebenso wie die genannten Audio-Deepfakes von Jordan Peterson, der drohte, gerichtlich gegen die Seite NotJordanPeterson.com vorzugehen, woraufhin diese vom Betreiber gelöscht wurde
Deepfakes für Aktivismus und politische Kampagnen
Nichtregierungsorganisationen (NROs), staatliche Behörden sowie politische Gruppierungen und Bewegungen können Deepfakes gezielt für Werbe- und Lobbyzwecke und zur Information und Aufklärung nutzen. Mit Hilfe von Audio-Deepfakes können Informationskampagnen beispielsweise in zahlreiche verschiedene Sprachen übersetzt werden. Die Stimmen und Mundbewegungen der Protagonist*innen in Videos lassen sich dann leicht an die veränderte Audiospur anpassen. Ein frühes Beispiel dafür ist eine 2019 erschienene Aufklärungskampagne gegen Malaria mit Fußballstar David Beckham, in der dieser scheinbar neun verschiedene Sprachen spricht
Gerade in repressiven Regimen ist darüber hinaus denkbar, dass Oppositionelle Deepfake-Technologien nutzen, um ihre Botschaften anonym zu verbreiten