Meine Merkliste Geteilte Merkliste PDF oder EPUB erstellen

Chancen für die Demokratie | Wenn der Schein trügt – Deepfakes und die politische Realität | bpb.de

Wenn der Schein trügt – Deepfakes und die politische Realität Auf einen Blick Was ist KI und welche Formen von KI gibt es? KI in den Sozialen Medien Deepfakes: Technische Hintergründe und Trends Fake oder Wirklichkeit: Wieso und wie leicht lassen wir uns täuschen? Anwendungsbereiche von Deepfakes Politische Manipulation und Desinformation Pornografie Diskriminierung „Softfakes“ in Wahlkämpfen Chancen für die Demokratie Deepfakes als Unterhaltung Über den Tellerrand: Virtuelle Influencer*innen Governance von Deepfakes Regulierung von Deepfakes Strafrecht und Regulierung von Deepfake-Pornografie Technische Ansätze zur Deepfake-Erkennung und Prävention Politische Medienbildung Medien als (verzerrter) Spiegel der Realität? Unterrichtsmaterialien Redaktion

Chancen für die Demokratie

Maria Pawelec

/ 11 Minuten zu lesen

Wie können Chancen von Deepfakes für die Demokratie aussehen? Ein verkabeltes Grundgesetzt wird es vermutlich nicht sein. | Illustration: www.leitwerk.com (© bpb)

Deepfakes werden häufig als Bedrohung für die Demokratie gesehen (siehe Interner Link: Kapitel 2.1 Politische Manipulation und Desinformation). Können sie der Demokratie jedoch auch dienen? Deepfakes ermöglichen beispielsweise neue Formen der historisch-politischen Bildung, können Menschen für politische und gesellschaftliche Themen, für Parteien und Kandidat*innen begeistern, oder über Satire und Kunst Machtverhältnisse anprangern und hinterfragen. Solche Anwendungen werfen jedoch teils ebenfalls gewisse ethische und politische Bedenken auf.

Deepfakes für (historisch-)politische Bildung

Bildungsinstitutionen und Museen können Deepfakes verwenden, um zum Beispiel Lehrinhalte oder andere Angebote ansprechender, packender oder gar immersiv zu gestalten und neue Zugänge zu historischen Gegebenheiten zu eröffnen. Vor allem für die historisch-politische Bildung, für Gedenkstätten und Museen bieten Deepfakes damit ein großes Potenzial, um wichtige Zeugnisse und Zeug*innen der Geschichte zu erhalten und neu zugänglich zu machen.

Deepfakes berühmter Persönlichkeiten oder Zeitzeug*innen können in Museen nicht nur sprechen, sondern auch Fragen von Besucher*innen beantworten, so etwa im Dalí-Museum in St. Petersburg, USA in der Ausstellung Externer Link: „Dalí Lives“ (Dalí Lebt), wo man mit dem verstorbenen Künstler in Form eines Avatars „interagieren“ kann. Das eröffnet auch Möglichkeiten für historisch-politische Bildungsansätze. Denn denkbar wären solche Formate in Zukunft beispielsweise auch zur Interner Link: Interaktion mit Avataren von Holocaust-Überlebenden. Inhaltlich in eine solche Richtung geht das Projekt Externer Link: „Dimensions in Testimony““ (Dimensionen der Zeugenschaft) der USC Shoa Foundation, das bisher allerdings mit vorab aufgezeichneten Videos (und Spracherkennung) arbeitet. Deepfakes könnten es ermöglichen, neben voraufgezeichneten Antworten auf Fragen auch neue Formulierungen und sogar neue Inhalte zuzulassen – allerdings mit der damit einhergehenden Gefahr einer möglichen Verzerrung der Geschichte (siehe unten).

Deepfakes verbessern auch immersive (Geschichts-)Erlebnisse. So bildet das Projekt Externer Link: „The March“ (Der Marsch) in einer Virtual-Reality-Umgebung die berühmte „I Have a Dream“ (Ich habe einen Traum)-Rede des Bürgerrechtsaktivisten Martin Luther King nach. Deepfakes ermöglichen dabei eine besonders lebensechte Nachbildung des Redners und von Personen im Publikum und damit ein überzeugendes Erlebnis. In Museen und Bildungseinrichtungen, die sich auf innovative Geschichtserlebnisse spezialisiert haben, wie z.B. das National Civil Rights Museum in Memphis, Tennessee, können Besucher*innen Kings Rede aus verschiedenen Perspektiven „beiwohnen“. Außerhalb von Museen ermöglichen Video- und Audio-Deepfakes intensive und neuartige Zugänge zu geschichtlichen Ereignissen und Persönlichkeiten. Beispiele sind ein Audio-Deepfake der Rede des ehemaligen Präsidenten John F. Kennedy, die er am Tag seiner Ermordung gehalten hätte („JFK Unsilenced“, erstellt von der Zeitung „The Times“ gemeinsam mit einer Werbeagentur) sowie ein Video-Deepfake der Rede, die der ehemalige US-Präsident Richard Nixon gehalten hätte, falls die Apollo-11 Mission gescheitert wäre („In Event of Moon Desaster“, erstellt vom Massachusetts Institute of Technology).

Historische Deepfakes ermöglichen also neue Zugänge zur Geschichte und könnten mehr Menschen dafür begeistern. Sie können zudem dazu anregen, über die Bedeutung geschichtlicher Ereignisse und Erfahrungen für die Gegenwart zu reflektieren, aktuelle Gegebenheiten zu hinterfragen, und sich politisch zu engagieren. Es ist jedoch unerlässlich, dass Deepfakes im Rahmen der historisch-politischen Bildung klar als solche gekennzeichnet werden, um Manipulation und Desinformation zu vermeiden. Darüber hinaus werfen Deepfakes Verstorbener eine Reihe ethischer und rechtlicher Fragen auf, zum Beispiel inwieweit das „digitale Weiterleben“ die Würde und Persönlichkeitsrechte der Verstorbenen oder aber ihre Angehörigen in ihrer Trauer verletzt, und welche Bedeutung die eigene Zustimmung zu Lebzeiten zu solchen Deepfakes beziehungsweise die Zustimmung der Angehörigen nach dem eigenen Tod hat.

Interaktive und immersive Erlebnisse sind zudem besonders eindrucksvoll. Dies ist einerseits gewünscht, andererseits können die Rezipient*innen durch solche Erlebnisse emotional überwältigt werden. Zudem kann bei den Adressat*innen das Gefühl entstehen, tatsächlich „dabei“ gewesen zu sein und daher zu wissen, „wie es wirklich war“ – was aus mehreren Gründen kritisch zu betrachten ist: Es besteht die Gefahr, dass geschichtliche Ereignisse umgedeutet und verändert werden. Außerdem sind interaktive und immersive Deepfake-Erlebnisse stets nur eine Interpretation der Geschichte und können wesentliche Nuancen und unterschiedliche Perspektiven verlieren. Manche Beobachtende fürchten daher eine „Disneyisierung“ der Geschichte. Im Einklang mit den im Interner Link: Beutelsbacher Konsens festgehaltenen Prinzipien politischer Bildung muss daher darauf geachtet werden, dass die Erlebnisse mit Deepfakes im Rahmen der historisch-politischen Bildung eine kritische und ausgewogene Auseinandersetzung mit der Geschichte ermöglichen. Außerdem ist es wichtig, dass Deepfakes im Bildungskontext immer entsprechend eingeordnet werden – ganz besonders, wenn sie sich an Kinder und Jugendliche richten.

Nicht zuletzt darf in diesem Zusammenhang die Gefahr nicht außer Acht gelassen werden, dass desinformierende Akteure gezielt Deepfakes schaffen könnten, um historische Tatsachen zu verzerren und damit Bürger*innen zu manipulieren, Verschwörungsideologien und Hass zu verbreiten und die Gesellschaft zu spalten (sieheInterner Link: Kapitel „Politische Manipulation und Desinformation“). Dazu gehört eine wachsende Anzahl an Deepfakes zur Leugnung des Holocausts und zur Verbreitung nationalsozialistischer Ideologie.

Die Nutzung von Deepfakes im Bildungskontext beschränkt sich somit bisher auf die historisch-politische Bildung. Auch im Bereich der politischen Bildung ist die Nutzung von Deepfakes jedoch denkbar, zum Beispiel um die Auswirkungen und Mechanismen von Desinformation und Manipulation zu verdeutlichen (siehe das Projekt „Spectre“ im folgenden Abschnitt). Darüber hinaus ist es denkbar, dass Deepfake-Technologien genutzt werden, um Virtual Reality-Erlebnisse mit politischen Bildungsabsichten überzeugender zu gestalten. Deepfakes Projekte wie bspw. Externer Link: „Deep Empathy“ des UN-Kinderhilfswerks UNICEF, in dem Teilnehmende sich – mit dem Ziel für Kriegsopfer in Syrien zu sensibilisieren – in einer Virtual Reality-Umgebung einer zerstörten Stadt bewegen können, sind Beispiele für die überzeugende Imitation realer Gegebenheiten. Diese könnten durch die technischen Möglichkeiten von Deepfakes noch überzeugender gestaltet werden und für (politische) Bildungsprojekte durchaus fruchtbar sein. Der Einsatz von Deepfakes zu Zwecken der politischen Bildung muss jedoch ebenfalls den Prinzipien des Beutelsbacher Konsens entsprechen, insbesondere hinsichtlich der Kennzeichnung und kritischen Reflexion der Technologien. Dadurch wird sichergestellt, dass sie nicht selbst zur Verbreitung von Desinformation beitragen.

Deepfakes in der politischen Kunst, für Satire und Parodien

Künstler*innen nutzen Deepfakes und insbesondere KI-basierte Bildgeneratoren zunehmend als neues Medium und Ausdrucksform. Manche Künstler*innen machen mit Hilfe von Deepfakes auch auf gesellschaftliche Missstände und Machtverhältnisse aufmerksam und hinterfragen diese. Sie schaffen also politische Kunst, wobei die Grenzen zur politischen Satire und Parodien fließend sind. Schließlich handelt es sich bei der Satire um eine „Kunstgattung, die durch Übertreibung, Ironie und [beißenden] Spott an Personen, Ereignissen Kritik übt, sie der Lächerlichkeit preisgibt, Zustände anprangert, mit scharfem Witz geißelt“ und bei Parodien um „komisch-satirische Nachahmung[en]“.

Schon 2019 verwies das Kunstprojekt „Spectre“ mit Video-Deepfakes unter anderem von Mark Zuckerberg (dem Gründer von Meta), Kim Kardashian und Donald Trump auf die Gefahren von Deepfakes selbst, aber auch breiter auf Überwachung, Desinformation, Plattformkapitalismus und die negativen Seiten der digitalen Influencer*innenökonomie. Die Deepfake-Videos wurden im Rahmen einer Kunstinstallation in Sheffield, England gezeigt. Einige der Deepfakes wurden zudem Externer Link: über Instagram verbreitet.
Künstlerische und satirische Deepfakes werden zudem auch für feministische Zwecke genutzt: 2019, als zur Erstellung eines Audio-Deepfakes noch stundenlanges Trainingsmaterial der Zielperson vonnöten war, entstand die anonyme Webseite NotJordanPeterson.com, auf der Besucher*innen Audio-Deepfakes des pro-patriarchalischen US-amerikanischen Professors Jordan Peterson erstellen konnten. Prompt ließen Nutzer*innen seine Stimme feministische Texte vorlesen, um seine anti-feministischen Überzeugungen zu kritisieren.

Deepfakes in der Kunst können es aber auch Betroffenen ermöglichen, ihre Geschichten und Erfahrungen selbst auf eindrucksvolle Art und Weise zu erzählen. So nutzt der 2020 erschienene Dokumentarfilm Externer Link: „Welcome to Chechnya“ in zuvor unbekanntem Ausmaß Deepfakes, um Zeug*innenaussagen verfolgter Homosexueller und Aktivist*innen in Tschetschenien zu veröffentlichen. Die Gesichter der Verfolgten wurden mit Hilfe der Deepfake-Technologie durch Gesichter von Freiwilligen ersetzt, um die Betroffenen zu anonymisieren, sie damit zu schützen und es dem Publikum aber gleichzeitig zu ermöglichen, mit den Protagonist*innen mitzufühlen. Der Dokumentarfilm prangert damit besonders eindringlich Menschenrechtsverletzungen in Tschetschenien an Homosexuellen und ihren Unterstützer*innen an.
Deepfakes für politische Kunst und Satire prangern mitunter auch bestehende Verhältnisse an, indem sie Handlungsalternativen aufzeigen. So verkündete Bundeskanzler Olaf Scholz 2023 in einem vom Künstlerkollektiv „Zentrum für politische Schönheit“ geschaffenen Deepfake-Video scheinbar ein Verbot der Partei „Alternative für Deutschland“. In seiner ersten Version war das Video nicht klar als Fälschung gekennzeichnet, so dass zahlreiche Betrachtende es für echt hielten. Die deutsche Bundesregierung erwirkte über den direkten Kontakt mit Social Media-Plattformen Löschungen aufgrund von Urheberrechtsverletzungen. Darüber hinaus ging sie gerichtlich gegen das Video vor. Im Februar 2024 verbot das Landgericht Berlin das Video dann aufgrund der hohen Manipulationsgefahr und dem Fehlen einer „künstlerischen Anmutung oder satirischen Überspitzung“.

Deepfakes ermöglichen in der Kunst also neuartige Formen der Kreation von Inhalten. In der politischen Kunst und Satire können Deepfakes bestehende Machtverhältnisse anprangern, herausfordern und hinterfragen, Handlungsalternativen aufzeigen, und die Stimme und den Einfluss gesellschaftlich marginalisierter Gruppen stärken. Sie können somit dazu beitragen, dass politische Debatten gesellschaftliche Missstände aufgreifen und verschiedene Akteure einbezogen werden. All das stärkt die Demokratie.
Essenziell ist hierbei jedoch die Transparenz, dass es sich um synthetisch erstellte Medien handelt, damit die Betrachtenden (und Zuhörenden) nicht getäuscht werden. Problematisch ist dabei, dass Medien in den sozialen Netzwerken häufig in neuen Kontexten geteilt und weiterverbreitet werden, und Adressat*innen dabei mitunter nicht mehr klar ist, dass es sich um Satire oder politische Kunst handelt, wenn entsprechende Markierungen als Deepfake entfernt werden.
Darüber hinaus werfen künstlerische Deepfakes schwierige ethische Fragen auf, wenn die Abgebildeten damit nicht einverstanden sind. Dies zeigt der Deepfake von Bundeskanzler Olaf Scholz ebenso wie die genannten Audio-Deepfakes von Jordan Peterson, der drohte, gerichtlich gegen die Seite NotJordanPeterson.com vorzugehen, woraufhin diese vom Betreiber gelöscht wurde. In jedem einzelnen Fall müssen die Interessen und Persönlichkeitsrechte der Abgebildeten gegen öffentliche und gesellschaftliche Interessen abgewogen werden. Dabei müssen das demokratiefördernde Potenzial künstlerischer und satirischer Deepfakes sowie die künstlerische Freiheit besonders beachtet werden.

Deepfakes für Aktivismus und politische Kampagnen

Nichtregierungsorganisationen (NROs), staatliche Behörden sowie politische Gruppierungen und Bewegungen können Deepfakes gezielt für Werbe- und Lobbyzwecke und zur Information und Aufklärung nutzen. Mit Hilfe von Audio-Deepfakes können Informationskampagnen beispielsweise in zahlreiche verschiedene Sprachen übersetzt werden. Die Stimmen und Mundbewegungen der Protagonist*innen in Videos lassen sich dann leicht an die veränderte Audiospur anpassen. Ein frühes Beispiel dafür ist eine 2019 erschienene Aufklärungskampagne gegen Malaria mit Fußballstar David Beckham, in der dieser scheinbar neun verschiedene Sprachen spricht. Durch Deepfakes können solche Kampagnen viel mehr Menschen erreichen und ihnen gegebenenfalls wichtige Informationen vermitteln. Es ist denkbar, dass in der Zukunft aufklärende und informierende behördliche und nicht-staatliche Deepfakes „hyperpersonalisiert“ werden. Die Werbeindustrie nutzt Deepfakes bereits, um beispielsweise Werbevideos auf bestimmte Regionen oder sogar einzelne Kund*innen zuzuschneiden. Prominente in Videos sprechen mitunter Personen namentlich an, oder die Inhalte werden an verschiedene Zielgruppen angepasst. In Zukunft könnten entsprechend beispielsweise auch Aufklärungsvideos personalisiert werden, um mehr Menschen zu erreichen. Deepfakes erlauben zudem die Darstellung neuer Inhalte zur politischen und gesellschaftlichen Mobilisierung und Aufklärung. Insbesondere Deepfakes Verstorbener können dabei eindrucksvoll sein. So entstand 2020 in Mexiko aus der Partnerschaft einer NRO und eines Fernsehsenders ein Video-Deepfake eines ermordeten Journalisten, der vom mexikanischen Präsidenten Aufklärung über und Gerechtigkeit für seine Ermordung forderte. Ebenfalls 2020 verlangte ein Video-Deepfake eines erschossenen Jugendlichen in den USA strengere Waffengesetze, während in Australien ein Video-Deepfake eines Polizisten, der Selbstmord begangen hatte, psychologische Unterstützungsangebote für Polizist*innen bewarb.

Gerade in repressiven Regimen ist darüber hinaus denkbar, dass Oppositionelle Deepfake-Technologien nutzen, um ihre Botschaften anonym zu verbreiten oder um Gesichtserkennungssoftware zu umgehen und sich damit zu schützen Aktivistische Deepfakes können unter die Haut gehen und eine starke Wirkung entfalten. Sie können bestimmten politischen Themen und Gruppen mehr Gehör verschaffen und mehr Menschen ansprechen und erreichen. Mit Ausnahme der letztgenannten Nutzung ist es jedoch auch hier unbedingt notwendig, transparent zu machen, dass es sich um synthetisch erstellte oder manipulierte Medien handelt. Auch hier lauert in Kontextübertragungen die Gefahr, dass die Öffentlichkeit oder Einzelne von aktivistischen Deepfakes getäuscht werden, und auch hier stellen sich Fragen nach der Zustimmung der Abgebildeten und dem Umgang mit Deepfakes Verstorbener. Diese ethischen Fragen und Bedenken müssen mit dem demokratiefördernden Potenzial von Deepfakes in Kampagnen und zu Aufklärungszwecken abgewogen werden.

Weitere Inhalte

Maria Pawelec ist wissenschaftliche Mitarbeiterin am Internationalen Zentrum für Ethik in den Wissenschaften (IZEW) der Universität Tübingen. Sie hat einen politikwissenschaftlichen Hintergrund und ihre Forschung konzentriert sich auf die Folgen technologischer Innovationen, Desinformation und Deepfakes.