Meine Merkliste Geteilte Merkliste PDF oder EPUB erstellen

„Softfakes“ in Wahlkämpfen | Wenn der Schein trügt – Deepfakes und die politische Realität | bpb.de

Wenn der Schein trügt – Deepfakes und die politische Realität Auf einen Blick Was ist KI und welche Formen von KI gibt es? KI in den Sozialen Medien Deepfakes: Technische Hintergründe und Trends Fake oder Wirklichkeit: Wieso und wie leicht lassen wir uns täuschen? Anwendungsbereiche von Deepfakes Politische Manipulation und Desinformation Pornografie Diskriminierung „Softfakes“ in Wahlkämpfen Chancen für die Demokratie Deepfakes als Unterhaltung Über den Tellerrand: Virtuelle Influencer*innen Governance von Deepfakes Regulierung von Deepfakes Strafrecht und Regulierung von Deepfake-Pornografie Technische Ansätze zur Deepfake-Erkennung und Prävention Politische Medienbildung Medien als (verzerrter) Spiegel der Realität? Unterrichtsmaterialien Redaktion

„Softfakes“ in Wahlkämpfen Ein Ausblick

Maria Pawelec

/ 7 Minuten zu lesen

Sogenannte Softfakes werden auch in Wahlkampfsituationen gerne eingesetzt. | Illustration: www.leitwerk.com (© bpb, Leitwerk)

Deepfakes zur Manipulation demokratischer Wahlen gelten als große Gefahr (siehe Interner Link: Kapitel 2.1 Politische Manipulation und Desinformation). In den letzten Jahren zeichnet sich jedoch ab, dass Deepfakes im Kontext von Wahlen nicht nur von politischen Gegner*innen genutzt werden, um Kandidat*innen zu diskreditieren und falsche Informationen über den Wahlprozess zu verbreiten. Vielmehr nutzen Wahlkampfteams und Politiker*innen selbst zunehmend die Technologie, um mehr oder neue Zielgruppen zu erreichen, Inhalte ihrer Wahlprogramme zu verbreiten, sich selbst vorteilhaft und sympathisch darzustellen, oder Unterstützung vonseiten berühmter (und teils verstorbener) Persönlichkeiten zu suggerieren. In diesem Zusammenhang ist mitunter von „Softfakes“ die Rede.

Wie wurden Softfakes bisher eingesetzt?

Der erste Einsatz von Softfakes erfolgte 2020, als die Bharatiya Janata Party (BJP) Delhi zwei Externer Link: Videos ihres Vorsitzenden veröffentlichte, in denen dieser auf Englisch und Haryanvi für die BJP warb – Sprachen, die er nicht spricht. Die Videos wurden in über 5800 WhatsApp-Gruppen gepostet und erreichten mehr als 15 Millionen Wähler*innen. Sie waren nicht als Fälschung gekennzeichnet und daher sehr umstritten.

Vier Jahre später setzten alle politischen Parteien in Indien bei den landesweiten Wahlen auf Softfakes für ihre Wahlkampagnen. Wieder machte es diese Technologie möglich, in dem multilingualen Land Wähler*innen direkt in deren Muttersprache anzusprechen. Dabei wurden diese Deepfakes nun jedoch hyperpersonalisiert ausgespielt: So wandte sich der indische Premierminister Narendra Modi von der BJP in einem Video Externer Link: per WhatsApp scheinbar direkt an einzelne Wähler*innen und sprach sie namentlich in ihrer Muttersprache an. Auch andere BJP-Vertreter*innen richteten über einen Avatar ihrer eigenen Person auf WhatsApp persönliche Nachrichten an Wähler*innen, in denen sie die Erfolge der Regierung betonten und um Stimmen warben. Teils erschienen die Avatare dabei in der Externer Link: persönlichen Umgebung der Bürger*innen und überbrachten Botschaften, die sich je nach Standort des Endgeräts unterschieden. Darüber hinaus experimentierten verschiedene Parteien mit KI-gesteuerten Chatbots mit den Stimmen bekannter Politiker*innen, die Wähler*innen direkt anriefen und in Gespräche verwickelten – oft, ohne, dass den Angerufenen bewusst war, dass sie nicht mit einem Menschen sprachen. Neben diesen hyperpersonalisierten Deepfake-Botschaften wurden Deepfakes verstorbener Politiker*innen eingesetzt, um Externer Link: für Kandidat*innen zu werben. Deepfakes Externer Link: tanzender und singender Politiker*innen sollten zudem ein sympathisches Bild der Kandidat*innen vermitteln. Der massive Einsatz diffamierender Deepfakes, aber auch der hier beschriebenen Softfakes machte die Wahlen in Indien 2024 zum Externer Link: „Testlabor für den Einsatz künstlicher Intelligenz“, so die Politikwissenschaftlerin Katja Muñoz.

Auch in anderen Staaten wurde bereits mit Softfakes experimentiert. Besonders innovativ war eine Deepfake-gestützte Kampagne des südkoreanischen Präsidenten Yoon Suk-Yeol. 2022 ließ sein Kampagnenteam auf der Grundlage von vielen Stunden Videomaterial des Kandidaten Externer Link: einen Avatar trainieren: „AI Yoon“. Dieser glich dem Kandidaten optisch, verwendete jedoch eine saloppe Sprache und machte zahlreiche Witze, um vor allem jüngere Wähler*innen anzusprechen. Der Avatar erreichte Millionen Menschen und „beantwortete“ tausende Bürgerfragen, wobei die Antworten von Yoons Kampagnenteam geschrieben wurden. Sein Erfolg brachte schließlich Yoons Gegenkandidaten dazu, Externer Link: selbst einen Deepfake-gestützten Avatar zu nutzen.

In Indonesien ließ 2024 ein Softfake den verstorbenen Diktator Suharto Externer Link: digital „wiederauferstehen“, um die Unterstützung für eine bestimmte politische Partei zu gewinnen. Darüber hinaus wurde auch hier KI im Wahlkampf eingesetzt, um das Image eines Präsidentschaftskandidaten insbesondere bei jungen Wähler*innen zu verbessern: General Subianto, dem Gräueltaten an pro-demokratischen Aktivist*innen vorgeworfen werden, erfand sich selbst neu als Externer Link: „knuddeliger“ KI-Avatar. Da dieser nicht fotorealistisch war, handelt es sich hierbei nicht um einen Deepfake. Es ist jedoch denkbar, dass Kandidat*innen in Zukunft Avatare mit nur geringen optischen Veränderungen nutzen, um sympathischer (und, wie im vorliegenden Fall, harmloser) zu wirken.

Nicht zuletzt ermöglichten es Deepfakes dem inhaftierten ehemaligen pakistanischen Premierminister Imran Khan, seine Partei in den Parlamentswahlen 2024 Externer Link: aus dem Gefängnis heraus zu unterstützen, indem er ihr inhaltliche Notizen zukommen ließ, die diese dann in Audio- und Video-Botschaften des Expremiers an Wähler*innen umwandelte.

Die Zukunft des Wahlkampfs?

Softfakes wurden bisher vor allem in Asien genutzt. Mit ihrer Hilfe können Parteien und Kandidat*innen neue Zielgruppen ansprechen, mehr Bürger*innen erreichen und mit diesen interagieren, Wahlbotschaften und -versprechen hyperpersonalisiert vermitteln, das Image von Kandidat*innen verbessern und innovative Unterstützungsbotschaften kreieren. Deepfakes sind dabei oftmals ein günstiges Werkzeug, das zunehmend von spezialisierten Wahlkampf- und PR-Agenturen und Unternehmen im Bereich der synthetischen Medien angeboten wird. Softfake-Pioniere sehen in ihnen daherExterner Link: „die Zukunft des Wahlkampfs“.

In Deutschland nutzten Parteien und Kandidat*innen bisher jedoch Externer Link: kaum Softfakes zu Wahlkampfzwecken. Manche Anwendungen sind in Deutschland aufgrund geltender nationaler und europäischer Gesetzgebung, insbesondere zum Datenschutz, nicht umsetzbar. Dazu gehören beispielsweise das hyperpersonalisierte Ausspielen von Botschaften per WhatsApp oder gar per Telefonanruf. Andere Softfakes wie etwa Videobotschaften verstorbener Politiker*innen könnten rechtlich jedoch potenziell zulässig sein. Parteien und Politiker*innen in Deutschland Externer Link: experimentieren darüber hinaus bereits mit generativer KI, beispielsweise, um (nicht fotorealistische) Abbildungen für Wahlplakate oder um Wahlkampfslogans zu erstellen. Es liegt daher nahe, dass Softfakes auch in Deutschland bald zum Einsatz kommen werden. Dabei verändern sie Wahlkämpfe und eröffnen neue Chancen, bergen aber auch Gefahren.

Chance oder Gefahr?

Softfakes können dabei helfen, in Wahlkämpfen mehr Menschen zu erreichen, insbesondere, indem Botschaften in viele verschiedene Sprachen übersetzt werden. Wähler*innen werden dadurch direkter angesprochen, und marginalisierten Gruppen (insbesondere Angehörigen sprachlicher Minderheiten und Migrant*innen) kann so größere politische Teilhabe ermöglicht werden. Personalisierte Wahlbotschaften und interaktive Angebote wie Chatbots können darüber hinaus Menschen für politische Themen und Diskurse mobilisieren, für sie relevante Botschaften übermitteln und sie zu mehr Partizipation und Wahlbeteiligung anregen. Im Idealfall erfolgt die über KI vermittelte Kommunikation zwischen Wähler*innen und Politiker*innen nicht einseitig, sondern in beide Richtungen. So wurden im Rahmen der Kampagne mit „AI Yoon“ 2022 Meinungen und Interessen junger Wähler*innen Externer Link: an den südkoreanischen Präsidentschaftskandidaten zurückgespielt, woraufhin dieser seine Wahlkampfstrategie anpasste. Bestenfalls ergibt sich nach einer erfolgreichen Wahl auch eine inhaltliche Anpassung der Politik.

Wie bei fast allen Deepfakes, die demokratischen Prozessen nützen könnten (siehe Interner Link: Kapitel 2.5 Chancen für die Demokratie), ist es natürlich auch bei Softfakes unerlässlich, dass sie klar als synthetisch generiert oder manipuliert gekennzeichnet werden. Leider geschieht dies in der Praxis häufig nicht. Bleibt eine Kennzeichnung aus, besteht die Gefahr, dass Wähler*innen beispielsweise hinsichtlich der Herkunft und Fähigkeiten von Kandidat*innen oder deren Unterstützung durch berühmte Persönlichkeiten getäuscht werden.

Auch eine klare Kennzeichnung kann jedoch viele Bedenken in Bezug auf Softfakes nicht ausräumen. So können Softfake-vermittelte Wahlkampfinhalte falsch oder irreführend sein, selbst wenn die Deepfakes als solche gekennzeichnet sind. Im indischen Wahlkampf 2024 „halluzinierten“ Chatbots mitunter, das heißt sie verfälschten Wahlkampfinhalte. So behauptete z. B. ein Chatbot im direkten Gespräch mit Wähler*innen Externer Link: fälschlicherweise, ein Politiker setze sich für Frauen ein. Abgesehen von solchen unbeabsichtigten Fehlern können selbst gekennzeichnete Deepfakes jedoch bewusst in die Irre führen. So nutzte „AI Yoon“ im südkoreanischen Präsidentschaftswahlkampf Externer Link: Humor, um von Skandalen und Kritik am Kandidaten abzulenken, und der Einsatz der Technologie selbst ließ den damals 61-jährigen jugendlich und nahbar erscheinen. Denselben Effekt erzielte der KI-basierte Avatar des 72-jährigen indonesischen Präsidentschaftskandidaten Subianto, der nicht zuletzt auch von dessen dunkler Vergangenheit ablenken sollte. Wenn Softfakes eingesetzt werden, um Fehler oder gar Verbrechen von Kandidat*innen zu verdecken, entfalten sie ein starkes Manipulationspotenzial. Wie jede Form von Desinformation wirken solche Darstellungen nachhaltig, selbst wenn die Softfakes als solche gekennzeichnet werden.
Deepfakes verstorbener Politiker*innen und Berühmtheiten, die scheinbar Kandidat*innen in aktuellen Wahlkämpfen unterstützen, bergen ebenfalls Manipulationspotenzial und werfen schwierige ethische Fragen auf, die in Interner Link: Kapitel 2.5 diskutiert werden.

Das hyperpersonalisierte Ausspielen von Wahlkampfinhalten mit Hilfe von Deepfakes (und KI-basierten Analysen) wirkt besonders eindringlich. Es kann, wie beschrieben, einer umfangreicheren politischen Mobilisierung und Partizipation dienen. Gleichzeitig führen solche Praktiken aber auch zu einer weiteren „Fragmentierung der öffentlichen Debatte“: Wähler*innen werden häufig in ihren bestehenden Überzeugungen bestätigt; echte politische Diskussionen und der kontroverse Austausch von Argumenten auf der Grundlage geteilter Informationen bleiben aus. Das kann eine Polarisierung der Gesellschaft noch weiter verstärken und den gesellschaftlichen Zusammenhalt schwächen.

Politiker*innen und ihre Kampagnenteams müssen daher einen verantwortungsvollen Umgang mit der Deepfake-Technologie für Wahlkampfzwecke finden. Dazu gehört eine klare Kennzeichnung von Softfakes. Da das aber nicht ausreicht, um allen Bedenken zu begegnen, ist begleitend eine breite gesellschaftliche, wissenschaftliche und politische Debatte darüber nötig, wie Softfakes eingesetzt werden können und sollten. Insbesondere die am Gesetzgebungsprozess Beteiligten, Social-Media-Plattformen und Parteien müssen sich mit dieser neuen Nutzung der Deepfake-Technologie auseinandersetzen. Dabei müssen sie verschiedene Formen und Intentionen von Softfakes unterscheiden und Rahmenbedingungen schaffen, damit deren Auswirkungen wirklich „soft“ – im Sinne von „milde“ – sind.

Weitere Inhalte

Maria Pawelec ist wissenschaftliche Mitarbeiterin am Internationalen Zentrum für Ethik in den Wissenschaften (IZEW) der Universität Tübingen. Sie hat einen politikwissenschaftlichen Hintergrund und ihre Forschung konzentriert sich auf die Folgen technologischer Innovationen, Desinformation und Deepfakes.