Deepfakes zur Manipulation demokratischer Wahlen gelten als große Gefahr (siehe
Wie wurden Softfakes bisher eingesetzt?
Der erste Einsatz von Softfakes erfolgte 2020, als die Bharatiya Janata Party (BJP) Delhi zwei Externer Link: Videos ihres Vorsitzenden veröffentlichte, in denen dieser auf Englisch und Haryanvi für die BJP warb – Sprachen, die er nicht spricht. Die Videos wurden in über 5800 WhatsApp-Gruppen gepostet und erreichten mehr als 15 Millionen Wähler*innen. Sie waren nicht als Fälschung gekennzeichnet und daher sehr umstritten.
Vier Jahre später setzten alle politischen Parteien in Indien bei den landesweiten Wahlen auf Softfakes für ihre Wahlkampagnen. Wieder machte es diese Technologie möglich, in dem multilingualen Land Wähler*innen direkt in deren Muttersprache anzusprechen. Dabei wurden diese Deepfakes nun jedoch hyperpersonalisiert ausgespielt: So wandte sich der indische Premierminister Narendra Modi von der BJP in einem Video Externer Link: per WhatsApp scheinbar direkt an einzelne Wähler*innen und sprach sie namentlich in ihrer Muttersprache an. Auch andere BJP-Vertreter*innen richteten über einen Avatar ihrer eigenen Person auf WhatsApp persönliche Nachrichten an Wähler*innen, in denen sie die Erfolge der Regierung betonten und um Stimmen warben. Teils erschienen die Avatare dabei in der Externer Link: persönlichen Umgebung der Bürger*innen und überbrachten Botschaften, die sich je nach Standort des Endgeräts unterschieden. Darüber hinaus experimentierten verschiedene Parteien mit KI-gesteuerten Chatbots mit den Stimmen bekannter Politiker*innen, die Wähler*innen direkt anriefen und in Gespräche verwickelten – oft, ohne, dass den Angerufenen bewusst war, dass sie nicht mit einem Menschen sprachen. Neben diesen hyperpersonalisierten Deepfake-Botschaften wurden Deepfakes verstorbener Politiker*innen eingesetzt, um Externer Link: für Kandidat*innen zu werben. Deepfakes Externer Link: tanzender und singender Politiker*innen sollten zudem ein sympathisches Bild der Kandidat*innen vermitteln. Der massive Einsatz diffamierender Deepfakes, aber auch der hier beschriebenen Softfakes machte die Wahlen in Indien 2024 zum Externer Link: „Testlabor für den Einsatz künstlicher Intelligenz“, so die Politikwissenschaftlerin Katja Muñoz.
Auch in anderen Staaten wurde bereits mit Softfakes experimentiert. Besonders innovativ war eine Deepfake-gestützte Kampagne des südkoreanischen Präsidenten Yoon Suk-Yeol. 2022 ließ sein Kampagnenteam auf der Grundlage von vielen Stunden Videomaterial des Kandidaten Externer Link: einen Avatar trainieren: „AI Yoon“. Dieser glich dem Kandidaten optisch, verwendete jedoch eine saloppe Sprache und machte zahlreiche Witze, um vor allem jüngere Wähler*innen anzusprechen. Der Avatar erreichte Millionen Menschen und „beantwortete“ tausende Bürgerfragen, wobei die Antworten von Yoons Kampagnenteam geschrieben wurden. Sein Erfolg brachte schließlich Yoons Gegenkandidaten dazu, Externer Link: selbst einen Deepfake-gestützten Avatar zu nutzen.
In Indonesien ließ 2024 ein Softfake den verstorbenen Diktator Suharto Externer Link: digital „wiederauferstehen“, um die Unterstützung für eine bestimmte politische Partei zu gewinnen. Darüber hinaus wurde auch hier KI im Wahlkampf eingesetzt, um das Image eines Präsidentschaftskandidaten insbesondere bei jungen Wähler*innen zu verbessern: General Subianto, dem Gräueltaten an pro-demokratischen Aktivist*innen vorgeworfen werden, erfand sich selbst neu als Externer Link: „knuddeliger“ KI-Avatar. Da dieser nicht fotorealistisch war, handelt es sich hierbei nicht um einen Deepfake. Es ist jedoch denkbar, dass Kandidat*innen in Zukunft Avatare mit nur geringen optischen Veränderungen nutzen, um sympathischer (und, wie im vorliegenden Fall, harmloser) zu wirken.
Nicht zuletzt ermöglichten es Deepfakes dem inhaftierten ehemaligen pakistanischen Premierminister Imran Khan, seine Partei in den Parlamentswahlen 2024 Externer Link: aus dem Gefängnis heraus zu unterstützen, indem er ihr inhaltliche Notizen zukommen ließ, die diese dann in Audio- und Video-Botschaften des Expremiers an Wähler*innen umwandelte.
Die Zukunft des Wahlkampfs?
Softfakes wurden bisher vor allem in Asien genutzt. Mit ihrer Hilfe können Parteien und Kandidat*innen neue Zielgruppen ansprechen, mehr Bürger*innen erreichen und mit diesen interagieren, Wahlbotschaften und -versprechen hyperpersonalisiert vermitteln, das Image von Kandidat*innen verbessern und innovative Unterstützungsbotschaften kreieren. Deepfakes sind dabei oftmals ein günstiges Werkzeug, das zunehmend von spezialisierten Wahlkampf- und PR-Agenturen und Unternehmen im Bereich der synthetischen Medien angeboten wird. Softfake-Pioniere sehen in ihnen daherExterner Link: „die Zukunft des Wahlkampfs“.
In Deutschland nutzten Parteien und Kandidat*innen bisher jedoch Externer Link: kaum Softfakes zu Wahlkampfzwecken. Manche Anwendungen sind in Deutschland aufgrund geltender nationaler und europäischer Gesetzgebung, insbesondere zum Datenschutz, nicht umsetzbar. Dazu gehören beispielsweise das hyperpersonalisierte Ausspielen von Botschaften per WhatsApp oder gar per Telefonanruf. Andere Softfakes wie etwa Videobotschaften verstorbener Politiker*innen könnten rechtlich jedoch potenziell zulässig sein. Parteien und Politiker*innen in Deutschland Externer Link: experimentieren darüber hinaus bereits mit generativer KI, beispielsweise, um (nicht fotorealistische) Abbildungen für Wahlplakate oder um Wahlkampfslogans zu erstellen. Es liegt daher nahe, dass Softfakes auch in Deutschland bald zum Einsatz kommen werden. Dabei verändern sie Wahlkämpfe und eröffnen neue Chancen, bergen aber auch Gefahren.
Chance oder Gefahr?
Softfakes können dabei helfen, in Wahlkämpfen mehr Menschen zu erreichen, insbesondere, indem Botschaften in viele verschiedene Sprachen übersetzt werden. Wähler*innen werden dadurch direkter angesprochen, und marginalisierten Gruppen (insbesondere Angehörigen sprachlicher Minderheiten und Migrant*innen) kann so größere politische Teilhabe ermöglicht werden. Personalisierte Wahlbotschaften und interaktive Angebote wie Chatbots können darüber hinaus Menschen für politische Themen und Diskurse mobilisieren, für sie relevante Botschaften übermitteln und sie zu mehr Partizipation und Wahlbeteiligung anregen
Wie bei fast allen Deepfakes, die demokratischen Prozessen nützen könnten (siehe
Auch eine klare Kennzeichnung kann jedoch viele Bedenken in Bezug auf Softfakes nicht ausräumen. So können Softfake-vermittelte Wahlkampfinhalte falsch oder irreführend sein, selbst wenn die Deepfakes als solche gekennzeichnet sind. Im indischen Wahlkampf 2024 „halluzinierten“ Chatbots mitunter, das heißt sie verfälschten Wahlkampfinhalte. So behauptete z. B. ein Chatbot im direkten Gespräch mit Wähler*innen Externer Link: fälschlicherweise, ein Politiker setze sich für Frauen ein. Abgesehen von solchen unbeabsichtigten Fehlern können selbst gekennzeichnete Deepfakes jedoch bewusst in die Irre führen. So nutzte „AI Yoon“ im südkoreanischen Präsidentschaftswahlkampf Externer Link: Humor, um von Skandalen und Kritik am Kandidaten abzulenken, und der Einsatz der Technologie selbst ließ den damals 61-jährigen jugendlich und nahbar erscheinen. Denselben Effekt erzielte der KI-basierte Avatar des 72-jährigen indonesischen Präsidentschaftskandidaten Subianto, der nicht zuletzt auch von dessen dunkler Vergangenheit ablenken sollte. Wenn Softfakes eingesetzt werden, um Fehler oder gar Verbrechen von Kandidat*innen zu verdecken, entfalten sie ein starkes Manipulationspotenzial. Wie jede Form von Desinformation wirken solche Darstellungen nachhaltig, selbst wenn die Softfakes als solche gekennzeichnet werden.
Deepfakes verstorbener Politiker*innen und Berühmtheiten, die scheinbar Kandidat*innen in aktuellen Wahlkämpfen unterstützen, bergen ebenfalls Manipulationspotenzial und werfen schwierige ethische Fragen auf, die in
Das hyperpersonalisierte Ausspielen von Wahlkampfinhalten mit Hilfe von Deepfakes (und KI-basierten Analysen) wirkt besonders eindringlich. Es kann, wie beschrieben, einer umfangreicheren politischen Mobilisierung und Partizipation dienen. Gleichzeitig führen solche Praktiken aber auch zu einer weiteren „Fragmentierung der öffentlichen Debatte“
Politiker*innen und ihre Kampagnenteams müssen daher einen verantwortungsvollen Umgang mit der Deepfake-Technologie für Wahlkampfzwecke finden. Dazu gehört eine klare Kennzeichnung von Softfakes. Da das aber nicht ausreicht, um allen Bedenken zu begegnen, ist begleitend eine breite gesellschaftliche, wissenschaftliche und politische Debatte darüber nötig, wie Softfakes eingesetzt werden können und sollten. Insbesondere die am Gesetzgebungsprozess Beteiligten, Social-Media-Plattformen und Parteien müssen sich mit dieser neuen Nutzung der Deepfake-Technologie auseinandersetzen. Dabei müssen sie verschiedene Formen und Intentionen von Softfakes unterscheiden und Rahmenbedingungen schaffen, damit deren Auswirkungen wirklich „soft“ – im Sinne von „milde“ – sind.