Meine Merkliste Geteilte Merkliste PDF oder EPUB erstellen

KI und Wahlen: Brennpunkt USA | USA | bpb.de

USA Geschichte Eine Nation entsteht Bürgerkrieg und Sklaverei Die USA betreten die Weltbühne 2. Weltkrieg John F. Kennedy Kalter Krieg Vietnamkrieg Reagan Jahre Die USA unter Georg W. Bush Ostdeutsche Sichtweisen auf die USA Recht auf Land: Indigene Gesellschaften und der Siedlerkolonialismus Politik Einführung: Die USA sind anders Präsidialdemokratie Exekutive Kongress Besonderheiten des Rechtssystems US-Föderalismus Parteien und Verbände Außenpolitik Grundlagen des politischen Systems Wahl- und Parteiensystem Migrations- und Wirtschaftspolitik an der Grenze zu Mexiko "Nahezu jede neue Wahlkreiskarte wird vor Gericht angefochten" Kongresswahlen 2022 – mehr als ein Votum zu Bidens Agenda Trumps Erbe Die USA zwischen Internationalismus und Isolationismus Energiepolitik unter Biden Wirtschaft Strukturwandel in Pittsburgh Deindustrialisierung und High-Tech in den USA Finanzkrise Corporate America Gesellschaft und Kultur Bildungssystem Gesundheitssystem Schwarzes Amerika Religion Hollywood Literatur Musik Getrennte Klassenzimmer Erinnerungskultur zwischen Hegemonialgeschichte und Pluralismus Das Thema "race" erschüttert das politische System immer wieder Black Lives Matter – eine Bestandsaufnahme Männlichkeitsbilder im Krieg gegen die Ukraine US-Präsidentschaftswahlen US-Präsidentschaftswahl 2024 Strategien und mediale Aufmerksamkeit im US-Wahlkampf KI und Wahlen: Brennpunkt USA Umfragen und Prognosen bei US-Wahlen Rechtsverfahren gegen Trump Die Präsidentschaft von Joe Biden Kurzportrait: Kamala Harris Kurzportrait: Donald Trump Kurzportrait: Joe Biden US-Präsidentschaftswahl 2020 Eine US-Wahl für die Geschichtsbücher IT-Sicherheit im US-Wahlkampf Wahlkampfthemen der Demokraten Social-Media-Plattformen im US-Wahlkampf Hindernisse auf dem Weg zur Wahl FAQ Kurzportraits Kandidaten Politische und gesellschaftliche Polarisierung in den USA Wahlkampfthemen der Republikaner Die Demokratische Partei und ihr Kandidat Geld im US-Wahlkampf US-Wahlkampf in Zeiten des Coronavirus Die gescheiterte Amtsenthebung von Präsident Trump Regierungsbilanz: 4 Jahre Donald Trump US-Präsidentschaftswahl 2016 Hillary Rodham Clinton Donald Trump Vom Wahlkampf erschöpft Rückblick Barack Obama Über die Polarisierung in den USA Über die Arbeit eines US-Korrespondenten Die USA nach den Präsidentschaftswahlen US-Präsident Trump - Kontinuität oder Zeitenwende? FAQ Quiz Zahlen und Fakten Archiv Amerika kommt auf Deutschland zu Außenpolitische Positionen 2008 Medien in den USA Internet Erfolgsstory Silicon Valley Grüne Gentechnik Sorgenvoller Blick nach China Redaktion

KI und Wahlen: Brennpunkt USA

Katja Muñoz

/ 8 Minuten zu lesen

Im Kontext der US-Präsidentschaftswahl werden KI-generierte Inhalte massiv verbreitet, oft zum Zweck von Desinformation. Inwieweit gefährdet das den demokratischen Prozess und wie wird dem begegnet?

KI ist im Kontext der US-Wahlen nicht mehr wegzudenken (Symbolbild). (© Omar Marques/SOPA Images via ZUMA Press Wire/picture alliance)

Ende August 2024 postete US-Präsidentschaftskandidat Interner Link: Donald Trump mehrere KI-generierte Bilder, die suggerierten, Popstar Taylor Swift und ihre Fans, die „Swifties“, würden ihn unterstützen. Obwohl sich das schnell als falsch herausstellte (und Swift letztlich ihre Unterstützung der Demokratischen Kandidatin Kamala Harris bekannt gab), zeigt dieser Vorfall, wie Menschen versuchen, die öffentliche Meinung durch KI-generierte Inhalte zu beeinflussen. Mit wenigen Klicks können Falschinformationen erstellt und über soziale Medien verbreitet werden. Vor allem audiovisuelle Inhalte prägen sich schnell ein und können dazu beitragen, Meinungen zu beeinflussen und sogar das Vertrauen von Bürgern in politische Prozesse zu untergraben.

Auf der Social-Media Plattform "Truth Social" teilte Donald Trump KI-generierte Bilder, die fälschlicherweise suggerieren, Taylor Swift und ihre Fans würden ihn unterstützen. (© truthsocial.com/@realDonaldTrump (Screenshot))

Abhängig von ihrer Nutzung kann KI sowohl einen Beitrag zur Demokratie leisten, als auch ein erhebliches Risiko für diese darstellen, in jedem Fall ist sie im Zusammenhang mit Wahlen nicht mehr wegzudenken. Bisher lässt sich beobachten, dass die Technologie Wahlkampfstrategien revolutioniert, Wahlprozesse automatisiert, und die Erstellung von Inhalten beschleunigt, die dann über soziale Medien verbreitet werden können. KI verändert die Wahlen in den USA grundsätzlich. Der Einsatz dieser neuen Technologie ist vor allem Interner Link: im Wahlkampf sichtbar, verändert den Handlungsspielraum politischer Akteure und wirft wichtige ethische und rechtliche Fragen auf.

Deepfakes im US-Wahlkampf

KI ermöglicht die schnelle und einfache Erstellung von Content. Mit nur wenigen Prompts können Texte, Bilder und Videos erstellt werden. Darüber hinaus ist die benötigte Technologie zugänglich – ein Internetzugang und eine kostenlose Registrierung auf einer Tech-Plattform wie OpenAI oder Anthropic reichen aus, um künstliche Inhalte zu erstellen.

Laut einer Verbraucherstudie von 2024 gaben 72 Prozent der befragten US-Amerikaner an, dass sie befürchten, sogenannte Deepfakes – synthetisch generierte Audio-, Bild- und Videoinhalte – könnten zukünftige Wahlen in ihrem Land beeinflussen, und 56 Prozent glauben, die aktuelle Gesetzlage zur Regulierung von KI geht nicht weit genug. Eine noch nicht veröffentlichte Analyse von Nachrichtenportalen durch die Deutsche Gesellschaft für Auswärtige Politik (DGAP) hat ergeben, dass zwischen Januar und Juli 2024 insgesamt 114 KI-generierte Deepfakes im Kontext des US-Wahlkampfs registriert wurden. In dieser Statistik werden keine KI-Posts, die in sozialen Medien geteilt werden, berücksichtigt, sondern nur solche, die von Nachrichtenportalen erwähnt wurden, da die Zahl sonst in die Tausende gehen würde und nicht vollständig erfassbar wäre.

Bereits bei den Vorwahlen der Republikanischen Partei konnte man beobachten, wie KI-generierte Bilder eingesetzt wurden, um bestimmte Botschaften zu unterstreichen oder Bürger davon abzuhalten, zur Wahl zu gehen. Ron DeSantis, Gouverneur von Florida und Republikanischer Präsidentschaftskandidat in den Vorwahlen, teilte ein Deepfake, das eine Nähe von Trump zu Anthony Fauci suggerierte – ein wissenschaftlicher Berater des Weißen Hauses, der unter Donald Trumps Stammwählern sehr negativ gesehen wird –, um Trump bei seinen Stammwählern zu diskreditieren. An dem Beispiel wird offensichtlich, wie einfach es geworden ist, irreführende Behauptungen mit Bildern zu untermauern, zumal dies nicht strafbar ist.

Noch schwerwiegender war die Ankündigung des Generalstaatsanwalts von New Hampshire Anfang des Jahres, dass er einen Fall möglicher Wählerunterdrückung untersuche. Zuvor seien Beschwerden eingegangen, wonach eine „künstlich erzeugte“ Stimme im Tonfall von US-Präsident Interner Link: Joe Biden Wähler angerufen und sie aufgefordert habe, nicht an den Vorwahlen des Bundesstaates teilzunehmen. Dieser so genannte Robocall sollte die Bürger vor Ort von der Stimmabgabe abhalten. Die Auswirkung dieses Versuchs ist bis heute schwer abzuschätzen, da man sich hier auf Einzelberichte verlassen muss. Als Reaktion darauf hat die Federal Communications Commission (FCC) – jene Behörde, die Kommunikation über Rundfunk, Satellit und Kabel in den USA reguliert – den Einsatz von KI-generierten Audio- oder Text nachrichten am Telefon unter Strafe gestellt.

Für und Wider von KI-gestütztem Wahlkampf

KI-generierte Inhalte sind aus den sozialen Medien nicht mehr wegzudenken. Die Befürchtung, dass manipulative synthetische Inhalte im Wahlkampf um die US-Präsidentschaft eine große Anzahl an Menschen beeinflussen könnten, hat sich bisher jedoch nicht bewahrheitet. Obwohl KI die verschiedensten Plattformen überschwemmt, scheint es, als würde in diesem Wahlzyklus diese Quelle von Desinformation nicht verfangen. Das liegt vielleicht auch daran, dass bisher keine einzelne KI-generierte Desinformation auf einer Größenordnung Aufmerksamkeit erhalten hat, dass sie den Ausgang der Wahlen beeinflussen könnte. Und das obwohl KI laut Sicherheitsexperten sowohl die Reichweite als auch die Effektivität böswilliger Informationskampagnen generell erhöht.

Auf lokaler Ebene hingegen wird KI im Zusammenhang mit Wahlen bereits auf vielfältige Weise eingesetzt. Kostengünstige und benutzerfreundliche KI-Modelle können Kandidaten, insbesondere in kleinen Gemeinden oder von Parteien mit begrenzten Ressourcen, helfen, Geld und Zeit bei einigen ihrer Aufgaben zu sparen, zum Beispiel bei der Generierung von Plakaten, der Erstellung von Texten, der Analyse von Daten usw. Allerdings verfügen gerade diese Kandidaten oft nicht über das Personal oder die Expertise, um KI-generierte Desinformation zu bekämpfen, weshalb denkbar wäre, dass ein Deepfake kurzfristig genügend Wähler täuschen könnte, um eine knappe Wahl entscheidend zu beeinflussen. Hyperlokale Desinformationskampagnen stellen demnach eine Gefahr dar. Diese Form der strategischen Wählermanipulation auf kommunaler Ebene ist auch deshalb ein großes Risiko, weil Lokaljournalismus in den USA seit einigen Jahren rückläufig ist und über immer weniger Ressourcen verfügt. Der Versuch eines Faktenchecks bleibt oft den betroffenen Kandidaten selbst überlassen und hängt vor allem von deren Ressourcen ab.

Strategische Manipulation

Strategische Manipulation im Online-Kontext bezeichnet die gezielte und systematische Beeinflussung von Informationen, Meinungen oder Verhaltensweisen im digitalen Raum, um bestimmte Ziele oder Interessen zu fördern, oft durch den Einsatz von Techniken wie Desinformation oder psychologischer Taktiken.

Auf der Social-Media Plattform "Truth Social" teilte Donald Trump ein KI-generiertes Bild, auf dem eine an Kamala Harris erinnernde Silhouette vor einer kommunistischen Versammlung spricht. (© truthsocial.com/@realDonaldTrump (Screenshot))

Generell lässt sich feststellen, dass KI-generierte Inhalte, insbesondere Bilder und Videos, oft eine bestimmte Ästhetik aufweisen – einen leicht erkennbaren „KI-Look“. Dabei handelt es sich entweder um sogenannte „Cheapfakes“, also synthetische Posts von schlechter Qualität, die leicht zu erkennen sind, beispielsweise wenn Gesichter auf bestehende Videos montiert oder Stimmen verfremdet werden, oder um künstlich erzeugte Bilder und Videos, deren Stil an Animationsfilme erinnert und der mit etwas Erfahrung ebenfalls schnell wiedererkennbar wird. Trotz ihrer oft hohen Qualität sind solche Inhalte leicht identifizierbar und werden häufig als Memes verwendet. Als Sprache der Internetkultur sind Memes leicht verständlich und nehmen bereits viel Raum in den sozialen Medien ein, sind leicht zu teilen und erreichen Millionen von Menschen. Ein Beispiel hierfür ist das von Trump geteilte KI-generierte Bild von Interner Link: Kamala Harris, die vor einer kommunistischen Versammlung spricht, während über der Arena ein riesiges rotes Hammer-und-Sichel-Banner prangt. Das Ziel hier ist klar: Es geht darum, Ihre Politik mit bekannten Symbolen in ein Licht zu rücken, das Angst auslöst.

In der Forschung lässt sich derzeit beobachten, dass KI-generierte Inhalte in einem noch nie dagewesenen Ausmaß in Wahlkämpfe Eingang finden, zum Beispiel um Wähler zu mobilisieren, eigene Positionen zu unterstreichen und Interner Link: Polarisierung zu fördern. Eine weitere Auswirkung der Flut an KI-generierten Inhalten scheint zu sein, dass auch authentische Bilder von der Öffentlichkeit immer mehr angezweifelt werden. Dieses als „Liar‘s Dividend“ bezeichnete Phänomen kann ausgenutzt werden und dazu führen, dass zum Beispiel echte Fotos als KI-Bilder diskreditiert werden.

Verschiedene Formen von Vulnerabilitäten

Wie bereits angedeutet, birgt der Einsatz von KI erhebliche Risiken für die Integrität der Wahlen in den USA. Die oben angeführten Beispiele zeigen, dass synthetische Inhalte gezielt eingesetzt werden, nicht zuletzt um lokal begrenzte Wählerunterdrückung zu fördern. Es gibt jedoch auch andere Vulnerabilitäten, zum Beispiel in der Form gezielt sprachbasierter Desinformationskampagnen, die auf bestimmte Bevölkerungsgruppen abzielen in den USA. Vor allem die spanischsprechende Minderheit wird hier oft gezielt angesprochen. Besonders auffällig sind auch Deepfakes, die Politiker persönlich angreifen und das Potential haben, das Vertrauen der Wähler in die politische Führung zu untergraben. Besonders deutlich wird dies am Beispiel der Deepfakes von Präsident Biden: Politische Gegner teilten Audio- und Video-Deepfakes, die bestehende Sorgen um die physische und psychische Gesundheit des Präsidenten verstärkten, und dazu beitrugen, das Vertrauen in seine Person und seine geistige Verfassung zu untergraben.

Neben Deepfakes ist ein weiteres Problem die hyperpersonalisierte Wahlwerbung, die an die Methoden von Cambridge Analytica erinnert. Durch den Einsatz von KI könnten Kampagnen auf einzelne Wähler zugeschnittene Botschaften verbreiten, die deren Meinungen und Überzeugungen verstärken und so zur Fragmentierung der öffentlichen Meinung beitragen. Denn persönliche Daten sowie Nutzerdaten können sehr leicht von Datenhändlern in den USA gekauft und dank KI auch leichter ausgewertet werden. Über diesen Weg wird politische Kommunikation fragmentierter und trägt zur Verschärfung der Polarisierung bei.

Cambridge Analytica

Das britische und US-amerikanische Datenanalyse-Unternehmen Cambridge Analytica war von 2013 bis 2018 tätig. Es wurde bekannt für die Sammlung und Analyse von persönlichen Daten von Millionen Facebook-Nutzern ohne deren Zustimmung. Die entsprechenden Daten wurden zur Erstellung psychologischer Profile von Wählern eingesetzt, um durch gezielte politische Werbung Wähler zu beeinflussen, insbesondere für die US-Präsidentschaftswahl 2016 und das Brexit-Referendum.

Dieser Einsatz von Big Data und Psychografik für präzise Wählermanipulation offenbarte die Verwundbarkeit demokratischer Prozesse gegenüber datengesteuerten Beeinflussungstechniken und löste weltweit Debatten über Datenschutz und die Rolle sozialer Medien in der Politik aus. Der Skandal führte zur Auflösung des Unternehmens und verstärkten Rufen nach strengerer Regulierung von personenbezogener Datensammlung und -nutzung.

Fragmentierte KI-Regulierung

Trotz des Risikos der Irreführung potenzieller Wähler gerade auf lokaler Ebene, gibt es mit Ausnahme des Robocall-Verbots der FCC bisher nur vereinzelte Bemühungen auf nationaler Ebene, diesen Risiken entgegenzuwirken. Auf Bundesstaaten-Ebene sieht es anders aus: Laut der National Conference of State Legislatures arbeiten mindestens 40 Bundesstaaten an entsprechenden Gesetzen für die Legislaturperiode 2024. Viele der Gesetze zielen nicht ausschließlich auf KI-generierte Inhalte ab, sondern allgemein auf sexuell explizite Inhalte und auf solche, die Wähler in die Irre führen sollen. In Bezug auf politische Kampagnen haben mehr als ein Dutzend US-Staaten Gesetze erlassen, die die Verwendung von Deepfakes regeln. Je nach Staat können Verstöße mit Gefängnisstrafen und hohen Geldstrafen geahndet werden; Kandidaten können gar ihr Amt oder ihre Nominierung verlieren.

Das Fehlen einer umfassenden Gesetzgebung und anhaltende Kompetenzkonflikte zwischen den Regulierungsbehörden zeigen, dass sich die USA bei der Entwicklung eines soliden Rahmens für den Einsatz von KI im Wahlprozess noch in der Anfangsphase befinden. Auf Bundesebene muss der Kongress noch einen nationalen Rahmen für die Regulierung von KI, einschließlich KI-generierter Nachbildungen, verabschieden. Es gibt jedoch auch einige parteiübergreifende Gesetzesentwürfe die bereits 2023 im Kongress eingebracht wurden, unter anderem der Protect Elections from Deceptive AI Act, der KI-generierte Deepfakes im Wahlkampf verbieten soll. Der Protecting Americans from Foreign Adversary Controlled Applications Act, auch bekannt als TikTok-Divest-or-Ban-Act, wurde im April 2024 verabschiedet und soll Byte Dance (die chinesische Muttergesellschaft von TikTok) zwingen, ihre Anteile an der App innerhalb eines Jahres zu verkaufen oder andernfalls mit einem Verbot der Plattform in den USA konfrontiert zu werden. Grund dafür sind vor allem Sicherheitsbedenken, wonach die chinesische Regierung über TikTok auf sensible Nutzerdaten zugreifen und die App als Propaganda- und Desinformationsinstrument missbrauchen könnte.

KI-Richtlinien von Big Tech

Soziale Medien und Big-Tech-Unternehmen spielen eine besonders wichtige Rolle bei der Erstellung und Verbreitung synthetischer Inhalte. Es wurden auch im Vorfeld der vielen Wahlen im globalen Superwahljahr 2024 freiwillig einige neue Regelungen von Tech-Unternehmen und sozialen Medien-Plattformen eingeführt, um zu verhindern, dass ihre KI-Tools zur Erstellung politischer Desinformationen verwendet werden, zum Beispiel das Kennzeichnen von synthetisch generierten Inhalten. Trotzdem lässt sich immer wieder beobachten, dass durch cleveres Prompting die entsprechenden Maßnahmen umgangen werden.

Konkurrierende Plattformen wie X, YouTube, TikTok, Instagram und Facebook haben ebenfalls Schritte unternommen, um KI-generierte Inhalte in den Feeds ihrer Nutzer zu kennzeichnen. Wie wenig effektiv diese Richtlinien sind beziehungsweise durchgesetzt werden, zeigt sich am Beispiel von X: Laut der Plattform ist das Teilen von „synthetischen, manipulierten oder aus dem Zusammenhang gerissenen Medien, die Menschen täuschen oder verwirren und Schaden anrichten können“ nicht erlaubt. Elon Musk, der Besitzer der Plattform, teilte im Kontext des Präsidentschaftswahlkampfes jedoch ein Deepfake, das Falschaussagen von Kamala Harris beinhaltet – ein klarer Verstoß gegen die geltende Richtlinie seiner Plattform. In diesem wie in vielen anderen Fällen gab es keine Konsequenzen. Effektive Maßnahmen zur Bekämpfung von KI-generierter Desinformation und ihrer Verbreitung auf Social-Media bleiben bisher aus.

Weitere Inhalte

Artikel

Umfragen und Prognosen bei US-Wahlen

Wahlberichterstattung dreht sich oft um Umfragewerte, obwohl diese gerade bei US-Wahlen zuletzt zu bedeutenden Fehleinschätzungen geführt haben. Welche alternative Methoden der Wahlvorhersage gibt es?

USA

Kurzportrait: Kamala Harris

Die neue Spitzenkandidatin der Demokratischen Partei ist zwar verspätet, dafür umso erfolgreicher in den Präsidentschaftswahlkampf gestartet. Wofür steht die Vizepräsidentin der USA?

Wenn der Schein trügt – Deepfakes und die politische Realität

Politische Manipulation und Desinformation

Mit der zunehmenden Verbreitung von Deepfakes steigt auch die Gefahr von politischer Einflussnahme durch die künstlich kreierten Videos.

Hintergrund aktuell

US-Präsidentschaftswahl 2024

Am 5. November fanden in den USA Präsidentschafts- und Kongresswahlen statt. Der Republikanische Kandidat Donald Trump konnte nach 2016 zum zweiten Mal die Präsidentschaftswahl für sich entscheiden.

Artikel

Die Präsidentschaft von Joe Biden

Eine Bilanz der US-Innen- und Außenpolitik während der vier Jahre Regierungszeit unter Präsident Joe Biden und ein Blick auf die Ausgangslage für die Demokraten vor den Präsidentschaftswahlen 2024.

Dr. Katja Muñoz ist seit Juni 2022 Research Fellow im Zentrum für Geopolitik, Geoökonomie und Technologie der DGAP. Sie erforscht im Rahmen ihrer Tätigkeit das Zusammenspiel zwischen sozialen Medien und Politik. Ihr Fokus liegt hierbei auf dem Mobilisierungspotenzial von Influencerinnen und Influencern in den sozialen Medien sowie auf Desinformation und Plattformregulierung. Ihre Forschung umfasst auch die Schnittstelle zwischen künstlicher Intelligenz (KI) und Demokratie, mit besonderem Schwerpunkt auf neuen KI-Trends, die die Integrität von Online-Informationen neugestalten. Sie hat ein besonderes Interesse daran, die Auswirkungen von KI auf den Wahlprozess zu analysieren.