Ende August 2024 postete US-Präsidentschaftskandidat
Abhängig von ihrer Nutzung kann KI sowohl einen Beitrag zur Demokratie leisten, als auch ein erhebliches Risiko für diese darstellen, in jedem Fall ist sie im Zusammenhang mit Wahlen nicht mehr wegzudenken. Bisher lässt sich beobachten, dass die Technologie Wahlkampfstrategien revolutioniert, Wahlprozesse automatisiert, und die Erstellung von Inhalten beschleunigt, die dann über soziale Medien verbreitet werden können. KI verändert die Wahlen in den USA grundsätzlich. Der Einsatz dieser neuen Technologie ist vor allem
Deepfakes im US-Wahlkampf
KI ermöglicht die schnelle und einfache Erstellung von Content. Mit nur wenigen Prompts können Texte, Bilder und Videos erstellt werden. Darüber hinaus ist die benötigte Technologie zugänglich – ein Internetzugang und eine kostenlose Registrierung auf einer Tech-Plattform wie OpenAI oder Anthropic reichen aus, um künstliche Inhalte zu erstellen.
Laut einer Verbraucherstudie von 2024 gaben 72 Prozent der befragten US-Amerikaner an, dass sie befürchten, sogenannte Deepfakes – synthetisch generierte Audio-, Bild- und Videoinhalte – könnten zukünftige Wahlen in ihrem Land beeinflussen, und 56 Prozent glauben, die aktuelle Gesetzlage zur Regulierung von KI geht nicht weit genug.
Bereits bei den Vorwahlen der Republikanischen Partei konnte man beobachten, wie KI-generierte Bilder eingesetzt wurden, um bestimmte Botschaften zu unterstreichen oder Bürger davon abzuhalten, zur Wahl zu gehen. Ron DeSantis, Gouverneur von Florida und Republikanischer Präsidentschaftskandidat in den Vorwahlen, teilte ein Deepfake, das eine Nähe von Trump zu Anthony Fauci suggerierte – ein wissenschaftlicher Berater des Weißen Hauses, der unter Donald Trumps Stammwählern sehr negativ gesehen wird –, um Trump bei seinen Stammwählern zu diskreditieren. An dem Beispiel wird offensichtlich, wie einfach es geworden ist, irreführende Behauptungen mit Bildern zu untermauern, zumal dies nicht strafbar ist.
Noch schwerwiegender war die Ankündigung des Generalstaatsanwalts von New Hampshire Anfang des Jahres, dass er einen Fall möglicher Wählerunterdrückung untersuche. Zuvor seien Beschwerden eingegangen, wonach eine „künstlich erzeugte“ Stimme im Tonfall von US-Präsident
Für und Wider von KI-gestütztem Wahlkampf
KI-generierte Inhalte sind aus den sozialen Medien nicht mehr wegzudenken. Die Befürchtung, dass manipulative synthetische Inhalte im Wahlkampf um die US-Präsidentschaft eine große Anzahl an Menschen beeinflussen könnten, hat sich bisher jedoch nicht bewahrheitet. Obwohl KI die verschiedensten Plattformen überschwemmt, scheint es, als würde in diesem Wahlzyklus diese Quelle von Desinformation nicht verfangen. Das liegt vielleicht auch daran, dass bisher keine einzelne KI-generierte Desinformation auf einer Größenordnung Aufmerksamkeit erhalten hat, dass sie den Ausgang der Wahlen beeinflussen könnte. Und das obwohl KI laut Sicherheitsexperten sowohl die Reichweite als auch die Effektivität böswilliger Informationskampagnen generell erhöht.
Auf lokaler Ebene hingegen wird KI im Zusammenhang mit Wahlen bereits auf vielfältige Weise eingesetzt. Kostengünstige und benutzerfreundliche KI-Modelle können Kandidaten, insbesondere in kleinen Gemeinden oder von Parteien mit begrenzten Ressourcen, helfen, Geld und Zeit bei einigen ihrer Aufgaben zu sparen, zum Beispiel bei der Generierung von Plakaten, der Erstellung von Texten, der Analyse von Daten usw. Allerdings verfügen gerade diese Kandidaten oft nicht über das Personal oder die Expertise, um KI-generierte Desinformation zu bekämpfen, weshalb denkbar wäre, dass ein Deepfake kurzfristig genügend Wähler täuschen könnte, um eine knappe Wahl entscheidend zu beeinflussen. Hyperlokale Desinformationskampagnen stellen demnach eine Gefahr dar. Diese Form der strategischen Wählermanipulation auf kommunaler Ebene ist auch deshalb ein großes Risiko, weil Lokaljournalismus in den USA seit einigen Jahren rückläufig ist und über immer weniger Ressourcen verfügt. Der Versuch eines Faktenchecks bleibt oft den betroffenen Kandidaten selbst überlassen und hängt vor allem von deren Ressourcen ab.
Strategische Manipulation
Strategische Manipulation im Online-Kontext bezeichnet die gezielte und systematische Beeinflussung von Informationen, Meinungen oder Verhaltensweisen im digitalen Raum, um bestimmte Ziele oder Interessen zu fördern, oft durch den Einsatz von Techniken wie Desinformation oder psychologischer Taktiken.
Auf der Social-Media Plattform "Truth Social" teilte Donald Trump ein KI-generiertes Bild, auf dem eine an Kamala Harris erinnernde Silhouette vor einer kommunistischen Versammlung spricht. (© truthsocial.com/@realDonaldTrump (Screenshot))
Auf der Social-Media Plattform "Truth Social" teilte Donald Trump ein KI-generiertes Bild, auf dem eine an Kamala Harris erinnernde Silhouette vor einer kommunistischen Versammlung spricht. (© truthsocial.com/@realDonaldTrump (Screenshot))
Generell lässt sich feststellen, dass KI-generierte Inhalte, insbesondere Bilder und Videos, oft eine bestimmte Ästhetik aufweisen – einen leicht erkennbaren „KI-Look“. Dabei handelt es sich entweder um sogenannte „Cheapfakes“, also synthetische Posts von schlechter Qualität, die leicht zu erkennen sind, beispielsweise wenn Gesichter auf bestehende Videos montiert oder Stimmen verfremdet werden, oder um künstlich erzeugte Bilder und Videos, deren Stil an Animationsfilme erinnert und der mit etwas Erfahrung ebenfalls schnell wiedererkennbar wird. Trotz ihrer oft hohen Qualität sind solche Inhalte leicht identifizierbar und werden häufig als Memes verwendet. Als Sprache der Internetkultur sind Memes leicht verständlich und nehmen bereits viel Raum in den sozialen Medien ein, sind leicht zu teilen und erreichen Millionen von Menschen. Ein Beispiel hierfür ist das von Trump geteilte KI-generierte Bild von
In der Forschung lässt sich derzeit beobachten, dass KI-generierte Inhalte in einem noch nie dagewesenen Ausmaß in Wahlkämpfe Eingang finden, zum Beispiel um Wähler zu mobilisieren, eigene Positionen zu unterstreichen und
Verschiedene Formen von Vulnerabilitäten
Wie bereits angedeutet, birgt der Einsatz von KI erhebliche Risiken für die Integrität der Wahlen in den USA. Die oben angeführten Beispiele zeigen, dass synthetische Inhalte gezielt eingesetzt werden, nicht zuletzt um lokal begrenzte Wählerunterdrückung zu fördern. Es gibt jedoch auch andere Vulnerabilitäten, zum Beispiel in der Form gezielt sprachbasierter Desinformationskampagnen, die auf bestimmte Bevölkerungsgruppen abzielen in den USA. Vor allem die spanischsprechende Minderheit wird hier oft gezielt angesprochen. Besonders auffällig sind auch Deepfakes, die Politiker persönlich angreifen und das Potential haben, das Vertrauen der Wähler in die politische Führung zu untergraben. Besonders deutlich wird dies am Beispiel der Deepfakes von Präsident Biden: Politische Gegner teilten Audio- und Video-Deepfakes, die bestehende Sorgen um die physische und psychische Gesundheit des Präsidenten verstärkten, und dazu beitrugen, das Vertrauen in seine Person und seine geistige Verfassung zu untergraben.
Neben Deepfakes ist ein weiteres Problem die hyperpersonalisierte Wahlwerbung, die an die Methoden von Cambridge Analytica erinnert. Durch den Einsatz von KI könnten Kampagnen auf einzelne Wähler zugeschnittene Botschaften verbreiten, die deren Meinungen und Überzeugungen verstärken und so zur Fragmentierung der öffentlichen Meinung beitragen. Denn persönliche Daten sowie Nutzerdaten können sehr leicht von Datenhändlern in den USA gekauft und dank KI auch leichter ausgewertet werden. Über diesen Weg wird politische Kommunikation fragmentierter und trägt zur Verschärfung der Polarisierung bei.
Cambridge Analytica
Das britische und US-amerikanische Datenanalyse-Unternehmen Cambridge Analytica war von 2013 bis 2018 tätig. Es wurde bekannt für die Sammlung und Analyse von persönlichen Daten von Millionen Facebook-Nutzern ohne deren Zustimmung. Die entsprechenden Daten wurden zur Erstellung psychologischer Profile von Wählern eingesetzt, um durch gezielte politische Werbung Wähler zu beeinflussen, insbesondere für die US-Präsidentschaftswahl 2016 und das Brexit-Referendum.
Dieser Einsatz von Big Data und Psychografik für präzise Wählermanipulation offenbarte die Verwundbarkeit demokratischer Prozesse gegenüber datengesteuerten Beeinflussungstechniken und löste weltweit Debatten über Datenschutz und die Rolle sozialer Medien in der Politik aus. Der Skandal führte zur Auflösung des Unternehmens und verstärkten Rufen nach strengerer Regulierung von personenbezogener Datensammlung und -nutzung.
Fragmentierte KI-Regulierung
Trotz des Risikos der Irreführung potenzieller Wähler gerade auf lokaler Ebene, gibt es mit Ausnahme des Robocall-Verbots der FCC bisher nur vereinzelte Bemühungen auf nationaler Ebene, diesen Risiken entgegenzuwirken. Auf Bundesstaaten-Ebene sieht es anders aus: Laut der National Conference of State Legislatures arbeiten mindestens 40 Bundesstaaten an entsprechenden Gesetzen für die Legislaturperiode 2024. Viele der Gesetze zielen nicht ausschließlich auf KI-generierte Inhalte ab, sondern allgemein auf sexuell explizite Inhalte und auf solche, die Wähler in die Irre führen sollen. In Bezug auf politische Kampagnen haben mehr als ein Dutzend US-Staaten Gesetze erlassen, die die Verwendung von Deepfakes regeln. Je nach Staat können Verstöße mit Gefängnisstrafen und hohen Geldstrafen geahndet werden; Kandidaten können gar ihr Amt oder ihre Nominierung verlieren.
Das Fehlen einer umfassenden Gesetzgebung und anhaltende Kompetenzkonflikte zwischen den Regulierungsbehörden zeigen, dass sich die USA bei der Entwicklung eines soliden Rahmens für den Einsatz von KI im Wahlprozess noch in der Anfangsphase befinden. Auf Bundesebene muss der Kongress noch einen nationalen Rahmen für die Regulierung von KI, einschließlich KI-generierter Nachbildungen, verabschieden. Es gibt jedoch auch einige parteiübergreifende Gesetzesentwürfe die bereits 2023 im Kongress eingebracht wurden, unter anderem der Protect Elections from Deceptive AI Act, der KI-generierte Deepfakes im Wahlkampf verbieten soll.
KI-Richtlinien von Big Tech
Soziale Medien und Big-Tech-Unternehmen spielen eine besonders wichtige Rolle bei der Erstellung und Verbreitung synthetischer Inhalte. Es wurden auch im Vorfeld der vielen Wahlen im globalen Superwahljahr 2024 freiwillig einige neue Regelungen von Tech-Unternehmen und sozialen Medien-Plattformen eingeführt, um zu verhindern, dass ihre KI-Tools zur Erstellung politischer Desinformationen verwendet werden, zum Beispiel das Kennzeichnen von synthetisch generierten Inhalten. Trotzdem lässt sich immer wieder beobachten, dass durch cleveres Prompting die entsprechenden Maßnahmen umgangen werden.
Konkurrierende Plattformen wie X, YouTube, TikTok, Instagram und Facebook haben ebenfalls Schritte unternommen, um KI-generierte Inhalte in den Feeds ihrer Nutzer zu kennzeichnen. Wie wenig effektiv diese Richtlinien sind beziehungsweise durchgesetzt werden, zeigt sich am Beispiel von X: Laut der Plattform ist das Teilen von „synthetischen, manipulierten oder aus dem Zusammenhang gerissenen Medien, die Menschen täuschen oder verwirren und Schaden anrichten können“ nicht erlaubt. Elon Musk, der Besitzer der Plattform, teilte im Kontext des Präsidentschaftswahlkampfes jedoch ein Deepfake, das Falschaussagen von Kamala Harris beinhaltet – ein klarer Verstoß gegen die geltende Richtlinie seiner Plattform.