Meine Merkliste Geteilte Merkliste PDF oder EPUB erstellen

Systematische Manipulation sozialer Medien im Zeitalter der KI | Wahlkampf | bpb.de

Wahlkampf Editorial Wahlkämpfe in Deutschland. Vom Engagement zur Distanzierung? "Wir haben die richtigen Männer". (Wahl-)Kämpfe um die politische Repräsentation von Frauen in der jungen Bundesrepublik Wahlkampf digital. Öffentlichkeit, Koordination und künstliche Intelligenz Systematische Manipulation sozialer Medien im Zeitalter der KI. Eine wachsende Bedrohung für die demokratische Meinungsbildung Dauerstreit und Dauerwahlkampf. Ampelzoff als Interpretationsfolie und strategisches Instrument Abgrenzung oder Anpassung? Zum Umgang mit populistischen Parteien Wahlkampf in Dauerschleife. Die Ampelkoalition, ihr Ende und dessen Folgen

Systematische Manipulation sozialer Medien im Zeitalter der KI Eine wachsende Bedrohung für die demokratische Meinungsbildung

Katja Muñoz

/ 13 Minuten zu lesen

Plattform-Schwachstellen, -Algorithmen und KI erlauben die gezielte Verbreitung emotionalisierender Beiträge zur kollektiven Manipulation. Die koordinierte Streuung von Desinformation in sozialen Medien wirkt sich negativ auf die Demokratie aus.

Unsere Demokratie basiert wesentlich darauf, dass Bürger:innen Zugang zu verlässlichen Informationen haben und diese nutzen können, um informierte Entscheidungen zu treffen und sich aktiv an staatlichen, zivilgesellschaftlichen und unternehmerischen Prozessen zu beteiligen. Doch unser Informationskonsumverhalten hat sich in den vergangenen Jahren radikal gewandelt und gesellschaftliche Vulnerabilitäten geschaffen, die eine strategische Gestaltung globaler Informationsräume durch verschiedenste Akteure ermöglichen. Eine Schlüsselrolle in diesem sich wandelnden Informationsökosystem nehmen beispielsweise Influencer:innen ein. Sie haben sich in einer Ära schwindenden Vertrauens in traditionelle Institutionen zu alternativen Vertrauensquellen entwickelt. Ihre Fähigkeit, Narrative zu setzen, Trends zu schaffen und Menschen zu mobilisieren, macht sie zu mächtigen Multiplikator:innen für die Verbreitung von Ideen und Überzeugungen. Während sie einerseits wertvolle Verbündete bei der Verbreitung wichtiger Informationen sein können, besteht andererseits die Gefahr ihrer Instrumentalisierung zur Untergrabung des gesellschaftlichen Zusammenhalts und demokratischer Prozesse.

Das Vertrauen der deutschen Bevölkerung in Medien und staatliche Institutionen zeigt eine besorgniserregende Entwicklung. Laut dem "Edelman Trust Barometer" sank das Vertrauen in die Medien von 48 Prozent im Jahr 2023 auf 47 Prozent im Folgejahr, während das Vertrauen in die Regierung einen noch deutlicheren Rückgang von 47 Prozent 2023 auf 42 Prozent im Jahr 2024 verzeichnete. Diese Entwicklung vollzieht sich vor dem Hintergrund einer zunehmenden gesellschaftlichen Polarisierung und eines sich wandelnden Medienkonsumverhaltens.

Eine neue Dimension erhält diese Problematik durch den rasanten Fortschritt künstlicher Intelligenz (KI). Das World Economic Forum hat in seinem jährlichen "Global Risks Report" 2024 Fehl- und Desinformation als eines der größten globalen Risiken identifiziert – eine Einschätzung, die durch die schnelle Entwicklung und Verfügbarkeit von KI-Technologien zusätzlich an Brisanz gewinnt. Nicht zuletzt seitdem das Software-Unternehmen OpenAI im November 2022 den Chatbot ChatGPT veröffentlicht hat, ist KI von einem einst theoretischen Konzept längst in unseren Alltag eingezogen.

Die Kombination aus KI-gestützter Content-Produktion mit dem tiefen Verständnis von Influencer:innen, bestimmten staatlichen Akteuren oder Aktivist:innen für Plattformdynamiken und deren Schwachstellen schafft völlig neue Herausforderungen für die Integrität des öffentlichen Diskurses. Diese "algorithmische Kompetenz" – die Fähigkeit, Plattformalgorithmen strategisch für die Verbreitung und Verstärkung von Botschaften zu nutzen – wird immer gezielter eingesetzt, um kollektives Online-Verhalten zu steuern und letztlich offline eine Mobilisierung zu erreichen.

Das Superwahljahr 2024 verdeutlichte die Dringlichkeit dieser Herausforderungen. Die systematische Manipulation von Social-Media-Plattformen und -Diskursen durch verschiedene Akteure hat sich zu einem Problem für demokratische Wahlen entwickelt. Während traditionelle Institutionen die Dynamik der digitalen Mobilisierung unterschätzen, entstehen mithilfe gezielter Desinformationskampagnen und KI-gestützter Propaganda personalisierte Informationsblasen, die langfristig zu Echokammern werden und die Polarisierung in der Gesellschaft und letztlich Radikalisierung bestimmter Bevölkerungsschichten fördern können.

Architektur der systematischen Manipulation

Die systematische Manipulation sozialer Medien basiert auf einem komplexen Zusammenspiel technologischer Möglichkeiten, psychologischer Mechanismen und nichtstaatlicher sowie staatlicher strategischer Akteure. Im Zentrum steht dabei vor allem die Expertise um Plattformalgorithmen. Es geht hierbei darum, die Schwachstellen dieser Algorithmen, die ursprünglich entwickelt wurden, um Nutzerengagement zu maximieren, zunehmend für politische Zwecke zu instrumentalisieren, indem künstlich Sichtbarkeit und Reichweite bestimmter Themen und Narrative erzeugt werd.

Technologische Grundlagen

Soziale Medien funktionieren auf Basis vielschichtiger Algorithmen, die bestimmen, welche Inhalte Nutzer:innen zu sehen bekommen. Social-Media-Algorithmen sind komplexe Systeme, die Inhalte kuratieren, vorschlagen und bewerten, um die Nutzererfahrung und den Informationsfluss zu steuern. Statt eines zentralen Algorithmus wirken viele Mechanismen zusammen, um Inhalte zu hierarchisieren und zu priorisieren. Diese Systeme sind darauf ausgerichtet, Engagement zu maximieren – Likes, Kommentare und Shares zu generieren. Ihr Hauptziel ist es, Nutzer:innen möglichst lange auf der Plattform zu halten. Diese Ausrichtung hat Schwachstellen geschaffen, die von versierten Akteuren gezielt für ihre Zwecke genutzt werden.

Politische Akteure, insbesondere jene mit hoher algorithmischer Kompetenz, sind in der Lage, durch koordinierte Aktionen eine größere Sichtbarkeit und Reichweite zu schaffen, die von den Algorithmen wiederum als authentisches Engagement interpretiert und entsprechend verstärkt wird. KI-Technologien erweitern dieses Instrumentarium erheblich: Künstliche Intelligenz ermöglicht nicht nur die automatisierte Erstellung täuschend echter Inhalte, sondern auch deren gezielte Personalisierung. Besonders besorgniserregend ist dabei die Fähigkeit, große Mengen an maßgeschneidertem Content zu erstellen, der spezifisch auf demografische Gruppen und deren psychologische Profile ausgerichtet ist. In Kombination mit der Möglichkeit, bestimmte Narrative oder Beiträge künstlich sichtbarer zu machen und ihre Reichweite zu erhöhen, entsteht eine ernstzunehmende Gefahr für die Integrität unserer Informationsräume.

Psychologische Mechanismen

Die Effektivität dieser technischen Manipulation basiert wesentlich auf psychologischen Mechanismen, die gezielt über Social Media aktiviert und ausgenutzt werden. Es ist wichtig, zu verstehen, dass Filterblasen und Echokammern nicht zufällig entstehen, sondern systematisch durch Algorithmen geschaffen werden. Diese verstärken bestehende Überzeugungen, indem sie Content-Präferenzen erkennen und passgenau bedienen. Beispielsweise wird der Bestätigungsbias – die Tendenz, Informationen zu bevorzugen, die eigene Überzeugungen bestätigen – dabei gezielt getriggert. Darüber hinaus gibt es noch viele weitere psychologische Mechanismen, die durch bestimmte kognitive Verzerrungen ausgelöst und von Social-Media-Strategien bedient werden.

Ein weiteres Beispiel für einen solchen Mechanismus ist die emotionale Aktivierung durch polarisierende Inhalte. Studien zeigen, dass emotional aufgeladene Botschaften deutlich höhere Engagementraten erzielen und daher von Plattformalgorithmen bevorzugt werden. Dies führt zu einer sich selbst verstärkenden Dynamik, bei der emotional aufgeladene oder polarisierende Inhalte überproportional sichtbar werden.

Zentrale Akteure

Im Zentrum dieser Manipulationsarchitektur stehen verschiedene Akteursgruppen mit unterschiedlichen, aber oft überlappenden Interessen. Influencer:innen haben sich dabei als besonders effektive Multiplikatoren erwiesen. Durch die authentische Verbindung zu ihren Follower:innen könnnen sie Narrative besonders effektiv vermitteln, da sie meistens über Jahre hinweg eine Community aufgebaut haben, die ihnen vertraut. Dieses Vertrauen basiert auf parasozialen Beziehungen, also einseitigen Gefühlen der Intimität und Verbundenheit von Nutzer:innen zu Influencer:innen. Je stärker das Gefühl der Verbundenheit, desto höher das Mobilisierungspotenzial des Influencers.

Soziale Medien beeinflussen dabei zunehmend die politische Kommunikation. Die AfD beispielsweise hat eine bemerkenswerte Fähigkeit entwickelt, Algorithmen für ihre Zwecke einzusetzen. Die Partei weiß um das Mobilisierungspotenzial von Influencer:innen sowie die Wirksamkeit von emotionalisierenden Inhalten und nutzt ein breites Netzwerk von Influencer:innen und Unterstützer:innen, um ihre Botschaften zu verbreiten und verstärken. Diese koordinierte kollektive Online-Mobilisierung hat sich über die Jahre als hocheffektiv erwiesen.

Im Allgemeinen kann man das Zusammenspiel dieser Strategien bei einer Vielzahl verschiedener Akteure beobachten. Ob die Ziele ideologisch links oder rechts, aktivistisch oder transaktional sind: Diese Aktionen werden zunehmend professionell und immer öfter durch spezialisierte Agenturen und Netzwerke unterstützt. Die Versuche, Nutzer:innen strategisch zu manipulieren, folgen dabei dem gleichen Grundmuster: Zunächst werden polarisierende Narrative entwickelt, die dann durch koordinierte Aktionen verschiedener Accounts verstärkt werden. Sobald eine kritische Masse an Engagement erreicht ist, sorgen die Plattformalgorithmen für eine automatisierte Weiterverbreitung.

Besonders prägnante Beispiele für die Macht dieser neuen Kommunikationsarchitektur liefern Aktionen aus dem Jahr 2024, die für von Influencer:innen angeführte Kampagnen zur Mobilisierung der Öffentlichkeit in sozialen Medien entwickelt wurden, so etwa die Hashtags #reclaimTikTok, #protecttaylorswift, #fingerwegvonmeinemkopftuch, #operationwatermelon und #stolzmonat. Sie zeigen, wie verschiedene Akteure – darunter rechtsextreme Gruppen, islamistische Extremist:innen und Popkultur-Fandoms wie die "Swifties" oder die Fans der K-Pop-Band "BTS" – gekonnt ihre Expertise nutzen, um Reichweite und Viralität zu erzielen. Solche Kampagnen sind zwar nicht neu, aber die bisher am Rande genutzten Online-Guerilla-Taktiken drängen sich immer mehr in die Mitte der Gesellschaft.

Strategien der Manipulation

Die systematische Manipulation sozialer Medien hat sich zu einer komplexen Praxis entwickelt, die verschiedene Strategien kombiniert. Die Analyse aktueller Fälle, insbesondere im Kontext der Europawahl sowie der Landtagswahlen in Thüringen, Sachsen und Brandenburg offenbaren drei zentrale Strategieebenen: erstens die Content-Manipulation durch KI, zweitens die Streuung koordinierter Desinformationskampagnen über verschiedene Social-Media-Plattformen hinweg und drittens die gezielte Ausnutzung von Plattformalgorithmen, um hocheffektiv künstliche Sichtbarkeit und Reichweite zu erzeugen.

Die Nutzung von KI zur Content-Erstellung hat dabei eine neue Qualität der Manipulation ermöglicht. Die AfD Brandenburg demonstrierte dies eindrücklich mit ihrem Wahlwerbevideo, das vollständig mittels KI generiert wurde. Das Video zielte darauf, durch düstere Zukunftsszenarien Ängste zu schüren. Dabei wurden bewusst Extremsituationen konstruiert, die nicht unsere gegenwärtige Gesellschaft widerspiegeln, sondern dystopische Szenarien skizzierten, die es zu verhindern gelte. Obwohl als KI-generiert erkennbar, war die emotionale Wirkung beträchtlich, da das Video ein suggestives Framing nutzte. Diese Art der Content-Manipulation ruft emotionale Reaktionen hervor, selbst wenn der Verstand den künstlichen Ursprung erkennt – eine sehr wirksame Form von KI-Propaganda.

Diese Manipulationsstrategien sind Teil eines globalen Trends. Künstliche Intelligenz ermöglicht mittlerweile die automatisierte Erstellung zahlreicher Varianten politischer Botschaften, die auf spezifische Zielgruppen zugeschnitten sind. International zeigt sich dies besonders deutlich am Beispiel der Indischen Volkspartei BJP, die gesammelte Wählerdaten vorrangig zur Analyse von Zielgruppenpräferenzen und zur Optimierung ihrer Kommunikationsstrategie nutzt und dabei mit nicht als solche gekennzeichneten, KI-generierten Videobotschaften verschiedener Politiker:innen experimentiert.

Die Gefahr, die von solchen Desinformationskampagnen ausgeht, wird besonders im Kontext hybrider Beeinflussungsoperationen deutlich. Russische Aktivitäten, wie sie jüngst in Moldau oder auch Rumänien zu beobachten waren, zeigen das destruktive Potenzial im Zusammenhang mit Wahlen. Diese Kampagnen werden über Monate hinweg vorbereitet und basieren auf existierenden digitalen Infrastrukturen – von Fake-Konten über Bots und Influencer:innen bis hin zu Troll-Fabriken und unauthentischen Interaktionen. Das Zusammenspiel verschiedener Strategien, politischer Werbung, emotionalisierender Inhalte und algorithmischer Expertise bildet eine ernste Bedrohung für demokratische, freie und faire Wahlen.

Besonders besorgniserregend ist die Entwicklung sogenannter dark patterns der politischen Manipulation: Inhalte werden gezielt so gestaltet, dass sie starke emotionale Reaktionen hervorrufen, wobei zunehmend KI-generierte Bilder mit algorithmisch optimierten Texten kombiniert werden, um spezifische Ängste oder Vorurteile anzusprechen. Die Koordination dieser Aktivitäten verlagert sich dabei zunehmend in geschlossene Gruppen auf Messenger-Diensten wie Whatsapp oder Telegram, wo sich diese Dark-social-Kommunikation weitgehend der öffentlichen Kontrolle entzieht.

Die systematische Koordination von unauthentischen Interaktionen über verschiedene Plattformen hinweg, unterstützt durch digitale Infrastrukturen einschließlich Dark-reach-Strategien, die Inhalte künstlich vervielfachen und somit Sichtbarkeit generieren, erzeugt einen sogenannten Ripple-in-the-pond-Effekt, die wellenförmige Ausbreitung: Bestimmte Inhalte werden dadurch von Plattformalgorithmen registriert und Nutzer:innen weiterempfohlen.

Diese Effekte zeigen sich auch in Deutschland. Die AfD verfügt über eine massive digitale Infrastruktur: Allein 117 AfD-Seiten auf Facebook erreichten mit Tausenden Followern und über 2500 Posts zwischen Juli und August 2024 eine Engagementrate, die sie in den Facebook-Algorithmen systematisch begünstigt. Und mit der Verbreitung von Anti-Migrations-Narrativen, etwa auf Tiktok, erreichte die Partei in der Zielgruppe der Erstwähler:innen doppelt so viele Personen wie alle anderen Parteien zusammen.

Auswirkungen auf die demokratische Meinungsbildung

Die systematische Manipulation sozialer Medien durch KI-Propaganda, künstlich erzeugte Sichtbarkeit und Reichweite sowie plattformübergreifend wirkenden digitalen Infrastrukturen und dark reach hat tiefgreifende Auswirkungen auf die demokratische Meinungsbildung. Diese manifestieren sich auf verschiedenen Ebenen und schaffen Vulnerabilitäten für den demokratischen Prozess.

Die Verstärkung politischer Botschaften über Social Media führt zu einer zunehmenden Fragmentierung der öffentlichen Debatte. Während traditionelle Medien noch einen gemeinsamen Referenzrahmen für gesellschaftliche Diskussionen boten, entstehen unsere Informationsräume durch die algorithmische Gestaltung zunehmend isoliert voneinander. Die KI-gestützte Hyperpersonalisierung von Inhalten schafft individuelle Informationswelten, die sich von Person zu Person fundamental voneinander unterscheiden können. Menschen, die formal in der gleichen Gesellschaft leben, bewegen sich faktisch in völlig unterschiedlichen Informationsökosystemen. Verstärkt wird diese Entwicklung durch die Engagement-Optimierung der Plattformen, die polarisierende Inhalte bevorzugt und damit zu einer systematischen Verstärkung extremer Positionen führt. Diese technologisch gestützte Polarisierung untergräbt zunehmend die Möglichkeit eines ausgewogenen gesellschaftlichen Diskurses.

Besonders besorgniserregend ist die fortschreitende Erosion des Vertrauens in demokratische Institutionen. Influencer:innen haben sich als alternative Vertrauensquellen etabliert, deren Deutungshoheit in bestimmten Bevölkerungsgruppen jene traditioneller Institutionen übersteigt. Diese Entwicklung ist besonders bei jüngeren Generationen ausgeprägt, die soziale Medien als primäre Informationsquelle nutzen. Tatsache ist aber auch, dass im Jahr 2024 laut "Reuters Institute Digital News Report" 67 Prozent der Bevölkerung Nachrichten primär über das Internet beziehen, davon konsumierten 34 Prozent Nachrichten exklusiv über Social Media. Mit anderen Worten: Wie wir in Deutschland Informationen beziehen, hat sich stark geändert – ein globaler Trend, der überall sehr ähnlich verläuft.

Die technischen Mechanismen sozialer Medien begünstigen Radikalisierungsprozesse in bisher unbekanntem Ausmaß. Die Plattformalgorithmen belohnen extreme und polarisierende Positionen mit höherer Sichtbarkeit, was zu einer schleichenden Normalisierung radikaler Standpunkte führt. Besonders problematisch ist dabei die Kombination aus KI-generierten Inhalten und künstlich erzeugter Sichtbarkeit und Reichweite, die eine bisher ungeahnte Geschwindigkeit in der Mobilisierung von Menschen für politische Zwecke ermöglicht. Diese technologisch verstärkte Radikalisierung ist nur ein Aspekt eines größeren Problems: Die kumulativen Effekte dieser Entwicklungen manifestieren sich in einer zunehmenden gesellschaftlichen Polarisierung. Die Fragmentierung des Informationsraums erschwert die Entwicklung gesellschaftlich geteilter Realitätswahrnehmungen, was demokratische Konsensfindung zunehmend verunmöglicht. Gleichzeitig gefährdet die systematische Manipulation des öffentlichen Diskurses den gesellschaftlichen Zusammenhalt und erschwert die Integration verschiedener gesellschaftlicher Gruppen. Diese Entwicklung fordert die Funktionsfähigkeit demokratischer Systeme grundlegend heraus.

Handlungsempfehlungen

Die identifizierten Herausforderungen für die demokratische Meinungsbildung erfordern ein mehrdimensionales Handlungskonzept, das sowohl kurzfristige Maßnahmen als auch langfristige strukturelle Veränderungen umfasst. Dabei müssen technische, regulatorische und gesellschaftliche Aspekte gleichermaßen berücksichtigt werden. Im unmittelbaren Kontext der bevorstehenden Wahlen sind zeitnahe Maßnahmen erforderlich. Ein Verhaltenskodex für Parteien in Deutschland könnte als erster Schritt dienen. Die Einigung aller Bundesparteien auf klare Richtlinien zur Kennzeichnung von KI-Inhalten im Wahlkampf würde gleiche Bedingungen schaffen und verhindern, dass irreführende oder manipulierte Inhalte eine Wahlentscheidung unverhältnismäßig beeinflussen.

Parallel dazu sind breit angelegte öffentliche Aufklärungskampagnen notwendig, die nicht nur zwischen "wahr" und "falsch" unterscheiden, sondern vor allem die konkreten Manipulationsmechanismen und deren Wirksamkeit aufzeigen. Das Verständnis darüber, wie Plattformalgorithmen ausgenutzt werden können, wie künstliche Reichweite erzeugt wird und wie emotionale Trigger gezielt eingesetzt werden, ist entscheidend für die digitale Resilienz von Wähler:innen. Nur wenn Menschen die Funktionsweise dieser Manipulationsstrategien verstehen, können sie sich effektiv dagegen wappnen.

Besonders wichtig ist dabei die Entwicklung von Kommunikationsstrategien gegen die einseitige Präsenz bestimmter politischer Akteure auf Social Media. Maßnahmen sollten ergriffen werden, um etwa der Problematik der AfD-Präsenz auf Plattformen wie Tiktok entgegenzuwirken und die Verantwortung demokratischer Parteien zu stärken, den digitalen Debattenraum nicht anderen zu überlassen. Für eine nachhaltige Stärkung der demokratischen Resilienz sind langfristige Strategien unerlässlich. Eine zentrale Rolle spielt dabei die Förderung eines Multi-Stakeholder-Ansatzes zur Identifizierung von Risiken und Chancen. Die Zusammenarbeit von Technologieunternehmen, Wissenschaft, Zivilgesellschaft und insbesondere Informationsanbietern ist notwendig, um Erkenntnisse zu gewinnen, die die Schwachstellen von KI im Kontext von Wahlen offenlegen. Dies schafft die Grundlage für die Entwicklung, Förderung und umfassende Umsetzung technologischer und regulatorischer Maßnahmen.

Der Zugang zu Informationen, wie einzelne Social-Media-Plattformen die Daten ihrer Nutzer:innen verwenden und speichern, bleibt nach wie vor schwierig. Obwohl etwa Meta und Google spezielle Transparency-Portale anbieten, sind diese Daten limitiert und ihre Verifizierung gestaltet sich als herausfordernd. Da diese Informationen jedoch essenziell sind, um den Einfluss von Online-Kampagnen zu verstehen, sollte der Zugang zu und die Überprüfung dieser Daten erleichtert werden. Zudem ist eine erhöhte Transparenz über die Funktionsweise von Algorithmen erforderlich.

Gleichzeitig müssen Maßnahmen zur Stärkung des öffentlichen Vertrauens und Aufklärung über Manipulation in sozialen Medien intensiviert werden. Die Förderung politischer Maßnahmen zur Wiederherstellung und Stärkung des öffentlichen Vertrauens in Regierung und Medien ist essenziell, um Polarisierung und gesellschaftliche Spaltungen einzudämmen. Die erfolgreiche Umsetzung dieser Maßnahmen erfordert das koordinierte Engagement verschiedener Akteure. Plattformbetreiber müssen ihrer Verantwortung gerecht werden und effektive Mechanismen zur Erkennung und Eindämmung von Manipulationsversuchen entwickeln. Die Politik ist gefordert, entsprechende regulatorische Rahmenbedingungen zu schaffen und durchzusetzen. Nicht zuletzt spielen zivilgesellschaftliche Organisationen eine wichtige Rolle bei der Aufklärung und Sensibilisierung der Öffentlichkeit.

Fussnoten

Fußnoten

  1. Vgl. Paul Nemitz, Constitutional Democracy and Technology in the Age of Artificial Intelligence, in: Philosophical Transactions of the Royal Society A: Mathematical, Physical and Engineering Sciences 2133/2018, Externer Link: https://doi.org/10.1098/rsta.2018.0089.

  2. Vgl. Katja Muñoz, Influencers and their Ability to Engineer Collective Online Behavior. A Boon and Challenge for Politics, Deutsche Gesellschaft für Auswärtige Politik, DGAP Policy Brief 23/2024.

  3. Vgl. Edelman Trust Barometer, Global Report 2024, New York 2024.

  4. Vgl. World Economic Forum, Global Risks Report 2024, Genf 2024.

  5. Vgl. Katja Muñoz/Emma Laumann, KI und Wahlen. Neue Dynamiken der digitalen Demokratie in Deutschland, Konrad-Adenauer-Stiftung, Berlin 2024.

  6. Vgl. Renée DiResta, Invisible Rulers. The People Who Turn Lies into Reality, New York 2024.

  7. Vgl. Katja Muñoz, Mobilizing Social Media Influencers. A European Approach to Oversight and Accountability, DGAP Policy Brief 11/2023, S. 2.

  8. Vgl. Dorcas Adisa, Everything You Need to Know About Social Media Algorithms, 30.10.2023, Externer Link: https://sproutsocial.com/insights/social-media-algorithms.

  9. Vgl. Katja Muñoz, How to Plan and Execute a Coup. Social Media Give Insurgents the Advantage, DGAP, 31.1.2023.

  10. Vgl. Joan Donovan/Emily Dreyfuss/Brian Friedberg, Meme Wars. The Untold Story of the Online Battles Upending Democrary in America, New York 2022, S. 145–167.

  11. Vgl. Sophia Rothut et al., Ambassadors of Ideology. A Conceptualization and Computational Investigation of Far-Right Influencers, Their Networking Structures, and Communication Practices, in: Sage Journals 12/2023, S. 23–45.

  12. Vgl. Bâo-Tran Truong et al., Quantifying the Vulnerabilities of the Online Public Square to Adversarial Manipulation Tactics, in: Proceedings of the National Academy of Sciences (PNAS) Nexus 7/2024, Externer Link: https://doi.org/10.1093/pnasnexus/pgae258.

  13. Vgl. Muñoz (Anm. 2), S. 4.

  14. Vgl. Muñoz (Anm. 7).

  15. Vgl. Jakob Guhl, Wahlen in Ostdeutschland. Was ein Blick in die Social Media-Kampagne der AfD über das kommende Koalitionsdilemma verrät, Institute of Strategic Dialogue (ISD) Report, Berlin–London 2024.

  16. Vgl. Muñoz (Anm. 2).

  17. Vgl. Shahzeb Mahmood/Apon Das/Dhara Mungra, How Social Media Influencers Are Scaling Surrogate Political Campaigns in Global Majority Elections, Tech Global Institute Report 4/2024.

  18. Vgl. Muñoz/Laumann (Anm. 5), S. 8f.

  19. Vgl. Rayna Breuer, Faktencheck. Wie KI den Wahlkampf verzerrt, 29.9.2024, Externer Link: http://www.dw.com/a-70342481.

  20. Vgl. D Dhanuraj et al., Generative AI and Its Influence on India’s 2024 Election, Friedrich Naumann Stiftung, Policy Paper, 2024.

  21. Vgl. Tabelo Timse et al., Influence-for-Hire Trend Is Distorting Public Discourse, Poses Threat to Foundations of Democracy, 26.5.2024, Externer Link: http://www.dailymaverick.co.za/article/2024-05-26-influence-for-hire-distorts-public-discourse-threatens-democracy.

  22. Vgl. Mariana Olaizola Rosenblat/Inga Trauthig/Paras Shah, The Spread of Political Propaganda on Encrypted Messaging Apps, Just Security Podcast 86/2024, Externer Link: http://www.justsecurity.org/104072/podcast-propaganda-encrypted-messaging-apps.

  23. Vgl. Guhl (Anm. 15).

  24. Vgl. Roland Verwiebe et al., Die AfD dominiert TikTok – Studie zur Sichtbarkeit der Parteien in den Sozialen Medien, Medieninformation der Universität Potsdam 81/2024.

  25. Vgl. Muñoz (Anm. 2), S. 8.

  26. Vgl. DiResta (Anm. 6), S. 156ff.

  27. Vgl. Rothut et al. (Anm. 11).

  28. Vgl. Nic Newman et al., Reuters Institute Digital News Report 2024, Oxford 2024.

  29. Vgl. ebd.

  30. Vgl. Edelman Trust Barometer (Anm. 3), S. 23.

  31. Vgl. Truong et al. (Anm. 12), S. 260.

  32. Vgl. Muñoz (Anm. 9).

  33. Vgl. Nemitz, (Anm. 1).

  34. Vgl. World Economic Forum (Anm. 4), S. 45f.

  35. Vgl. Lars Scharfenberg, Die Arierfantasien der AfD, in: Süddeutsche Zeitung, 20.10.2024.

  36. Vgl. Muñoz (Anm. 7), S. 14.

  37. Vgl. Muñoz (Anm. 2), S. 12.

  38. Vgl. Barbara Ortutay, Meta Kills Off Misinformation Tracking Tool CrowdTangle Despite Pleas from Researchers, Journalists, 15.10.2024, Externer Link: https://apnews.com/article/977ece074b99adddb4887bf719f2112a.

  39. Vgl. Muñoz/Laumann (Anm. 5), S. 24f.

  40. Vgl. Guhl (Anm. 15), S. 8f.

Lizenz

Dieser Text ist unter der Creative Commons Lizenz "CC BY-NC-ND 3.0 DE - Namensnennung - Nicht-kommerziell - Keine Bearbeitung 3.0 Deutschland" veröffentlicht. Autor/-in: Katja Muñoz für Aus Politik und Zeitgeschichte/bpb.de

Sie dürfen den Text unter Nennung der Lizenz CC BY-NC-ND 3.0 DE und des/der Autors/-in teilen.
Urheberrechtliche Angaben zu Bildern / Grafiken / Videos finden sich direkt bei den Abbildungen.
Sie wollen einen Inhalt von bpb.de nutzen?

ist Research Fellow im Zentrum für Geopolitik, Geoökonomie und Technologie der Deutschen Gesellschaft für Auswärtige Politik in Berlin. Ihre Forschungsschwerpunkte liegen an der Schnittstelle zwischen Sozialen Medien und Politik unter besonderer Berücksichtigung des Einflusses von künstlicher Intelligenz auf Demokratien.