Unsere Demokratie basiert wesentlich darauf, dass Bürger:innen Zugang zu verlässlichen Informationen haben und diese nutzen können, um informierte Entscheidungen zu treffen und sich aktiv an staatlichen, zivilgesellschaftlichen und unternehmerischen Prozessen zu beteiligen.
Das Vertrauen der deutschen Bevölkerung in Medien und staatliche Institutionen zeigt eine besorgniserregende Entwicklung. Laut dem "Edelman Trust Barometer" sank das Vertrauen in die Medien von 48 Prozent im Jahr 2023 auf 47 Prozent im Folgejahr, während das Vertrauen in die Regierung einen noch deutlicheren Rückgang von 47 Prozent 2023 auf 42 Prozent im Jahr 2024 verzeichnete.
Eine neue Dimension erhält diese Problematik durch den rasanten Fortschritt künstlicher Intelligenz (KI). Das World Economic Forum hat in seinem jährlichen "Global Risks Report" 2024 Fehl- und Desinformation als eines der größten globalen Risiken identifiziert – eine Einschätzung, die durch die schnelle Entwicklung und Verfügbarkeit von KI-Technologien zusätzlich an Brisanz gewinnt.
Die Kombination aus KI-gestützter Content-Produktion mit dem tiefen Verständnis von Influencer:innen, bestimmten staatlichen Akteuren oder Aktivist:innen für Plattformdynamiken und deren Schwachstellen schafft völlig neue Herausforderungen für die Integrität des öffentlichen Diskurses. Diese "algorithmische Kompetenz" – die Fähigkeit, Plattformalgorithmen strategisch für die Verbreitung und Verstärkung von Botschaften zu nutzen – wird immer gezielter eingesetzt, um kollektives Online-Verhalten zu steuern und letztlich offline eine Mobilisierung zu erreichen.
Das Superwahljahr 2024 verdeutlichte die Dringlichkeit dieser Herausforderungen. Die systematische Manipulation von Social-Media-Plattformen und -Diskursen durch verschiedene Akteure hat sich zu einem Problem für demokratische Wahlen entwickelt. Während traditionelle Institutionen die Dynamik der digitalen Mobilisierung unterschätzen, entstehen mithilfe gezielter Desinformationskampagnen und KI-gestützter Propaganda personalisierte Informationsblasen, die langfristig zu Echokammern werden und die Polarisierung in der Gesellschaft und letztlich Radikalisierung bestimmter Bevölkerungsschichten fördern können.
Architektur der systematischen Manipulation
Die systematische Manipulation sozialer Medien basiert auf einem komplexen Zusammenspiel technologischer Möglichkeiten, psychologischer Mechanismen und nichtstaatlicher sowie staatlicher strategischer Akteure. Im Zentrum steht dabei vor allem die Expertise um Plattformalgorithmen. Es geht hierbei darum, die Schwachstellen dieser Algorithmen, die ursprünglich entwickelt wurden, um Nutzerengagement zu maximieren, zunehmend für politische Zwecke zu instrumentalisieren,
Technologische Grundlagen
Soziale Medien funktionieren auf Basis vielschichtiger Algorithmen, die bestimmen, welche Inhalte Nutzer:innen zu sehen bekommen. Social-Media-Algorithmen sind komplexe Systeme, die Inhalte kuratieren, vorschlagen und bewerten, um die Nutzererfahrung und den Informationsfluss zu steuern. Statt eines zentralen Algorithmus wirken viele Mechanismen zusammen, um Inhalte zu hierarchisieren und zu priorisieren. Diese Systeme sind darauf ausgerichtet, Engagement zu maximieren – Likes, Kommentare und Shares zu generieren.
Politische Akteure, insbesondere jene mit hoher algorithmischer Kompetenz, sind in der Lage, durch koordinierte Aktionen eine größere Sichtbarkeit und Reichweite zu schaffen, die von den Algorithmen wiederum als authentisches Engagement interpretiert und entsprechend verstärkt wird.
Psychologische Mechanismen
Die Effektivität dieser technischen Manipulation basiert wesentlich auf psychologischen Mechanismen, die gezielt über Social Media aktiviert und ausgenutzt werden. Es ist wichtig, zu verstehen, dass Filterblasen und Echokammern nicht zufällig entstehen, sondern systematisch durch Algorithmen geschaffen werden. Diese verstärken bestehende Überzeugungen, indem sie Content-Präferenzen erkennen und passgenau bedienen. Beispielsweise wird der Bestätigungsbias – die Tendenz, Informationen zu bevorzugen, die eigene Überzeugungen bestätigen – dabei gezielt getriggert.
Ein weiteres Beispiel für einen solchen Mechanismus ist die emotionale Aktivierung durch polarisierende Inhalte. Studien zeigen, dass emotional aufgeladene Botschaften deutlich höhere Engagementraten erzielen und daher von Plattformalgorithmen bevorzugt werden. Dies führt zu einer sich selbst verstärkenden Dynamik, bei der emotional aufgeladene oder polarisierende Inhalte überproportional sichtbar werden.
Zentrale Akteure
Im Zentrum dieser Manipulationsarchitektur stehen verschiedene Akteursgruppen mit unterschiedlichen, aber oft überlappenden Interessen. Influencer:innen haben sich dabei als besonders effektive Multiplikatoren erwiesen. Durch die authentische Verbindung zu ihren Follower:innen könnnen sie Narrative besonders effektiv vermitteln,
Soziale Medien beeinflussen dabei zunehmend die politische Kommunikation. Die AfD beispielsweise hat eine bemerkenswerte Fähigkeit entwickelt, Algorithmen für ihre Zwecke einzusetzen. Die Partei weiß um das Mobilisierungspotenzial von Influencer:innen sowie die Wirksamkeit von emotionalisierenden Inhalten und nutzt ein breites Netzwerk von Influencer:innen und Unterstützer:innen, um ihre Botschaften zu verbreiten und verstärken. Diese koordinierte kollektive Online-Mobilisierung hat sich über die Jahre als hocheffektiv erwiesen.
Im Allgemeinen kann man das Zusammenspiel dieser Strategien bei einer Vielzahl verschiedener Akteure beobachten. Ob die Ziele ideologisch links oder rechts, aktivistisch oder transaktional sind: Diese Aktionen werden zunehmend professionell und immer öfter durch spezialisierte Agenturen und Netzwerke unterstützt.
Besonders prägnante Beispiele für die Macht dieser neuen Kommunikationsarchitektur liefern Aktionen aus dem Jahr 2024, die für von Influencer:innen angeführte Kampagnen zur Mobilisierung der Öffentlichkeit in sozialen Medien entwickelt wurden, so etwa die Hashtags #reclaimTikTok, #protecttaylorswift, #fingerwegvonmeinemkopftuch, #operationwatermelon und #stolzmonat. Sie zeigen, wie verschiedene Akteure – darunter rechtsextreme Gruppen, islamistische Extremist:innen und Popkultur-Fandoms wie die "Swifties" oder die Fans der K-Pop-Band "BTS" – gekonnt ihre Expertise nutzen, um Reichweite und Viralität zu erzielen. Solche Kampagnen sind zwar nicht neu, aber die bisher am Rande genutzten Online-Guerilla-Taktiken drängen sich immer mehr in die Mitte der Gesellschaft.
Strategien der Manipulation
Die systematische Manipulation sozialer Medien hat sich zu einer komplexen Praxis entwickelt, die verschiedene Strategien kombiniert. Die Analyse aktueller Fälle, insbesondere im Kontext der Europawahl sowie der Landtagswahlen in Thüringen, Sachsen und Brandenburg offenbaren drei zentrale Strategieebenen: erstens die Content-Manipulation durch KI, zweitens die Streuung koordinierter Desinformationskampagnen über verschiedene Social-Media-Plattformen hinweg und drittens die gezielte Ausnutzung von Plattformalgorithmen, um hocheffektiv künstliche Sichtbarkeit und Reichweite zu erzeugen.
Die Nutzung von KI zur Content-Erstellung hat dabei eine neue Qualität der Manipulation ermöglicht. Die AfD Brandenburg demonstrierte dies eindrücklich mit ihrem Wahlwerbevideo, das vollständig mittels KI generiert wurde. Das Video zielte darauf, durch düstere Zukunftsszenarien Ängste zu schüren. Dabei wurden bewusst Extremsituationen konstruiert, die nicht unsere gegenwärtige Gesellschaft widerspiegeln, sondern dystopische Szenarien skizzierten, die es zu verhindern gelte. Obwohl als KI-generiert erkennbar, war die emotionale Wirkung beträchtlich,
Diese Manipulationsstrategien sind Teil eines globalen Trends. Künstliche Intelligenz ermöglicht mittlerweile die automatisierte Erstellung zahlreicher Varianten politischer Botschaften, die auf spezifische Zielgruppen zugeschnitten sind. International zeigt sich dies besonders deutlich am Beispiel der Indischen Volkspartei BJP, die gesammelte Wählerdaten vorrangig zur Analyse von Zielgruppenpräferenzen und zur Optimierung ihrer Kommunikationsstrategie nutzt und dabei mit nicht als solche gekennzeichneten, KI-generierten Videobotschaften verschiedener Politiker:innen experimentiert.
Die Gefahr, die von solchen Desinformationskampagnen ausgeht, wird besonders im Kontext hybrider Beeinflussungsoperationen deutlich. Russische Aktivitäten, wie sie jüngst in Moldau oder auch Rumänien zu beobachten waren, zeigen das destruktive Potenzial im Zusammenhang mit Wahlen. Diese Kampagnen werden über Monate hinweg vorbereitet und basieren auf existierenden digitalen Infrastrukturen – von Fake-Konten über Bots und Influencer:innen bis hin zu Troll-Fabriken und unauthentischen Interaktionen. Das Zusammenspiel verschiedener Strategien, politischer Werbung, emotionalisierender Inhalte und algorithmischer Expertise bildet eine ernste Bedrohung für demokratische, freie und faire Wahlen.
Besonders besorgniserregend ist die Entwicklung sogenannter dark patterns der politischen Manipulation: Inhalte werden gezielt so gestaltet, dass sie starke emotionale Reaktionen hervorrufen, wobei zunehmend KI-generierte Bilder mit algorithmisch optimierten Texten kombiniert werden, um spezifische Ängste oder Vorurteile anzusprechen.
Die systematische Koordination von unauthentischen Interaktionen über verschiedene Plattformen hinweg, unterstützt durch digitale Infrastrukturen einschließlich Dark-reach-Strategien, die Inhalte künstlich vervielfachen und somit Sichtbarkeit generieren, erzeugt einen sogenannten Ripple-in-the-pond-Effekt, die wellenförmige Ausbreitung: Bestimmte Inhalte werden dadurch von Plattformalgorithmen registriert und Nutzer:innen weiterempfohlen.
Diese Effekte zeigen sich auch in Deutschland. Die AfD verfügt über eine massive digitale Infrastruktur: Allein 117 AfD-Seiten auf Facebook erreichten mit Tausenden Followern und über 2500 Posts zwischen Juli und August 2024 eine Engagementrate, die sie in den Facebook-Algorithmen systematisch begünstigt.
Auswirkungen auf die demokratische Meinungsbildung
Die systematische Manipulation sozialer Medien durch KI-Propaganda, künstlich erzeugte Sichtbarkeit und Reichweite sowie plattformübergreifend wirkenden digitalen Infrastrukturen und dark reach hat tiefgreifende Auswirkungen auf die demokratische Meinungsbildung. Diese manifestieren sich auf verschiedenen Ebenen und schaffen Vulnerabilitäten für den demokratischen Prozess.
Die Verstärkung politischer Botschaften über Social Media führt zu einer zunehmenden Fragmentierung der öffentlichen Debatte. Während traditionelle Medien noch einen gemeinsamen Referenzrahmen für gesellschaftliche Diskussionen boten, entstehen unsere Informationsräume durch die algorithmische Gestaltung zunehmend isoliert voneinander.
Besonders besorgniserregend ist die fortschreitende Erosion des Vertrauens in demokratische Institutionen. Influencer:innen haben sich als alternative Vertrauensquellen etabliert, deren Deutungshoheit in bestimmten Bevölkerungsgruppen jene traditioneller Institutionen übersteigt. Diese Entwicklung ist besonders bei jüngeren Generationen ausgeprägt, die soziale Medien als primäre Informationsquelle nutzen.
Die technischen Mechanismen sozialer Medien begünstigen Radikalisierungsprozesse in bisher unbekanntem Ausmaß. Die Plattformalgorithmen belohnen extreme und polarisierende Positionen mit höherer Sichtbarkeit, was zu einer schleichenden Normalisierung radikaler Standpunkte führt.
Handlungsempfehlungen
Die identifizierten Herausforderungen für die demokratische Meinungsbildung erfordern ein mehrdimensionales Handlungskonzept, das sowohl kurzfristige Maßnahmen als auch langfristige strukturelle Veränderungen umfasst. Dabei müssen technische, regulatorische und gesellschaftliche Aspekte gleichermaßen berücksichtigt werden. Im unmittelbaren Kontext der bevorstehenden Wahlen sind zeitnahe Maßnahmen erforderlich. Ein Verhaltenskodex für Parteien in Deutschland könnte als erster Schritt dienen. Die Einigung aller Bundesparteien auf klare Richtlinien zur Kennzeichnung von KI-Inhalten im Wahlkampf würde gleiche Bedingungen schaffen und verhindern, dass irreführende oder manipulierte Inhalte eine Wahlentscheidung unverhältnismäßig beeinflussen.
Parallel dazu sind breit angelegte öffentliche Aufklärungskampagnen notwendig, die nicht nur zwischen "wahr" und "falsch" unterscheiden, sondern vor allem die konkreten Manipulationsmechanismen und deren Wirksamkeit aufzeigen. Das Verständnis darüber, wie Plattformalgorithmen ausgenutzt werden können, wie künstliche Reichweite erzeugt wird und wie emotionale Trigger gezielt eingesetzt werden, ist entscheidend für die digitale Resilienz von Wähler:innen. Nur wenn Menschen die Funktionsweise dieser Manipulationsstrategien verstehen, können sie sich effektiv dagegen wappnen.
Besonders wichtig ist dabei die Entwicklung von Kommunikationsstrategien gegen die einseitige Präsenz bestimmter politischer Akteure auf Social Media. Maßnahmen sollten ergriffen werden, um etwa der Problematik der AfD-Präsenz auf Plattformen wie Tiktok entgegenzuwirken und die Verantwortung demokratischer Parteien zu stärken, den digitalen Debattenraum nicht anderen zu überlassen.
Der Zugang zu Informationen, wie einzelne Social-Media-Plattformen die Daten ihrer Nutzer:innen verwenden und speichern, bleibt nach wie vor schwierig. Obwohl etwa Meta und Google spezielle Transparency-Portale anbieten, sind diese Daten limitiert und ihre Verifizierung gestaltet sich als herausfordernd. Da diese Informationen jedoch essenziell sind, um den Einfluss von Online-Kampagnen zu verstehen, sollte der Zugang zu und die Überprüfung dieser Daten erleichtert werden. Zudem ist eine erhöhte Transparenz über die Funktionsweise von Algorithmen erforderlich.
Gleichzeitig müssen Maßnahmen zur Stärkung des öffentlichen Vertrauens und Aufklärung über Manipulation in sozialen Medien intensiviert werden. Die Förderung politischer Maßnahmen zur Wiederherstellung und Stärkung des öffentlichen Vertrauens in Regierung und Medien ist essenziell, um Polarisierung und gesellschaftliche Spaltungen einzudämmen.