Meine Merkliste Geteilte Merkliste PDF oder EPUB erstellen

Politische Medienbildung | Wenn der Schein trügt – Deepfakes und die politische Realität | bpb.de

Wenn der Schein trügt – Deepfakes und die politische Realität Auf einen Blick Was ist KI und welche Formen von KI gibt es? KI in den Sozialen Medien Deepfakes: Technische Hintergründe und Trends Fake oder Wirklichkeit: Wieso und wie leicht lassen wir uns täuschen? Anwendungsbereiche von Deepfakes Politische Manipulation und Desinformation Pornografie Diskriminierung „Softfakes“ in Wahlkämpfen Chancen für die Demokratie Deepfakes als Unterhaltung Über den Tellerrand: Virtuelle Influencer*innen Governance von Deepfakes Regulierung von Deepfakes Strafrecht und Regulierung von Deepfake-Pornografie Technische Ansätze zur Deepfake-Erkennung und Prävention Politische Medienbildung Medien als (verzerrter) Spiegel der Realität? Unterrichtsmaterialien Redaktion

Politische Medienbildung

Harald Gapski

/ 8 Minuten zu lesen

Augen auf beim Social Media Verlauf - Was dazu beiträgt, dass wir in der digitalen Gesellschaft informiert und kompetent handeln können. | Illustration: www.leitwerk.com (© bpb, Leitwerk)

Weltwissen und Medienwissen

Zitat

Was wir über unsere Gesellschaft, ja über die Welt, in der wir leben, wissen, wissen wir durch die Massenmedien.

Mit diesem vielzitierten und kritisierten ersten Satz begann 1994 der Soziologe Niklas Luhmann seine Abhandlung über die Massenmedien. Seitdem sind viele neue technische Mittel der Verbreitung und Vervielfältigung entstanden. Social Media, Smartphones und KI wurden zu massenhaft genutzten „neuen Medien“ und kritische Fragen nach dem medienvermittelten Wissen über die Welt im Allgemeinen und über die politische Welt im Besonderen müssen neu gestellt werden. Politische Meinungsbildung und politisches Handeln finden unter dynamisch sich verändernden sozialen und medientechnischen Bedingungen statt. Ein genereller Manipulationsverdacht begleitete schon die Massenmedien, heute treten neue Formen hinzu. Wenn beispielsweise das KI-Sprachmodell Bing Chat Umfrageergebnisse bei Landtagswahlen erfindet, falsche Kandidat*innen benennt und auf unseriöse Quellen verweist, dann kommt eine politische Medienbildung nicht umhin, diese neuen Mediennutzungsverhältnisse in ihren gesellschaftlichen Auswirkungen zu thematisieren. Aktuelle Mediennutzungsstudien zeigen weltweit Trends der Fragmentierung und eine steigende Nutzung von Videos durch eine Mehrheit, die Plattformen wie soziale Medien, Suchdienste oder Aggregatoren als ihren Hauptzugang zu Online-Nachrichten verwendet.

Transformation, Treiber und Wechselwirkungen

KI ist Teil einer digitalen Transformation unserer Gesellschaft, die zu einem neuen Strukturwandel der Öffentlichkeit geführt hat. Während in der analogen Medienwelt wenige Sender mit massenhaft Empfänger*innen in eine Richtung kommunizieren und journalistische Redaktionen zu bestimmten Zeiten und in definierten Formaten ein für alle Empfänger*innen gleiches Programm übermitteln, bieten Interner Link: Plattformen heutzutage algorithmisch zusammengestellte und individualisierte Inhalte und produzieren zugleich personalisierte Datenströme. Diese Datenströme fließen in beide Richtungen und sagen viel über die menschlichen Empfänger*innen aus. Diese werden zu bewussten, aber auch unwissentlich überwachten Sendern in digitalen Sozialmaschinen, die hauptsächlich ökonomischen Interessen dienen. Aus Sicht von Amnesty International (2019) bedrohen die auf digitale Überwachung basierenden Geschäftsmodelle von Google und Facebook die Menschenrechte.

Zur ersten Einordnung lassen sich vier soziotechnologische Prozesse dieser Transformation unterscheiden:

  1. die Digitalisierung als Speicherung und Bereitstellung von Daten in digitaler und damit fluider Form,

  1. die Vernetzung von menschlicher und nichtmenschlicher Informationsverarbeitung in gesellschaftliche Kommunikationstrukturen,

  1. die Sensorisierung als Erfassung von Daten aus der Umwelt und

  1. die Algorithmisierung als Automatisierung von Informations- und Kommunikationsprozessen – die KI „kommuniziert mit“ in unserer soziotechnischen Gesellschaft.

Das Zusammenspiel der vier Treiber lässt sich am Beispiel des Lesens einer Nachricht auf Social Media mit dem Smartphone verdeutlichen. Diese Interaktion ist etwas völlig anderes als das Lesen in einer gedruckten Zeitung: Die digitale Nachricht (a), mittels Algorithmen kuratiert, möglicherweise sogar von einer generativen KI, einem Bot erstellt (d), ist Effekt einer global vernetzten Plattform eines Internetkonzerns (b). Während des Lesens werden Lesegeschwindigkeit, Interaktionsverhalten, geographische Position, usw. über Sensoren des Smartphones erfasst (c) und wieder in das dynamische Miteinander von Menschen und Maschinen mit dem ökonomischen Ziel eingespeist, das „Engagement“ der User*innen möglichst lange hoch zu halten.

Im Zusammenspiel der vier treibenden Prozesse mit sozialen Faktoren, etwa konkreten politischen Absichten, entstehen Gefahren der Desinformation (Fakenews und Deepfakes mithilfe von KI-Anwendungen), der Inzivilität (Hate Speech und das Abwandern in geschlossene Gruppen des „Dark Social“) und der algorithmischen Diskriminierung. Selbstverständlich eröffnen sich auch neuartige politische Informations-, Ausdrucks- und Teilhabemöglichkeiten, man denke hier an Online-Petitionsplattformen, z.B. openpetition.de oder weact.campact.de, oder an Transparenzplattformen wie abgeordnetenwatch.de oder auch an schulische Demokratieprojekte wie aula.de.

Nicht deterministisch, nicht neutral und
hoch dynamisch

Technologie allein bestimmt keine sozialen Veränderungen (Technikdeterminismus). Sie ist „weder gut, noch böse; noch ist sie neutral“ - lautet das erste Kranzbergsche Gesetz. Ihre sozialen Auswirkungen gehen weit über den Einsatz als Werkzeug hinaus. Zu diesen und weiteren Aussagen braucht die politische Medienbildung eine kritische Position, die von Wechselwirkungen zwischen individueller, sozialer und medientechnologischer Welt ausgeht. In der Umsetzung von politischer Medienbildung ist Zeit ein bedeutsamer Faktor: Während technische Leistungsdaten, wie Verarbeitungsgeschwindigkeiten und Speicherkapazitäten exponentiell steigen, verbreiten sich auch Medientechnologien immer schneller: So erreichte das Radio 50 Millionen Mediennutzende in 38 Jahren, das Fernsehen benötigte 13 Jahre, das Internet 4 Jahre und ChatGPT nur wenige Wochen. Die rechtliche Regulierung von KI wie auch die Maßnahmen zur Medienbildung laufen soziotechnologischen Entwicklungen hinterher. Auch Werkzeuge, die die KI-Generiertheit sichtbar machen und gegen Deepfakes oder Urheberrechtsverletzungen eingesetzt werden sollen, befinden sich in einem technologischen Wettlauf (vgl.Interner Link: Kapitel 3.3 zu Deepfake-Erkennung). Die Ergebnisse und die Grenzen dieser Transparenz-Werkzeuge sollten immer von kritischer Reflexion begleitet werden.

Leben wir in „digitalen Sozialmaschinen“?

Die genannten Rahmenbedingungen, Treiber und Positionen, die für die politische Medienbildung relevant sind, müssten aufbereitet und verdichtet werden, um sie in der Bildungspraxis später einsetzen zu können. Ein Vorschlag und eine konzeptionelle Metapher hierzu ist die digitale oder algorithmische Sozialmaschine. Zum Ausdruck gebracht werden soll damit das soziotechnische, kommunikative und interaktive Ineinandergreifen von zahlreichen Menschen und Digitaltechnologien. In der Maschinenmetapher steckt traditionell das Moment des Funktionierens, des Zweckrationalen und der Berechenbarkeit, und damit zugleich die Kritik an der Unfreiheit des Menschen, nur ein ‚Rädchen in der Maschine‘ zu sein. Während in der klassischen Fließbandproduktion oder in bürokratischen Systemen die menschlichen ‚Funktionsteile‘ direkt angewiesen werden, bestimmte Aufgaben zu übernehmen, welche andere top-down festlegen, entsteht im emergenten Zusammenwirken aller teilnehmenden menschlichen wie digitaltechnischen Komponenten, gewissermaßen bottom-up die digitale Sozialmaschine als ein neuer Maschinentypus. Ihre digitale Infrastruktur vermittelt Interaktionen, liefert Informationen und reguliert Handlungs- und Kommunikationsmöglichkeiten.

„Social Machines“ entstammen konkreten Theoriekonzepten der Web Science und können etwa auf Social Media Plattformen, auf Smart Cities oder auf die Gesellschaft als ganze bezogen werden: „Gesellschaft als digitale Sozialmaschine?“ fragt der Soziologe Jörn Lamla (2020) und skizziert eine mögliche „Infrastrukturentwicklung von der Plattformökonomie zur kybernetischen Kontrollgesellschaft“. Damit ergeben sich dystopische Maschinenbilder von Kontrolle und Überwachung. In ihrer Theorie des digitalen Überwachungskapitalismus veranschaulicht Shoshana Zuboff (2018) die digitale Wertschöpfung aus dem Verhaltensüberschuss, gemeint ist damit der Überschuss an Daten, der entsteht, wenn digitale Plattformen das Verhalten von Nutzer*innen überwachen und mehr Daten sammeln, als für die Verbesserung von Dienstleistungen notwendig sind, mithilfe einer zahnriemengetriebenen Maschine. Die Autorin schließt mit dem politischen Aufruf gegen die Macht der Internet-Konzerne: „Seid Sand im Getriebe“. Weitere Autor*innen sprechen in jeweils unterschiedlichen Konzepten von der „Hype Machine“, der „Digital Influence Machine“ oder der „Lügenmaschine“. Zugleich entstehen mit diesen metaphorisch-modellhaften Bildern bildungspraktische Spielräume für eine digitale Aufklärung. Diese lenkt die Aufmerksamkeit auf die Mechanismen in der digitalen Sozialmaschine, zerlegt sie zugleich in ihre Bausteine und fragt nach den gesellschaftlichen Auswirkungen wie auch nach den Grenzen der Maschinenmetapher.

Aufklärung, Ermächtigung und Grenzen

Eine zeitgemäße politische Medienbildung kommt nicht umhin, einen Blick in den ‚Maschinenraum‘ unserer datafizierten und algorithmisierten Gesellschaft zu werfen. Gefragt ist ein grundlegendes Wissen darüber, wie Deepfakes und Steuerungspraktiken, wie Micro-targeting, Neuromarketing und Big Nudging, kommunikative Rahmenbedingungen und politisches Geschehen verändern. Politische Meinungsbildung, Teilhabe und Empowerment sollten somit durch das Zusammenwachsen von politischer Bildung und kritischer Medienbildung gestützt werden. Zu den Anforderungen und Erwartungen an ein selbstbestimmtes Subjekt liegt eine breite Diskussion mit einer Vielzahl von Kompetenz- und Literacy-Begriffen vor: Neben Medienkompetenz ist die Rede von Daten-, Informations-, Algorithmen-, KI-Kompetenz bzw. von Digital Literacy, Critical (Big) Data Literacy, Data Infrastructure Literacy, AI Literacy u.a.m. Die Diskussionen über die jeweiligen Begriffsbestimmungen und -abgrenzungen dauern an. Um ein relevantes Wissen zwischen politischer Bildung und Medienbildung zu umreißen, sind vielfältige Verbindungen zwischen unterschiedlichen Wissensgebieten herauszuarbeiten, so etwa:

  • informatisches Grundlagenwissen über Algorithmen, Machine Learning und digitale Infrastrukturen,

  • wirtschaftswissenschaftliches Wissen über Geschäftsmodelle in der globalen Datenökonomie,

  • psychologische Kenntnisse, etwa über kognitive Verzerrungen und Persönlichkeitsmodelle, die Basis für das micro-targeting sind,

  • sprachliches und sprachphilosophisches Wissen darüber, wie wir über KI sprechen und (ob und) wie KI mit uns „spricht“,

  • mathematisch-statistische Kenntnisse, um Wahrscheinlichkeitsaussagen interpretieren zu können,

  • rechtliches Wissen über Daten-, Urheber- und Verbraucherschutz,

  • sozialethisches Hintergrundwissen zur normativen Bewertung, etwa von Diskriminierungsgefahren.

Jenseits einer Kompetenzorientierung und der Neuverfugung von Wissensbereichen sollte die Bildungsperspektive eigens betont werden: Im Rückgriff auf die digitale Mündigkeit als aufklärerisches Ziel und den Bildungsbegriff Wilhelm von Humboldts als wechselseitige Durchdringung von Ich und Welt, treten hier kritisches Denken und Persönlichkeitsbildung in den Vordergrund. Bildung in der digitalen Welt erschöpft sich nicht in mehr erlerntem Wissen und neuen quantitativ messbaren Kompetenzen, sondern von Bedeutung ist eine reflexive, qualitative Veränderung der Welt- und Selbstbilder. Die oben genannten Maschinenmetaphern könnten hierzu Anreize zur Auseinandersetzung schaffen. Die alleinige Verantwortungsverlagerung auf das digitalkompetente oder gebildete Individuum greift ohne politische Gestaltung und Regulierung zu kurz, wenn Freiheit und Selbstbestimmung in der digitalen Welt geschützt und erhalten werden sollen. Wichtig ist ein inter- und transdisziplinärer Dialog zwischen Wissenschaft, Politik und Bildungspraxis.

Weitere Inhalte

Dr. Harald Gapski ist Kommunikations- und Medienwissenschaftler und leitet den Diskurs Wissenschaft am Grimme-Institut in Marl. Zuletzt arbeitete er in Projekten des Grimme-Forschungskollegs an der Universität zu Köln und war fellow am Center for Advanced Internet Studies in Bochum. Seine Arbeitsschwerpunkte liegen an der Schnittstelle von kritischer Medienbildung, digitalen Kulturen und Wissenskommunikation.