Meine Merkliste Geteilte Merkliste PDF oder EPUB erstellen

KI in den Sozialen Medien | Wenn der Schein trügt – Deepfakes und die politische Realität | bpb.de

Wenn der Schein trügt – Deepfakes und die politische Realität Auf einen Blick Was ist KI und welche Formen von KI gibt es? KI in den Sozialen Medien Deepfakes: Technische Hintergründe und Trends Fake oder Wirklichkeit: Wieso und wie leicht lassen wir uns täuschen? Anwendungsbereiche von Deepfakes Politische Manipulation und Desinformation Pornografie Diskriminierung „Softfakes“ in Wahlkämpfen Chancen für die Demokratie Deepfakes als Unterhaltung Über den Tellerrand: Virtuelle Influencer*innen Governance von Deepfakes Regulierung von Deepfakes Strafrecht und Regulierung von Deepfake-Pornografie Technische Ansätze zur Deepfake-Erkennung und Prävention Politische Medienbildung Medien als (verzerrter) Spiegel der Realität? Unterrichtsmaterialien Redaktion

KI in den Sozialen Medien

Jan-Hinrik Schmidt

/ 7 Minuten zu lesen

Wie viel KI steckt in den Sozialen Medien? Hier sind die Sprechblasen auf jeden Fall KI-generiert. | Illustration: www.leitwerk.com (© bpb)

Die Entwicklung von Werkzeugen und Formen der künstlichen Intelligenz ist eng mit sozialen Medien verbunden – und das schon seit 15 Jahren und mehr, also schon vor dem Bedeutungsgewinn generativer KI, die uns derzeit Sorge vor Desinformationen, Deep Fakes o.ä. machen. Soziale Medien ist ein Sammelbegriff für eine Reihe von durchaus unterschiedlichen Angeboten, Portalen und Apps, darunter z.B. Video- und Netzwerkplattformen, Weblogs, Wikis oder Messaging-Dienste. Ihnen ist gemeinsam, dass sie die Hürden senken, um Inhalte und Informationen aller Art im Internet zu teilen, sowie davon ausgehend soziale Beziehungen zu knüpfen und zu pflegen. Viele Interner Link: soziale Medien agieren dazu als „Plattformen“, das heißt sie erstellen selbst keine eigenen Inhalte, sondern bieten die medientechnische Infrastruktur, mit deren Hilfe ihrer Nutzerinnen und Nutzer das, was sie mitteilen wollen, verbreiten, empfehlen oder kommentieren können. Dies eröffnet nicht nur neue Beteiligungs- und Artikulationsmöglichkeiten für Bürgerinnen und Bürger, sondern verändert und erweitert auch gesellschaftliche Öffentlichkeit, die nicht mehr länger ausschließlich von Massenmedien und Journalismus hergestellt wird. Im Rahmen dieser Veränderungen lassen sich zwei große Bereiche unterscheiden, in denen Verfahren der Automatisierung und des maschinellen Lernens (die wir vereinfacht als „künstliche Intelligenz“ bezeichnen) eingesetzt werden.

Kuratieren

Ein erster Einsatzbereich für automatisierte Verfahren in sozialen Medien ist das Kuratieren von Informationen, also das Auswählen, Bündeln und Empfehlen von Inhalten, die auf einer Plattform zur Verfügung stehen. Anders als bei publizistischen Medien, bei denen Journalistinnen und Journalisten in Redaktionen zusammenarbeiten, um bestimmte Produkte – etwa die Ausgabe einer Zeitung oder eine abendliche Nachrichtensendung – zu gestalten, stellen soziale Medien ihren Nutzerinnen und Nutzern personalisierte Informationsumgebungen zur Verfügung. Diese beruhen zum Teil auf den eigenen Entscheidungen, bestimmten Accounts zu folgen, bestimmte Kanäle zu abonnieren o.ä.. Doch der Großteil der Personalisierung geschieht mittels algorithmischer Auswahl, die aus der unüberschaubaren Vielfalt von Inhalten augenblicklich und ständig aktualisiert einen kleinen Teil vorschlägt. Dazu beziehen die Kuratierungs- und Empfehlungssysteme auch zahlreiche Informationen über mich, mein Kontakt- und Interessensnetzwerk sowie mein früheres Verhalten auf der Plattform ein. Weil sowohl auf der Inhalts- als auch auf der Nutzendenseite diese Datenmengen unüberschaubar groß sind, lässt sich dies nur automatisiert leisten.

Entsprechende Algorithmen waren anfangs noch regelbasiert und haben z.B. Inhalte priorisiert, die aus dem eigenen Kontaktnetzwerk kamen und dort bereits Resonanz in Form von Likes oder Kommentaren erhalten hatten. Mittlerweile setzen die Plattformen aber auch Verfahren des maschinellen Lernens ein, die aus den großen Datenmengen selbstständig und unvorhergesehen Muster extrahieren, die erfolgreiche von weniger erfolgreichen Empfehlungen unterscheiden. Für die Nutzerinnen und Nutzer verspricht die Personalisierung von Empfehlungen eine größere Zufriedenheit und Relevanz – man soll vor allem solche Inhalte sehen, die einen tatsächlich interessieren und auf die man ggfs. auch reagiert. Für die Plattformbetreiber steckt dahinter die ökonomisch motivierte Strategie, die Verweildauer der Nutzenden zu erhöhen. Denn dies bietet zum einen mehr Gelegenheiten, den Nutzenden auch (ebenfalls personalisiert zugeschnittene) Werbung anzuzeigen und daraus Profit zu ziehen. Zum anderen entstehen bei längerer Verweildauer wiederum mehr Datenspuren, die sich in die algorithmischen Systeme einspeisen und finanziell verwerten lassen.

Diese Entwicklung ist nicht unproblematisch. Abgesehen von der berechtigten Sorge über den Verlust der Interner Link: informationellen Selbstbestimmung, die manche Menschen angesichts der vollständigen „Datafizierung“ ihrer Internet-Nutzung verspüren, können algorithmische Kuratierungssysteme unter Umständen auch dazu führen, dass die prinzipiell mögliche Vielfalt von Inhalten eingeschränkt wird: Empfehlungen, die sich ausschließlich auf meine frühere Nutzung und die darin zum Ausdruck kommenden Interessen stützen, werden mir tendenziell auch nur „mehr vom Gleichen“ vorschlagen und mir andere Inhalte, Sichtweisen oder Meinungen, die mich möglicherweise auch interessieren vorenthalten. Zwar Interner Link: deuten viele Studien mittlerweile darauf hin, dass soziale Medien keine komplett abgeschotteten „Filterblasen“ schaffen. Dennoch bleiben die Mechanismen der algorithmischen Auswahl und Empfehlungen größtenteils intransparent. Mit der Abkehr von regelbasierten Empfehlungssystemen zu solchen, die auf maschinellem Lernen basieren, lässt sich noch weniger rekonstruieren, warum bestimmte Inhalte empfohlen wurden. Denn selbst die Plattformbetreiber können die KI-basierten Entscheidungen bzw. die zugrundeliegenden, unüberwacht ermittelten Parameter und Kategorien nicht mehr direkt einsehen.

Moderation von Inhalten

Der zweite wesentliche Einsatzbereich für automatisierte Verfahren in sozialen Medien ist die „Content Moderation“, also das Überprüfen von Inhalten, ob sie den auf einer Plattform geltenden Regeln entsprechen oder nicht. Hier lassen sich wiederum zwei Varianten unterscheiden: Zum ersten prüfen soziale Medien, ob geteilte Inhalte oder Kommunikation gegen Plattformregeln oder gar gegen Gesetze verstoßen. Dies ist etwa bei Beleidigungen oder Beschimpfungen der Fall; sogenannte „Hate Speech“ oder Hassrede ist auf den meisten Plattformen auch dann untersagt, wenn sie noch nicht rechtlich unter Strafe steht. Ein anderes Beispiel sind Interner Link: Desinformationen, also falsche oder aus dem Kontext gerissene Inhalte, die mit bewusster Täuschungsabsicht kommuniziert werden. Dieses Phänomen ist nicht neu und war schon lange vor dem Internet Bestandteil von Propaganda-Strategien. Aber die Dynamik der Informationsverbreitung in sozialen Medien im Zusammenspiel mit den ständig fortschreitenden Möglichkeiten, realistisch wirkende audio-visuelle Inhalte automatisch zu generieren, erschwert es den Nutzenden, authentische von unauthentischen, desinformierenden Inhalten zu unterscheiden.

Die Moderation auf sozialen Medien geschieht daher meist im Zusammenspiel von menschlicher und automatisierter Prüfung, bei der die algorithmischen Systeme die Kommunikation auf einer Plattform scannen und potenziell problematische Inhalte „flaggen“, also kennzeichnen und dann der menschlichen Prüfung vorlegen. Während anfangs diese algorithmische Prüfung anhand von Listen nicht zulässiger Begriffe ablief, werden seit einigen Jahren Verfahren des maschinellen Lernens eingesetzt: Die Prüfsysteme werden anhand von großen Datensätzen mit klar markierten zulässigen oder unzulässigen Inhalten trainiert, um daraufhin auch bislang unbekannte Inhalte auf ihre Zulässigkeit überprüfen zu können. Zum Zweiten nutzen soziale Medien automatisierte Verfahren zur Durchsetzung von Urheberrechten, also zur Identifizierung von Copyright-geschützten Material. Vorreiter in diesem Bereich war YouTube, die seit 2007 das (seitdem kontinuierlich weiterentwickelte) ContentID-Verfahren einsetzen, um bereits beim Hochladen eines Videos auf der Plattform automatisiert zu prüfen, ob es urheberrechtlich geschützte Inhalte enthält. Dazu wird die „Tonspur“, also der Audioinhalt des Videos, mit einer umfangreichen Datenbank abgeglichen, in die Plattenfirmen wie auch Künstlerinnen und Künstler ihre Stücke abgelegt haben. Enthält ein Video solche Inhalte oder auch nur Bestandteile davon, kann – je nach Wünschen der Rechteinhaber – das Video z.B. direkt gesperrt werden oder die Rechteinhaber werden an der Monetarisierung des Videos beteiligt.

Auch automatisierte Moderation birgt Probleme, insbesondere die Gefahr des „Overblocking“. Damit sind Fälle gemeint, in denen die algorithmische Prüfung eigentlich zulässige Inhalte in ihrer Sichtbarkeit einschränkt, also löscht oder für andere Nutzende nicht mehr anzeigt, obwohl sie eigentlich zulässig wären. TikTok beispielsweise unterdrückt systematisch Kommentare, die Begriffe wie „LGBTQI“ oder „Cannabis“ enthalten („Interner Link: Shadowbanning“). Und auch im Urheberrecht gibt es durchaus Ausnahmen, die die Verwendung von eigentlich geschützten Inhalten erlauben, z.B. im Sinne von Zitaten oder für kommentierend-einordnende Zwecke. Automatisierte Moderation kann aber diese Kontextinformationen nur sehr schwer einbeziehen, genauso wie die algorithmische Prüfung sich schwertut, nuancierte Äußerungen einzuschätzen und bspw. zu erkennen, wann eine Äußerung ernst gemeint war und wann sie in satirischer Absicht getätigt wurde. Wenn aber automatisierte Moderation in solchen Fällen zu restriktiv ist, greift sie in das Recht auf freie Meinungsäußerung der Menschen ein und unterdrückt Kommunikation, die – selbst wenn das bei manchen politischen Äußerungen schwer zu ertragen ist – in einer freien Gesellschaft gesagt werden darf.

Fazit

Soziale Medien sind zu Eckpfeilern unserer Öffentlichkeit geworden. Sie versprechen Teilhabe, Partizipationsmöglichkeiten und vielfältige Meinungsbildung, beruhen aber zugleich in verschiedener Hinsicht auf Verfahren der automatisierten Überwachung und Kontrolle unserer Aktivitäten. Diese dienen aus Sicht der Betreiber sozialer Medien dem doppelten Zweck, durch möglichst ansprechend kuratierte Informationen die Verweildauer der Nutzerinnen und Nutzer zu erhöhen, was auch die Erlösmöglichkeiten steigert, und problematische Kommunikation zu identifizieren und einzuhegen. Beides, Kuratieren und Moderieren, wäre angesichts der Größe und Dynamik von sozialen Medien von Menschen alleine nicht zu leisten.

Der Einsatz von automatisierten Verfahren setzt allerdings voraus, dass die Plattformen auf große Datenmengen und avancierte Technologien zurückgreifen können. In den letzten Jahren haben die dominanten Plattformen bzw. die hinter ihnen stehenden Konzerne wie Meta (Facebook, Instagram, WhatsApp) oder Alphabet (Google, YouTube) davon profitiert, dass sie in ihren eigenen Forschungsabteilungen oder durch Zukäufe spezialisierter Unternehmen ihr KnowHow in Sachen künstlicher Intelligenz beständig ausbauen konnten. Dies droht nicht nur ihre ohnehin herausgehobene Marktmacht zu zementieren. Auch für das Ideal einer demokratischen Gesellschaft ist es problematisch, wenn zentrale Infrastrukturen und Technologien für ihre Öffentlichkeit von einigen wenigen profitorientierten Unternehmen kontrolliert werden, die dem Gemeinwohl nicht verpflichtet sind .

Weitere Inhalte

Jan-Hinrik Schmidt ist Senior Researcher für digitale interaktive Medien und politische Kommunikation am Leibniz-Institut für Medienforschung|Hans-Bredow-Institut (HBI). Zudem leitet er den am HBI angesiedelten Teilbereich des „Forschungsinstitut Gesellschaftlicher Zusammenhalt“ (FGZ). Seine Arbeitsschwerpunkte liegen auf dem Zusammenhang von Medienwandel und dem Wandel von Öffentlichkeit, Meinungsbildung und gesellschaftlichem Zusammenhalt.