Die Entwicklung von Werkzeugen und Formen der künstlichen Intelligenz ist eng mit sozialen Medien verbunden – und das schon seit 15 Jahren und mehr, also schon vor dem Bedeutungsgewinn generativer KI, die uns derzeit Sorge vor Desinformationen, Deep Fakes o.ä. machen. Soziale Medien ist ein Sammelbegriff für eine Reihe von durchaus unterschiedlichen Angeboten, Portalen und Apps, darunter z.B. Video- und Netzwerkplattformen, Weblogs, Wikis oder Messaging-Dienste. Ihnen ist gemeinsam, dass sie die Hürden senken, um Inhalte und Informationen aller Art im Internet zu teilen, sowie davon ausgehend soziale Beziehungen zu knüpfen und zu pflegen. Viele
Kuratieren
Ein erster Einsatzbereich für automatisierte Verfahren in sozialen Medien ist das Kuratieren von Informationen, also das Auswählen, Bündeln und Empfehlen von Inhalten, die auf einer Plattform zur Verfügung stehen. Anders als bei publizistischen Medien, bei denen Journalistinnen und Journalisten in Redaktionen zusammenarbeiten, um bestimmte Produkte – etwa die Ausgabe einer Zeitung oder eine abendliche Nachrichtensendung – zu gestalten, stellen soziale Medien ihren Nutzerinnen und Nutzern personalisierte Informationsumgebungen zur Verfügung. Diese beruhen zum Teil auf den eigenen Entscheidungen, bestimmten Accounts zu folgen, bestimmte Kanäle zu abonnieren o.ä.. Doch der Großteil der Personalisierung geschieht mittels algorithmischer Auswahl, die aus der unüberschaubaren Vielfalt von Inhalten augenblicklich und ständig aktualisiert einen kleinen Teil vorschlägt. Dazu beziehen die Kuratierungs- und Empfehlungssysteme auch zahlreiche Informationen über mich, mein Kontakt- und Interessensnetzwerk sowie mein früheres Verhalten auf der Plattform ein. Weil sowohl auf der Inhalts- als auch auf der Nutzendenseite diese Datenmengen unüberschaubar groß sind, lässt sich dies nur automatisiert leisten.
Entsprechende Algorithmen waren anfangs noch regelbasiert und haben z.B. Inhalte priorisiert, die aus dem eigenen Kontaktnetzwerk kamen und dort bereits Resonanz in Form von Likes oder Kommentaren erhalten hatten. Mittlerweile setzen die Plattformen aber auch Verfahren des maschinellen Lernens ein, die aus den großen Datenmengen selbstständig und unvorhergesehen Muster extrahieren, die erfolgreiche von weniger erfolgreichen Empfehlungen unterscheiden. Für die Nutzerinnen und Nutzer verspricht die Personalisierung von Empfehlungen eine größere Zufriedenheit und Relevanz – man soll vor allem solche Inhalte sehen, die einen tatsächlich interessieren und auf die man ggfs. auch reagiert. Für die Plattformbetreiber steckt dahinter die ökonomisch motivierte Strategie, die Verweildauer der Nutzenden zu erhöhen. Denn dies bietet zum einen mehr Gelegenheiten, den Nutzenden auch (ebenfalls personalisiert zugeschnittene) Werbung anzuzeigen und daraus Profit zu ziehen. Zum anderen entstehen bei längerer Verweildauer wiederum mehr Datenspuren, die sich in die algorithmischen Systeme einspeisen und finanziell verwerten lassen.
Diese Entwicklung ist nicht unproblematisch. Abgesehen von der berechtigten Sorge über den Verlust der
Moderation von Inhalten
Der zweite wesentliche Einsatzbereich für automatisierte Verfahren in sozialen Medien ist die „Content Moderation“, also das Überprüfen von Inhalten, ob sie den auf einer Plattform geltenden Regeln entsprechen oder nicht. Hier lassen sich wiederum zwei Varianten unterscheiden: Zum ersten prüfen soziale Medien, ob geteilte Inhalte oder Kommunikation gegen Plattformregeln oder gar gegen Gesetze verstoßen. Dies ist etwa bei Beleidigungen oder Beschimpfungen der Fall; sogenannte „Hate Speech“ oder Hassrede ist auf den meisten Plattformen auch dann untersagt, wenn sie noch nicht rechtlich unter Strafe steht. Ein anderes Beispiel sind
Die Moderation auf sozialen Medien geschieht daher meist im Zusammenspiel von menschlicher und automatisierter Prüfung, bei der die algorithmischen Systeme die Kommunikation auf einer Plattform scannen und potenziell problematische Inhalte „flaggen“, also kennzeichnen und dann der menschlichen Prüfung
Auch automatisierte Moderation birgt Probleme, insbesondere die Gefahr des „Overblocking“. Damit sind Fälle gemeint, in denen die algorithmische Prüfung eigentlich zulässige Inhalte in ihrer Sichtbarkeit einschränkt, also löscht oder für andere Nutzende nicht mehr anzeigt, obwohl sie eigentlich zulässig wären. TikTok beispielsweise unterdrückt systematisch Kommentare, die Begriffe wie „LGBTQI“ oder „Cannabis“ enthalten („
Fazit
Soziale Medien sind zu Eckpfeilern unserer Öffentlichkeit geworden. Sie versprechen Teilhabe, Partizipationsmöglichkeiten und vielfältige Meinungsbildung, beruhen aber zugleich in verschiedener Hinsicht auf Verfahren der automatisierten Überwachung und Kontrolle unserer Aktivitäten. Diese dienen aus Sicht der Betreiber sozialer Medien dem doppelten Zweck, durch möglichst ansprechend kuratierte Informationen die Verweildauer der Nutzerinnen und Nutzer zu erhöhen, was auch die Erlösmöglichkeiten steigert, und problematische Kommunikation zu identifizieren und einzuhegen. Beides, Kuratieren und Moderieren, wäre angesichts der Größe und Dynamik von sozialen Medien von Menschen alleine nicht zu leisten.
Der Einsatz von automatisierten Verfahren setzt allerdings voraus, dass die Plattformen auf große Datenmengen und avancierte Technologien zurückgreifen können. In den letzten Jahren haben die dominanten Plattformen bzw. die hinter ihnen stehenden Konzerne wie Meta (Facebook, Instagram, WhatsApp) oder Alphabet (Google, YouTube) davon profitiert, dass sie in ihren eigenen Forschungsabteilungen oder durch Zukäufe spezialisierter Unternehmen ihr KnowHow in Sachen künstlicher Intelligenz beständig ausbauen konnten. Dies droht nicht nur ihre ohnehin herausgehobene Marktmacht zu zementieren. Auch für das Ideal einer demokratischen Gesellschaft ist es problematisch, wenn zentrale Infrastrukturen und Technologien für ihre Öffentlichkeit von einigen wenigen profitorientierten Unternehmen kontrolliert werden, die dem Gemeinwohl nicht verpflichtet sind .