Meine Merkliste Geteilte Merkliste PDF oder EPUB erstellen

„Wir müssen uns als Gesellschaft an Manipulation gewöhnen“ | Facts and Contexts Matter | bpb.de

„Wir müssen uns als Gesellschaft an Manipulation gewöhnen“ Konferenzrückblick

Marion Bacher

/ 8 Minuten zu lesen

Im Oktober 2023 trafen sich zwölf Expert*innen aus Ostasien und Europa, um sich über den wirksamen Umgang mit Fehlinformationen und Hassrede im Netz auszutauschen. Dabei stellten sie auch innovative Lösungsansätze aus ihren Regionen vor.

Illustration: Yukari Mishima. (© bpb / Goethe-Institut)

Während die Verbreitung von Fehlinformationen und Verschwörungserzählungen immer schon Bestandteil von Gesellschaften war, hat das Aufkommen des Internets und der Aufstieg sozialer Medien die Art und Weise, wie Nachrichten verbreitet und konsumiert werden, fundamental verändert. Gegenwärtige Entwicklungen im Bereich der generativen Künstlichen Intelligenz, und nutzungsfreundliche Tools für die eigene Medienproduktion haben die Geschwindigkeit, mit der Informationen verbreitet werden, zusätzlich beschleunigt. In vielen Gesellschaften haben Gerüchte, Falschinformationen und das Aufstacheln zu Hass gesellschaftliche Spaltungen vertieft und zu zunehmender Polarisierung geführt.

Um diese Dynamiken besser zu verstehen und herauszuarbeiten, wie Interventionen im Umgang mit Fehlinformation und Hassrede aussehen, haben das Goethe-Institut und die Bundeszentrale für politische Bildung am 28. Oktober 2023 die Onlinekonferenz „Facts & Contexts Matter: Medienkompetenz in Ostasien und Europa“ organisiert. Dabei diskutierten Expert*innen aus Korea, Japan, Taiwan und Deutschland wie die Zivilgesellschaft, Journalist*innen und Regulierapparate mit dem Phänomenbereich in ihren Regionen umgehen.

Dynamiken der Fehl- und Desinformation in Ostasien und Europa

In den letzten Jahren ist das Interesse die „Bedrohung“ durch Fehl- und Desinformationen zu erforschen, weltweit gewachsen. In dem Auftaktgespräch waren sich Masato Kajimoto, Universität Hongkong, und Jeanette Hofmann, Freie Universität Berlin, einig, dass die tatsächliche Bedrohung durch Fehl- und Desinformation zum Teil übertrieben dargestellt wird und ihr die empirische Grundlage fehlt. „Wir gehen oft davon aus, dass Fehlinformationen ein Problem der Internetplattformen sind, obwohl viele der falschen und irreführenden Informationen von oben nach unten fließen – ausgehend von der politischen Elite“, sagte Hofmann und Kajimoto fügte hinzu: „Fehlinformationen sind eher ein Symptom von Polarisierung, Ungleichheit, Hass, Misstrauen und anderen Problemen – nicht die Ursache.“

Es sei schwierig, die direkte Auswirkung von Fehl- und Desinformationen auf das Wahlverhalten oder auf Hassverbrechen empirisch zu belegen. Wichtig war beiden Expert*innen jedoch zu betonen, welchen Einfluss die Gruppenidentität auf das Teilen von irreführenden Informationen hat: „Man teilt Informationen, um zu zeigen, zu welcher politischen Gruppe man gehört, und nicht unbedingt, weil man sie glaubt“, sagte Hofmann. „Wenn jeder sich des Herdenverhaltens bewusst wäre, könnte die Situation besser sein. Wir sollten auch das Wissen über den Einfluss von Gruppenidentitäten weitergeben und uns nicht nur auf eine kurze, technologiezentrierte Wissensvermittlung konzentrieren,“ sagt Kajimoto, der die Vermittlung von Medienkompetenz befürwortet, die über das Hinterfragen und Prüfen der Fakten hinausgeht. „Wir sollten uns darauf fokussieren, glaubwürdige und qualitativ hochwertige Inhalte zu identifizieren und zu schaffen.“ Genau das versucht der Journalismus-Professor mit dem südostasiatischen Medienkompetenznetzwerk Asian Network of News and Information Educators (ANNIE) und der von seinen Studierenden geleiteten Nachrichtenredaktion Annie Lab seit 2019 umzusetzen.

Während Hofmann betonte, dass qualitativ hochwertige Medieninhalte zu den besten und wichtigsten Mitteln gehören, um Fehl- und Desinformation zu bekämpfen, wies Kajimoto auf den Mangel an nicht-englischsprachigen, qualitativ hochwertigen Informationen hin. Das könne besonders in Zeiten einer weltweiten Pandemie problematisch sein. Wo qualitativ hochwertige Informationen fehlen, hätten Gerüchte mehr Platz, sich zu verbreiten.

Dynamics of mis- and disinformation in East Asia and Europe

Inhalt

Dynamics of mis- and disinformation in East Asia and Europe

Jeanette Hofmann, Freie Universität Berlin, und Masato Kajimoto, Universität Hongkong, diskutierten im Auftaktgespräch der Konferenz über die Verbreitung von Fehl- und Desinformation in Europa und Asien.

Wie verändert generative KI Informationsumgebungen und Maßnahmen zur Förderung von Medienkompetenz?

Modelle der Künstlichen Intelligenz spiegeln die Vorschriften und ethischen Standards der Orte wider, an denen die Systeme erdacht werden: „Derzeit entsprechen unsere KI-Modelle zum Großteil den Anforderungen von US-amerikanischen Unternehmen“, sagte Antonio Krüger, CEO und wissenschaftlicher Direktor des Deutschen Forschungszentrum für Künstliche Intelligenz (German Research Center for Artificial Intelligence), „und chinesische Modelle erfüllen die Anforderungen der chinesischen Regulierungsbehörde.“

Krüger sprach in seinem Kurzvortrag über die Macht von generativer KI und über Möglichkeiten Informationen eindeutiger zu gestalten, zum Beispiel indem Wasserzeichen in Fotos und Videos eingefügt werden, damit zwischen menschlichen und künstlich generierten Inhalten leichter unterschieden werden kann. Die anderen Diskussionsteilnehmer*innen stellten lokale Anwendungen mit generativer KI vor. Der in Südkorea beliebte Chatbot Iruda, der für die Verbreitung von Hassrede nach seinem Launch im Dezember 2020 stark kritisiert worden war, wurde durch die Einführung eines generativen KI-Modells „gezähmt“. „Die erste Version von Iruda wurde mit 100 Millionen wiederhergestellten Chats des „Science of Love Service“ (einer Plattform für Beziehungstipps) trainiert. Ihre Hassrede stammte aus Chatverläufen von Menschen“, erzählte Sungook Hong, Seoul National University. Er untersuchte, wie Iruda sich verändert hat und erklärte, wie das Tech-Start-up Scatter Lab, in Zusammenarbeit mit dem ICT Policy Institute und den User*innen von Iruda ethische Prinzipien aufgestellt hat.

Nutzen Sie künstliche Netzwerke, um die neuronalen Netzwerke der Menschen anzuregen – das war die Botschaft von Isabel Hou, der Generalsekretärin der Non-Profit-Organisation Taiwan AI Academy, die das Ziel verfolgt, Interessenvertreter*innen aus der Industrie über Trends der KI-Technologie weiterzubilden. In ihrer Rede stellte sie den Chatbot Cofacts vor, dem Nutzer*innen irreführende Inhalte schicken können und der wiederum die Inhalte auf seinen Wahrheitsgehalt überprüft. Er greift unter anderem auf eine Datenbank zurück, die von aktiven User*innen durch Crowdsourcing zusammengetragen wurden. Hou betonte, dass generative KI allein noch keine Wunderwaffe sei: „Ermöglichen Sie den Leser*innen, ihre digitale Kompetenz zu stärken, damit sie ihre eigenen Entscheidungen treffen können.“ Krüger fügte hinzu: „Wir müssen uns als Gesellschaft an Manipulation gewöhnen – und neue Tools lernen.“ Tools, die von einem breiten Spektrum von Interessenvertreter*innen in ihrer Gestaltung beeinflusst werden.

How does generative AI change information environments and media literacy interventions?

Inhalt

How does generative AI change information environments and media literacy interventions?

Im zweiten Panel ging es um die Herausforderungen von generativer KI. Neben der Beschreibung bestehender Trends stellten die Expert*innen lokale Anwendungen vor - wie den koreanischen Chatbot Iruda und das taiwanesische Chatbot-Projekt Cofacts.

Politik und Ideologie: Plattformregulierung in Ostasien und Europa

Am 25. August 2023 trat das EU-Gesetz über digitale Dienste (Digital Services Act, DSA) offiziell in Kraft. Tech-Riesen wie Google, Meta oder Amazon müssen nun für die Inhalte, die auf ihren Plattformen gepostet werden, höhere Standards für die Rechenschaftspflicht erfüllen und ihren Nutzer*innen Feedback-Optionen bieten, mit denen sie problematische Inhalte melden können. Mauritius Dorn vom Thinktank Institute of Strategic Dialogue erklärte, wie der DSA funktioniert und erzählte von der Genese des Gesetzes, das einen besseren Schutz im Internet gewährleisten soll. Er sprach auch über problematische Bereiche: „Wir müssen uns bewusst machen, auf welche Elemente der Cyber-Diplomatie wir uns als Europäische Union konzentrieren.“ Jeanette Hofmann, Freie Universität Berlin, die diese Runde moderierte, ergänzte: „Das Problem ist, dass die Nationalstaaten selber definieren können, welche Inhalte illegal sind, und damit auch, welche Inhalte von den Plattformen entfernt werden müssen.“ Das ist besonders kritisch in Staaten, wo die Gerichte nicht unabhängig sind. Der DSA könnte sich in EU-Staaten, die das Recht auf freie Meinungsäußerung einschränken wollen, als starkes Machtinstrument erweisen.

Talking politics - State regulations and ideologies

Inhalt

Talking politics - State regulations and ideologies

Während Europa mit dem DSA große Plattformen stärker regulieren möchte, setzt Japan u.a. auf die Arbeit von Nichtregierungsorganisationen bei der Bekämpfung von Fehl- und Falschinformationen. Matthias Dorn, ISD, und Daisuke Furuta, JFC, erläuterten im dritten Panel warum und welche Vor- und Nachteile (Nicht-)Regulierung mit sich bringen.

Für Daisuke Furuta, Chefredakteur des Japan FactCheck Center könnte das einer der Gründe sein, warum die japanische Regierung keine Regulierung von Plattformen anstrebt. „In Japan hat der Arbeitskreis für Online-Dienste des Ministeriums für Innere Angelegenheiten und Kommunikation dem Privatsektor empfohlen, Fehlinformationen zu bekämpfen, statt sie mit Gesetzen zu regulieren.“ Auch sollen Organisationen mit einer „neutralen Führungsstruktur“ gestärkt werden. „Natürlich kommen private Faktencheck-Organisationen nicht alleine gegen große Technologie-Plattformen an“, bemerkte Furuta und erwähnte, dass ein gewisser Grad an Regulierung notwendig sei. „Allerdings ist das für unsere jetzige Regierung keine Priorität.“ Insgesamt scheint Japan von Fehl- und Desinformation weniger betroffen zu sein als zum Beispiel sein Nachbar Taiwan, wo Furutas Fact Check Center enge Verbindungen mit Organisationen hat, die ähnliche Ziele verfolgen: „Die meisten Faktencheck-Tools stammen aus westlichen Ländern, aber uns fehlen chinesischsprachige Tools. Taiwan steht an der Spitze derer, die an ihrer Entwicklung arbeiten.“ Er findet, es werde mehr Wissen über „nichtwestliche“ Plattformen wie dem chinesischen Microblogging-Dienst Weibo oder die japanische Instant Messaging App LINE benötigt, damit Fehlinformationen oder Hassrede besser bekämpft werden können.

Ein Blick in vier Länder: Wie umgehen mit Fehlinformationen und Hassrede?

(© bpb / Goethe-Institut) (© bpb / Goethe-Institut) (© bpb / Goethe-Institut) (© bpb / Goethe-Institut)

Globale Perspektiven für kollektive Lösungen

Die letzte Diskussionsrunde, in der es besonders um den Zusammenhang zwischen Fehlinformation und Hassrede ging, begann mit der Frage nach der Definition. Was ist Hassrede eigentlich? „In Deutschland prägt die im Grundgesetz verankerte Bedeutung der menschlichen Würde unseren Umgang mit Hassrede“, sagte Mauritius Dorn, ISD. „In Südkorea liegt der Schwerpunkt der Definition auf Diskriminierung. Hassrede bedeutet, dass Menschen von der Mainstream-Gesellschaft ausgeschlossen werden“, fügte Sookeung Jung, Vorsitzende der Medienbeobachtungsstelle Citizen Coalition for Democratic Media (CCDM), hinzu. Isabel Hou, Taiwan AI Academy, hat den Eindruck, dass in Taiwan ein starker Fokus auf Desinformation liegt, der wiederum mit Hassrede in Verbindung gebracht werden kann – allerdings definieren die Gerichte, was Hassrede ist. Masato Kajimoto, Universität Hongkong, wies auf das Problem hin, dass die Gerichte in einigen asiatischen Ländern politisiert sind, und Dorn ergänzte, dass die Plattformen einen großen Spielraum für die Gestaltung ihrer Produkte und ihrer Unternehmenspolitik haben, weshalb es mehr Transparenz bei den Moderationsrichtlinien und dem Empfehlungssystem durch Algorithmen braucht. Der DSA versucht, diese Bemühungen zu unterstützen.

Navigating misinformation & online hate speech

Inhalt

Navigating misinformation & online hate speech

Im Abschlusspanel tauschten sich die Expert*innen vor allem über die Verknüpfung von Fehlinformation und Hass aus und diskutierten Lösungsansätze.

Die Diskussionsteilnehmer*innen waren sich einig, dass man für die Bekämpfung von Hassrede eine ganzheitliche Herangehensweise benötigt. „Gesetze reichen nicht aus. Es braucht Verhaltensregeln, die direkt verbieten, dass Hassrede formuliert wird, zum Beispiel in Klassenzimmern. Interaktionsräume im Netz müssen auch so verändert werden, dass es schwerer wird, Hassrede zu verbreiten“, sagte Jung. Kajimoto skizzierte verschiedene Methoden, mit denen Lehrkräfte dieses Problem ansprechen. Manche gehen nur auf das ein, was gesagt wurde. Andere wählen einen umfassenderen Ansatz: „Beschäftigen wir uns mit der Geschichte, mit der Psychologie des Hasses, lasst uns dessen nachgehen, warum wir uns hassen.“ Die Diskussionsteilnehmer*innen merkten an, dass sich die Vermittlung von Medienkompetenz an alle Altersgruppen richten sollte. Lösungsansätze zur Bekämpfung von Hassrede erfordern Vernetzung und das Engagement der ganzen Gesellschaft. Für Dorn geht es auch darum, „Demokratien zu erneuern“ – durch neue Tools und (digitale) Räume im öffentlichen Interesse: „Wir durchleben gegenwärtig eine Vielzahl von Krisen. Darum brauchen wir Räume, in denen Menschen faktenbasierte Informationen über den Einfluss von Problemen auf ihr Leben erhalten und Fragen stellen können, ohne dass es gleich Hass und Unruhe gibt.“

Alles in allem zeigte die Konferenz, dass ostasiatische und europäische Länder im Umgang mit Fehlinformationen mehr gemeinsam haben als vielleicht anfänglich vermutet.

Interner Link: Konferenzprogramm und Speaker*innen im PDF-Format

Fussnoten

Weitere Inhalte

Projektleitung „Facts & Contexts Matter“, Goethe-Institut Korea / E-Mail Link: Bundeszentrale für politische Bildung