- Interner Link: 00:00 – Einstieg – die Facebook Leaks
- Interner Link: 01:55 – Um was geht es in Folge 5?
- Interner Link: 02:42 – Gekaufte Influencerinnen und Influencer
- Interner Link: 13:26 – Das Problem an den Plattformen und die Logik dahinter
- Interner Link: 20:14 – Was tut Facebook gegen Desinformation?
- Interner Link: 24:00 – Die Whistleblowerin Sophie Zhang
- Interner Link: 31:22 – Youtubes Algorithmen sind eine Black Box
- Interner Link: 38:45 – Amazon als Desinformationsverbreiter – ein blinder Fleck
- Interner Link: 41:04 – Strategien gegen Falschinformationen auf Plattformen – der Digital Services Act
- Interner Link: 44:35 – Ausblick
Jetzt auch anhören bei Externer Link: Apple Podcasts, Externer Link: Amazon Music, Externer Link: Deezer, Externer Link: Spotify und bei Externer Link: YouTube.
Transkript "Netz aus Lügen – Die Netzwerke (5/7)
ZSP Haugen
"Good afternoon, Chairman Blumenthal, ranking member Blackburn and members of the subcommittee”
Vor ein paar Wochen bei einer Anhörung im US-Kongress. Die Whistleblowerin Frances Haugen wird befragt. Sie war mehrere Jahre lang bei Facebook - jetzt hat sie mit ihren Enthüllungen, die im Wall Street Journal veröffentlicht wurden, eine neue Reihe an Skandalen für ihr ehemaliges Unternehmen ausgelöst.
ZSP Haugen
"Ich bin zu Facebook gegangen, weil ich davon überzeugt bin, dass Facebook das Potential hat, das Beste in uns hervorzubringen. Aber heute bin ich hier, weil ich glaube, dass die Produkte von Facebook Kindern schaden, soziale Spaltung fördern und unsere Demokratie schwächen. Die Firmenleitung weiß genau, wie man Facebook und Instagram sicherer macht, aber sie wird nichts Notwendiges ändern, weil sie die astronomischen Profite über die Menschen stellt." Ihre Enthüllungen treffen auf offene Ohren. Seit Jahren gibt es Bestrebungen - sowohl in den USA als auch Europa, Asien und Australien - die Macht der Internetgiganten und vor allem der sozialen Netzwerke zu verkleinern. Aber bisher vergrößern diese ihre Macht immer weiter.
ZSP Haugen
"Das Ergebnis: Mehr soziale Spaltung, mehr Schaden, mehr Lügen, mehr Drohungen und mehr Streit. In manchen Fällen führt der Dialog online zu echter Gewalt, die sogar Menschen tötet."
Jingle
Netz aus Lügen – Die globale Macht von Desinformation – ein Podcast der Bundeszentrale für politische Bildung. Folge 5 – Die Netzwerke
[01:55] Hallo, mein Name ist Ann-Kathrin Büüsker und ihr hört "Netz aus Lügen”.
Wichtig, bei uns bauen alle Folgen aufeinander auf - wenn ihr also die letzten Folgen noch nicht gehört habt, drückt kurz auf Stopp und hört sie. Denn wir machen nahtlos weiter. Und wenn ihr schon dabei seid, abonniert doch den Kanal.
In den letzten Folgen gab es einen Elefanten im Raum, über den wir noch nicht ausführlich gesprochen haben. Und zwar: die Internet-Plattformen. Also Facebook, Instagram, Whatsapp, Google, Twitter, Telegram, Youtube usw.
Denen wollen wir uns heute in aller Ausführlichkeit widmen. Wir wollen klären: Wie groß ist der Einfluss von sozialen Netzwerken wirklich? Was machen sie mit uns als Gesellschaft? Ist der Einfluss überhaupt messbar? Und welche Möglichkeiten gibt es, etwas gegen Desinformation auf den Plattformen zu unternehmen?
Bevor wir in die modrigen Gewässer unserer Newsfeeds und Timelines hinabsteigen, wollen wir uns aber eine Geschichte genauer ansehen. Sie erklärt uns, welche Rolle Social Media inzwischen auch für staatliche Desinformation spielt. Und sie beginnt mit einer E-Mail.
ZSP Drotschmann
"Ich saß da ganz entspannt auf der Couch und hab nochmal meine Mails gecheckt und dann kam diese Nachricht und zuerst hätte sie fast gelöscht, es war eine englischsprachige Nachricht, kam mir vor wie Spam."
Das ist Mirko Drotschmann. Wissenschaftsjournalist, Youtuber und ZDF-Moderator. Viele kennen ihn vielleicht als MrWissen2Go. Unter diesem Namen hat Drotschmann einen Youtube-Kanal mit mehr als 1,6 Millionen Abonnenten und Abonnentinnen. Er ist Influencer. Und als solcher bekommt er öfter mal Anfragen, ob er nicht dieses oder jenes Produkt bewerben will.
ZSP Drotschmann
"Man bekommt öfter mal so Nachrichten oder ich bekomme öfter mal so Nachrichten von irgendwelchen Agenturen, die schreiben Willst du mit uns zusammenarbeiten und sind oft an Agenturen irgendwo im Ausland sitzen und sich meinen Kanal überhaupt nicht angeguckt haben? Generell mache ich keine Kooperation, weil mein Kanal öffentlich rechtlich ist. Ich darf das nicht. Ich würde es aber auch generell nicht machen auf einem Kanal. Naja, und dann hätte ich diese Mail fast gelöscht, hab aber dann doch noch mal kurz reingeguckt und da bin ich dann schon echt schockiert gewesen, dass man mit der Tür ins Haus fällt, dass da direkt drin steht Ja, wir hätten gerne, dass du in einer Informationskampagne, so haben sie es genannt, teilnimmst und Informationen verbreitest zu Todesfällen mit Biontech-Pfizer Impfstoff. Das fand ich total seltsam und hab mir das dann genauer angeguckt."
Dass Mirko Drotschmann, ein wirklich erfahrener Youtuber so schockiert ist, liegt an mehreren Dingen. Erst einmal fällt eine Agentur meistens nicht einfach so mit der Nachricht ins Haus. Oft wird erst einmal nachgefragt, ob man überhaupt an einer Kooperation interessiert sei, bevor klar wird, um was es geht.
Und dann ist da natürlich noch das, was in sonst keiner Influencer-Mail steht: Drotschmann wird Geld dafür geboten, dass er vermeintlich neue Erkenntnisse im Bezug auf den Biontech-Impfstoff in die Welt bringt.
ZSP Drotschmann
"Was die Mail unterschieden hat, ist, dass es um den politischen Inhalt geht, dass es nicht um ein Produkt ging oder ja, mehr oder weniger politischen Inhalt und dass es darum ging, Desinformationen zu verbreiten. Also nicht um eine Dienstleistung oder ein Produkt, sondern um um Information. Und das hatte ich so in der Form noch nie, vor allem nicht von der Agentur. Und das hat mich dann schon hellhörig gemacht. Vor allem wurde ich hellhörig, als ich mir mal die Webseite der Agentur angeschaut habe. In der ersten Mail war ein Link mit drin zu einer Reddit Seite, die ein Artikel enthalten hat oder eine Tabelle enthalten hat, die angeblich beweisen sollte, dass bei Biontech/Pfizer- Impfungen besonders viele Menschen sterben. Der kleine erklärende Text dazu war aber mitten im Satz abgeschnitten. Also wirklich brauchbar war das nicht über und trotzdem, dass man diesen Link verbreitet."
Für Drotschmann ist sofort klar: Hier stimmt etwas nicht. Und gleich ploppt auch noch eine andere Frage auf: Wieso sollte man das in Auftrag geben? Wer profitiert davon? Drotschmann will mehr wissen und geht zum Schein auf das Angebot ein.
ZSP Drotschmann
"Und als ich dann zum Schein darauf eingegangen bin, weil ich mehr wissen wollte, habe ich einen Link bekommen zu einer Seite, auf der man ganz genaue Anweisungen bekommen hat, was man zu tun hat. Da wurde dann zum Beispiel gesagt Auf gar keinen Fall sollte man seine Beiträge zu diesem Thema als gesponsert bezeichnen. Man sollte nicht sagen, dass man Geld dafür bekommt, sondern so tun, als wäre es die eigene Meinung, als wäre man selbst darauf gekommen. Man sollte verschiedene Formulierungen verwenden, die das Ganze dann noch mal authentisch machen. Und das wurde auch noch mal der eine oder andere Link zusätzlich geliefert. Es wurden Formulierungen Hilfen gegeben. Also genau das, was man bei einer Influenza Kooperation zu einem Produkt auch bekommt, hat man in diesem Fall bekommen für die Desinformation [00:04:22] und was das Ganze schon von Anfang an unseriös gemacht hat, ist, dass man darum gebeten wurde, nicht zu kennzeichnen, dass es gesponsert wurde, dass das in Deutschland illegal. Man wurde also quasi aufgefordert, etwas Illegales zu machen. Allein das sollte einen schon hellhörig machen."
Wie viel Geld Mirko Drotschmann dafür bekommen hätte, ist leider nicht klar. Denn kurz nachdem die Agentur ihm schreibt, geht ein Wissenschaftsjournalist aus Frankreich an die Presse. Er hat dasselbe Angebot bekommen. Für 2000 Euro soll er die Desinformation über seine Kanäle streuen. Andere haben das Angebot aber angenommen.
Zum Beispiel der Youtuber Ashkar Techy aus Indien.
Auch ein ziemlich beliebter Influencer aus Brasilien geht auf den Deal ein und verbreitet die Nachricht, dass AstraZeneca angeblich viel besser sei als der Impfstoff von Biontech.
Bleibt nur die Frage: Wer steckt dahinter? Wer bezahlt Influencer und Influencerinnen dafür, Desinformation zu verbreiten?
ZSP Drotschmann
"Die Seite sah aus wie Websites von einer typischen Influenza Agentur auf Englisch. Die Firma saß in London, zumindest laut Website, FAS oder FAZ oder wie auch immer man das ausspricht, es weiß kein Mensch. Und was mir aber direkt aufgefallen ist, ist, dass die Mitarbeiter der Firma, die ich zum Beispiel gefunden habe, eigentlich gar nicht in London saßen. Dass sie zum Beispiel in Moskau andere Mitarbeiter auch in Moskau, zum Teil in Polen, Ukraine war, glaube ich, auch noch mit dabei. Also es gab eine Firma, deren Mitarbeiter aber alle nicht an einem Standort der Firma saßen. Ich bin dann zu Google Maps gegangen, habe mir dann die Adresse angeguckt gesehen. Das ist so eine, sondern ziemlich heruntergekommenes Gebäude, in dem eigentlich gar keine Firma drin sein kann. Es gab auch etliche andere Firmen, die auf diese Adresse gemeldet waren. Im britischen Handelsregister war diese Firma gar nicht eingetragen. Also es war alles ziemlich dubios und die Spuren haben dann schnell nach Russland geführt über die Personen, die man identifizieren konnte."
Nachdem die Agentur Fazze - F A Z Z E, die BBC spricht es zumindest Fas aus - mit ihrer Kampagne aufgeflogen ist, wurde es schnell still um sie.
Dass die Spur nach Russland führt, liegt an mehreren Dingen. Da wäre zum einen der Geschäftsführer, der von Moskau aus arbeitet. Auch alle vier im Login-Bereich der mittlerweile gelöschten Website ersichtlichen Kunden sind russisch. Die Mitarbeitenden kommen aus Moskau, der Ukraine und Polen.
Und dann ist da noch etwas: Denn die Influencer und Influencerinnen wurden gebeten auf einen Artikel aus der französischen Tageszeitung Le Monde zu verlinken. Dieser Artikel verwendet seinerseits wiederum Daten, die zum Teil aus einer Hacking-Attacke gegen die europäische Arzneimittelagentur EMA stammen.
Die niederländische Zeitung DeVolkskrant berichtete, dass sowohl chinesische als auch russische Akteure im Netz der Behörde waren. Hier wurden jene Informationen erbeutet, die den Biontech-Impfstoff im schlechten Licht darstellen sollen und dann geleakt wurden.
Dass Staaten auf Social Media setzen, um Desinformation zu verbreiten, das haben wir schon in Folge 1 gehört, als es um die Operation Ghostwriter ging, die aus Russland kommt. Hier wurden Accounts von Politikern und Politikerinnen gehackt, um dort Falschinformationen zu posten.
Aber es gibt noch andere Beispiele: Die New York Times hat eine Reihe von Videos über die chinesische Region Xinjiang und die Situation der dortigen Uiguren und Uigurinnen aufgetan. Damit es nicht zu Autonomiebestrebungen kommt, hat die chinesische Regierung in Xinjiang ein flächendeckendes Überwachungs- und Internierungssystem installiert.
Zeugen und Zeuginnen, investigative Rechercheurinnen und Human Right Watch prangern die Zustände in den Lagern seit Jahren an, sprechen von Verbrechen gegen die Menschlichkeit, Folter und sexualisierter Gewalt.
Und die Videos zeigen: In beinahe identischen Worten erzählen die Menschen von ihrem überaus schönen Leben in Xinjiang. Und obwohl die meisten großen Social-Media-Webseiten in China nicht verfügbar sind, fanden die Videos doch ihren Weg auf Twitter und Youtube. Von diesen Videos gibt es Tausende.
Die identische Machart und die Verbreitungswege der Videos legen nahe, dass sie nicht direkt von Social Media-Usern, sondern vom Propagandaapparat der Kommunistischen Partei produziert werden. So soll die internationale Wahrnehmung des Xinjiang-Konflikts im Sinne Pekings beeinflusst werden. Nochmal Mirko Drotschmann:
ZSP Drotschmann
"Ich glaube aber, noch mal Mirko Drotschmann wenn man die in Anführungszeichen richtigen Leute anspricht, Leute, die für Geld alles machen würden und eine gewisse Reichweite haben rund die gibt es und das denen geschickt verkauft, dann kann das schon funktionieren. Man muss die Leute nur um den Finger wickeln, den richtigen Betrag auf den Tisch legen und ihnen die Sachen so präsentieren, dass sie es glauben. Dann, dann kann das klappen. Und ich glaube, es hängt wirklich an der Auswahl der Influencer."
Wieso staatliche Akteure jetzt auf Influencer setzen, hat mehrere Gründe. Da wäre zum einen der offensichtliche: Influencer und Influencerinnen vermarkten ihre Reichweite auf Social Media. Normalerweise für Werbung - sie drehen uns Cremes an, wollen dass wir bestimmte Uhren oder Nahrungsergänzungsmittel kaufen und die fragwürdigsten unter ihnen, machen Werbung für Glücksspiel. Und wer schon für einen schnellen Euro seine Followerinnen und Follower ins Online-Casino schickt - der lässt sich vielleicht auch schnell für andere Dinge einkaufen.
Dann der zweite Grund: Menschen vertrauen Influencern und Influencerinnen. In einer Studie von Nielsen, dem größten Marktforschungsunternehmen der Welt, finden sich Hinweise, wie stark dieses Vertrauen ausgeprägt ist. Nielsen untersucht regelmäßig das Vertrauen in Werbung. 30.000 Menschen in 60 Ländern wurden befragt. Und das Ergebnis: 83 Prozent von ihnen vertrauen Empfehlungen, die von ihren Freunden kommen. 83 Prozent.
In der Sozialpsychologie hat dieser Befund sogar einen Namen: Halo Effect - auf deutsch: Heiligenschein-Effekt. Wenn mir eine Person, der ich sowieso schon vertraue, etwas erzählt, dann glaube ich ihr öfter als einer fremden Person - selbst wenn das gar nicht ihre Expertise ist. Jetzt einmal verkürzt als Beispiel: Wenn mir also die sympathische Bäckerin, bei der ich seit Jahren mein Brot kaufe, eines Tages erzählt, dass sie eine tolle Faltencreme entdeckt hat - dann bin ich eher geneigt ihr zu glauben als eine Kosmetikerin, die ich gerade erst kennengelernt habe.
[13:26] Ja… und dann ist da noch der dritte Grund. Ein Grund, den wir ganz am Anfang schon gehört haben: Viele Plattformen sind so gebaut, dass sie Inhalte, die negative Gefühle auslösen, nach oben spülen - was auch auf viele Falschmeldungen zutrifft. Hier gewinnt, wer am meisten Engagement, also Interaktion, erzeugt. Den größten Gesprächswert hat, am meisten emotionalisiert. Das fanden übrigens auch Forschende innerhalb von Facebook heraus - ihre Studien wurden neulich von Frances Haugen an das Wall Street Journal geleakt.
ZSP Julian Jaursch
Sensationalitische Überschriften, teilweise Falschmeldungen, gefakte Bilder, die klicken einfach gut, die, wenn Leute angesprochen werden in ihrer Wut und in ihrer Angst, emotional verhilft, dass Geschichten einfach zu mehr Klicks.
Das ist noch einmal Julian Jaursch von der Stiftung Neue Verantwortung. Ihn haben wir in der zweiten Folge schon gehört, als es um Desinformation in Deutschland ging.
ZSP Julian Jaursch
"Das sind Studien, die das gezeigt haben in sozialen Medien. Wenn wir wissen, dass das so ist und wenn wir wissen, dass Plattform auf Engagement setzen. Kann man dann vielleicht Maßnahmen ergreifen, um zumindest diese Viralität einzuschränken, dass wir sagen. Gibt es irgendwelche Stopptaste? Stopp, wo man sagt Wenn du Nachricht noch nicht Fakten gecheckt, Fakten gecheckt ist, gibt es dann eine Möglichkeit, dass sie sich nicht so schnell verbreitet"
Stopp Stopp Stopp… Da greift Julian Jaursch vor und spricht schon über Lösungen, obwohl wir noch gar nicht mit der Problembeschreibung durch sind. Der Punkt, den Julian Jaursch hier macht, den haben auch schon andere vor ihm gemacht. Das Problem liegt in der Sortierung. In einer normalen Nachrichtensendung wie zum Beispiel der Tagesschau, wählen Redakteure und Redakteurinnen für die Zuschauer die Inhalte aus. Von Bundestagsdebatten über Wirtschaftsthemen bis zum Sport. Und jede gute Redaktion weiß: es gibt Themen, die jetzt vielleicht nicht super spannend sind, aber sie sind wichtig. Wegen der Pendlerpauschale hat wohl noch niemand einen Stress-Infarkt bekommen.
Anders die sozialen Netzwerke.
ZSP Haugen
"Heutzutage bestimmt Facebook unsere Wahrnehmung von der Welt, indem es darüber bestimmt, welche Informationen wir sehen. Auch Menschen, die Facebook nicht nutzen, werden von der Mehrheit beeinflusst, die es tun. Ein Unternehmen mit einem so beängstigenden Einfluss auf so viele Menschen und ihre innersten Gedanken und Gefühle braucht eine wirkliche Aufsicht. Aber Facebooks geschlossenes Design sorgt dafür, dass es keine wirkliche Aufsicht gibt. Nur Facebook weiß, wie es deinen Feed für dich personalisiert."
Die großen sozialen Netzwerke funktionieren alle unterschiedlich. Während Instagram sehr auf Bilder setzt, gibt es auf Facebook mehr Posts mit Links. TikTok wiederum setzt ganz aufs Bewegtbild, während Twitter viel textlastiger ist.
Dazu kommen auch Unterschiede selbst im gleichen Unternehmen: Facebook und Instagram folgen vollkommen unterschiedlichen Gesetzmäßigkeiten, haben andere Algorithmen, die wiederum zu anderen Problemen führen. Das kann man auch in den von Frances Haugen geleakten Dokumenten schön wiederfinden. Sie zeigen, dass Facebook mit seinen vielen Links ein großes Problem mit Desinformation hat und die bildgetriebene Plattform Instagram sich negativ auf die Psyche vieler junger Mädchen auswirkt.
So zumindest der aktuelle interne Forschungsstand - denn viel Forschung außerhalb des Netzwerkes - egal ob zu Psyche oder Desinformation - gibt es noch nicht.
Aber bleiben wir mal kurz beim Elefant im Raum.
Wenn man Julian Jaursch und Frances Haugen folgt, dann zählt bei Facebook vor allem das Engagement. Userinnen und Usern wird nicht der redaktionell wichtigste Post gezeigt, sondern der, der am meisten zum Mitreden einlädt. Der Emotionen erzeugt. Und die stärkste Emotion auf sozialen Netzwerken ist nun einmal die Wut.
Das wissen Forscherinnen und Forscher übrigens schon sehr lange. Also lange in Internetmaßstäben - 2013 hat eine Forschungsgruppe aus China 70 Millionen Posts auf dem Netzwerk Weibo ausgewertet und gemerkt: Die größte Viralität haben jene Posts, in denen Menschen sauer sind.
Wut ist ein zentraler Motor für das Engagement in sozialen Netzwerken. Und dann gibt es noch einen Rückkopplungseffekt. Denn soziale Netzwerke sind ja darauf ausgerichtet uns möglichst lange auf der Seite zu halten. Vereinfacht gesagt: Wenn wir mit einem frischen Account am Montag auf Posts zu einer viralen Falschinformation reinfallen, dann kann es sehr gut sein, dass uns Dienstag, Mittwoch, Donnerstag und Freitag noch mehr Posts dazu angezeigt werden.
Das Problem dabei ist die Kuratierung. Denn natürlich passieren schlimme Dinge - in unserer Nachbarschaft, in Deutschland, in der Welt. Aber es passieren auch Dinge in unserer Gesellschaft, die naja … weniger emotional sind. Es hat schon einen Grund, warum wir Desinformation zu vermeintlichen Messerattacken, entführten Kindern und erfundenen Verbotsvorschlägen sehen und eben nicht zur Pendlerpauschale oder progressiver Besteuerung.
Wir als Social-Media-Nutzerinnen und -Nutzer denken, wir sehen die Realität, dabei bekommen wir nur einen genau auf uns gerichteten Ausschnitt der Welt zu sehen. Einen Ausschnitt, den wir durch all die Likes und Klicks, die wir auf der Plattform jemals hinterlassen haben, schärfen. Und dazu kommt, dass auf Plattformen alles in einem deutlich höheren Tempo geschieht.
Noch einmal Julian Jaursch, der ein Beispiel aus dem Bundestagswahlkampf anführt.
ZSP Jaursch
"Es gab Kampagnen gegen sowohl den Spitzenkandidaten aus der Union als auch von den Grünen, wo über gefälschte Zitate denen einfach Worte in den Mund gelegt wurden. Und wenn das früher passiert ist, über ein Flugblatt oder in der Zeitung, ist das halt nicht das Gleiche, wie wenn es sich tausendfach, teilweise 10 oder 100 tausendfach über WhatsApp-Nachrichten, über Facebook-Nachrichten, über Youtube-Videos, über sonstige Plattformen verbreitet. Das hat einfach eine andere Dimension."
PAUSE
Wir haben jetzt lange darüber gesprochen, wie Social Media an sich funktioniert. Was die Gesetzmäßigkeiten sind, die plattformübergreifend sind. Aber lasst doch jetzt eine Ebene nach unten wechseln. Und zu den einzelnen Netzwerken gehen. Fangen wir bei Facebook an … die Plattform, die in Deutschland mehr als 30 Millionen Nutzerinnen und Nutzer zählt. So zumindest die aktuellsten Zahlen aus dem Jahr 2018.
Was der Harvard-Student Mark Zuckerberg 2003 zu programmieren begann, nannte er Facemash. Auf der Website lud er Fotos seiner Harvard-Kommilitoninnen hoch, Studenten sollten dann deren Aussehen bewerten. Die Fotos hatte er zuvor aus dem Studierendenverzeichnis seiner Uni gestohlen. Nach einem Wochenende war Schluss mit Facemash. Zuckerberg entschuldigte sich - und machte weiter, fand Mitstreiterinnen und Risikokapitalgeber. Am 4. Februar 2004 ging Facebook offiziell an den Start.
Und was macht das Netzwerk heute? Wir fragen nach, womit verdient Facebook heute Geld?
ZSP Baldauf
"Naja, das Geschäftsmodell von Facebook ist: Wir bieten Werbeplätze an für die Leute"
Das ist Johannes Baldauf. Auf seiner Visitenkarte steht: Public Policy Manager, er kümmert sich um ...
ZSP Baldauf
"da um (...) Themen wie Rechtsextremismus, Verschwörungstheorien, Misinformation, Cybersecurity, Terrorismus."
Im Sommer 2021 hat Facebook ein Netzwerk von Querdenken-Gruppen von der Plattform entfernt. In diesen Gruppen haben sich Menschen getroffen, die daran glauben, dass wir - in ihren Worten - in einer "Coronadiktatur" leben.
[20:14] Facebook glaubt, dass die Inhalte die Gefahr bieten, in reale Gewalt umzuschlagen und sagt, die Querdenker würden eine "koordinierte Schädigung der Gesellschaft” betreiben. Darüber hinaus beschäftigt sich Johannes Baldauf auch mit der Operation Ghostwriter, über die wir schon gesprochen haben.
ZSP Baldauf
"Natürlich ist Ghostwriter auch ein Thema für uns und wir haben ja in Vorbereitung der Wahlen standen wir im engen Austausch z.B. mit dem BSI, dem Bundesamt für Sicherheit in der Informationstechnik, in Deutschland, aber auch mit anderen Sicherheitsbehörden. Natürlich tauscht man sich dort über verschiedene verschiedene Bedrohungen Möglichkeiten aus."
Ihr erinnert Euch: In den Folgen 1 und 2 von "Netz aus Lügen” haben wir über Ghostwriter gesprochen, eine Operation des russischen Geheimdienstes GRU.
PAUSE
Facebook ist heute für viele Menschen das Tor zur Welt. Zentrum aller Online-Aktivitäten. Hier lernen sich Menschen kennen, posten Familienfotos, Wohnungsanfragen, Witze. Es ist aber auch ein Raum für Desinformation und Verschwörungsmythen, Hass und Hetze und Ausprobierfeld für staatliche wie private Akteure uns als Gesellschaften zu spalten.
Johannes Baldauf von Facebook sagt:
ZSP Baldauf
"Wenn man eben große soziale Plattform betreibt, spiegelt sich natürlich fast alles, was so draußen in Anführungsstrichen der Welt stattfindet, nicht auch auf den Plattform wieder. Und dementsprechend muss man natürlich schauen, wie geht man mit diesen Dingen um. Einige Sachen sind gefährlich an, andere Sachen sind vielleicht nicht für jede Person geeignet, für anderes muss man gucken. Wir haben ja z.B. ein Netzwerk innerhalb der Querdenkern Bewegung entfernt.Hier müssen wir intervenieren. Das Gleiche gibt's auch immer wieder im Bereich Rechtsextremismus oder vielleicht ein anderes Beispiel auch im Bereich Antisemitismus.
Wir entfernen Holocaustleugnung weltweit"
Kurze Einordnung dazu: Das "weltweit” gilt erst seit letztem Jahr. Noch 2018 weigerte sich Mark Zuckerberg in einem Interview mit dem Tech-Magazin Re:code, Holocaustleugnung von der Plattform zu nehmen. Johannes Baldauf nimmt man ab, dass er ein wirkliches Interesse hat, Facebook für alle zu verbessern. Er weiß aber auch genau, wie viel Arbeit noch zu tun ist. Auf uns wirkt er wie ein Verkehrspolizist, der mit erhobenen Armen an einer vielbefahrenen Kreuzung steht und Autos zum anständigen Fahren bringen will.
"das sind eben nicht nur staatliche Akteure," ...
… wie der russische Geheimdienst GRU ...
… sondern es kann auch kommerzielle Akteure sein ...
… wie die Agentur Fazze, die mit ihrer Impfstoffkampagne aufgeflogen ist ...
"… die dann eben anderen das als Dienst anbieten"
Auch wenn Johannes Baldauf um die Probleme seiner Plattform weiß: er glaubt, dass es besser wird. Zum Beispiel konnte durch Technik schon ein großer Teil der Fake-Profile rausgefiltert werden.
Facebook versucht dadurch die Kosten für koordinierte Attacken zu erhöhen. Beispielsweise wenn ein Akteur Stimmung gegen die Impfung machen wollen würde. Anders gesagt: Wo ich früher nur eine Armee an einfach gemachten Fake-Profilen gebraucht habe, um eine Botschaft unters Volk zu kriegen, da brauche ich heute ein Netzwerk aus echt aussehenden Accounts, die ich über Jahre anlegen und pflegen muss.
ZSP Baldauf
"Baue ich mir vielleicht auch ein Netzwerk von Freunden auf, dessen Profil tatsächlich immer authentischer aussieht? Das kostet Zeit, das kostet Ressourcen und damit steigen die Kosten. Und das ist sozusagen ein Beispiel, wie sozusagen in dem Moment, wo ich einfach mehr Zeit brauche, um so ein Netzwerk aufzubauen, kostet das mehr."
Staatliche gegen kommerzielle Akteure, Netzwerke von Freunde versus nicht-authentische Profile, koordinierte Einflussnahme und Manipulation -- eine, die den Facebook-Fachjargon dechiffrieren kann, ist Sophie Zhang, die zweite Whistleblowerin aus dem Facebook-Kosmos, die wir in dieser Sendung hören.
ZSP Zhang
"Hallo ich bin Sophie Zhang. Zhang Fee Fee für alle, die Chinesisch sprechen. Ich habe von Januar 2018 bis September 2020 bei Facebook gearbeitet. Ich wurde im September entlassen. Ich war Datenwissenschaftlerin bei Facebook. Und wurde... wurde eine Whistleblowerin. Sie haben vielleicht in den Nachrichten von meinem Fall gelesen. Zurzeit bin ich zu Hause und kümmere mich um meine Katzen. Sie sind sehr gute Katzen.
Die Rolle, die ich angenommen habe, neben meinem Job war: nach nicht-authentischen Accounts, die politische Diskussionen beeinflussen, zu suchen; dazu gehörten auch politische Diskussionen im Vorfeld von Wahlen auf der ganzen Welt. Ich hab viele Ergebnisse gefunden in vielen Ländern, insbesondere im globalen Süden, außerhalb Europas und in der westlichen Welt im Allgemeinen. Insbesondere habe ich die Regierungen von Honduras und Aserbaidschan auf frischer Tat ertappt."
Was Zhang aufdeckt: Unter Posts des Präsidenten von Honduras, Juan Orlando Hernández, damals hatte der rund eine halbe Million Followerinnen und Follower auf Facebook, häufen sich Likes.
Das Land in Mittelamerika, eine Demokratie mit vielen Problemen, hat knapp 10 Millionen Einwohnerinnen und Einwohner - ein Drittel davon ist auf Facebook. Wenn Hernandez also 500.000 Fans hat, dann sind das ein Sechstel aller Accounts des Landes.
Ein Großteil der Likes kommt nicht von echten Nutzerinnen auf Facebook sondern von sogenannten Facebook Pages, Seiten, die Firmen oder Stars für sich selbst anlegen können. In jenem Fall ist es Hilda Hernández, die Schwester des Präsidenten und damalige Kommunikationsministerin, die 2017 als Administratorin Hunderte solcher gefälschter Seite auf Facebook betreut, und dort für ihren Bruder falschen Jubel und erlogene Zustimmung simuliert.
Ein anderes Beispiel: Aserbaidschan, ein kleines Land im Südkaukasus. Im Korruptionswahrnehmungsindex 2020 von Transparency International belegt Aserbaidschan den 129.Platz von 180 bewerteten Ländern.
In Aserbaidschan macht sich ein Netzwerk genau die Taktik aus Honduras zu nutze, um Schmutz ins Netz zu kübeln: Mehr als zwei Millionen Kommentare werden auf den Facebook-Seiten der Opposition und denen von unabhängigen Medien publiziert. Sie werden übel beschimpft, als Landesverräter bezeichnet, der autokratische Präsident Aserbaidschans, Ilham Alijew, und seine Regierungspartei dagegen in höchsten Tönen gelobt. Und viele Aserbaidschanerinnen und Aserbaidschaner erreicht man auf Facebook: Gut 40 Prozent der Bevölkerung hat ein Konto.
Für Sophie Zhang ist das ein Problem. Und das will sie lösen, sie berichtet ihrem Chef davon, spricht mit dem Manager ihres Managers, mit anderen Teams im Konzern. Nur:
ZSP Zhang
"Facebook schenkt Ländern wie Deutschland, Großbritannien und den USA mehr Aufmerksamkeit"
Das tun wir übrigens auch gerade. Wir sprechen die ganze Folge über Plattformen, die in der westlichen Welt sehr populär sind. Inn Folge 7 gehen wir dann auf Plattformen ein, die in Asien populär sind.
Aber zurück zu Facebook: Gerade wenn es um Wahlen wie die Bundestagswahl in diesem Jahr oder Abstimmungen um den Brexit geht, schaut Facebook genauer hin, dass hier alles gut geht. Aber was ist mit Honduras und Aserbaidschan? Im Facebook-Universum: unwichtig.
Sophie Zhang sagt:
Facebook will oft nicht handeln - und zwar aus Geschäftsinteresse. Ich glaube, dass man verstehen muss, dass Geschäftsinteressen Firmen leiten. Es ist ihre treuhänderische Verantwortung im Sinne der Shareholder zu handeln.
Übrigens: Im vergangenen Jahr machte Facebook einen Gewinn von 29,15 Milliarden US-Dollar. Damit steht es auf Platz 10 der profitabelsten Unternehmen der Welt. Und tatsächlich merkt man: Wenn wegen Skandalen wie Cambridge Analytica der öffentliche Druck größer wird, dann bewegt sich Facebook auch. Über Jahre hat das Unternehmen Cambridge Analytica persönliche Daten über eine Facebook-App gesammelt und für andere Zwecke genutzt.
Als Reaktion auf das "Datenleck” hat Facebook 2018 den Zugang für Drittanbieter gekappt und sich in ganzseitigen Anzeigen entschuldigt. Was übrigens auch Wissenschaftlerinnen und Wissenschaftlern, die über Facebook forschen, die Arbeit erschwert hat. Wenn in anderen Teilen der Welt schlimme Dinge auf Facebook passieren, interessiert das die Öffentlichkeit und Facebook nur bedingt.
ZSP Zhang
"Die Orte, bei denen es am Schwierigsten war, Aufmerksamkeit auf sie zu lenken, waren Länder wie Honduras oder Aserbaidschan. Ich denke, das hängt damit zusammen, dass diese Länder wenig Einfluss haben."
PAUSE
Auch die andere Whistleblowerin, Fances Haugen, ist überzeugt, dass der wichtigste Antriebsgrund für die Plattformlogik bei Facebook und Instagram Profit ist....
ZSP Haugen
"Ich glaube nicht, dass Facebook jemals das Ziel hatte, eine Plattform aufzubauen, die Schaden anrichten soll. Facebook hat eine Organisationstruktur geschaffen, wo jener Teil, der für Wachstum und Expansion zuständig ist, getrennt von jenem läuft, der sich mit den negativen Auswirkungen der Plattform beschäftigt. Und diese Organisationsstränge berühren sich nur sehr selten. So werden Projekte, die Facebook sicherer machen sollen und für die die Sicherheitsteams hart gekämpft haben, von neuen Expansionsprojekten platt gemacht."
[31:22] Und was hat das mit uns zu tun? Die kürzeste ehrliche Antwort ist wohl: It’s complicated. Es ist kompliziert.
Menschen wie Sophie Zhang oder Frances Haugen sind für uns deshalb so wichtig, weil sie uns Einblicke geben in eine Firma, die sich kaum in die Karten schauen lässt. Wissenschaftlerinnen und Wissenschaftler beklagen sich immer wieder, dass ihnen - und damit auch uns - Zugang zu Daten fehlt. Erst im September 2021 beschwerten sich Forscherinnen der New York University, dass ihnen der Zugang einfach gekappt wurde - ihre Forschung ist so nicht möglich. Ohne diesen Zugang können wir kaum wissen, wie groß der Einfluss von Desinformation auf der Plattform wirklich ist.
Auch bei dem Kerngeschäft von Facebook - Werbung verkaufen - gibt es inzwischen Stimmen, die sagen: naja, ob das alles wirklich valide ist. Zum Beispiel wissen wir aus einer internen Facebook-E-Mail, dass Sheryl Sandberg, die Nummer 2 neben Mark Zuckerberg, schon seit Jahren wusste, dass die Zahlen für die Werbereichweite nicht wirklich stimmen.
Wenn also gar nicht erwiesen ist, dass die Werbemodelle von Facebook wirklich funktionieren, man Menschen also wirklich microtargeten kann - ich also wirklich alle Kaninchenzüchter aus Wuppertal erreiche und überzeugen kann... dann heißt das: Wir können noch weniger beweisen, dass Desinformation ein Riesenproblem ist. Obwohl wir tagtäglich die vermeintlichen Auswirkungen davon erleben. Uns fehlen die geeigneten Mitteln das zu quantifizieren.
Trotzdem verkauft sich Facebook als Plattform, die Werbekunden zielgenau zu ihrem Wunschprodukt bringt. Egal ob das jetzt eine Werbung für die Impfkampagne der Bundesregierung oder für Hundefutter ist.
[38:45] Gleiches gilt für YouTube, die Video-Plattform, die im vergangenen Jahr auch mit Werbung einen Umsatz von rund 15 Milliarden US-Dollar machte. Wir sprechen zwar immer über die Skandale von Facebook, aber Youtube ist ein oft unterschätzter Teil der Desinformations-Sphäre.
Auch hier gibt es wenig Daten, was genau YouTubes Algorithmen mit Desinformation zu tun haben. Einer, der uns helfen kann, ist Johannes Filter.
ZSP Filter
"Mein Name ist Johannes Filter. Ich bin Softwareentwickler bei Algorithm Watch, arbeite hier primär an Dataskop-Projekt."
Algorithm Watch ist eine Nichtregierungsorganisation, die sich Algorithmen anschauen, die "entweder menschliche Entscheidungen vorhersagen oder vorbestimmen, oder Entscheidungen automatisiert treffen”. Johannes Filter recherchiert mit Reportern des Spiegels und Wissenschaftlern und Forscherinnen der Europa-Universität Viadrina in Frankfurt an der Oder. Gemeinsam haben sie im Sommer ein Experiment - Dataskop - gestartet:
ZSP Filter
"Für unser Projekt haben wir uns YouTube angesehen und YouTube insbesondere zur Bundestagswahl."
Es geht um die Such- und Empfehlungsalgorithmen von YouTube. Und dafür haben sie Nutzerinnen und Nutzer gebeten, ihnen ihre YouTube-Daten zu spenden. Mehr als 5000 Freiwillige haben mitgemacht, Informationen zu abonnierten Kanälen, der Watch History und Listen mit Suchergebnissen und personalisierten Empfehlungen mit dem Team geteilt. Rund 2000 Datensätze sind vollständig.
Vorab: Das komplexe System der YouTube-Algorithmen lässt sich nicht vollständig entschlüsseln – dafür sind es zu wenige Daten, die Stichprobe reicht nicht aus, um repräsentativ zu sein für ganz YouTube-Deutschland. Mitgemacht haben Freiwillige. Ob die jetzt alle eher links oder eher konservativ sind, wissen wir nicht. Auch die Altersstruktur ist nicht repräsentativ. Dennoch sind die Ergebnisse interessant.
Der Spiegel fasst die Ergebnisse des Experiments so zusammen:
ZSP Spiegel
"Zumindest im Test mit knapp 2000 Freiwilligen wurden den Usern nur in sehr wenigen Fällen dubiose Videos angezeigt. Dies betraf die Empfehlungen unter dem impfkritischen Video. Bei den Suchanfragen, die alle einen Bezug zur Bundestagswahl oder aktuellen Nachrichten hatten, dominierten Videos großer Medienkanäle wie »Welt« oder »Tagesschau«, die YouTube intern offenbar als seriöse Quellen eingestuft hat.”
Johannes Filter, der Programmierer:
ZSP Filter
"Also YouTube legt ja auch nicht offen. Was sind jetzt die Entscheidungskriterien, dass jetzt da so viel Axel Springer ist oder nichts. Genau das ist ja, das ist ja alles der Grund, warum wir Forschung zu diesen Plattformen betreiben, um mehr herauszufinden, wie das jetzt funktioniert. Und das ist sehr schwierig, weil die Plattformen nicht kooperieren. Es ist ja ein bisschen so, wie so eine Art TÜV. Also wenn mein Auto einen TÜV haben will, dann fahre ich mit meinem Auto zur Werkstatt und die kriegen auch 100 Prozent Einsicht in mein Auto. Und wenn irgendwie YouTube überprüft werden soll, dann müssen sie ganz konkret sehen, was wird produktiv eingesetzt und können dann nicht auch mit irgendwelchen. beispielhaften Datensätzen abgespeist werden."
Immerhin: Dataskop, das Experiment bringt ein wenig Licht ins Dunkel.
Wir wollen es genauer wissen und fragen deshalb bei YouTube nach:
Ja. Guten Morgen, mein Name ist Sabine Frank.
ZSP Frank
"Also mein offizieller Titel lautet Head of Government Affairs und Public Policy, YouTube, Dach und CEE. Das Dach steht für die deutschsprachigen Länder Deutschland, Österreich und die Schweiz. Und CEE steht für Zentral und Osteuropa. Ja, ich verantworte die politische Kommunikation von YouTube in den genannten Ländern"
Politische Kommunikation bedeutet: Sie vermittelt zwischen den Interessen von Youtube und der Politik und NGOs.
"Also zu sagen, dass es im Prinzip Brückenbauer Job könnte man auch sagen."
Was macht YouTube genau? YouTube ist zunächst einmal eine Videoplattform, die zu 100 % zu Google gehört. Beziehungsweise zur Mutterfirma Alphabet. Seit ein paar Jahren sagt das Unternehmen, dass es die zweitgrößte Suchmaschine der Welt sei. Das ist zunächst Mal ein netter Claim aber auch eine Zustandsbeschreibung des Internets im Jahr 2021: Menschen gehen zu Youtube, um sich zu informieren, um sich zu unterhalten oder zu lernen. Herzstück ist der Algorithmus, der den Nutzerinnen und Nutzern empfiehlt, welche Videos sie sich als nächstes anschauen sollen. Nur wie der genau funktioniert, das macht YouTube nicht publik.
ZSP Frank
"Und das ist natürlich letztlich das Herzstück die Coca-Cola-Formel natürlich auch von Unternehmen, wie spezifisch Algorithmen funktionieren und sich natürlich auch verändert haben."
Ja, klar kennt Sabine Frank die Vorwürfe, die YouTube gemacht werden:
YouTube verbreite Desinformation, manipuliere, spalte.
Algorithmen-Black-Box.
YouTube zöge die Nutzerinnen in den Kaninchenbau. Nutzer bekommen nach dem Anschauen eines Videos immer weitere, immer fragwürdigere Videos eingespielt.
Oder auch: YouTube sei eine Radikalisierungsmaschine.
Frank will mit Statistiken dagegenhalten, zählt auf, wie viele Videos weltweit hochgeladen werden:
ZSP Frank
"Also Sie müssen sich vorstellen, auf YouTube werden jede Minute 500 Stunden neue Video Inhalte hochgeladen. Im zweiten Quartal dieses Jahres haben wir global 6,2 Millionen Videos entfernt und allein diese schiere Masse ist vielleicht. Ich hoffe beeindruckend, aber zumindest aussagekräftig. Aber noch viel wichtiger zu betonen ist, dass es hier auch darauf ankommt, dass möglichst wenig Leute Inhalte wahrnehmen, die problematisch sind, die dann entfernt werden. Und deshalb vielleicht noch eine zweite Zahl. 74 Prozent dieser entfernten Videos wurden entfernt. Mit weniger als zehn zugriffen. nur sehr, sehr wenige Inhalte sind tatsächlich so problematisch, dass sie gegen unsere Hausregeln verstoßen.
Das alles sind Angaben, die YouTube macht. Uns gegenüber im Interview für diesen Podcast. Das alles wird auch im Netz als Transparenzbericht veröffentlicht. Es sind Zahlen, die so klein oder so groß sind, dass sie, wie es Frank sagt, "beeindrucken” sollen.
Allerdings: Überprüfen lässt sich das alles nicht. Schon gar nicht einordnen. Man kann nur mutmaßen. Zum Beispiel, wenn man sich anschaut, welche Auswirkungen bestimmte Youtube-Entscheidungen auf den Rest der Plattformen hat. Am 8. Dezember 2020 hat Youtube angekündigt, Videos zu Wahlmanipulation in den USA von der Plattform zu löschen.
Danach ist die Zahl der Posts zu dem Thema bei Facebook und Twitter drastisch zurückgegangen, wie die New York Times herausgefunden hat. Dass sich die Lüge der Wahlmanipulation trotzdem weiter verbreitete und wir den Sturm aufs Kapitol erlebten, gehört aber auch zur Wahrheit. Desinformation muss man plattformübergreifend betrachten. Die Plattformen befruchten sich gegenseitig - Youtube-Videos werden auf Twitter geteilt, während Tweets in Youtube-Videos verwurstet werden. Die Verantwortungen tragen alle gemeinsam.
PAUSE
[38:45] Und dann ist da noch Amazon. Ein Unternehmen, das im Jahr 2020 386 Milliarden Dollar Umsatz machte und von Schuhen über kleine Boote bis zu Fernsehserien alles verkauft.
Wir baten Amazon Mitte August um ein Gespräch für diesen Podcast, die Antwort kam prompt: "Gerne haben wir Ihre freundliche Anfrage in unserem Hause besprochen, müssen Ihnen aber mitteilen, dass wir Ihnen keine Expert:in für den Podcast vermitteln können.”
Wir wollten mit Amazon sprechen, weil uns etwas aufgefallen ist:
Suchen wir mit dem einfachen Stichwort "Impfung" nach Büchern, dann spuckt Amazon Bücher mit Titeln aus wie:
"Impfschaden durch Corona Impfung - Die ganze Wahrheit!"
"Covid-19: Die ganze Wahrheit: Enthüllungen zum Great Reset, den Lockdowns, den Impfungen und der Neuen Normalität"
oder "Corona Impfung - Wir impfen uns nicht"
Was ist da los?
Auch das Institute for Strategic Dialogue, ein Thinktank in London und Berlin, hat dazu recherchiert und schreibt:
ZSP ISD
"Amazons Algorithmen tragen dazu bei, dass Nutzerinnen und Nutzer zu Büchern geführt werden, die Extremismus und Verschwörungstheorien fördern. Dazu gehört auch, dass denjenigen, die nach grundlegenden Begriffen wie "Impfung" suchen, Anti-Impf-Bücher als erste Ergebnisse empfohlen werden."
Letztlich handelt der Online-Buchhändler - wie die sozialen Netzwerke - mit Ideen und Informationen und nutzt Algorithmen, um im Verkauf noch besser zu werden. Die Plattform profitiert direkt vom Verkauf von Büchern, einschließlich solcher, die ihren Kundinnen und Kunden sachlich falsche und potenziell schädliche Überzeugungen vermitteln, und leitet Geld an die Autoren dieser Bücher weiter, um die Erstellung dieser Literatur zu entlohnen und zu fördern. Wenn wir also von Social-Media-Plattformen Rechenschaft für die Verbreitung von Desinformation verlangen, sollten wir auch Online-Buchhändler für ihre Rolle bei der Verbreitung von Desinformation zur Verantwortung ziehen.
PAUSE
Ok - aber was können wir denn jetzt tun? Unser diffuses Gefühl, dass etwas nicht stimmt, wurde etwas erhellt. Aber was machen wir denn jetzt?
Wieder Johannes Filter von Algorithm Watch:
ZSP Filter
"Das sind also diese Entscheidung, diese Entscheidungen auf den Plattformen sind von Menschen gemacht und da steht immer Menschen hinter, dahingegen, wenn jetzt irgend Newsfeeds auf irgendeine Weise implementiert wird, dann ist das menschliche Entscheidung und es kann auch geändert werden (...) Und wir sollten da auch uns überlegen, was wir wollen und nicht so sehr, was die Plattform wollen. Und dann müssen wir das über politische Ebene regulieren zu."
Regulierung. Das ist auch, was Frances Haugen sich wünscht. Und in den USA würde ihr ehemaliger Konzern dann immer die Meinungsfreiheitskarte spielen.
ZSP Haugen
"Facebook will euch glauben machen, dass seine Probleme unlösbar sind. Sie wollen euch glauben machen, dass der Staat sich entscheiden muss zwischen einem Facebook, das voll ist mit spaltenden und extremen Inhalten - oder man würde einen der wichtigsten Werte verlieren, auf die unser Land begründet ist: Die Meinungsfreiheit"
[41:04] In der Europäischen Union wird ebenfalls seit Jahren an Regulierungen gearbeitet. Brüssel will den Plattformen mit dem Digital Services Act - dem Gesetz für digitale Dienste - neue Regeln geben: Es geht um Transparenz, ob Fake-Accounts Wahlen beeinflussen können; wer wie warum weshalb welche Werbung angezeigt bekommt; Wissenschaftlerinnen sollen Zugriff auf Nutzerdaten bekommen; und die EU will Whistleblowerinnen wie Sophie Zhang und Frances Haugen, die Missstände aufdecken, besser schützen.
Was am Ende dann im Gesetz stehen wird, ist noch nicht klar.
Und auch unklar ist, wie kontrolliert und sanktioniert wird. Da im Europäischen Parlament noch laufend Änderungsanträge am Text eingehen, sind die Chancen groß, dass der Services Act nächstes Jahr in den Trilog geht - also aktiv ein Kompromiss zwischen Rat, Kommission und Parlament gesucht wird.
Julian Jaursch von der Stiftung neue Verantwortung findet, die Empfehlungen gehen in die richtige Richtung. Und hat auch eigene Ideen, was in dem Gesetz noch stehen könnte.
ZSP Jaursch
"Wenn eine Nachricht da ist, die so aktuell ist, dass die Faktenlage noch wissenschaftlich gesehen noch gar nicht. Gecheckt sein kann. Gibt es dann vielleicht eine Möglichkeit, dass sie zumindest nicht so schnell verbreitet? Beispiel für so eine Maßnahme hatte Twitter ausprobiert Wenn Leute eine einen Tweet retweeten wollen. Mit anderen Leuten teilen wollten, gab's einen kleinen Prompt eine kleine Nachricht. Haben Sie diesen Artikel überhaupt gelesen? Möchten Sie diesen teilen, ohne den Artikel gelesen zu haben? Und es hat sich herausgestellt, dass das teilweise ganz gut funktioniert, teilweise nicht. Und meines Wissens nach wurde diese Funktion aber wieder abgestellt. Ich glaube aber, solche Sachen, solche Maßnahmen zu testen, damit rumzuspielen, ein bisschen zu expandieren. Was funktioniert, ist wichtig."
Das einzige, was man nicht darf, ist diese Lösungen den Plattformen selbst zu überlassen, meint er. Und das bringt uns zur traurigen Pointe dieser Folge. Denn eigentlich haben sich einige Plattformen selbst verpflichtet bei vielen Bereichen, die heute Probleme machen, sich selbst zu regulieren. Code of Practice heißt das Dokument, unterschrieben haben unter anderem Facebook, Google und Microsoft.
Im Dokument findet man Selbstverpflichtungen für transparente Politik-Werbung, mehr Zugang zu Daten für die Wissenschaft und eine strengere Handhabung bei Desinformation. Wie die Lage heute ist - trotz all dieser Selbstverpflichtungen - haben wir in dieser Folge gehört.
PAUSE
[44:35] Das war die fünfte Folge von Netz aus Lügen. Und wir bleiben in der nächsten Folge ein wenig bei dem Thema. Denn wenn Frances Haugen sagt, dass Facebook dafür sorgt, dass Menschen Schaden nehmen - dann sieht man das auch in Indien. Denn hier hat letztes Jahr ein per Whatsapp organisierter Lynchmob sieben Menschen umgebracht.
ZSP Indien
"Die Gerüchte waren im gesamten Gebiet verbreitet, und sogar darüber hinaus im Palghar-Distrikt, im Thane-Distrikt und sogar in Nandurbar, in verschiedenen Nuancen war es dasselbe Gerücht mit zwei Erzählungen: Ein Mal, dass Leute ins Dorf kämen, Räuber oder "Chore" in Marathi, und dass diese Räuber, die ins Dorf kommen Nieren von Menschen ernten würden, besonders von Jungen. Zum Zweiten, dass Menschen kommen, die Corona verbreiten"
Wie geht die bevölkerungsreichste Demokratie der Welt mit Desinformation um? Und geschieht dort gerade ein Umbau hin zu autoritären Strukturen?? Aber das beim nächsten Mal.
Diese Folge wurde geschrieben von Christian Alt und Sylke Gruhnwald.. Redaktion BPB: Marion Bacher. Audio-Produktion: Simone Hundriesser. Fact-Checking: Karolin Schwarz. Produktionshilfe: Lena Kohlwes.
“Netz aus Lügen - die globale Macht von Desinformation” ist ein Podcast der Bundeszentrale für politische Bildung, produziert von Kugel und Niere. Die Folgen stehen unter der Creative Commons Lizenz und dürfen unter Nennung der Herausgeberin zu nichtkommerziellen Zwecken weiterverbreitet werden. Ich bin Ann-Kathrin Büüsker und wenn ihr Feedback zu dieser Folge habt, schreibt uns doch unter E-Mail Link: podcast@bpb.de. Und falls ihr noch nicht abonniert habt, tut das doch mal schnell. Denn in zwei Wochen kommt auch schon die nächste Folge. Bis nächstes Mal!