Meine Merkliste Geteilte Merkliste PDF oder EPUB erstellen

Übernehmen Algorithmen die Weltherrschaft? | Bewegtbild und politische Bildung | bpb.de

Bewegtbild und politische Bildung Themen und Hintergründe YouTube – ein Lernmedium? Überblick und Learnings Plattform, Nutzer/-innen und beliebte Inhalte YouTube und Webvideos in Lern- und Bildungskontexten Gesellschaftspolitische Entwicklungen für den Bereich Webvideo Quellen und Referenzen Redaktion und Kontakt Randbereiche des Extremismus auf YouTube, Instagram und TikTok Filme in der Extremismusprävention Politik in Fernsehserien Lernen mit – und über – TikTok TikTok im Überblick TikTok in Lern- und Bildungskontexten TikTok und die öffentliche Debatte Quellen Ergänzende Lektüreempfehlung Webvideo und Social Web-Projekte TV- und Streaming-Formate Kontakt

Übernehmen Algorithmen die Weltherrschaft?

Sebastian Schöbel-Matthey

/ 7 Minuten zu lesen

Der Facebook-Algorithmus bestimmt, welche Beiträge man sieht, und der YouTube-Algorithmus bestimmt, welche Videos einem vorgeschlagen werden: Die Formeln, nach denen Plattformen ihre Inhalte auf die errechneten Interessen der Nutzer abstimmen, beeinflussen zunehmend, wie wir das Netz – und damit auch die reale Welt – wahrnehmen. Was steckt dahinter?

Übernehmen Algorithmen die Weltherrschaft?

SPACE NET – Netzpolitik mit den Space Frogs

Übernehmen Algorithmen die Weltherrschaft?

Der Facebook-Algorithmus bestimmt, welche Beiträge man sieht, und der YouTube-Algorithmus bestimmt, welche Videos einem vorgeschlagen werden: Die Formeln, nach denen Plattformen ihre Inhalte auf die errechneten Interessen der Nutzer abstimmen, beeinflussen zunehmend, wie wir das Netz – und damit auch die reale Welt – wahrnehmen. Was steckt dahinter?

Algorithmen sind Abfolgen von genau definierten Arbeitsschritten, die nacheinander ausgeführt zu einem bestimmten Ergebnis führen. Meist versteht man darunter komplexe Rechenvorgänge, aber auch ein einfaches Backrezept kann als Algorithmus beschrieben werden: Man mische genau abgemessene Mengen bestimmter Zutaten, bearbeite sie auf eine vorgeschriebene Art und Weise, erhitze das Ganze für eine definierte Zeit bei einer festgelegten Temperatur und erhalte eine bestimmte Backware. Jede exakt gleiche Wiederholung sollte zum exakt gleichen Ergebnis führen. Im Netz sind Algorithmen freilich viel komplexere, mathematische Berechnungen in Form von Codes, die zum Beispiel Web-Inhalte filtern und individuell angepasst anzeigen – basierend auf großen Mengen an Nutzerdaten, die von Plattformen wie Facebook, YouTube oder Amazon gesammelt werden. Bei komplexen Vorgängen wie diesen kann das vorgegebene "Ergebnis" auch als Zielvorgabe verstanden werden. Um beispielsweise die Watch Time, also die Sehdauer, auf einer Plattform zu erhöhen, reicht natürlich nicht eine Regel. Stattdessen wird eine Vielzahl von Regeln angewandt, die voneinander und auch von wechselnden Nutzerdaten abhängen. Das Ergebnis bzw. die Zielvorgabe zu erreichen, ist also gar nicht so leicht, weswegen vor allem Algorithmen von Social-Media-Plattformen häufiger umgestellt werden, um sie aus Sicht der Plattformbetreiber weiter zu optimieren.

Zuletzt wurde vor allem der Algorithmus von Facebook diskutiert: Externer Link: Der neue "News Feed" , der in Deutschland etwa seit März 2018 aktiv ist. Mark Zuckerberg hatte Externer Link: in einem Facebook-Post einige Details verraten: Inhalte, die von Freunden verbreitet oder kommentiert wurden, werden demnach häufiger angezeigt als Inhalte von offiziellen Facebook-Seiten, die zum Beispiel von Unternehmen und Medienhäusern betrieben werden, um ihre Nachrichten zu verbreiten. Laut Facebook soll das vor allem die "Aufenthaltsqualität" im Netzwerk verbessern: Die Nutzenden und ihre Freundeskreise sollen wichtiger sein als irgendeine Firma, die Werbung verbreiten will. Aber Kritikerinnen und Kritiker sagen, am Ende gehe es doch nur um Geld: Die Unternehmen sollen für die wenigen – und damit teureren – Werbeplätze auf Facebook zahlen, um auf diese Weise doch noch in die News Feeds der Nutzerinnen und Nutzer zu gelangen.

Die Welt durch die Algorithmus-Brille gesehen

Die Änderung des Facebook-Algorithmus löste zum wiederholten Mal eine Debatte über den Einfluss der versteckten Logik hinter den sozialen Netzwerken aus: Denn Plattformen wie Facebook, Instagram oder Google beeinflussen, wie ihre Nutzer die Welt sehen. "Was dort nicht stattfindet, das hat auch in der Welt nie stattgefunden", spitzt es der bekannte deutsche Technik-Journalist Richard Gutjahr zu. Facebook und Co. lösen zunehmend die traditionellen und journalistischen Vorgaben unterworfenen Medien in ihrer Rolle als Informationsfilter ab. Damit fehlt bei der Berichterstattung über aktuelle Ereignisse oft die Überprüfung von Informationen: Recherche wird durch Mutmaßung ersetzt – oder durch Manipulation.

Welche Auswirkung das haben kann, zeigte die letzte Präsidentschaftswahl in den USA: Nach dem Sieg von Donald Trump offenbarten viele Studien, wie weitgehend der Externer Link: Einfluss von sogenannten "Fake News" , also gezielt gestreuter Falschnachrichten, auf das Wählerverhalten war. Am stärksten verbreitet wurden solche Nachrichten mit zum Teil rassistischen, ausländerfeindlichen Inhalten über soziale Medien – befeuert von der Logik der Algorithmen, die nicht nach inhaltlicher Qualität, sondern nach ermittelten Interessen der Nutzenden filtern. Das Ergebnis: Eine Informations-Blase, in der bestehende Meinungen zum Teil auch durch falsche Informationen weiter bestätigt und konträre Meinungen und Fakten ausgeblendet werden.

Der nächste Schritt: Künstliche Intelligenz

Wie sehr ein Algorithmus die Sicht auf die Welt beeinflussen kann, lässt sich allerdings nicht nur bei Facebook nachweisen. So zeigte zum Beispiel der Social-Media-Experte Ray Serrato, dass der für die deutsche YouTube-Seite eingesetzte Algorithmus Nutzern nach einem Tötungsdelikt in Chemnitz im August und September 2018 verstärkt rechtsgerichtete Inhalte empfahl. Nach einer Messerstecherei im Sommer 2018, bei der ein Deutscher zu Tode kam, waren zwei Asylbewerber als Verdächtige verhaftet worden. Nach Bekanntwerden des Vorfalls wurden auf YouTube verstärkt irreführende Inhalte sowie gezielt gestreute "Fake News" in den Suchergebnissen angezeigt. Rechtsextreme und rechtspopulistische Gruppierungen riefen zu mehreren Demonstrationen in der Stadt auf. Es kam zu gewalttätigen Auseinandersetzungen, über die auch internationale Medien berichteten.

Das Beispiel zeigt, wie gefährlich die Logik der Social-Media-Algorithmen sein kann: Ausgerichtet auf das kommerzielle Interesse der Anbieter sollen die Userinnen und User vor allem Beiträge sehen, mit denen häufig interagiert wurde, um so eine möglichst lange Verweildauer zu garantieren – denn je länger sie bleiben, desto mehr Werbung schauen sie sich an. Ob – wie in diesem Fall – viele der vorgeschlagenen Videos gezielte "Fake News" beinhalteten, wurde nicht beachtet. Nach kritischer Berichterstattung zur Wirkungsweise von Algorithmen im Fall Chemnitz reagierte YouTube und passte seinen Algorithmus an. In den Suchergebnissen zu Chemnitz sollten fortan bevorzugt Berichte von vertrauenswürdigen Quellen angezeigt werden. Nach welchen Kriterien dies passierte, wurde nicht offengelegt.

Die Codezeilen der Algorithmen sind die Basis für den wirtschaftlichen Erfolg der Konzerne, die dazu gespeicherten Nutzerdaten zementieren ihre Macht. Zudem investieren die Konzerne längst in die Technologie, welche die Algorithmen auf die nächste Entwicklungsstufe heben: Künstliche Intelligenz (KI). Die Algorithmen "lernen" ständig dazu, entwickeln sich aufgrund der gesammelten Nutzerdaten und veränderten Vorgaben der Internetkonzerne selbständig weiter.

So können sie inzwischen weit mehr, als nur Suchergebnisse im Internet filtern. Google setzt die Technologie etwa in seinem "Google Assistant" ein, einem Programm, das man per Spracheingabe steuern kann und das in Zukunft die Schnittstelle zwischen Menschen und dem "Internet der Dinge", quasi dem vernetzten Haushalt, sein soll. Künstliche Intelligenz soll es dem Assistant erlauben, Externer Link: beinahe menschenähnliche Konversationen führen zu können. Google hat zuletzt Externer Link: Millionen für den Kauf mehrerer KI-Startups ausgegeben und Externer Link: betreibt in Zürich ein eigenes Forschungszentrum für KI .

Lassen sich die Konzerne in die Karten schauen?

Die Bundesregierung hat Ende 2018 Eckpunkte für Externer Link: eine KI-Strategie beschlossen. Sie verfolgt vor allem zwei Ziele: Einerseits soll Deutschland "zu einem führenden Standort für die Entwicklung und Anwendung von KI-Technologien" gemacht werden, andererseits will man Regeln aufstellen, um die "verantwortungsvolle und gemeinwohlorientierte Entwicklung und Nutzung von KI sicherzustellen".

Damit steht auch die oben angesprochene Frage im Raum, ob Internetkonzerne wie Google oder Facebook ihre Algorithmen ganz oder teilweise offenlegen sollten, weil die Technologien bestehende Vorurteile eher bestärken. So berichtete etwa die Politikwissenschaftlerin Julia Krüger Externer Link: bei der Konferenz re:publica 2018 über Algorithmen, die Menschen nach bestimmten Kriterien unterscheiden und kategorisieren können. Das könne aber zum Beispiel dazu führen, dass ein Programm zur automatisierten Bewerberauswahl Frauen gegenüber Männern benachteilige, weil Frauen oft längere Unterbrechungen in ihren Karrieren haben – vor allem, weil sie Kindern bekommen. Ein anderes Beispiel ist Software zur Gefährdungsprognose, die etwa in den USA zur Bewertung von potentiellen Straftätern eingesetzt wird. Hier habe es immer wieder Beispiele für die Diskriminierung von schwarzen Männern gegeben. Krüger forderte auf, dass Vertreter der Zivilgesellschaft bei der Entwicklung dieser Technologie einbezogen werden sollten.

Die Bundesregierung hat bereits gefordert, Externer Link: dass Facebook und andere Konzerne ihre Algorithmen offenlegen. Weit gekommen ist sie damit nicht: Mehr als die Zusage, das Ansinnen "wohlwollend prüfen" zu wollen, gab Facebook Externer Link: nach einem Spitzentreffen 2018 nicht. "Wir verstehen, dass Transparenz der Algorithmen für die deutschen Bürger wichtig ist", sagte Facebook-Manager Joe Kaplan, der im April 2018 im Digitalausschuss des Bundestags zu Gast war. Facebook teile das Ziel, durch Algorithmen niemanden diskriminieren oder benachteiligen zu wollen. "Wir wollen gemeinsam daran arbeiten, Rahmenbedingungen zu entwickeln, die auf den Prinzipien Transparenz, Kontrolle und Nichtdiskriminierung basieren", so Kaplan.

Ob solche Versprechen ernst gemeint sind, darf zumindest bezweifelt werden. Das wurde zuletzt Anfang Februar 2019 deutlich, als das Bundeskartellamt Facebook untersagte, auf verschiedenen Plattformen gesammelte Nutzerdaten zusammenzuführen. Facebook kündigte umgehend an, dagegen juristisch vorgehen zu wollen. Denn während die Netzgiganten zum Beispiel in Externer Link: Wettbewerbs- und Externer Link: Steuerfragen für europäische Behörden durchaus angreifbar sind, gilt das nicht für grundsätzliche Fragen der Unternehmensführung. Google machte jedenfalls bereits deutlich: Algorithmen sind ein Geschäftsgeheimnis. Und angesichts der Macht der Internet- und Technologiekonzerne ist die Frage offen, ob Politiker ihre Forderungen nach mehr Transparenz umsetzen können. Die Auseinandersetzung geht weiter.

Wie sehr Algorithmen und künstliche Intelligenz heute und in Zukunft unser aller Leben bestimmen, wird allerdings nicht so sehr in Gerichten entschieden, sondern im gesamtgesellschaftlichen Diskurs. Denn welche Regeln wir für die lernenden Maschinen brauchen, kann und muss am Ende der Gesetzgeber entscheiden – und der wird in Deutschland von den Wählerinnen und Wählern bestimmt. Für informierte Entscheidungen auf allen Seiten bedarf es jedoch mehr Transparenz darüber, wie weit der Einfluss von Algorithmen bereits reicht – und auch einer (selbst)kritischen Diskussion, dass die treibende Kraft dahinter unsere Bereitschaft zur Übermittlung persönlicher Daten ist.

Sebastian Schöbel-Matthey hat an der HU-Berlin Geschichte und Amerikanistik studiert und parallel mehrere Jahre als Autor für Zeitungen und Nachrichtenportale gearbeitet. Er absolvierte ein multimediales Volontariat an der electronic media school in Potsdam-Babelsberg, danach arbeitete er beim Rundfunk Berlin-Brandenburg, wo er als Reporter beim Inforadio und als Redakteur beim Nachrichtenportal rbb-online tätig war. Es folgten regelmäßige Entsendungen in das Hauptstadtstudio Berlin und eine Vertretung im ARD-Studio London. Von Februar 2016 bis Februar 2018 war er Hörfunk-Korrespondent im ARD-Studio Brüssel. Seit März 2018 ist er zurück beim rbb und arbeitet als Redakteur beim neuen Onlineportal rbb24 und als Korrespondent in der landespolitischen Redaktion.