Algorithmen sind Abfolgen von genau definierten Arbeitsschritten, die nacheinander ausgeführt zu einem bestimmten Ergebnis führen. Meist versteht man darunter komplexe Rechenvorgänge, aber auch ein einfaches Backrezept kann als Algorithmus beschrieben werden: Man mische genau abgemessene Mengen bestimmter Zutaten, bearbeite sie auf eine vorgeschriebene Art und Weise, erhitze das Ganze für eine definierte Zeit bei einer festgelegten Temperatur und erhalte eine bestimmte Backware. Jede exakt gleiche Wiederholung sollte zum exakt gleichen Ergebnis führen. Im Netz sind Algorithmen freilich viel komplexere, mathematische Berechnungen in Form von Codes, die zum Beispiel Web-Inhalte filtern und individuell angepasst anzeigen – basierend auf großen Mengen an Nutzerdaten, die von Plattformen wie Facebook, YouTube oder Amazon gesammelt werden. Bei komplexen Vorgängen wie diesen kann das vorgegebene "Ergebnis" auch als Zielvorgabe verstanden werden. Um beispielsweise die Watch Time, also die Sehdauer, auf einer Plattform zu erhöhen, reicht natürlich nicht eine Regel. Stattdessen wird eine Vielzahl von Regeln angewandt, die voneinander und auch von wechselnden Nutzerdaten abhängen. Das Ergebnis bzw. die Zielvorgabe zu erreichen, ist also gar nicht so leicht, weswegen vor allem Algorithmen von Social-Media-Plattformen häufiger umgestellt werden, um sie aus Sicht der Plattformbetreiber weiter zu optimieren.
Zuletzt wurde vor allem der Algorithmus von Facebook diskutiert: Externer Link: Der neue "News Feed"
Die Welt durch die Algorithmus-Brille gesehen
Die Änderung des Facebook-Algorithmus löste zum wiederholten Mal eine Debatte über den Einfluss der versteckten Logik hinter den sozialen Netzwerken aus: Denn Plattformen wie Facebook, Instagram oder Google beeinflussen, wie ihre Nutzer die Welt sehen. "Was dort nicht stattfindet, das hat auch in der Welt nie stattgefunden", spitzt es der bekannte deutsche Technik-Journalist Richard Gutjahr zu. Facebook und Co. lösen zunehmend die traditionellen und journalistischen Vorgaben unterworfenen Medien in ihrer Rolle als Informationsfilter ab. Damit fehlt bei der Berichterstattung über aktuelle Ereignisse oft die Überprüfung von Informationen: Recherche wird durch Mutmaßung ersetzt – oder durch Manipulation.
Welche Auswirkung das haben kann, zeigte die letzte Präsidentschaftswahl in den USA: Nach dem Sieg von Donald Trump offenbarten viele Studien, wie weitgehend der Externer Link: Einfluss von sogenannten "Fake News"
Der nächste Schritt: Künstliche Intelligenz
Wie sehr ein Algorithmus die Sicht auf die Welt beeinflussen kann, lässt sich allerdings nicht nur bei Facebook nachweisen. So zeigte zum Beispiel der Social-Media-Experte Ray Serrato, dass der für die deutsche YouTube-Seite eingesetzte Algorithmus Nutzern nach einem Tötungsdelikt in Chemnitz im August und September 2018 verstärkt rechtsgerichtete Inhalte empfahl.
Das Beispiel zeigt, wie gefährlich die Logik der Social-Media-Algorithmen sein kann: Ausgerichtet auf das kommerzielle Interesse der Anbieter sollen die Userinnen und User vor allem Beiträge sehen, mit denen häufig interagiert wurde, um so eine möglichst lange Verweildauer zu garantieren – denn je länger sie bleiben, desto mehr Werbung schauen sie sich an. Ob – wie in diesem Fall – viele der vorgeschlagenen Videos gezielte "Fake News" beinhalteten, wurde nicht beachtet. Nach kritischer Berichterstattung zur Wirkungsweise von Algorithmen im Fall Chemnitz reagierte YouTube und passte seinen Algorithmus an. In den Suchergebnissen zu Chemnitz sollten fortan bevorzugt Berichte von vertrauenswürdigen Quellen angezeigt werden.
Die Codezeilen der Algorithmen sind die Basis für den wirtschaftlichen Erfolg der Konzerne, die dazu gespeicherten Nutzerdaten zementieren ihre Macht. Zudem investieren die Konzerne längst in die Technologie, welche die Algorithmen auf die nächste Entwicklungsstufe heben: Künstliche Intelligenz (KI). Die Algorithmen "lernen" ständig dazu, entwickeln sich aufgrund der gesammelten Nutzerdaten und veränderten Vorgaben der Internetkonzerne selbständig weiter.
So können sie inzwischen weit mehr, als nur Suchergebnisse im Internet filtern. Google setzt die Technologie etwa in seinem "Google Assistant" ein, einem Programm, das man per Spracheingabe steuern kann und das in Zukunft die Schnittstelle zwischen Menschen und dem "Internet der Dinge", quasi dem vernetzten Haushalt, sein soll. Künstliche Intelligenz soll es dem Assistant erlauben, Externer Link: beinahe menschenähnliche Konversationen
Lassen sich die Konzerne in die Karten schauen?
Die Bundesregierung hat Ende 2018 Eckpunkte für Externer Link: eine KI-Strategie
Damit steht auch die oben angesprochene Frage im Raum, ob Internetkonzerne wie Google oder Facebook ihre Algorithmen ganz oder teilweise offenlegen sollten, weil die Technologien bestehende Vorurteile eher bestärken. So berichtete etwa die Politikwissenschaftlerin Julia Krüger Externer Link: bei der Konferenz re:publica 2018
Die Bundesregierung hat bereits gefordert, Externer Link: dass Facebook und andere Konzerne ihre Algorithmen offenlegen.
Ob solche Versprechen ernst gemeint sind, darf zumindest bezweifelt werden. Das wurde zuletzt Anfang Februar 2019 deutlich, als das Bundeskartellamt Facebook untersagte, auf verschiedenen Plattformen gesammelte Nutzerdaten zusammenzuführen. Facebook kündigte umgehend an, dagegen juristisch vorgehen zu wollen. Denn während die Netzgiganten zum Beispiel in Externer Link: Wettbewerbs- und Externer Link: Steuerfragen für europäische Behörden durchaus angreifbar sind, gilt das nicht für grundsätzliche Fragen der Unternehmensführung. Google machte jedenfalls bereits deutlich: Algorithmen sind ein Geschäftsgeheimnis. Und angesichts der Macht der Internet- und Technologiekonzerne ist die Frage offen, ob Politiker ihre Forderungen nach mehr Transparenz umsetzen können. Die Auseinandersetzung geht weiter.
Wie sehr Algorithmen und künstliche Intelligenz heute und in Zukunft unser aller Leben bestimmen, wird allerdings nicht so sehr in Gerichten entschieden, sondern im gesamtgesellschaftlichen Diskurs. Denn welche Regeln wir für die lernenden Maschinen brauchen, kann und muss am Ende der Gesetzgeber entscheiden – und der wird in Deutschland von den Wählerinnen und Wählern bestimmt. Für informierte Entscheidungen auf allen Seiten bedarf es jedoch mehr Transparenz darüber, wie weit der Einfluss von Algorithmen bereits reicht – und auch einer (selbst)kritischen Diskussion, dass die treibende Kraft dahinter unsere Bereitschaft zur Übermittlung persönlicher Daten ist.