Es ist heute kaum mehr möglich, Suchmaschinen zu vermeiden. Sie sind zu unverzichtbaren Navigationsinstrumenten für die dynamische und expandierende Informationslandschaft des Internet geworden. Da das Internet weder über einen eigenen Index noch ein Katalogisierungssystem verfügt, erfüllen Suchmaschinen eine zentrale Aufgabe: digitale Information zugänglich und damit nutzbar zu machen. Es ist schwer, sich den Alltag in den Informationsgesellschaften ohne sie vorzustellen. Dieses Buch platziert Suchmaschinen am Ende einer langen Geschichte von Versuchen, Ordnung in den stets fragilen Informationsuniversen zu schaffen. Es beschäftigt sich mit zentralen sozialen und politischen Fragen, die von den Suchmaschinen der Gegenwart aufgeworfen werden, und es stellt Sichtweisen vor, die mit den von diesen Suchmaschinen etablierten Paradigmen brechen.
Derzeit nimmt Google einen besonderen Platz im Bereich der digitalen Suche ein. Erstens beherrscht es den Markt in einem Ausmaß, das in vielen Ländern der Welt de facto einem Monopol gleichkommt.
Wir befinden uns noch in der Gründungsphase der digitalen Informationslandschaften, egal was die Finanzmärkte jeweils gerade vom "Technologiesektor" halten. Die Geschwindigkeit und die Dynamik der Entwicklung von Suchtechnologien belegen das. Es ist schwer, die Details im Auge zu behalten. Aber vielleicht ist das auch der falsche Zugang. Wir sollten uns wohl vielmehr auf die strukturellen, langfristigen politischen Fragen konzentrieren, die mit dieser Entwicklung einhergehen. In der täglichen Wirklichkeit der Informationsüberflutung ist es wichtig, sowohl die Willkür der Werkzeuge zu erkennen, von denen wir abhängig geworden sind, als auch, dass die Hierarchien auf den Märkten und in den Suchergebnissen nicht wundersam durch die Natur selbst hervorgebracht werden. Unschuldige Anwendungen, die sich nahtlos in die Routine des Alltagslebens in Beruf und Freizeit einfügen, verformen unsere Wahrnehmung und nisten sich in die Textur unserer kognitiven Wirklichkeit ein. Die meisten Nutzer akzeptieren diese Vorstrukturierung durch die Technologie unkritisch.
Mit diesem Buch wollen wir den Blick auf die soziale und technische Konstruktion von Information und Wissen leiten: Wie wird computer-lesbare Signifikanz geschaffen, und wie wird Bedeutung in der maschinellen Kommunikation behandelt? Welche Gefahren birgt die Abhängigkeit von Suchmaschinen – besonders, wenn sie von undurchsichtigen und aggressiven Monopolen betrieben werden – bei der Verwendung der durch sie gewonnenen Informationen? Und könnte das alles auch ganz anders sein? Diese Fragen der Kultur, des Kontexts und der Klassifizierung in Informationssystemen sollten nicht übergangen werden, denn was hier auf dem Spiel steht, ist nichts weniger als die Art und Weise, in der wir als Individuen und Kollektive etwas über die Welt erfahren.
Obwohl Suchmaschinen selten als Massenmedien wahrgenommen werden, nehmen sie eine zentrale Stellung in unserer vernetzten Gesellschaft ein. Verglichen mit ihrem Einfluss auf Kultur, Ökonomie und Politik erscheint jener der TV- und Rundfunknetzwerke und der Zeitungen mitunter recht klein. Dennoch verstehen wir die Macht, die von ihnen ausgeht, immer noch nicht. Es geht hier offensichtlich nicht um klassische redaktionelle Fragen. Vielmehr geht der ungemein große Einfluss der Suchmaschinen auf die Datenflüsse eines weitgehend dezentralisierten Netzwerks auf ihre Lage an den Engstellen der Informationsinfrastruktur zurück. Macht geht auch hier mit der Möglichkeit des Missbrauchs einher und mit der Sorge um ihre legitime und angemessene Ausübung.
Der vorliegende Band stellt einen Versuch dar, einen Beitrag zur öffentlichen Debatte zu leisten, die in den letzten Jahren in Gang gekommen ist. Er besteht aus vier Abschnitten. Der erste Abschnitt befasst sich mit Geschichten. Paul Duguid untersucht die wechselnden Arrangements, welche seit den ersten sumerischen Bibliotheken mit der Praxis des Suchens verbunden sind. Er identifiziert dabei zwei Trends, die quer durch alle Perioden festzustellen sind. Zum einen die Notwendigkeit, immer größere Informationsmengen zu verwalten, die zu einer treibenden Kraft in der Entwicklung von Speichermedien, Organisation und Suchtechniken wurde. Zum anderen eine ständige Spannung zwischen jenen Praktiken, die den Zugang zu Information im Namen der Freiheit erleichtern, und jenen, welche die Möglichkeiten, mit Information zu arbeiten, im Namen der Qualität einschränken. Nach diesem breit angelegten Überblick beschäftigt sich Robert Darnton mit der Geschichte unseres Umgangs mit Text und der Bibliothek als einer der zentralen Einrichtungen. Er geht von der Feststellung aus, dass Information immer instabil gewesen ist, und dass jedes Zeitalter ein Informationszeitalter war, und zwar in dem Sinn, dass die jeweils spezifischen Formen des Umgangs mit Text großen Einfluss auf die Geschichte hatten. Dies öffnet den Blick dafür, dass Information sich niemals einfach nur auf externe Realitäten bezieht, sondern immer (auch) das Produkt spezifischer Speicher- und Wiedergabetechnologien ist. Darnton fragt daher, was in den Übergängen von einem Informationsverarbeitungssystem zum nächsten gewonnen wird, und was verloren geht. Mit Blick auf diese Instabilität kommt er zu dem Schluss: "Lang lebe Google, aber erwarten wir uns nicht, dass es lange genug leben wird, um das altehrwürdige Bibliotheksgebäude mit den korinthischen Säulen zu ersetzen." Google beruht – wie praktisch jede andere aktuelle Suchmaschine – auf einem Linkanalyse-Verfahren, das heißt, es analysiert die Links, die auf ein Dokument verweisen, um so die relative Wichtigkeit dieses Dokuments zu bewerten. Obwohl dies oft als bedeutender Durchbruch gilt, zeigt Katja Mayer, dass dieser soziometrische Zugang selbst eine lange Geschichte hat. Er wurde im frühen 20. Jahrhundert mit der politisch progressiven Absicht entwickelt, kleine Gruppen dabei zu unterstützen, ihre eigene, oft überraschende interne Dynamik zu verstehen. Später wurde die Soziometrik in eine Management-Technik umgeformt, die es ermöglichte, wissenschaftliche Arbeit zu beurteilen, ohne sich auf die komplexen Argumente einzulassen, die in einer immer größeren Zahl von wissenschaftlichen Disziplinen vorgebracht wurden. Der in den 1950er-Jahren entwickelte Science Citation Index schien eine politisch neutrale, rein formale Methode zur Bestimmung der Bedeutung von Veröffentlichungen und Wissenschaftlern anzubieten. Diese Methode wurde von den Suchmaschinen übernommen und wird nun in allen Bereichen der Informationsproduktion eingesetzt. Sie wird jedoch zunehmend bekannter und damit – wie der Citation Index selbst – ein Gegenstand von Manipulationen, dessen innere Grenzen deutlich zu Tage treten. Das letzte Kapitel in diesem Abschnitt stammt von Geert Lovink. Er greift Joseph Weizenbaums Feststellung auf, wonach "nicht alle Aspekte der Wirklichkeit mit dem Computer verarbeitet werden können", und stellt die Frage, wie wir in historisch und sozial bewusster Weise über die Informationsflut nachdenken können, welche Suchmaschinen uns zugänglich machen wollen. Sein Rat lautet: Hört auf zu suchen, beginnt zu fragen!
Der zweite Abschnitt befasst sich mit Freiheiten. Suchmaschinen geben Menschen die Möglichkeit, riesige Informationsmengen zu nutzen, doch allein schon die damit einhergehende Zentralisierung macht sie zu Instanzen, die genau diese Freiheiten kontrollieren. Claire Lobet-Maris untersucht die Methoden der Technikfolgenabschätzung und formuliert aus dieser Perspektive die Frage, wie Suchtechnologien Gegenstand einer demokratischen Debatte werden könnten. Aus ihrer Sicht sind drei Fragen zu stellen: die Frage der Gleichheit (gleiche Chancen, online gefunden zu werden), die Frage der Tyrannei der Mehrheit (die Link-Analyse begünstigt populäre Seiten), und schließlich die Frage der Transparenz (also die Möglichkeit, die Funktionsweise von Suchmaschinen zu bewerten und in Frage zu stellen). All dies führt zur Frage der Autonomie. Diese könnte nach Lobet-Maris eingeschränkt werden, wenn Suchmaschinen davon ausgehen, dass der "klickende Körper", also die Spuren, die Menschen hinterlassen und die von Suchmaschinen aufgesammelt werden, vertrauenswürdiger ist als der "sprechende Körper" – das also, was Menschen über sich selbst zu sagen haben. Joris van Hoboken wählt einen anderen Zugang zur Frage der Freiheit: Gegenstand seines Beitrags ist die Regulierung von Suchmaschinen in der europäischen Gesetzgebung. Immer häufiger, so van Hoboken, werden Suchmaschinen Ziele von Zugangsbeschränkungen zu Information, indem sie gezwungen werden, ihre Resultate zu zensurieren. Van Hoboken betont, dass die vielen Grauzonen, in denen Suchmaschinen arbeiten müssen, die Chancen für Neueinsteiger auf dem Suchmarkt schmälern. Ein Grund, weshalb Google seine Dienste noch anbieten kann, ist daher seine große und mächtige Rechtsabteilung – eine Voraussetzung für die Arbeit in diesem Bereich. Das dritte Kapitel in diesem Abschnitt stammt von Felix Stalder und Christine Mayer und kehrt zur Frage zurück, ob Suchmaschinen die Autonomie der Nutzer stärken oder schwächen. Ihr Zugang zu dieser Frage konzentriert sich auf das Thema Personalisierung, also den Zuschnitt von Diensten auf Nutzer und Anzeigenkunden aufgrund von extensiven Nutzerprofilen. Liegt darin eine Möglichkeit, die Tyrannei der Mehrheit zu überwinden, indem Information verfügbar gemacht wird, die nicht so populär ist – oder wird die Autonomie der Nutzer reduziert, indem Überwachung und Manipulation durch soziales Sortieren vorangetrieben werden?
Der dritte Abschnitt behandelt direkt Fragen der Macht. Zunächst untersucht Theo Röhle anhand von Begriffen Foucaults und der Actor-Network-Theorie die fragile Kombination aus Belohnung und Bestrafung, die Google einsetzt, um Webmaster unter Kontrolle zu halten. Röhle zufolge führe diese Strategie zu einem disziplinären Regime, welches eine bestimmte Norm für Web-Veröffentlichungen durchsetzt. In einer Untersuchung der Beziehungen zwischen Google und den Nutzern identifiziert Röhle Machtformen, die darauf abzielen, differenzierte Verhaltensmuster zu kontrollieren, indem sie ein umfassendes statistisches Panorama einer Bevölkerung anlegen und das so gewonnene Wissen als Mittel eines präventiven Risikomanagements einsetzen. Bernhard Rieder stellt fest, dass die Diskussion um die Macht der Suchmaschinen oft von einer großen Distanz zwischen technischen und normativen Zugängen beeinträchtigt wird, obgleich diese voneinander profitieren könnten. Um dieser Distanz entgegenzuwirken, entwickelt er eine technisch sensible normative Position, die sich für Pluralität, Autonomie und Zugang als alternative Leitbegriffe für Politik und Design ausspricht. Seine Schlussfolgerungen überraschen: Einen der wichtigsten Strategien, um die uneingeschränkte Macht von Suchmaschinen zu kontrollieren, könnte darin bestehen, Drittparteien die Möglichkeit zu verschaffen, Suchergebnisse neu zu reihen. Wir sollten Zugang zum Index fordern! Dies würde einer Vielfalt von Akteuren die Möglichkeit geben, die riesige Infrastruktur der Suchmaschinen (die äußerst schwer nachzubauen ist) zu nutzen, gleichzeitig aber alternative Ranking-Methoden einzusetzen (was vergleichsweise einfach ist). Mit dem darauf folgenden Beitrag Matteo Pasquinellis wird ein Schritt von einer liberalen zu einer radikalen Perspektive vollzogen: Pasquinelli untersucht, wie Google aus individuellen Handlungen und general intellect Mehrwert abschöpft und in Netzwerkswert und Reichtum verwandelt. Pasquinelli beschreibt diesen Vorgang anhand des Begriffs der "kognitiven Pacht". Bei dieser geht es nicht mehr um geistiges Eigentum, sondern um einen auf "freie Kultur" und "kostenlose Arbeit" zugeschnittenen Begriff. Der letzte Beitrag in diesem Abschnitt stammt von Konrad Becker. In seinem frei assoziierenden Essay befasst er sich mit der Rolle von Klassifizierungssystemen als Technologien der Macht und betont: "Technologien der Wahrnehmung sind Ausdruck politischer Philosophie, maskiert als neutraler Code."
Der letzte Abschnitt beschäftigt sich mit Fragen der Sichtbarkeit. Richard Rogers stellt eine schleichende "Vergoogelung" der ganzen Medienlandschaft fest, wonach die Methoden, die Google zur Vorherrschaft verholfen haben, nun auch anderswo eingesetzt werden. Diese Methoden sind nie rein technisch, sondern immer auch politisch, wenn nicht der Absicht nach, so doch in ihrer Wirkung. Eine von Rogers vorgeschlagene Methode zur Beurteilung dieser Entwicklungen besteht in einer Auseinandersetzung damit, wie "geringfügige Veränderungen des Interfaces eine Politik des Wissens implizieren". Metahaven, ein Forschungs- und Designstudio, wendet sich erneut der Soziometrik und dem vorherrschenden Paradigma zu, auf dem PageRank beruht. Anstatt sich jedoch auf die üblichen dicht verlinkten Knoten zu konzentrieren, stellen sie die Frage, "wie eine andere Sicht auf die gesellschaftliche Bedeutung von 'schwachen Bindungen' zu einer größeren Wertschätzung ihrer Relevanz in Netzwerken führen kann". Anhand von fortgeschrittener Netzwerktheorie stellen sie den Zugang, der sich auf die Redundanz des Zentrums konzentriert einem anderen gegenüber, der bestimmte Positionen an der Peripherie sucht. Sie suchen nach Seiten, die engmaschige Cluster miteinander verbinden und die tatsächlich Zugang zur größtmöglichen Menge an Information herstellen könnten, da sie Welten miteinander verbinden, die ansonsten voneinander getrennt sind. Der Beitrag stellt den Präsidentschaftswahlkampf Barack Obamas und die gegenwärtige Netzwerkstruktur von Al Quaida als Beispiele für das Potenzial einmaliger schwacher Bindungen vor, die an die Stelle von redundanten starken Bindungen treten. Das letzte Kapitel in diesem Abschnitt ist von Lev Manovich und hat dessen ehrgeiziges neues Projekt zur Grundlage. Er verabschiedet sich von der herrschenden Vorstellung, man solle das eine richtige Dokument finden. Stattdessen vertritt er den Standpunkt, dass wir die Paradigmen des 20. Jahrhunderts aufgeben müssen: Diese beruhten auf relativ kleinen Datensätzen, welche noch Einzeluntersuchungen ermöglichten (so wie Bilder an weißen Museumswänden getrennt voneinander präsentiert werden). Nach Manovich müssen wir uns aber mit der Tatsache anfreunden, dass die kulturelle Entwicklung nicht mehr auf einige privilegierte Produzenten reduziert werden kann, sondern heute durch die Interaktion von Millionen von Produzierenden vorangetrieben wird, die die gleichen Werkzeuge einsetzen und auf die gleichen Informationen reagieren. Manovich lässt damit die Logik der Ergebnislisten hinter sich und stellt neue Formen des Zugangs zu globalen digitalen Kulturen vor.
Neue technische Entwicklungen und Durchbrüche im Bereich der Organisation, der Klassifizierung und der Analyse von großen Datensätzen markieren den Punkt, an dem die Geschichte auf die Zukunft trifft. Er erinnert uns daran, dass Freiheiten immer verteidigt und neu verhandelt werden müssen, und dass Sichtbarkeit und Unsichtbarkeit der Autonomie und der Befähigung aller dienen müssen.
Dank
Viele der Beiträge in diesem Band wurden zuerst auf der Deep Search-Konferenz vorgestellt, die am 8. November 2008 in Wien stattfand. Die damaligen Präsentationen sind als Videostreams abrufbar.http://world-information.org/wii/deep_search/ Die Konferenz wurde durch das World-Information Institute in Partnerschaft mit dem internationalen Forschungsnetzwerk IRF (Information Retrieval Facility) organisiert und geplant und von Matrixware Information Services und dem Österreichischen Bundesministerium für Unterricht, Kunst und Kultur unterstützt.
Die Produktion einer Konferenz und eines Buchs ist eine große Aufgabe, die nicht ohne die Hilfe und Unterstützung zahlreicher Menschen realisiert werden kann. Wir möchten allen Teilnehmern für ihre großartigen Beiträge
Wien, April 2009
Konrad Becker und Felix Stalder
World-Information Institute