Ein Großteil der Debatte über die Zukunft von Datenschutz und Big Data kreist um die verbreitete, jedoch selten hinterfragte Annahme, dass es sich beim Datenschutz lediglich um ein Schutzschild gegen Eingriffe des Staates, der Medien oder Großunternehmen handele. Daher wird oft davon ausgegangen, dass Verletzungen der Privatsphäre einmalige Vorkommnisse aufgrund irgendeines Lecks seien: Vertrauliche persönliche Informationen werden plötzlich mit einem viel größeren Personenkreis geteilt; was einst ein Geheimnis war, wird auf einmal allgemein bekannt – und lässt sich nicht wieder geheim machen; und so weiter.
In dieser Logik gelten Verletzungen der Privatsphäre merkwürdigerweise als eher flüchtige Ereignisse, die eigentlich auf die Enthüllung eines größeren Geheimnisses zielen – eines entwickelten, statischen Guts, das durch verschiedene Datenschutzmaßnahmen gesichert werden soll. Wer also annimmt, dass hinter der schützenden Schicht aus Recht oder Konvention kein solches Gut existiert, hat auch kein Problem damit, wenn sich die flüchtigen Verletzungen der Privatsphäre häufen: Gibt es im "Tresor unserer Privatsphäre" nichts zu holen, ist es egal, wie oft die Bank überfallen wird. Dies ist das theoretische Gerüst, auf das sich die nichtssagende, dennoch überall anzutreffende Phrase stützt: "Ich habe doch nichts zu verbergen."
Ein Problem dieser Argumentation ist, dass sie sich vor allem auf die Vergangenheit, nicht aber auf die Zukunft bezieht. Sie ist hilfreich, um "statische" Güter vor einmaligen Angriffen zu schützen, nicht aber, um im Einklang mit den eigenen Prinzipien und Werten eine Vorstellung von zukünftigen, dynamischen Schutzgütern zu entwickeln. Doch was ist, wenn das wahre Ziel von Datenschutz darin besteht – statt einen gut ausgestalteten Datenbestand an Geheimnissen vor ständigen Angriffen zu schützen –, gute Bedingungen für die Herausbildung einer neuen, zukunftsorientierten Identität zu schaffen, die unabhängig ist von den zahlreichen Beschränkungen durch Staat und Großunternehmen? Mit anderen Worten: Was ist, wenn Datenschutz nicht primär das Ziel hat, sicherzustellen, dass wir verbergen können, was wir verbergen wollen, sondern uns allen zu erlauben, das zu sein, was wir sein könnten – sogar in einer Zeit, in der die Räume zum Experimentieren schrumpfen, weil die Bedürfnisse der Geheimdienste stetig wachsen und sich die Geschäftsmodelle von Konzernen laufend weiterentwickeln?
Wenn dies tatsächlich der Fall ist, wenn es also nicht so sehr um die Wahrung unserer Geheimnisse geht, sondern um die Wahrung ausgedehnter offener Räume, in denen wir weiterhin mit verschiedenen Ideen, Lebensstilen und Identitäten experimentieren können, dann funktioniert das "Ich-habe-doch-nichts-zu-verbergen-Argument" nicht mehr, denn es erfasst nicht den eigentlichen Gegenstand, um den es bei der Aufgabe von Privatsphäre geht. Stattdessen müsste die Parole aktualisiert werden in "Ich habe doch nichts zu tun" oder "Ich habe doch nichts zu wollen", was eine passende Beschreibung der von Byung-Chul Han analysierten "Müdigkeitsgesellschaft" sein könnte: Die Aufgabe des eigenen Raums zum Experimentieren bedeutet die Aufgabe jeder Ambition, das eigene Leben selbst zu bestimmen – also die stillschweigende Akzeptanz des Status quo.
Sollte es gelingen, uns von diesem theoretischen Vorurteil freizumachen, dass es beim Datenschutz um den Schutz eines Gutes aus der Vergangenheit geht, und würden wir Datenschutz stattdessen als Möglichkeit betrachten, eine alternative Zukunft zu leben – eine, die uns von niemandem aufgezwungen wird, sondern die wir uns selbst teilautonom wählen – dann würden wir erkennen, dass die gegenwärtigen Prozesse, die alles quantifizieren und datafizieren, diese Möglichkeit stark einschränken. Ich möchte zwei aktuelle Prozesse skizzieren, von denen einer mit Unternehmen und einer mit dem Staat zu tun hat. Meiner Meinung nach stellen sie die größte Herausforderung für den Schutz jener privaten Räume dar. Gewiss: Diese Zweiteilung ist etwas künstlich, denn – und ich hoffe, dies wird deutlich – die größte Herausforderung ist die wirkmächtige Verschmelzung kommerzieller Interessen heutiger Unternehmen mit den Sicherheitsinteressen heutiger Regierungen.
Lautlose Schlacht um unsere Optionen
Unternehmen wissen inzwischen, dass detaillierteste Kenntnisse über ihre Kundinnen und Kunden größere Profite ergeben. Sie sammeln daher so viele Daten wie möglich und richten sich nach denjenigen, die die besten Plattformen zur Beobachtung unseres Verhaltens bieten – derzeit sind das Facebook und Google. Was machen sie jedoch mit all den Daten? Nun, sie analysieren sie, um zu gewährleisten, dass wir noch mehr ihrer Produkte konsumieren, indem sie uns auf eine gezielte, schwer zu widerstehende Art und Weise ansprechen: Streamingdienste versuchen, unseren Musik- oder Filmgeschmack zu analysieren und empfehlen uns immer wieder Produkte, die uns wahrscheinlich gefallen. In diesem Fall ist die Manipulation minimal und nicht besonders besorgniserregend (natürlich nur, sofern Sie nicht der Ansicht sind, dass hier eine Abwärtsspirale wirkt, die uns zu Gefangenen unseres eigenen Geschmacks zu machen droht, weil wir nichts mehr erfahren, das auch nur leicht davon abweicht).
Will man jedoch verstehen, welche Art social engineering diese enormen Datensammlungen tatsächlich leisten können, muss man sich andere Wirtschaftszweige ansehen. Nehmen wir zum Beispiel die Glücksspielbranche in den USA. Dort haben Casinos herausgefunden, wie sie durch detaillierte Datenanalysen und sorgfältig zugeschnittene Angebote Kunden wieder nach Las Vegas locken können – etwa, indem Konzerttickets der Lieblingsband in Aussicht gestellt werden oder kostenlose Dinners und Hotelübernachtungen zu bestimmten Terminen, die den Kunden etwas bedeuten. Die Grundidee dabei ist, dass Firmen durch die Dauerbeobachtung ihrer Kunden verborgene emotionale Anreize setzen können. Diese sind nicht unbedingt leicht auf jene Firmen zurückzuführen, führen jedoch dazu, dass mehr Produkte konsumiert werden. Natürlich ist dieser Trend älter als die digitalen Medien, aber die digitalen Medien liefern den Datenrohstoff, der solches emotional engineering ermöglicht.
Das Albtraumszenario sieht folgendermaßen aus: Durch eine Google-Suche, einen Tweet oder indem Sie etwas auf Facebook posten, zeigen Sie an, dass Sie irgendetwas vorhaben. Sie brauchen sich noch nicht einmal Ihrer Absichten bewusst zu sein: Genau wie unsere Körpersprache gibt auch unsere verbale Kommunikation Emotionen und Absichten preis, die uns noch unbekannt sind. Technologieunternehmen können sowohl verbale als auch nonverbale Äußerungen analysieren und zur Vorhersage unseres Verhaltens einsetzen. Da Sie also eine Absicht kundgetan haben, etwas zu tun oder zu kaufen – oder eventuell Ihr bisheriges Verhalten radikal zu ändern – beginnt im Hintergrund plötzlich eine unsichtbare Auktion um Ihr Leben. Manche Firmen würden es gern sehen, wenn Sie X täten (etwa Vegetarierin oder Vegetarier werden), während anderen Y lieber wäre (dass Sie weiterhin Fleisch essen) – die lautlose mathematische Schlacht zwischen den Firmen (und ihren Algorithmen) gestaltet den sozioökonomischen Hintergrund, vor dem Sie entscheiden.
Natürlich muss man diesen postmodernen Weg nicht vollständig mitgehen und kann darauf verweisen, dass die Entscheidung letztlich in unserer Hand liegt; das ist zwar sicherlich der Fall, aber es scheint mir unbestreitbar, dass die Faktoren, die unsere Entscheidungen heute mitbestimmen, weitaus komplexer – und weitaus stärker marktgesteuert – sind als beispielsweise vor dreißig Jahren. Damals wurden unsere Einstellungen und Entscheidungen viel stärker von anderen Faktoren beeinflusst; die Wahrscheinlichkeit war viel größer, dass wir unser Handeln an irgendeiner Art religiösem oder spirituellem Paradigma ausrichteten, ähnlich wie unsere Eltern oder nächsten Verwandten entschieden oder uns einfach so verhielten, dass wir in einer kleineren Gemeinschaft nicht auffielen. Man kann sicherlich froh darüber sein, dass uns die Moderne von einigen dieser Einschränkungen befreit hat. Doch man müsste schon recht naiv sein, um zu glauben, dass das Vakuum, das durch die Auflösung von Traditionen entstanden ist, nicht vom heutigen kybernetischen Kapitalismus gefüllt worden sei; er ersetzt das herkömmliche dogmatische Denken mit einer intransparenten, verdeckten Manipulation der uns verfügbaren Optionen. Uns wird glauben gemacht, wir wären "free to choose", wie eine berühmte Wendung der Ökonomen Milton und Rose Friedman lautet, doch die Optionen, die uns offen stehen, sind im Voraus bestimmt.
Wohlgemeinte Schubse
Eine ganz ähnliche Rolle spielen Regierungen. Warum hat der Wirbel um die NSA weniger Resonanz gefunden als manche Cyberaktivistinnen und -aktivisten hofften? Meiner Meinung deshalb, weil die NSA nicht daran interessiert ist, unser Verhalten zu ändern. Sie ist nicht wie ein Casino, dem es darum geht, dass Sie wiederkommen; sie hegt auch nicht wie der Streamingdienst Netflix die Absicht, dass Sie einen weiteren Film anschauen. Vielmehr ist das "Geschäftsmodell" der NSA recht simpel: Daten sammeln, sie für Vorhersagen nutzen und proaktiv gegen mögliche Straftäter vorgehen – worunter Maßnahmen wie Drohnenangriffe und Verhaftungen fallen, nicht aber Manipulationen unseres Verhaltens. Vergleichen Sie die Aktivitäten der NSA mit der Arbeit von Bürokraten, die sich mit Problemen wie Fettleibigkeit oder Klimawandel auseinandersetzen, wird der Unterschied deutlich: Deren Aufgabe ist es ja gerade, unser Verhalten zu ändern, zum Vorteil von uns selbst und der Gesellschaft insgesamt.
Dies erklärt, warum verschiedene Modelle des "dritten Wegs" (zwischen Eingriffs- und Laissez-faire-Staat) – etwa nudging – auf so starkes Interesse stoßen, insbesondere in den USA und im Vereinigten Königreich.
Hier knüpfen zwei Kritikpunkte an. Einer entspricht der Klage über verborgene Manipulation, die oben in Bezug auf Unternehmen formuliert wurde. Die zweite ist jedoch möglicherweise wichtiger: Dieser datenintensive Ansatz zur Lösung politischer und sozialer Probleme verdrängt andere Ansätze, die das Problem vielleicht auf höherer Ebene lösen könnten (etwa indem nicht Bürger, sondern Lobbyisten oder Unternehmen ins Visier genommen werden). Daher sind wir als Bürger "eingeladen", uns eine Logik zu eigen zu machen, die ich als solutionism bezeichne. Es handelt sich dabei um eine Art naiver Technikgläubigkeit, die unter anderem davon ausgeht, dass a) Großunternehmen, die über unser Verhalten Daten sammeln, quasi natürliche Verbündete beim Anpacken großer gesellschaftlicher Herausforderungen sind und b) die einfachste Möglichkeit zur Lösung vieler dieser Probleme die Veränderung unseres individuellen Verhaltens ist, weshalb wir dies für den Standardmodus der Problemlösung halten sollten.
Das Etikett "einfachste" ist in diesem Zusammenhang heikel: Denn dieser Ansatz ist nur deswegen so einfach, weil Daten so breit verfügbar und so leicht zu bekommen sind. Wenn Daten teuer wären oder nicht in Echtzeit gesammelt oder überwacht werden könnten (oder zumindest nicht zu den Personen, die sie erzeugen, zurückverfolgt werden könnten), dann würde dieser Governance-Ansatz plötzlich seinen praktischen (wenn auch nicht seinen ideologischen) Reiz verlieren. In einer hypothetischen Situation, in der wir alle vollkommen sichere, verschlüsselte Kommunikationswege nutzten, wären viele solcher Interventionen nicht möglich, und sie wären mit Sicherheit nicht so wirksam. Die Entscheidung, Transparenz als Standardmodus unserer sämtlichen Datenflüsse zu wählen, ermöglicht daher – unabhängig davon, ob man etwas zu verbergen hat oder nicht – eine Art neoliberaler Gouvernementalität: Diese präsentiert die Ursache sozialer Probleme großenteils als Versagen von Individuen – und nicht als Resultat bestimmter struktureller Bedingungen ihrer sozioökonomischen Milieus.
Die Flut der neoliberalen Eigenverantwortungsrhetorik – durch die wir zunehmend akzeptieren, soziale Probleme durch eine "individuelle Linse" zu betrachten – könnte erklären, warum es nur so wenige Bedenken hinsichtlich der politischen Auswirkungen gibt, wenn unsere persönlichen Daten unkontrolliert im Umlauf sind. Es könnte aber auch sein, dass die politische Dimension (geschweige denn ihre spezifische neoliberale Ausrichtung) dieses Governance-durch-Daten-Ansatzes noch gar nicht vollständig begriffen wurde. Es ist daher notwendig, dass die letztendlichen Folgen dieser Entwicklung aufgezeigt werden – zum Beispiel, dass Unternehmen ihre Aktivitäten laufend ausweiten, während die mit immer raffinierteren Geräten ausgestatteten Bürger einen immer größeren Teil der Verantwortung übernehmen sollen –, um allgemein ein Bewusstsein dafür zu schaffen, was der Niedergang des Datenschutzes für uns alle in der Praxis bedeuten würde.
Mangel an Vorstellungskraft
Lassen Sie mich folgende These wagen: Es könnte gut sein, dass die verbreitete Haltung gegenüber dem Datenschutz nicht deshalb so nachlässig ist, weil wir uns verkalkulieren – weil also die Kosten der Informationstechnologien unter- und die Vorteile überschätzt werden –, sondern weil unsere Fragen nicht die richtigen Variablen enthalten. Technologie an sich spielt hier eher eine banale Rolle. Es geht vielmehr um unsere Unfähigkeit, uns ein Szenario vor Augen zu führen, wie die Dienste, auf die wir mittlerweile angewiesen sind – von Suchmaschinen zu sozialen Netzwerken – außerhalb werbeabhängiger Silicon-Valley-Geschäftsmodelle funktionieren könnten. In diesem Sinne ist die Geschichte tatsächlich zu ihrem Ende gelangt: Die meisten von uns, die wir in entwickelten westlichen Ländern leben, können sich kaum vorstellen, wie eine von Google unabhängige Suche oder E-Mail aussehen könnte – und es ist eine noch viel größere Herausforderung, sich den Weg dorthin vorzustellen.
Letzten Endes erfordern weder Internetsuchen, noch Online-Networking, noch Vermittlungsdienste für Autofahrten wie Uber, dass wir Einzelheiten unserer Identität preisgeben. Zunächst einmal ist ein enormer Anteil von Googles Dienstleistungen unpersönlich: Um den Autor von "Krieg und Frieden" zu ermitteln oder die Wettervorhersage für Berlin zu sehen, brauche ich der Suchmaschine eigentlich nicht mitzuteilen, wer ich bin und wo ich wohne. Tatsächlich geben wir diese Informationen weiter – was aber an Googles Geschäftsmodell liegt, nicht an irgendeiner vorherbestimmten Eigenschaft der Suche per se, die technologisch notwendig und uns deshalb aufgezwungen wäre. Aber auch bei stärker personalisierten Suchen, für die eine Verortung nötig ist, steht dies nicht eindeutig fest: Wir können manche Attribute teilen (wo wir uns geografisch befinden), ohne zu enthüllen, wer wir sind und was wir gestern zu Mittag gegessen haben.
Worum es mir hier geht: Sind solche Dienste erst einmal abgekoppelt von der Werbung, ihrem Hauptgeschäftsmodell, verschwindet die Notwendigkeit ausgiebiger Überwachung – und wir können jegliche erweiterte Funktionen haben, die wir wollen, von bedarfsgesteuerten Verkehrsdienstleistungen bis hin zu stark personalisierten Suchen. Nichts davon würde die extreme Transparenz erfordern, die Google und Facebook uns heute abverlangen. Doch dieser Schritt weg von der Werbung – und ich glaube nicht, dass Abonnements hier eine nachhaltige Lösung wären – würde bedeuten, dass wir außerdem fragen müssten, ob es eine kluge Idee war, all dies überhaupt dem privaten Sektor zu überlassen.
Das heißt, es ist durchaus möglich, sich ein alternatives Datenregime vorzustellen, in dem Google die von uns erzeugten Daten nicht besitzt, aber dennoch, wie andere Unternehmen auch, auf ihrer Grundlage Dienstleistungen anbieten kann. Der Grund, warum wir diese Vorstellung nicht wagen, ist einfach: Dazu müssten wir das vorherrschende neoliberale Paradigma infrage stellen, das uns von den Vorzügen der Privatisierung zu überzeugen sucht. Solange jedoch eine nicht-neoliberale Vision fehlt, an der wir unsere Kommunikation (und, so meine ich, die Gesellschaft überhaupt) ausrichten können, bleibt uns nur, "der Technologie" oder "dem Internet" die Schuld zu geben – als wären die gegenwärtigen, auf Überwachung bauenden Online-Dienste die einzig möglichen, um die Bedürfnisse nach Suchmaschinen, sozialen Netzwerken und anderen Services zu befriedigen.
Infolgedessen stecken wir fest: Statt eine Debatte darüber zu führen, wer – Konzerne, Staaten, Bürger – was besitzt und welche Auswirkungen diese Eigentumsverteilung auf das öffentliche Leben hat, diskutieren wir darüber, ob die Nutzung von Gmail moralisch vertretbar ist, und unterhalten uns über Möglichkeiten, hilfreiche Anonymisierungstools wie Tor zu verbreiten. Diese Werkzeuge sind zwar wunderbar, sie wirken aber auch wie Ohrenstöpsel gegen die stets anschwellende Geräuschkulisse der Moderne: Offensichtlich ist eine andere Art von tief greifenden, strukturellen und explizit politischen Interventionen gefordert.
Teilen, aber sicher
Um auf die eingangs zitierte Phrase zurückzukommen: Leute, die behaupten, sie hätten nichts zu verbergen, haben in keiner offensichtlichen oder unmittelbaren Weise unrecht. Tatsächlich aber sollten wir uns vor allem um die Art von Mensch sorgen, die sie als Folge all des Datenteilens wahrscheinlich nicht mehr werden. Direkter ausgedrückt: Je mehr Daten über Sie im Umlauf sind, desto weniger "Potenzialität" können Sie in Zukunft erwarten – wobei sich "Potenzialität" auf all das bezieht, was wir werden könnten, jenseits der sozialen, politischen und geschäftlichen Erwartungen, die uns von den Institutionen, mit denen wir zu tun haben, auferlegt werden. Da aber Kommunikation für das moderne Leben unerlässlich ist, ist ebenso wahr, dass die Weigerung, moderne Technologien zu nutzen, ebenso eine wirkungsvolle Möglichkeit ist, das eigene Streben nach Potenzialität aufzugeben.
Kurz gesagt: Ohne ein Programm ausdrücklicher politischer Transformation laufen die Bürger Gefahr, in jedem Fall zu verlieren. Denn entweder finden sie sich in den Fängen der vorhersagenden Datenapparate des kybernetischen Kapitalismus und der Nudging-Bürokratie des neoliberalen Staats wieder, oder sie müssen sich der Welt verschließen, Facebook meiden und können nicht die Vorteile größeren Zugangs zu Musik, Filmen und Büchern genießen. Deswegen wäre es auch nicht weiterführend, auf Argumente wie "Ich habe doch nichts zu verbergen" zu antworten mit: "Doch! Also verbergen Sie es bitte." Übersetzt in eine praktische Alternative hieße dies, die Bürger zu bitten, auf einen Großteil dessen zu verzichten, was als intellektuelle Infrastruktur des modernen Lebens gilt. Es geht hier nicht darum, dass wir nicht versuchen sollten, Dinge zu verbergen – das sollten wir selbstverständlich – sondern dass allein der Akt des Verbergens das Problem nicht lösen wird.
Die gute alte Ideologiekritik (totale Transparenz versus perfekte Geheimhaltung) genügt hier nicht. Information ist der Schlüssel zur wirksamen sozialen Kooperation und zur effektiven Nutzung von Ressourcen; dies gilt unabhängig vom politischen Regime – ob nun neoliberal, kommunistisch oder irgendetwas dazwischen. Wir werden nicht in eine Welt zurückkehren, in der Busse einen festgelegten Fahrplan einhalten, unabhängig davon, wie viele Fahrgäste auf sie warten: Das ist Energieverschwendung, verschmutzt die Umwelt und verstopft die Straßen. Die Zukunft liegt ganz offensichtlich in dynamischer Planung, wobei ebenso klar ist, dass Informationen – und davon eher mehr, nicht weniger – hierbei eine Schlüsselrolle einnehmen werden.
Unter diesen Bedingungen geht es nicht darum, sicherzustellen, dass Bürger Daten über sich nicht teilen, sondern vielmehr darum, ein rechtliches und sozioökonomisches Umfeld zu schaffen, in dem solche Akte des Teilens nicht zu den beschriebenen manipulativen Auswirkungen führen. Wenn es an dieser Stelle Raum für Ideologiekritik gibt, so zielt sie nicht auf die Ideologie des "Digitalen", sondern eher auf die neoliberale Ideologie, die jede Einschränkung der Rolle von Märkten im Alltagsleben rundheraus ablehnt. Letztendlich können wir nur dann eine alternative Vision für die Nutzung von Kommunikationstechnologien artikulieren, wenn wir hinterfragen, ob es angemessen ist, dass es die großen Unternehmen wie Google und Facebook sind, die letztgültig vermitteln, wie wir leben, heilen, studieren oder reisen.