1996 veröffentlichte der amerikanische Schriftsteller und Internet-Aktivist John Perry Barlow die Unabhängigkeitserklärung des Cyberspace. Die zentrale Forderung: „Regierungen der Industriellen Welt, ihr müden Riesen aus Fleisch und Stahl, ich komme aus dem Cyberspace, dem neuen Zuhause des Geistes. Als Vertreter der Zukunft bitte ich euch aus der Vergangenheit, uns in Ruhe zu lassen. Ihr seid nicht willkommen unter uns. Ihr habt keine Souveränität, wo wir uns versammeln.“ Regierungen sollen von einer Regulation des Internets Abstand nehmen. Der Text fand in der oft libertär geprägten Internetcommunity große Anhängerschaft .
Mittlerweile hat jedoch auch Barlow erkannt, dass die Trennung zwischen virtueller und reeller Welt absurd ist. Menschen bewegen sich hier wie dort, die Übergänge werden zunehmend fließend. Entsprechend bezweifelt auch niemand mehr die Geltung der Regeln, die von Regierungen und Parlamenten kommen.
Code vs Law
1999 erschien dann das wegweisende Werk "Code and other Laws of Cyberspace" von Lawrence Lessig, der damals an der Harvard-Universität Rechtswissenschaften lehrte. Sein Zentraler Gedanke: Die Technologie bestimmt die Regeln des Netzes.
Gesetze werden für gewöhnlich durch ein Parlament, oder ein ähnliches Regierungsorgan verabschiedet. Doch wie ist es mit dem "Code"? Parlamentsgesetze sind Rechtssätze. Das heißt sie sind darauf angewiesen, dass man sich daran hält. Sie müssen durchgesetzt werden. Der Code des Internets hingegen hat eher den Charakter eines Naturgesetzes. Denn: was einmal etablierte Technik vorgibt, lässt sich nicht ohne weiteres missachten. Was den Code im Gegensatz zum Gesetz außerdem so tricky macht, ist, dass man als Nutzer oft gar nicht merkt was einem so an Regeln vorgeschrieben wird. Code legt seine Regeln meist im Verborgenen fest. Sichtbar wird er oft nur für jene, die Zugang zu ihm haben – und wissen, wie man ihn liest.
Auch wo ein Wille ist, ist manchmal kein Weg
Die Durchsetzung von Parlamentsgesetzen ist im Netz mitunter schwierig. Zunächst können sie nur schwer Anwendung finden, wenn sie die "Naturgesetze" ignorieren. Vor allen Dingen aber scheitert ihre Durchsetzung oft daran, dass es in vielen Bereichen keinen internationalen Konsens gibt. Weil das Internet aber die ganze Welt umspannt wäre das natürlich erforderlich, wenn man wirksam Regeln aufstellen will. Weder für den Datenschutz noch für das Recht der Meinungsäußerung gibt es aber detaillierte völkerrechtliche Vereinbarungen, um nur zwei Beispiele zu nennen. Anders ist das etwa im Urheberrecht, wo die (revidierte) Berner Übereinkunft seit nunmehr über hundert Jahren einen solchen globalen Mindeststandard vorgibt. Wo viel Geld im Spiel ist, scheint der Konsens also unter Umständen gar nicht mehr so unmöglich.
Standard: Technik rules!
Wo keine (durchsetzbaren) Rechtsvorgaben existieren, wird der Raum für eine Regulation durch Technik noch größer. Doch wer schafft diese Regeln? Technische Regeln werden oft auch als Standards bezeichnet. Standards werden von Normungskomitees entwickelt. Neben dem in Deutschland bekannten Deutschen Institut für Normung e.V. (DIN), spielen für das Internet vor allem das World Wide Web Consortium (W3C) und die Internet Engineering Task Force (IETF) eine bestimmende Rolle. Beides sind Organisationen, die finanziell von ihren Mitgliedern – zumeist Unternehmen – getragen werden und deren Standards von Experten und Firmenvertretern in den jeweiligen Bereichen erarbeitet werden.
Neben der Standardisierung durch Komitees spielen aber auch so genannte De-facto-Standards eine große Rolle. Solche Standards entstehen, wenn ein Unternehmen eine bestimmte Praxis etabliert hat und für Alternativen daneben kein Raum bleibt. Beispiele gibt es dafür zahlreiche: Windows war jahrelange der etablierte De-facto-Standard für Betriebssysteme, andere Systeme haben zeitweise keine große Rolle in bestimmten Märkten gespielt; Facebook hat ein globales soziales Netzwerk etabliert. Interessant ist dabei wiederum die implizite Regulation durch den Code, durch die Art, wie dieses Netzwerk geschaffen wurde. Es gibt nämlich stets viele Möglichkeiten technischer Umsetzungen. Eine Vielzahl von Detailentscheidungen und groben Strategien haben gleichzeitig regulierenden Charakter. Ist ein Post grundsätzlich für alle einsehbar oder nur für Freunde? Oder auf grundsätzlicherer Ebene: Soll soziale Interaktion auf einer technischen Infrastruktur stattfinden, die nur einem Anbieter – in diesem Fall der Facebook Inc. - gehört? Dass es auch anders geht, zeigt unsere E-Mail-Infrastruktur – hier kann theoretisch jeder seinen eigenen Server betreiben und es gibt eine Vielzahl von Anbietern auf dem Markt. Dennoch hat sich Facebook stark verbreitet, wohl auch weil Netzwerkeffekte greifen. Die Regeln des Netzes werden also oft durch erfolgreiche Marktmodelle und nicht durch demokratische Prozesse definiert.
Viel Nonsense, wenig Konsens
Seit 2003 versucht die internationale Staatengemeinschaft eigene Strukturen aufzubauen. Auf dem Weltgipfel der Informationsgesellschaft der Vereinten Nationen wurde in Genf (und 2005 in Tunis) ein Raum für einen globalen Diskurs zu Internetthemen geschaffen. Ein Prozess der im „Internet Governance Forum“ (IGF) mündete. Zentral ist bislang aber auch hier die Frage: wie schaffen wir vernünftige, angemessene Entscheidungsprozesse? Verfolgt wird dabei das so genannte Multi-Stakeholder-Modell, bei dem neben Regierungsakteuren, Vertreter aus der Wirtschaft und der Zivilgesellschaft an einem Tisch sitzen. Dieses Modell scheitert aber schon an der Frage, wie mit einem Dissens umgegangen werden soll. Bis die Kluft zwischen den Unternehmen, ihren de facto Standards und Standardisierungsorganisationenn auf der einen Seite und demokratischer Rechtssetzung auf der anderen überbrückt wird, gibt es noch viel zu klären.