Einleitung
Die Ereignisse in Fukushima haben in Deutschland zu einer deutlichen Zäsur in der Bewertung von großtechnischen Risiken geführt: Alle politischen Parteien, die im Bundestag vertreten sind, nahezu alle relevanten gesellschaftlichen Gruppen sowie die Mehrheit der Bevölkerung haben sich auf einen Ausstieg aus der Kernenergienutzung in Deutschland geeinigt. Dabei sind die Risiken der Kernenergie in Deutschland nach Fukushima nicht anders zu bewerten als vorher. Die Ethikkommission schreibt dazu: "Die Risiken der Kernenergie haben sich mit Fukushima nicht verändert, wohl aber die Risikowahrnehmung. Mehr Menschen als früher ist bewusst geworden, dass die Risiken eines großen Unfalls nicht nur hypothetisch vorhanden sind, sondern dass sich solche Unfälle auch konkret ereignen können. Somit hat sich die Wahrnehmung eines relevanten Teils der Gesellschaft an die Realität der Risiken angepasst."
Angesichts der unveränderten Risikolage ist es verwunderlich, dass die Politik so rasch und so gleichförmig auf die Ereignisse in Fukushima reagiert hat. Allerdings ist die Kernkraft in Deutschland schon seit Jahrzehnten umstritten. Dass allerdings die schwarz-gelbe Koalition umgehend ihre Politik auf den Kopf stellte und sich an die Spitze der Befürworter eines schnellen Ausstiegs setzte, hat viele überrascht.
Die massive Reaktion in Deutschland ist nur verständlich, wenn man sich die Entwicklung des politischen Diskurses um Kernenergie und andere Großtechniken in Deutschland und anderen westlichen Ländern vergegenwärtigt. Im Folgenden soll daher die Kernenergiedebatte rekonstruiert und in den größeren Zusammenhang der Auseinandersetzungen um großtechnische Risiken eingebettet werden. Dabei geht es weniger um einen historischen Abriss als vielmehr um den Versuch, die Genese und den Verlauf eines Diskurses zu beschreiben und soziologisch zu deuten.
Zäsur von 1986
Moderne Großtechnologien wie die Nutzung der Kernkraft genossen bis in die 1970er Jahre starken öffentlichen Rückhalt, und die Vertreter der technischen Elite hatten maßgeblichen Einfluss auf die Politik.
Dieses Bild änderte sich dramatisch nach den drei Katastrophen von 1986: der Explosion der US-Raumfähre "Challenger" (Januar), dem Reaktorunglück im Kernkraftwerk Tschernobyl (April) und dem Großbrand in einem Chemiewerk in Schweizerhalle bei Basel (November).
Die Kernkraft war aber nicht die einzige Technologie, die nach gründlicher Infragestellung durch Gegenexperten und Bürgerinitiativen in Misskredit geriet. Es gab eine überbordende Stimmung der Ablehnung gegen die chemische Industrie, Wiederaufbereitungsanlagen von Abfällen, Straßenbauplänen, Flughafenerweiterungen und schließlich auch der Inbetriebnahme erster Labors und Produktionsanlagen zur Anwendung von Gentechnik.
Das Imperium schlägt zurück: Die Rache der technischen Elite
Im ersten Jahrzehnt nach den Ereignissen von 1986 wurde die technische Risikoelite in eine Verteidigungshaltung gedrängt. Doch nach 1996 drehte sich der Wind von neuem. Die in der Nach-Tschernobyl-Zeit verschmähte Logik der Experten wurde rehabilitiert, als bekannt wurde, dass die Katastrophen von 1986 so katastrophal, wie zu Anfang befürchtet, gar nicht waren. Der Rhein hatte sich von dem Unfall in Schweizerhalle sehr viel schneller erholt, als selbst die Optimisten es zu prognostizieren gewagt hätten. Die "Challenger"-Katastrophe blieb bis auf ein weiteres Ereignis die Ausnahme bei der Erkundung des Weltraums. Gemäß dem Urteil der meisten Toxikologen und Strahlenforscher hatte sogar der große Reaktorunfall von Tschernobyl wesentlich weniger Opfer hervorgerufen, als es in der Öffentlichkeit dargestellt worden war.
Von daher entpuppten sich nach Ansicht der Experten die scheinbar apokalyptischen Ereignisse des Jahres 1986 lediglich als eine Episode in der Folge von tragischen, aber letztlich unvermeidbaren Vorfällen - wie Dammbrüche, Hurrikane, Fluten, Erdbeben und anderem. War damit das Ende der "Risikogesellschaft" eingeläutet? In der Tat kehrten viele Experten zum alten Stil zurück. Risikoabschätzung und -bewertung sollten sich wieder an der Produktformel von Wahrscheinlichkeit und Ausmaß orientieren und als Grundlage der staatlichen Risikobewertung dienen. Vor allem kritisierten Risikoanalytiker die Regulierungsbehörden und mit ihnen die Politik, sie würde ihre Entscheidungen statt auf Basis der harten, wissenschaftlichen Daten auf Basis der in der Regel verzerrten Risikowahrnehmungen der betroffenen Menschen treffen. Denn dadurch würden mehr Menschen in Gefahr gebracht als bei nüchterner Abwägung der Risiken.
Am Ende des Jahres 1990 schien das Pendel zurück zu schwingen zu einer neuen Ära, in der Experten wieder das Zepter in der Risikoabschätzung und -bewertung in der Hand trugen. Zur gleichen Zeit warnten jedoch viele Analytiker aus den Sozialwissenschaften davor, dass die Missachtung öffentlicher Wahrnehmung ihren Preis fordern würde.
Nach der Jahrtausendwende
Im ersten Jahrzehnt des neuen Jahrtausends veränderte sich die Debatte über Risiken ein weiteres Mal: das Augenmerk richtete sich zunehmend in Richtung auf soziale Risiken, insbesondere Terrorismus, Sabotage, Mobbing, Depression, Selbstmord und andere schwer zu fassende Gründe für menschliches Leid.
Seinen Ursprung hat dieser Begriff in den Finanzwissenschaften. Zunächst werden damit recht allgemein Risiken bezeichnet, die ein Finanzsystem oder die Ökonomie insgesamt und nicht nur spezifische Marktteilnehmer betreffen. Gleichzeitig steht bei systemischen Risiken die nicht intendierte Verknüpfung von Ereignissen mit anscheinend damit nicht funktional verbundenen anderen Ereignissen oder Folgen im Vordergrund. So hat die Hypothekenkrise ab Frühjahr 2007 auch die Finanzprodukte betroffen, deren Buchwerte sich auf andere, durchaus in sich solide finanzierte Schuldverschreibungen bezogen. In der finanzwissenschaftlichen Betrachtung wurde schon früh erkannt, dass solche systemischen Ereignisse nicht alleine in der Ökonomie auftreten können, sondern auch in anderen gesellschaftlichen Systemen. Allgemein wurde auf die besondere Verletzlichkeit hoch vernetzter Systeme hingewiesen, in denen der Zusammenbruch einzelner Systemkomponenten in der Art des Dominoeffekts auch andere Teile des Systems und schließlich gar das ganze System erfassen kann.
Systemische Risiken beschreiben Zustände, bei denen sich die eine Bedrohung durch die Verknüpfung von Risikopotenzialen aus unterschiedlichen Einflusssphären (Technik, Wirtschaft, Lebensstil) und ihren funktionalen Abhängigkeiten ergibt. Die Entwicklungen der Globalisierung vergrößern das Potenzial systemischer Risiken. Insbesondere lassen sich folgende Einflussfaktoren aufführen, welche die Verwundbarkeit vergrößern:
die Geschwindigkeit der Verstädterung (voraussichtlich werden nach 2020 zwei Drittel der Weltbevölkerung in Städten leben);
die unzureichende Infrastruktur, um der Verstädterung gerecht zu werden;
die Kopplung voneinander unabhängiger Risikoquellen (Wechselwirkung von Naturkatastrophen mit chemischen, technologischen, durch Lebensstil bedingten und sozialen Risiken);
die Zunahme der Mobilität und kulturelle Entwurzelung (und dadurch auch Verlust traditioneller Managementfähigkeiten);
die Verstärkung und Intensivierung sozialer Konflikte;
die mangelnde Pufferkapazität bei Krisen und zu geringe Anpassungsmöglichkeiten an veränderte Bedingungen.
Angesichts dieser neuen Herausforderungen befassten sich Wissenschaft und Politik zunehmend mit systemischen Risiken. Denn diese bedingen Nebenwirkungen über die betrachteten Systemgrenzen hinaus, wodurch eine ganze Folge sekundärer und tertiärer Auswirkungen ins Blickfeld geraten.
Vor dieser Folie der systemischen Risiken müssen auch die Ereignisse von Fukushima interpretiert werden. Dass in einem Hochtechnologieland wie Japan naheliegende Sicherheitsvorkehrungen nicht eingehalten und im Verlauf der Katastrophenbewältigung zahlreiche Fehler gemacht wurden, unterstreicht den Eindruck, dass die modernen Institutionen des Risikomanagements die Gefahren nicht mehr beherrschen, von deren Beherrschbarkeit sie ausgegangen sind. Bei hoher Komplexität und enger Kopplung der technologischen Entwicklungen bleibt, so die Analyse des Soziologen Charles Perrow, ein geplantes und geordnetes Management Makulatur.
Dazu kommt noch, dass komplexe und eng gekoppelte technische Systeme besondere hohe Anforderungen an Bedienung und Steuerung stellen. Bei jeder Fehlermeldung können mehrere Probleme vorliegen: Die Signalanlage kann einen Defekt haben, die Sensoren können etwas Falsches melden, die Störung kann von einer Komponente ausgehen, die nur indirekt mit dem angeblich ausgefallenen Teilsystem in Verbindung steht, oder das Signal sagt genau das aus, was es anzeigt. Diese Mehrdeutigkeit ist gepaart mit der Dringlichkeit, schnell und effektiv zu handeln. Zwar werden technische Systeme heute so ausgelegt, dass unabhängige und redundant angelegte Überprüfungen sensibler Anlageteile vorgenommen werden und der Zeitdruck durch automatisch einsetzende Überbrückungsroutinen abgemildert wird. Dennoch überfordert die Komplexität häufig die Reaktionsmöglichkeiten der Operateure, auch wenn diese konzentriert und gewissenhaft arbeiten. Nicht der Mensch versagt also in einem solchen Falle, sondern die Schnittstelle Mensch-Maschine ist nicht für die Fähigkeiten und Grenzen menschlicher Steuerung ausgelegt.
Hochtechnologie ist nur noch durch Improvisation steuerbar. Dieser Eindruck der mangelnden Beherrschbarkeit hat viel dazu beigetragen, dass die Menschen das Vertrauen in die Problemlösungskapazität der Risikomanager verloren haben. Mit dem Entzug des Vertrauens in die technische Elite erscheint Kernenergie nicht mehr akzeptabel zu sein. Vergleichende Analysen zur Kernenergie, etwa zwischen Frankreich und den USA, weisen deutlich darauf hin, dass ein Entzug von Vertrauen in die technische Elite einer der wichtigsten Erklärungsfaktoren für den Akzeptanzverlust gegenüber dieser Technologie darstellt.
Schlussbetrachtung
Das bewusste Eingehen von Risiken im Bereich der Technologie ist für moderne industrielle Gesellschaften unvermeidlich. Risiken fallen aber nicht vom Himmel. Risiken einzugehen, sie zu begrenzen oder auch aktiv zu suchen, ist Ergebnis menschlicher Entscheidungen. In riskanten Situationen müssen die zur Verfügung stehenden Auswahlmöglichkeiten gegeneinander abgewogen werden. Die ausgewählte Option muss dabei moralisch begründet werden, wobei Sachwissen integraler Bestandteil dieser Abwägung sein muss. Expertenwissen und moralische Urteilskraft sind beide notwendige Bedingungen für ein akzeptables Risikomanagement. Gerade daran hat es bei der Einführung der Kernenergie gefehlt.
Ein solcher Prozess der Abwägung benötigt einen strukturellen Rahmen, in dem sich Gestaltungsdiskurse institutionell entfalten können. Die wichtigen Entscheidungen über Risiken können weder in einer Expertokratie gefunden werden, noch durch eine Politik, die sich im Bemühen um Akzeptanz vorauseilend der Bevölkerung anbiedert. Was benötigt wird, sind gesellschaftliche Netzwerke, in denen Experten, Entscheidungsträger in Wirtschaft und Gesellschaft sowie von Risiken betroffene Bürgerinnen und Bürger gemeinsam die Aufgabe der Risikoabwägung vornehmen. Wie dies im Einzelnen organisiert werden kann, soll hier nicht ausgeführt werden. Es gibt bereits heute Ansätze, diese Art von Diskursen zu führen. Aber wir brauchen weitaus mehr derartige Versuche und Bemühungen, um die Lücke zwischen Wissen und Moral in der Bewältigung von Risiken in der modernen, globalisierten Welt zu schließen und ihre verlorene Einheit wiederzugewinnen.