I. Eine seltsame Geschichte
Am 13. September 1989 berichtete die Professorin Helen Berger vor interessierten Kollegen der Columbia University in New York City über die Ergebnisse einer empirischen Studie, in deren Verlauf sie mehr als 40 Wissenschaftler der Harvard University, des Massachusetts Institute of Technology (MIT) und einer medizinischen Hochschule interviewt hatte, die sich selbst als „Hexen“ verstehen. Nach Aussage der Referentin unterscheiden sich diese „Hexen-Wissenschaftler“ von anderen Wissenschaftlern dadurch, daß sie an die Beeinflußbarkeit natürlicher Vorgänge durch magische Handlungen glauben. Der gemeinsame Nenner ihrer Anschauungen besteht in der Überzeugung, daß die bisherige Wissenschaft unvollständig oder engstirnig sei. Man kritisiert -die mechanistische Vorstellung, daß die Natur nach der Art einer Maschine zu verstehen sei, -die methodische Trennung von Subjekt und Objekt im Erkenntnisprozeß, -die Degradierung der Natur zum geist-, gefühl-und willenlosen Gegenstand und -die Idee, daß die Natur erobert und notfalls mit Gewalt zur Preisgabe ihrer Geheimnisse gezwungen werden müsse.
Mechanistisches Naturbild und Subjekt-Objekt-Dualismus haben nach dieser Auffassung ihre Wurzeln in der Cartesischen Philosophie. Damit wird Rene Descartes ebenso zum Wegbereiter einer zerstörerischen Naturauffassung erklärt wie Francis Bacon, der im „New Atlantis“ die politische Struktur dieser Herrschaftsidee in der Gestalt eines nach wissenschaftlichen Prinzipien umfassend organisierten Staates entworfen hatte.
Mit diesem Naturbild, dessen Methodologie auf der Wiederholbarkeit von Experimenten und dem Vertrauen auf logische Konsistenz beruht, verbaut sich die dominierende Auffassung nach Ansicht dieser Kritiker den Zugang zu einer „anderen“
Realität -einer Realität, die nicht mechanistisch, geistlos und unbelebt ist. Nach der Meinung dieser Wissenschaftler gibt es bisher noch nicht untersuchte und vielleicht auch den Methoden der heutigen Wissenschaft nicht zugängliche Kräfte und Wesenheiten, die in den Lauf der Welt intervenieren und durch menschliche Handlungen, Wünsche oder Empfindungen beeinflußbar sind. Als Indizien für die Grenzen der bisherigen Wissenschaft werden Begriffe der Quantentheorie, Superstrings, zehndimensionales Universum und andere Topoi der „Wendezeit“ -Philosophie ins Spiel gebracht. Man spricht von einem notwendigen Paradigmenwandel und bezieht sich in diesem Zusammenhang auf Thomas S. Kuhns Ideen zur „Struktur wissenschaftlicher Revolutionen“.
Man mache sich das eben Gesagte in seiner Tragweite klar. 40 Wissenschaftler nicht irgendeiner unbekannten Institution im Hinterland eines zurückgebliebenen Staates, sondern dreier Eliteinstitutionen im weitestentwickelten Land der Welt bezeichnen sich als Hexen. Mehr noch, sie rechtfertigen ihre Ideen nicht durch Bezug auf Geheimwissenschaften, Stammesmythologien oder Drogenerfahrungen, sondern auf Ergebnisse moderner Naturwissenschaft, wie extravagant auch immer diese Ergebnisse interpretiert werden. Die Aufklärung, Ende des 17. Jahrhunderts angetreten, die Natur zu entzaubern und den Aberglauben auszurotten, alles mit natürlichen Ursachen zu erklären, Dogmen durch unvoreingenommene Beobachtung, Logik und radikale philologische Textkritik zu zerstören, falsche Theorien durch systematisches Experimentieren zu widerlegen und durch Berücksichtigung sämtlicher vorliegender Fakten bessere zu finden sowie Technik, Wirtschaft, Staat, Erziehung durch Anwendung wissenschaftlicher Ergebnisse zu rationalisieren und in ihrer Entwicklung vorherzusagen und zu steuern -diese Aufklärung schlägt auf sich selbst zurück, indem sie ihre eigenen Grundsätze auf sich anwendet -und sich für gescheitert erklärt. Helen Berger bringt es auf den Punkt: “ There is a general crisis of rationality ... We are in a crisis of the discourse of rationality itself... We are witnessing a change in the way of rationalizing into a post-modern a-rationality."
II. Die Krise der Vernunft
Zu einer Analyse dieser Behauptung bedarf es einer nüchternen Bestandsaufnahme der aktuellen Situation der Wissenschaft, ihrer Außen-wie ihrer Innenansicht. Es ist kaum bestreitbar, die Krise ist real, ihre Symptome sind offen zu sehen, und diese Krise scheint nicht lokaler, sondern globaler Natur zu sein. Die reichhaltige New-Age-Literatur oder die großen „Esoterik“ -Abteilungen in Universitätsbuchhandlungen, die man vor 20 Jahren noch vergeblich gesucht hätte, sind nur Signale, keine Auslöser, der Okkultismus nur Folge, nicht Ursache. Der Grund für die Krise der Wissenschaft liegt nicht im Erfolg des Aberglaubens, sondern im Scheitern der an die Wissenschaft geknüpften Hoffnungen. Die Methode der Wissenschaft selbst -gewissermaßen ihr „Allerheiligstes“ und die Garantie ihrer Objektivität -ist in Verruf geraten. Durch logische und historische Untersuchungen konnten Philosophen wie Thomas Kuhn, Michael Polanyi, Paul Feyerabend oder Richard Rorty viele Leser überzeugen, daß die real existierende Wissenschaft ihren eigenen aufklärerischen und rationalistischen Idealen nicht entspricht. In nahezu jedem Spezialgebiet gibt es konkurrierende Schulen, die ihre Kernaussagen wie Dogmen behandeln, widersprechende Tatsachen unter den Teppich kehren, logisch inkonsistente Theorien vertreten und abweichende Forscher sozial ausgrenzen. Als Folge dieser der „normalen Wissenschaft“ offenbar notwendig anhaftenden Tendenz zur Stammesideologie und zur Orientierung an charismatischen Vordenkern wird die Grenze zum Aberglauben oft nicht nur erreicht, sondern tatsächlich überschritten. Wissenschaft ist danach längst nicht mehr Antithese zum Aberglauben, sondern nur eine besonders erfolgreiche und gut getarnte Form seiner Verbreitung und Förderung.
Aber nicht nur die interne Funktionsweise, auch die externen Wirkungen der Wissenschaft entsprechen nicht den Erwartungen. Die Entzauberung der Natur hat dieser nach der Ansicht vieler Kritiker mehr Schaden als Nutzen gebracht; ihre Objektivierung und Degradierung zur nutzbaren Ressource droht heute die Grundlagen der menschlichen Existenz zu gefährden. Immer öfter scheitert die Organisierung von Wirtschaft und Gesellschaft nach rationalen Prinzipien an der Tatsache, daß die Wissenschaft selbst keinen Konsens darüber findet, ob diese Prinzipien sich im Lichte zukünftiger und daher notwendig unsicherer Entwicklungen bewähren werden. Wie sind die Funktionsprobleme moderner Staaten wie Energie-und Rohstoffversorgung, Abfall-und Schadstoffbeseitigung bzw. -Vermeidung, öffentliches Verkehrs-und Transportwesen, öffentliches Erziehungs-und Gesundheitssystem, Verbrechensbekämpfung und Verbrechensprävention, Chancengleichheit, freier und effizienter Markt, Meinungs-und Pressefreiheit sowie gerechte Entlohnung und Besteuerung nach besten wissenschaftlichen Erkenntnissen zu gestalten, wenn die Experten sich über die Güte der vorliegenden Lösungsvorschläge nicht einigen können? Da divergierende Zukunftsszenarien und Gegenwartsdiagnosen oft mit unterschiedlichen Idealen rationaler Politikgestaltung verbunden sind, wird die Entscheidung über die praktische Umsetzung einer der konkurrierenden wissenschaftlichen Ansichten zu einer Frage der politischen Mehrheitsverhältnisse. Interessierte politische Gruppen wissen unterdessen, welche Experten sie einladen oder welche Institute sie beauftragen müssen, wenn vorgegebene Entscheidungen durch Expertisen und Gutachten bestätigt und der Öffentlichkeit mit dem Prädikat „wissenschaftlich geprüft“ präsentiert werden sollen.
Ist Wissenschaft bereits -nach der Devise „rent an expert“ -käuflich geworden? Oberflächlich betrachtet, scheint es so, und in manchen Fällen mag es der Wirklichkeit sehr nahe kommen. Doch Vorsicht ist bei einer Verallgemeinerung dieser Vermutung geboten. Ursache und Wirkung sind auseinanderzuhalten: Die Politisierung der Wissenschaft ist keine Folge divergierender politischer Zielvorstellungen seitens der Nachfrager wissenschaftlicher Ergebnisse. Sie ist vor allem ein Angebotsproblem: strittige Fakten, widersprüchliche und rivalisierende Theorien, konträre Prognosen, unsichere Technologien. Dies ist das Bild der gegenwärtigen Wissenschaft, wie sie sich der Öffentlichkeit darstellt.
Das skizzierte Bild einer zerstrittenen Wissenschaft ist weitgehend korrekt. Es entspricht dem, was uns Wissenschaftstheoretiker über Wissenschaft lehren. Wissenschaft besitzt kein sicheres Fundament. Erfahrung ist kategorial geformt, durch vorgängige Überzeugungen deformiert und für Täuschungen anfällig. Auch das Experiment kann niemals zu einer sicheren Widerlegung und schon gar nicht zum Beweis einer Theorie dienen, weil unbekannte und verfälschende Faktoren im Spiel sein können. Experiment und Logik mögen, wenn man die Entwicklung des Wissens im Zeit-verlauf betrachtet, vieles korrigieren. Ob dieser Korrekturmechanismus jedoch eine kontinuierliche Annäherung an die Wahrheit bewirkt, oder vielleicht nur eine Art Endlosspirale immer komplexerer Modelle erzeugt, ist wiederum nur eine Hypothese -eine Hypothese zweiter Ordnung gewissermaßen. Eines kann Wissenschaft jedenfalls nicht: jenen Grad an absoluter Sicherheit erreichen,.den Teile der Öffentlichkeit von einem handlungsleitenden Weltbild fordern und den sie selbst wider besseres Wissen lange Zeit für ihre Produkte reklamiert hat.
Wenn Theorien weder beweisbar noch endgültig widerlegbar sind, werden alle Prognosen und Technologien, die man mit ihrer Hilfe entwickelt, ebenfalls dem Risiko des Scheiterns oder Versagens unterliegen. In jenen Fällen, in denen mit nichtlinearem oder chaotischem Verhalten von Systemen zu rechnen ist, kann man sogar erklären, warum Prognosen über einen bestimmten Zeithorizont hinaus selbst bei vollständiger Information über den Ausgangszustand unmöglich sind: Unmeßbar kleine Zufallsschwankungen im gegenwärtigen Verhalten von Zustandsgrößen des Systems können sich soweit aufschaukeln, daß bei gleichem Ausgangszustand völlig unterschiedliche Folgezustände eintreten können. Dieser Effekt zeigt sich zum Beispiel in der Meteorologie, aber auch in vielen Bereichen der Physik, der Ökologie und der Sozialwissenschaften. Keine noch so ausgefeilte Technik könnte das Wetter in zwei Wochen voraussagen; kein sozialwissenschaftliches Modell den Umsturz in der DDR im November 1989 oder den Untergang der UdSSR Ende 1991; kein Klimamodell die Folgen eines Atomkrieges oder der zunehmenden Luft-und Wasserverschmutzung; keine molekularbiologische Theorie die Evolution von Mikroorganismen nach einer ökologischen Katastrophe und ihre Konsequenzen für das globale System. Dies nicht aufgrund praktischer Gegebenheiten, sondern aus theoretischen Gründen. Ähnliche Folgen für die Vorhersagbarkeit ergeben sich, wenn natürliche oder technologische Systeme so komplex werden, daß die Beherrschung möglicher negativer Interaktionen ihrer Komponenten die verfügbare Informationsverarbeitungsfähigkeit von Computern und Menschen überfordert. Charles Perrow hat Systeme dieser Art untersucht Alle Versuche der Technikfolgenabschätzung können die Unsicherheit über zukünftige globale Entwicklungen nur solange verringern, wie sie von linearem oder regulärem Verhalten der Zustandsgrößen ausgehen. Und auch dies nur dann, wenn keine neuen Faktoren ins Spiel kommen. Wie die jüngsten wirtschafts-und weltpolitischen Ereignisse zeigen, beruhen diese Voraussetzungen auf fragwürdigen Hypothesen. Nur isolierte Parameter, die der Staat durch Setzung von Rahmenbedingungen kontrollieren kann -wie etwa der Schadstoffausstoß von Kohlekraftwerken -, sind innerhalb gewisser Grenzen vorhersagbar. Der Zuverlässigkeitsspielraum technologischer, ökologischer oder sozioökonomischer Prognosen ist hier im wahrsten Sinne des Wortes selbstfabriziert.
In den vergangenen 30 Jahren gab es schier endlose Debatten über die Rationalität wissenschaftlicher Methoden. Diese Debatten haben dazu geführt, daß die Wissenschaft sich ihrer methodischen Grenzen bei der Unterscheidung von Wahrheit und Irrtum heute bewußter zu sein scheint als noch zu Beginn dieses Jahrhunderts. Solange man auf dem unangefochtenen Fundament der klassischen Physik und der euklidischen Geometrie stand, konnte man sich in Sicherheit wiegen. Noch Kant klassifizierte die Axiome der Newtonschen Mechanik, wie die Prinzipien jeder „eigentlichen“ Naturwissenschaft, als synthetisch a priori! Daß diese Sicherheit trügerisch war, zeigte sich mit dem Aufkommen der Relativitäts-und Quantentheorie sowie der nichteuklidischen Geometrie.
Mit dem Grundkonsens innerhalb der Wissenschaften zerstob auch die Illusion ihres kumulativen und kontinuierlichen Fortschreitens -die Vorstellung, daß das Neue immer nur ein Zusatz, ein neuer Paragraph zum bisher Bewährten ist. Die spät-bzw. postkantianischen Philosophien eines Hans Vaihinger oder Friedrich Nietzsche hatten dies bereits im letzten Drittel des 19. Jahrhunderts vorweggenommen. Heute, nach dem Niedergang eines in Gestalt des Logischen Empirismus und des Kritischen Rationalismus erneuerten Vernunft-glaubens, der sich als Gegenbewegung zu den idealistischen und irrationalistischen Strömungen der zwanziger Jahre entwickelt hatte, besteht weitgehende Einigkeit darüber, daß das Neue das Alte nicht ergänzt, sondern in der Art biologischer Evolution ersetzt und verdrängt. Die Entwicklung der Wissenschaft verläuft danach nicht kontinuierlich, sondern in Sprüngen. Aber Vorsicht ist wiederum bei einer Projektion in die Zukunft geboten. Wie eben angedeutet, wandelten sich die Vorstellungen zur Wissenschaftsentwicklung bereits mehrfach; ein neuer Zyklus der Debatte -vom postmodernen Relativismus hin zu einer nach-postmodernen Renaissance der Vernunft -ist daher vorprogrammiert. Wie in der Haute Couture halten sich Moden auch im intellektuellen Bereich nur über eine begrenzte Zeit.
III. Die kulturelle Basis der Wissenschaft
Es liegt sicherlich nicht nur an diesen internen Verschiebungen im Wissenschaftsverständnis, wenn die deutsche Geistesgeschichte im ersten Drittel dieses Jahrhunderts starke irrationalistische Züge aufweist. Dennoch bleibt der Verlust der Erkenntnissicherheit ein wichtiger Faktor. Ohne ihn hätte Oswald Spengler in seinem Buch über den Untergang des Abendlandes im Jahre 1917 nicht schreiben können, daß „es keine absolute Physik, nur einzelne, auftauchende und schwimmende Physiken innerhalb einzelner Kulturen (gibt)“ und daß „allem , Wissen von der Natur, auch dem exaktesten, ein religiöser Glaube zugrunde liegt“ Damit nahm Spengler jene Auffassung von Wissenschaft vorweg, die auch die heute dominierende Richtung innerhalb der Wissenschaftssoziologie, genannt Ethnographie des Wissens, vertritt. Nach ihr setzen sich neue Ideen nicht deshalb durch, weil sie wahrer oder besser als die alten sind, sondern weil sie die größere Zahl von Anhängern für sich gewinnen können. Wahrheit und Falschheit sind nur noch innerhalb lokaler kultureller Zusammenhänge von relativer Bedeutung; außerhalb haben sie vor allem propagandistischen Wert. „Ein anderer Computer, ein anderer Spezialist, ein anderes Institut -eine andere Wirklichkeit’ ... Noch ein Nachweis der Irrationalität der (natur) wissenschaftlichen Forschungspraxis wäre Leichenschändung.“
Der Umsturz der theoretischen Physik zwischen 1900 und 1926 veränderte auch das Bild der Wissenschaft in der Öffentlichkeit. Die neue, dem Laien unverständliche Physik bewirkte einen kulturellen Schock, der selbst die Tagespresse in den USA erregt darüber debattieren ließ, ob der von den Anhängern der Relativitätstheorie betriebene erfahrungsabgehobene Denksport noch für die Menschheit relevant sei und ob sich freie Gesellschaften auf Urteile esoterischer Experten verlassen sollten, die sie nicht mehr verstehen könnten. Wenn die Wissenschaft heute ihrer „Tempelfähigkeit verlustig gegangen“ ist, wie Herrmann Lübbe meint, so liegt hier eine der Ursachen
In Deutschland waren die Resonanzen aufgrund der spezifischen geistesgeschichtlichen Voraussetzungen noch stärker. Rationalisierungs-und Aufklärungskritik hatten tiefe kulturelle und philosophische Wurzeln. In Walther Rathenaus 1913 erschienener „Mechanik des Geistes“ werden „im Namen der , Seele und der , Intuition ... , Verstand und ... , Analyse als Produkte einer lebensfeindlichen Aufklärung und als Instrumente eines macht-und profitorientierten , Zivilisationsprozesses 4“ kritisiert Der verlorene Weltkrieg mit seinen sinnlosen Vernichtungsschlachten und die nachfolgenden sozialen Krisen verstärkten diese irrationalistischen Strömungen noch. Bereits Robert Musil erklärte 1922 in seinem Essay „Das hilflose Europa“ das „Projekt Aufklärung“ für gescheitert. Es sei „auf einer viel zu schmalen Denkensgrundlage unternommen“ worden und habe einen „Schutthaufen“ hinterlassen. Alfred Döblin beantwortete 1933 die Frage „Was versteht man unter Aufklärung?“ so: „Die Erziehung zu Papageien. Wo ist der Unterschied vom Rekrutendrillen?“ Der Fortgang der Geschichte ist bekannt; viele derjenigen, die ungewollt an der Zerstörung der Vernunft mitgewirkt hatten, gehörten zu den ersten Opfern der Unvernunft. Rathenau wurde ermordet, Döblin und Musil gingen ins Exil.
Dies impliziert eine Warnung vor einer unbedachten Aufgabe der Prinzipien der Aufklärung, vor jenen gutbestallten, pensionsberechtigten Meister-denkern, die heute das „Projekt der Moderne“ für gescheitert erklären, ihre eigenen unausgegorenen und ungefilterten Ideen zum „Diskurs“ der Postmoderne und sich selbst in bescheidener Weise zur Avantgarde einer neuen Epoche erheben Die geschichtliche Erfahrung lehrt, daß Vordenker leicht zu Marionetten des von ihnen beschworenen neuen Zeitgeistes mutieren können, wenn diesem die Metamorphose zur Massenbewegung gelingt. Schon heute gibt es eine wachsende Zahl von Zivilisationskritikern, die, wie William Ophüls, der Ansicht zuneigen, daß „nur ein wirklicher Führer stark genug (wäre), um die notwendigen Opfer zugunsten einer Rückkehr zum ein-fachen Leben durchzusetzen“ und die eine „Ökodiktatur“ fordern Mit seiner „Logik der Rettung“ gibt Rudolf Bahro dieser Idee eine mystische Wendung. Nach den Erfahrungen der jüngsten Geschichte wäre es vermutlich klüger, nicht eine Logik der Rettung, sondern eine Rettung der Logik zu versuchen.
Vor dem Hintergrund der Massenpsychosen, des Okkultismus und des Hexenwahns, die den Untergang des mittelalterlichen Weltbildes begleiteten, kann man eines mit Sicherheit behaupten: Die Irrationalismen des 20. Jahrhunderts sind nur schüchterne Vorboten dessen, was im Falle etwaiger globaler Katastrophen und inneren Zerfalls auf post-moderne Gesellschaften zukommen könnte. Die Bilder gleichen sich auf frappierende Weise. Wie die modernen Apokalyptiker waren auch ihre frühen Vorfahren davon überzeugt, daß Felder und Meere immer unfruchtbarer würden, Seuchen, Krankheiten und Mißbildungen zunähmen, die Menschen immer unmoralischer und schwächlicher, Kunst, Literatur und Wissenschaft immer dürftiger würden, kurz: daß die Natur erschöpft, die Welt im Verfall begriffen sei und in Kürze untergehen werde Die Apokalypse, die nach den Axiomen des mittelalterlichen Weltbildes ebenso wahrscheinlich war, wie sie es heute auf der Basis des Weltbildes einiger Wendezeit-Beschwörer sein sollte, fand nicht statt. Was blieb, waren die Folgen und Begleitumstände der durch ihre Erwartung erzeugten Ängste und Hysterien für jene Sündenböcke, deren Vernichtung den prognostizierten Gang der Dinge verlangsamen sollte Anstelle von Hexen, Ketzern, Juden und Dämonen haben wir heute die „Megamaschine“, Umweltverschmutzer und Modernisierungsrisiken -darunter wirkliche und eingebildete, wissenschaftsbedingte und zivilisationsabhängige.
IV. Die Wahrnehmung des Risikopotentials von Wissenschaft und Technik
Der Anteil von Wissenschaft und Technik an der in den westlichen Industriegesellschaften endemischen Zivilisations-und Modernisierungsskepsis ist nur schwer zu schätzen. Die alltäglichen Hiobsmeldungen in den Massenmedien sind Teil eines Syndroms, dessen Komponenten je nach politischer Ausrichtung unterschiedlich gewichtet werden. Wir hören Berichte über Kernkraftwerkunfälle (Windscale, Harrisburg, Tschernobyl), Arznei-und Nahrungsmittelskandale (Flüssigei-, Glykol-und Hormonkälberskandale, vergiftetes Olivenöl, Listeriosebakterien in Käse usw.), Dioxine, FCKW, Blei, Cadmium und andere Gifte in Luft, Wasser und Boden, Chemieunfälle (Seveso, Bhopal), Tankerhavarien, Waldsterben und sauren Regen, asbestverseuchte Schulen, krankmachenden Fluglärm, Klimawandel und Ozonloch, Vernichtung der Regenwälder, „Rinder-Wahnsinn“ (BSE), Schweineseuche und Aids.
Der hier verfügbare Raum würde kaum ausreichen, alle Themen des grassierenden Angstsyndroms im einzelnen aufzulisten. Kein Zweifel, hier liegen ernste Probleme vor. Viele davon sind in ihren Ursachen und Folgen nur unzureichend bekannt; über die von ihnen ausgehenden Gefahren läßt sich daher trefflich spekulieren -eine ideale Situation für Horrorszenarien und die Suche nach Sündenböcken. Bei genauerer Analyse der tatsächlichen Risiken für den einzelnen stoßen wir jedoch auf einen interessanten Widerspruch. Soweit sie kalkulierbar sind, liegen diese Risiken um Größenordnungen unter denen des alltäglichen Verhaltens, die meist bedenkenlos in Kauf genommen werden: Rauchen, Trinken, Autofahren, ausgiebiges Sonnenbaden, Benutzung von Solarien, gefährlicher Sport (Reiten, Schwimmen, Jogging etc.), falsche Ernährung (zu kalorienreiche, fette, gepökelte, geräucherte, gegrillte Speisen) und Medikamentenmißbrauch, Promiskuität im Sexual-verhalten, Benutzung schadhafter elektrischer Haushaltsgeräte sowie Versäumnis von Schutzimpfungen bei Kindern.
Allein durch Unfälle im Verkehr verunglückten 1990 in Deutschland über eine halbe Million Menschen, 11000 von ihnen tödlich. 1, 7 Mio. Menschen erlitten 1989 in Westdeutschland Berufsunfälle, über 2200 von ihnen starben an den Folgen. Die Zahl der Opfer von Lungenkrebs, Leber-B Zirrhose, Melanomen, Medikamentenmißbrauch, Diabetes und Koronarsklerose liegt weit darüber. Ungefähr 14550 Menschen begingen 1989 in Deutschland Selbstmord. Zehnmal soviele versuchten es. 40000 Menschen sterben jährlich in Deutschland an den Folgen des Alkoholmißbrauchs. Pro Jahr erkranken weltweit 70 Mio. Menschen an Masern; 1, 5 Mio. davon sterben. Hepatitis B verursacht pro Jahr 50 Mio. Erkrankungen und eine Mio. Tote. Noch immer erkranken 200000 Menschen im Jahr an Kinderlähmung. Letzteres könnte durch rechtzeitige Schutzimpfungen weitgehend verhindert werden Bei einer Summierung erhält man das erstaunliche Ergebnis, daß allein die Zahl der leicht vermeidbaren Opfer dieser Infektionskrankheiten seit 1970 höher war als die Summe der Toten des Zweiten Weltkrieges. Sie übertrifft selbst die schlimmsten Phantasiezahlen, die als mögliche Opfer weltweiter Plutoniumvergiftungen oder bisheriger KKW-Unfälle (Tschernobyl eingeschlossen) durch die „kritische“ Literatur geistern. Die durch diese Krankheiten ums Leben Gekommenen, die im Gegensatz zu den angeblich bis zu 50 Mio. Opfern von Tschernobyl nachweisbar sind, finden keine Anwälte aus dem Lager der Technologie-und Modemisierungskritiker: Aus ihnen läßt sich freilich kein Fall gegen die „Herrschenden“, also gegen die Eliten von Industrie, Militär, Politik etc. konstruieren.
Ein besonders krasses Beispiel asymmetrischer Risikobewertung betrifft DDT. Eurich spricht vom „DDT-Desaster, das 23 Jahre als weltweite Vergiftung andauerte“, einer Chemie-„Katastrophe“, vergleichbar der Contergan-Affäre Sicherlich, DDT ist schwer abbaubar, schädigt außer Insekten auch einige andere Tiere und wird in Nahrungsketten angereichert. In sehr hoher Dosierung kann es bei verschiedenen Tieren Krebs erzeugen. Außerdem entwickeln sich nach langer Anwendung resistente Stämme von Stechmücken. Dies sind schwerwiegende Einwände. In der Liste der größten öffentlich wahrgenommenen Risiken belegt das DDT nach einer Erhebung aus dem Jahre 1980 gleich hinter „Kernwaffen“ und „Krieg“ den dritten Platz Doch hören wir, was ein kompetenter Fachmann zum bisherigen Kosten-Nutzen-Verhältnis von DDT zu sagen hat: „Die in vielen Gegenden Italiens endemische Malaria nahm während des Zweiten Weltkriegs katastrophale Formen an. Im Jahre 1946 gab es in Italien 400000 Malariatote, in Sri Lanka (Ceylon) traten 2, 8 Mio. Erkrankungen auf. Nach einer intensiven DDT-Kampagne ist seit 1952 in Italien kein einziger Fall von im Lande übertragener Malaria mehr ermittelt worden. Nach DDT-Sprayaktionen wurden 1961 in Sri Lanka nur noch 110 Malariaerkrankungen gemeldet. Als aber 1964 die Aktionen gestoppt wurden, stieg die Zahl der Erkrankungen wieder rapide an; 1968 waren es über 400000, 1970 bereits wieder 1, 5 Mio. Heute berichtet die WHO über die Verwendung von DDT in über 100 Entwicklungsländern. Sie rechnet, daß dadurch 1, 5 bis 2 Mio. Menschen jährlich vor dem Malariatod geschützt und 200 Mio. Neuinfektionen verhütet werden. Eine Karzenogenität ist bei den in Frage kommenden kleinen Dosen für den Menschen nicht nachgewiesen, und auch bei vereinzelt vorgekommenen, massiven Inkorporationen, sogar bei Kindern, ist weltweit noch kein einziger Todesfall eingetreten. Es wird geschätzt, daß DDT mehr Leben gerettet hat als alle Antibiotika zusammengenommen.“
Die Widersprüche des Risikoverhaltens lassen vermuten, daß die objektive Höhe eines Risikos für seine Akzeptanz oder Nichtakzeptanz von geringer Bedeutung ist. Diese Vermutung wird durch empirische Untersuchungen bestätigt. Große wie kleine Risiken werden mit ähnlicher Häufigkeit akzeptiert und abgelehnt. Das Gefahrenpotential eines Risikos allein liefert daher keine zureichende Begründung für das beobachtbare Verhalten, für das, was man als das „Empörungspotential“ eines Risikos bezeichnen könnte. Dies gilt nicht nur dort, wo man in der Tat über die Höhe des Risikos streiten kann, sondern auch in solchen Fällen, in denen klare Zahlen vorliegen.
Erklärt wird dieser wenig rationale Umgang mit dem Risiko von einigen Autoren durch die Freiwilligkeit der in Kauf genommenen Gefahr. Sie nehmen an, daß freiwillig eingegangene Gefahren leichter akzeptiert werden als solche, denen man passiv und hilflos ausgesetzt ist. Eine ähnliche Korrelation bestehe zwischen Risikotoleranz und Risikonutzen bzw. Risikotoleranz und Risikobekanntheit. Anders gesagt, hohe Risiken, die mit hohem subjektiven Nutzen verbunden sind, oder an die man sich gewöhnt hat, würden leichter in Kauf ge-nommen als geringe Risiken, die neu sind und von denen man sich nichts verspricht
Diese Erklärungsversuche sind aus folgenden Gründen unbefriedigend: 1. Sie machen nicht verständlich, warum beispielsweise 10000 von Hunden gebissene Kinder mit teilweise tödlichen Folgen im Jahr allein in der Bundesrepublik zwischen 800 und 6000 Lungenkrebstote durch Radongas aus dem Erdboden 15 000 bis 40000 Tote jährlich durch Infektionen in deutschen Kliniken infolge falschen Verhaltens oder Fahrlässigkeit des Personals 50000 Tote jährlich durch passives Rauchen (bezogen auf USA) oder eine unaufhörlich steigende Gewaltkriminalität toleriert werden, während bereits geringste Mengen entweichender Radioaktivität aus Kernkraftwerken oder Nuklearbetrieben zu Massenprotesten mit hysterischen Begleiterscheinungen führen können. Dies mindert nicht die potentiellen Gefahren industriell produzierter radioaktiver Strahlung, stellt jedoch das Problem, warum gerade sie als Objekt der Empörung favorisiert werden. Die Selektivität der Risikowahrnehmung erzeugt darüber hinaus paradoxe Effekte. So ist nach dem Bericht einer großen Tageszeitung „statistisch gesehen ...der verheerende Absturz eines großen Asteroiden auf die Erde durchaus im Bereich der aktuellen Wahrscheinlichkeit“ Dennoch ist es nicht schwer zu prognostizieren, daß die die öffentliche Meinung bestimmenden Gruppen eher dieses Risiko als das eines Systems zur Abwehr von Planetoiden akzeptieren werden, das mit orbitgestützten thermonuklearen Bomben höchster Sprengkraft Planetoiden, die sich auf Kollisionskurs mit der Erde befinden, abzulenken versucht. 2. Es gibt eine bemerkenswerte Differenz in der Reihenfolge der wahrgenommenen Krebsgefahren, verglichen mit den empirisch ermittelten. Stehen empirisch die nicht sachgerecht bereitete oder verzehrte Nahrung, Rauchen, Sexualverhalten, Beruf und Alkohol ganz oben, so kehrt sich die Pyramide in der öffentlichen Wahrnehmung um. Hier verweist man auf Radioaktivität, Umweltgifte oder chemische Zusätze in Nahrungsmitteln, während selbstverschuldete Ursachen und der Einfluß des eigenen Lebensstils nur eine untergeordnete Rolle einnehmen 3. Dasselbe Risiko kann je nach Verursacher völlig verschieden bewertet werden. Die treibhauserzeugende und waldschädigende Wirkung industriell erzeugter Stoffe wird als empörendes Politikum gewertet, verursacht von gewissenlosen und profitgierigen Industriemanagern; dieselben Effekte, erzeugt durch Methan und Ammoniak aufgrund steigender Tierhaltung, steigender landwirtschaftlicher Produktion und wachsender Überbevölkerung werden kommentarlos hingenommen. Dieselben Personen, die tagsüber gegen militärische Tiefflüge oder gegen zivilen Fluglärm demonstrieren, finden unter Umständen nichts dabei, bis nachts um 3. 00 Uhr mit 400 Watt Lautstärke „eine Fete abzuziehen“, an der im Umkreis von 100 Metern die ganze Nachbarschaft teilhat. Daß man auch mit der Zigarette in der Hand gegen umwelt-verschmutzende Industriebetriebe oder Bleistaub auf Kinderspielplätzen protestieren kann, fällt in dieselbe Kategorie.
Bei alledem braucht man an der subjektiven Redlichkeit der Mehrheit der Betreffenden nicht unbedingt zu zweifeln. Nach der kulturellen Theorie der Wahrnehmung sind die Unterschiede im „Empörungspotential“ verschiedener Risiken die Folge sozialer Wahrnehmung, die auf selektive Informationsaufnahme und letztlich auf unterschiedliche soziale Wissensbasen verweisen Diese sozialen Wissensbasen erzeugen unterschiedliche politische Landkarten, die als Filter bei der Aufnahme von Information und als Programme bei ihrer weiteren Verarbeitung wirken. Sie sind weitgehend erfahrungsresistent, da sie durch Umgang mit Gleichgesinnten oder durch Bevorzugung bestimmter Massenmedien sozial gestützt und verstärkt werden. Veränderungen im Grundgefüge moderner Zivilisationen begünstigen diese Tendenz. Die Fragmentierung postmoderner Gesellschaften in inkommensurable Lebenswelten und die Entstehung von Gegenkulturen und kulturellen Nischen mit alternativen Normensystemen führen zu einer enormen Erweiterung des Bewertungsspektrums und -Spielraums nicht nur wissenschafts-und technik-bedingter Risiken, sondern der Wahrnehmung sozialer und politischer Wirklichkeit als solcher. Dies erklärt, warum der dominierende Teil der heutigen Wissenschafts-und Technikskepsis nicht auf Wissenschaft-und Technikkritik im engeren Sinne beruht. Er ist Bestandteil des Kampfes gegen die „Megamaschine“, vordergründig gegen jenen Komplex von Interessen und Machtstrukturen, der sich aus den Machteliten von Kapital, Industrie, Militär und Politik zusammensetzt, in Wahrheit jedoch gegen deren mit dem Anspruch auf Allgemeingültigkeit auftretendes System von Wirklichkeitsbeschreibungen, Werten und Verhaltensnormen. Es sind diese Machteliten, die sich in der Wahrnehmung vieler Kritiker einer ökologischen oder pazifistischen Wende widersetzen, und dies nicht unbedingt bewußt oder aus bösem Willen, sondern getrieben durch systembedingte Interessen -die Trägheitsgesetze der Megamaschine. Das Ganze wird als ein geschlossenes System gesehen, dessen Komponenten sich gegenseitig stützen und das nur eine einzige Bewegungsdimension kennt: größer, schneller, stärker, also Fortschritt in bekannter und heute zunehmend negativ besetzter Richtung. Wissenschaft und Forschung haben innerhalb der Megamaschine die Funktion, diesen Fortschritt zu sichern. Seine Symbole sind geläufig: Gentechnologie, Plutoniumwirtschaft, Breitbandverkabelung und Überwachungsstaat.
Jede technische Neuerung kann unter diesem Blickwinkel verteufelt werden und auf die Wissenschaft zurückschlagen. Die Ängste sind diffus, die Interpretationen flexibel, Wissenschaft so oder so involviert. Es hilft nichts, wenn Wissenschaftler zu bedenken geben, daß hinter allen großtechnologischen Projekten politische Entscheidungen demokratisch gewählter Organe stehen. Da Wissenschaft ein notwendiges und vielleicht entscheidendes Glied in der kausalen Kette ist, die eine neue Technologie ermöglicht, trägt sie in der Sicht ihrer Kritiker auch eine besondere Verantwortung für die praktische Anwendung ihrer Ideen. Nach Günther Rohrmoser bilden „die Wissenschaften ...den harten Kern unserer wissenschaftlich-technischen Zivilisation, und sie sind die maßgebliche Form der Theorie unserer Kultur“
Nicht alle würden dabei allerdings so weit gehen wie Klaus Michael Meyer-Abich, wenn er schreibt: „Atomwaffen wissenschaftlich zu ermöglichen, ist nicht weniger schuldhaft als sie zu entwickeln, und sie zu entwickeln ist nicht weniger schuldhaft als mit ihnen zu drohen, und mit ihnen zu drohen ist nicht weniger schuldhaft als sie anzuwenden.“ Wo aber beginnt hier die kausale Kette der Ermöglichung von Atomwaffen? Bei Leukipp und Demokrit, die den Atomismus als Idee erfanden? Bei Rutherford, der 1911 den Atomkern experimentell entdeckte? Bei den vielen Chemikern, deren Atomgewichtsbestimmungen auf eine enorme Bindungsenergie in den Kernen mancher Elemente hindeuteten? Bei Einstein, dessen Energie-Masse-Relation für diese Erkenntnis wesentlich war? Bei Cockcroft und Walton, die 1932 Lithiumkerne mit Hilfe künstlich beschleunigter Protonen spalteten? Bei Chadwick, der im selben Jahr das Neutron entdeckte? Bei Hahn und Straßmann, die 1939 nachwiesen, daß auch ein schwerer Atomkern wie der von Uran auseinanderplatzen kann? Bei den Emigranten Meitner und Frisch, die kurz darauf rechnerisch bewiesen, daß dabei eine enorme Energiemenge frei wird? Bei Frederick Joliot, der mit dem Nachweis weiterer Neutronen im Spaltungsprozeß die Möglichkeit einer Kettenreaktion zeigte? Bei Aston, der mit seinem Massenspektrographen die Existenz des Uranisotops mit dem Atomgewicht 235 nachwies? Bei Bohr und Wheeler, die theoretisch ableiteten, daß langsame Neutronen nur in Uran 235 eine Kettenreaktion auslösen konnten? Diese Reihe ließe sich noch verlängern und ergänzen.
V. Wissenschaft in der Gesellschaft
Von den inneren methodischen Grenzen der Wissenschaft und der prinzipiellen Unsicherheit ihrer Resultate war schon die Rede. Solche Faktoren sind vor allem für die Bereiche der „frontier Science“ konstitutiv, also dort, wo die Grenze zwischen Wissen und Nichtwissen verläuft. In den alten und bereits häufig beackerten Gebieten sind sie dagegen kaum noch erkennbar. Heisenberg sprach in diesem Zusammenhang von „abgeschlossenen Theorien“ in der Physik. Diese Bezeichnung ist verständlich, doch sie verdeckt, daß man natürlich auch hier nicht gänzlich vor Überraschungen sicher sein kann. Das Gewißheitsdefizit wissenschaftlicher Erkenntnis war von geringer praktischer Bedeutung, solange es der „frontier Science“ vor allem um die Lösung ihrer eigenen Probleme ging, solange die Umsetzung von Wissenschaft in Technologien nur in Form einer gemächlichen Wanderung sedimentierter Erkenntnisse in die Praxis des Lebens erfolgte -in einem osmotischen Prozeß gewissermaßen. Bis ins 19. Jahrhundert hinein erfolgte diese Diffusion nur punktuell, Produktion und Technik waren noch stark handwerklich orientiert, negative Folgen der Industrialisierung und Modernisierung nur lokal stärker sichtbar. Vereinzelte Kassandrarufe gab es auch damals schon -es gab sie zu fast allen Zeiten aber die Vorteile der Modernisierung überwogen klar ihre Nachteile: -die Beseitigung der größten Armut durch hohe Wachstumsraten der Wirtschaft;
-die Überwindung der großen Killerepidemien und vieler gefährlicher Infektionskrankheiten;
-die Steigerung der Lebenschancen durch Ausbau des Erziehungs-und Ausbildungssystems;
-die Modernisierung des städtischen Lebens durch Elektrifizierung, Kanalisation, Wasserleitung, neue Verkehrssysteme, neue Unterhaltungsangebote;
-die Modernisierung der Haushalte durch sanitäre Installationen, neuartige technische Geräte und andere industrielle Produkte sowie -der Ausbau des Eisenbahnnetzes, die Steigerung der Mobilität von Menschen und Produkten durch den schnellen Massentransport von Waren und Nahrungsmitteln zu den Nachfragern.
Die Bewertung der Modernisierungsvorteile hat sich heute gründlich gewandelt, und damit auch die Bedeutung des inhärenten Gewißheitsdefizits von Wissenschaft. Ihre methodischen Grenzen brechen dort auf, wo zur Lösung drängender Probleme in Wirtschaft und Politik wissenschaftliche Expertise, unmittelbare Übersetzung neuester Forschungsergebnisse in praktische Empfehlungen oder gar eine direkte praktische Umsetzung in Großtechnologie angestrebt wird. Geht hierbei etwas schief -und es gibt fast immer Folgen, die negativ interpretierbar sind -, dann schlägt dies unmittelbar auf die Wissenschaft zurück, nicht nur auf Ingenieure, Erfinder, Industrie oder rahmen-setzende Regierungen und Parlamente. Dies nicht immer ohne Berechtigung. Zumal dann, wenn die Wissenschaftler in der Projektierungs-und Planungsphase ihre Hypothesen der Öffentlichkeit als sichere Erkenntnisse verkauften, überschritten sie wissentlich ihre methodische Kompetenz. Doch dieser Etikettenschwindel ist nicht unverständlich, hängt doch die weitere Finanzierung von Projekten und Stellen von der wahrgenommenen Güte des angebotenen Produkts, also des nutzbringenden Wissens, ab. „Die Abnehmer wissenschaftlicher Dienstleistungen ... zahlen nicht für eingestandene oder aufgedeckte Irrtümer, falsifizierte Hypothesen, noch so scharfsinnig vorangetriebenen Selbstzweifel, sondern für , Erkenntnisse. Nur der, dem es gelingt, am Markt Erkenntnisansprüche gegenüber konkurrierenden Professions-und Laien-gruppen zu behaupten, kann überhaupt die materiellen und institutioneilen Voraussetzungen erarbeiten, um intern dem , Luxus des Zweifels (genannt Grundlagenforschung) zu frönen. Auch hier zeigen sich die Kosten der enormen Steigerung des Aufwandes, den moderne Gesellschaften zur Förderung der Forschung betreiben, für die Wissenschaft selbst. Mit dem Aufwand sind auch die Erwartungen der Öffentlichkeit ins Gigantische gestiegen. Das angesichts der wachsenden Probleme beobachtbare Defizit an wirksamen Problemlösungen erzeugt eine Erwartungs-Wahrnehmungs-Lücke, die sich empirisch an einer interessanten Umfrage festmachen läßt. Die Mehrzahl der Amerikaner war 1980 davon überzeugt, daß die Technik sie nicht glücklicher, sondern eher unglücklicher gemacht habe als die Menschen vor 50 Jahren. Die Frage allerdings, ob man lieber 50 Jahre früher gelebt hätte, wird von der überwiegenden Mehrheit verneint
Am Zustandekommen dieser strategischen Allianz mit Politik und Wirtschaft war die Wissenschaft, historisch gesehen, durchaus nicht unbeteiligt. Die wirkungsvolle Propagierung von Wissenschaft als führender Institution aller Sektoren des idealen Staates war das Werk Francis Bacons zu Anfang des 17. Jahrhunderts. Um 1700 pries Bernard de Fontenelle, Sekretär der Academie Royale des Sciences, den Wert der mathematischen Physik damit, daß man mit ihrer Hilfe gelernt habe, Granaten mit größerer Präzision abzufeuern und die Genauigkeit von Uhren in ungeahnter Weise zu steigern. Man werde Maschinen erfinden, die die Arbeit erleichtern, neue Produkte schaffen, die der Bequemlichkeit dienen und den Reichtum vermehren, und eines Tages Flugapparate bauen, mit denen man bis zum Mond gelangen könne
Dennoch blieb das Baconsche Programm lange Zeit bloße Rhetorik. Die praktische Nützlichkeit der Wissenschaft war bis ins 19. Jahrhundert hinein eher begrenzt. So konnte noch Jean Jacques Rousseau Mitte des 18. Jahrhunderts der Wissenschaft vorwerfen, sie sei unnütz und verderbe nur die Sitten der Menschen Es ist heute von Wirtschaftsund Technikhistorikern weithin anerkannt, daß auch die industrielle Revolution des 19. Jahrhunderts, was die technische Seite angeht, mehr von gebildeten Tüftlern und erfinderischen Handwerkern profitiert hat als von reinen Fachwissenschaftlern Nachdem die Chemie im späten 19. Jahrhundert den Anfang gemacht hatte, bildete sich erst in diesem Jahrhundert die gewollte Verzahnung von Forschung, Technologie, Industrie, Politik und Militär heraus, die heute ein gefährliches Potential für die Autonomie der Wissenschaft zu entwickeln droht. Von der Idee, die Fortschritte der Wissenschaft für andere Bereiche nutzbar zu machen, über ihre öffentliche Förderung im Interesse der Maximierung des Fortschritts, führt ein gerader Weg zum Konzept einer gesteuerten Forschung, die zur Vermeidung „sozial unverträglicher“ Ergebnisse an die politische Kandare zu nehmen ist.
Dieser Prozeß wird von jenem Wandel des Selbstverständnisses der Wissenschaft, der oben beschrieben wurde, also dem Verlust der Gewißheit, begünstigt. Im Zeitalter der Erosion alter Geltungsansprüche und des post-modernen Subjektivismus wird die Differenz zwischen Experten und Laien mehr und mehr unwichtig Wenn wissenschaftliches Wissen keinen Geltungsvorsprung vor beliebigen anderen Formen des Wissens mehr hat, warum sollte man ihm in möglichen Konflikten mit anderen Wissenssystemen dann den Vorzug geben? Dieses Versagen der Wissenschaft vor der Lösung des Geltungsproblems ihrer Ergebnisse hat politische Konsequenzen: Wenn die Gültigkeit wissenschaftlicher Theorien, Ideen oder empirischer Ergebnisse nicht beweisbar ist, dann besteht auch von dieser Seite her gesehen kein zwingender Grund mehr, die öffentliche Finanzierung entsprechender Forschungsprogramme nicht abzubrechen oder ihre Durchführung im Extremfall nicht zu verbieten, wenn sie ein inakzeptables Risiko-potential für das soziale, politische oder kulturelle System beinhalten sollten. Das Schlagwort, das den Wandel der politischen Bewertungsmaßstäbe für Wissenschaft markiert, heißt „Sozialverträglichkeit“,
VI. Wissenschaft als öffentliches Risiko
Mark Snyderman und Stanley Rothman haben in einer kürzlich erschienenen Monographie auf einen gravierenden Widerspruch zwischen den Ansichten von Spezialisten und der Öffentlichkeit in der Frage der Vererbbarkeit von Intelligenz hingewiesen. Zwischen 1960 und 1970 hat sich hier vor allem in der öffentlichen Meinung der USA ein bemerkenswerter Wandel vollzogen, in dessen Verlauf sich eine Art allgemeiner Konsens der Aufgeklärten herausgebildet hat. Man ist sich darüber einig, daß der Begriff der Intelligenz schwammig und die Behauptung ihrer Meßbarkeit unseriös seien. Man ist überzeugt, daß hinter der Vererbungstheorie eine elitistische Ideologie gestanden habe, die durch neuere Untersuchungen widerlegt sei. Dies wird auch als Meinung der Fachleute verstanden.
Snyderman und Rothman weisen anhand einer breitangelegten empirischen Untersuchung nach, daß dies eine unzutreffende Unterstellung ist. Daß die Öffentlichkeit heute dennoch daran glaubt, führen die Autoren auf die sehr parteiische und selektive Berichterstattung in den Massenmedien zurück. Umfang und Ton der angebotenen Information begünstigten 20 Jahre lang einhellig die Milieu-theoretiker, die dadurch in der öffentlichen Meinung als Sprecher der wissenschaftlichen Gemeinschaft erschienen, die sich gegen Angriffe einer „reaktionären“ Minderheit zur Wehr setzten. In Wirklichkeit war es umgekehrt. Die große Mehrheit der Fachleute ist nach wie vor der Überzeugung, daß Intelligenz zumindest in ihren Kernbereichen definierbar und meßbar ist und daß genetische Faktoren bei der Erklärung von Intelligenzunterschieden unverzichtbar sind. Allerdings vertreten sie ihre Ansichten kaum jemals in den publikumswirksamen Massenmedien, sondern ausschließlich im unverständlichen Code wissenschaftlicher Fachartikel in den entsprechenden Periodika. Die Autoren interpretieren dies als eine Art Selbstzensur, die man ausübe, um unter dem Deckmantel scheinbarer Übereinstimmung mit der öffentlichen Meinung ungestört Weiterarbeiten zu können.
Den tieferen Grund für diese Differenz zwischen öffentlicher Meinung und Expertenurteil sehen die Autoren im Wertewandel der sechziger Jahre. Da-mals fand eine Verschiebung sozialer Ideale statt, die vor allem egalitären Leitbildern verpflichtet war. Daß es Verdienste geben soll, die nicht durch eigene Anstrengung erworben werden können, weil sie auf angeborenen Anlagen beruhen, widerspricht dem Ideal egalitärer Gerechtigkeit. Die Vererbungstheorie, selbst in ihrer bescheidensten Form, behauptet nicht weniger, als daß die Vorstellung einer ursprünglichen Chancengleichheit eine Illusion ist. In die Klasse der Konflikte zwischen öffentlich propagierten Idealen und wissenschaftlichen Ergebnissen gehört auch die Diskussion um geschlechtsspezifische Intelligenz-und Begabungsprofile.
Dieses Beispiel zeigt, daß eine Wissenschaft, die öffentlich verwurzelten Wertvorstellungen widerspricht, unter sehr prekären, ja schizophrenen Bedingungen arbeitet. Sie muß spezielle Strategien -wie die Beschränkung des Informationsflusses auf das fachliche Milieu -anwenden, um die Binnen-standards der Profession angesichts äußeren Drucks zu bewahren. Es bedarf keiner besonderen Phantasie, um vorherzusagen, welche Folgen ein Versagen dieser Strategien haben könnte: Aufgrund des dann zu erwartenden öffentlichen Drucks wäre eine faktische Einschnürung unabhängiger Forschung zu erwarten, wie sie in vielen Ländern und in unterschiedlicher Form bereits existiert
Doch warum, so könnte der moderne Wissenschaftskritiker einwenden, sollte man den Binnen-standards der Wissenschaft Vorrang vor oder auch nur Existenzberechtigung neben öffentlichen Standards einräumen? Waren es nicht die Ansichten einiger Wissenschaftler, die die Intelligenzdebatte ausgelöst und in den Universitäten für Unruhe gesorgt hatten? Warum sollte man dies dulden, wenn die Wissenschaftler selbst zugeben müssen, nicht über Kriterien zu verfügen, die die Überlegenheit ihres Wissens über das Wissen der angeblichen Laien beweisen? Schließlich können sie sich nicht einmal untereinander einigen. Doch selbst wenn die Wissenschaftler tatsächlich Recht hätten, würde dann die Möglichkeit sozialer Unruhen oder kultureller Widersprüche nicht rechtfertigen, hier einzugreifen, um die Entstehung oder Verbreitung konfliktfördernden Wissens zu verhindern?
Es ist symptomatisch, wenn Feyerabend im Zusammenhang mit dem Fall Galilei von der „Tyrannei der Wahrheit“ spricht Damit meint er nicht etwa die Haltung der Inquisition, sondern diejenige Galileis, der nicht einsah, „daß das Vorgehen der Kirche unter den bestehenden Umständen die bestmögliche, rationalste und humanste Lösung war“ Nicht nur deshalb, weil diese Lösung ihn vor noch schärferen Konsequenzen wegen seines angeblichen Atomismus bewahrte! Feyerabend verteidigt das Urteil gegen Galilei aus einem anderen Grund. Er fragt: „Sollen Wissenschaftler die Macht haben, andere Ideen und ganze Weltbilder mit entsprechenden Institutionen und persönlichen Bindungen zu verwerfen, oder ist es nicht vielmehr nötig, die Ideen von Experten in einer Demokratie nach umfassenderen und vor allem humaneren Maßstäben zu messen?“, und er kommt zu dem jetzt nicht mehr überraschenden Schluß, daß „die Kirche ... dieselbe Antwort wie viele moderne Verteidiger einer demokratischen Gesellschaftsordnung“ auf diese Frage gab
Es wäre ein Irrtum, Feyerabends Ansicht für reine Extravaganz zu halten. Er argumentiert nur konsequenter als andere. Auch Erwin Chargaff schreibt in seiner Kritik der wissenschaftlichen Methode, daß „schon zu Anfang, zu Zeiten Galileis, ... das Kardinalskollegium als Krisenstab fungieren (mußte), allerdings mit wenig Erfolg“ Bei diesem Urteil fragt sich der Leser, worin ein wirklicher Erfolg bestanden haben könnte. Vielleicht in der dauerhaften Unterdrückung der neuen Ideen? Der Fall Galilei ist offenbar aktueller als vermutet, wenngleich die Verhandlungsgegenstände heute andere sind. Wenn Meyer-Abich laut darüber nachdenkt, „welche Art von Wissenschaft ... das Grundrecht der Wissenschaftsfreiheit ... heute noch verdienen (könnte)“ so sind dies nur des Kaisers -oder besser des Großinquisitors -neue Kleider, auch wenn dieser „Gemeinwohl“ oder neuerdings „Sozialverträglichkeit“ heißen mag. Wie immer lautet die Frage, wer die Definitionsmacht hat.
Sinsheimer nennt einige Beispiele, bei denen öffentliche Interessen mit der Entwicklung der Wissenschaften in Konflikt kommen könnten, wie -die Entwicklung einfacherer Methoden der Isotopentrennung, die es jedem Staat ermöglichen könnten, Atomwaffen herzustellen; -die Erforschung des Alterns von Organismen, die im Falle des Erfolgs zu einer Umkehrung der Alterspyramide führen könnte;
-oder das SETI (Search for Extraterrestrial Intelligence)
-Programm, dessen Erfolg einen größeren kulturellen Schock als die Darwinsche Evolutionstheorie auslösen könnte.
Andere Beispiele ließen sich leicht finden. Es ist jedoch klar, worum es in dieser Diskussion geht: um den Versuch, die Entstehung solchen Wissens zu verhindern, das zu unerwünschtem sozialen, wirtschaftlichen und kulturellen Wandel führt, wie immer man diesen auch definieren mag. Ein solcher Versuch wirft schwierige Probleme auf: 1. Die demokratische Legitimierung. Wie sollen Minderheitenvoten behandelt werden? Hat die Mehrheit das Recht, zu bestimmen, was Minderheiten wissen dürfen? Hat sie das Recht, unabhängigen Instituten oder Wissenschaftlern zu verbieten, den Himmel nach intelligenten Signalen abzusuchen, Alterungsprozesse zu erforschen oder sich mit Isotopentrennung zu befassen? Kann man solche Tatbestände überhaupt kriminalisieren, zumal sich bei der nächsten Wahl die Mehrheitsverhältnisse und damit der Bereich sozial unerwünschter Ideen verschieben könnte? 2. Die Unwahrscheinlichkeit des Erfolgs. Kann ein solcher Eindämmungsversuch überhaupt gelingen? Wie die Wissenschaftsgeschichte zeigt, wird das Neue oft ungewollt oder als Nebenfolge einer auf andere Zwecke gerichteten Forschung gefunden. Die Entdeckung der Röntgen-und Becquerel-strahlen oder der 3 K Hintergrundstrahlung im Kosmos sind Beispiele hierfür. Auch Max Planck war ein eher konservativer Physiker, der keineswegs die klassische Physik umstürzen, sondern einige ihrer Probleme lösen wollte. Es dauerte viele Jahre, bis das Ausmaß der hierdurch implizierten Veränderungen in der Physik klar wurde. Anderes wird in seinen möglichen praktischen Konsequenzen erst nach Jahrzehnten klar -wie die Entdeckung der Supraleitung durch Kamerlingh Onnes im Jahre 1911. Sollten diese Konsequenzen negativ bewertet werden, ist die Entdeckung nicht rückgängig zu machen. Die internationale Struktur der Forschung tut ein übriges. Forschung, die in Land A unerwünscht ist, kann in Land B gefördert werden. Sind Ergebnisse erst einmal erarbeitet, kann ihre Verbreitung im Zeitalter elektronischer Kommunikationsmedien kaum mehr verhindert werden. 3. Die Kosten eines möglichen Erfolges. Es ist unbestreitbar, daß wissenschaftliche Entdeckungen vielfältige Anwendungsmöglichkeiten haben, darunter negative wie positive. Legt man sich politisch auf die Verhinderung bestimmter Forschungsrichtungen fest -aktuelles Beispiel: Gentechnologie -, so nimmt man den Verzicht auf die möglichen Vorteile in Kauf. Die Schwierigkeit ist, daß auch die Kosten des Verzichts nicht überschaubar sind; auch sie können im Extremfall ins Unermeßliche wachsen. Die amerikanischen Ökonomen Zeckhauser und Viscusi sprechen in diesem Zusammenhang von „errors of omission“, die sehr viel weniger diskutiert würden als „errors of Commission“ Wie das Aufkommen neuer Krankheiten wie Aids oder „BSE“ („Rinderwahnsinn“) oder die Entstehung resistenter Stämme bereits überwunden geglaubter Bakterienarten verdeutlicht, vergibt man damit unter Umständen die Chance für eine schnelle und effektive Antwort auf neue, unvorhersehbare Herausforderungen. Es wäre kritisch nachzufragen, ob ökologische Risiken wie Klimawandel, zu hoher Energieverbrauch, Ozonloch, Überbevölkerung, stinkende Autos, Müllawine, verschmutzte Gewässer und Böden durch einen Überfluß oder einen Mangel an Wissen gefördert werden.
Die hier angestellten Überlegungen sollen das Problem nicht lösen, sondern präzisieren. Eines scheint offensichtlich zu sein: Unter den gegenwärtigen Bedingungen der Wissensproduktion laufen alle Bestrebungen nach politischer Steuerung auf die Frage hinaus, ob Wahrheitsansprüche durch Mehrheitsbeschluß geklärt werden können. Die heute dominierende Wissenschaftssoziologie scheint dies zu akzeptieren. Damit schwimmt sie auf der Welle der modernen Wissenschaftsskepsis, doch erzeugt hat sie sie nicht. Daß diese Lösung zu kurz greift, kann man anhand der Paradoxien der Aufklärung, verstanden als „first-order-processes“, zeigen. Diese Paradoxien werden heute von vielen als Indizien einer Krise der Rationalität, eines Scheiterns des „Projekts der Moderne“ und als Indizien einer „neuen Unübersichtlichkeit“ interpretiert.
Diese Diagnose liegt nahe, und sie wird von vielen geteilt. Dennoch erweist sie sich als undifferenziert und pauschal. Die neuere Naturwissenschaft für unsicher und unvollständig zu halten, Teile von ihr für falsch zu erklären oder technologische Anwendungen von Wissenschaft für gefährlich zu erachten, ist für sich genommen kein antiwissenschaftlicher Standpunkt, kein Symptom für A-Rationalität. Derartige Überlegungen findet man auch bei etablierten Wissenschaftlern. Selbst die Kritiker der Forderung nach experimenteller Reproduzierbarkeit und logischer Konsistenz finden in Teilen der heutigen Naturwissenschaft einen gewissen Rückhalt. Der Verdacht liegt nahe, daß die heutige Wissenschaftsskepsis auch durch ein grundfalsches Wissenschaftsideal genährt wird, ein Ideal, das nicht auf Fehlbarkeit, Unsicherheit, Konflikt und Widerlegung, sondern auf Begründung, Bestätigung und Konsens beruht Genauer betrachtet, stellt sich folgendes Problem: Zerstört Aufklärung mit ihrer schonungslosen Selbstkritik ihre Basis oder treibt sie ihr Programm damit nicht ein Stück weiter? Negiert sie ihre Prinzipien oder wendet sie sie nicht vielmehr auf ihre eigenen Grundlagen an? Führt sie geradewegs in den Skeptizismus oder erreicht sie ein höheres Niveau an Selbstreflexion, Kritik und Erkenntnis? Dringlich ist heute die Analyse von Aufklärungs-und Verwissenschaftlichungsprozessen erster Ordnung, nicht im Sinne eines Relativismus, der Wahrheit und Irrtum einebnet, sondern im Interesse einer Überleitung der ursprünglichen Aufklärung in eine Aufklärung zweiter Ordnung. Es geht nicht um eine Restaurierung der „Tempelfähigkeit von Wissenschaft“, um Hermann Lübbe noch einmal zu zitieren, sondern um die Wiedergewinnung einer gewissen Distanz zur Politik. Man könnte zur Verdeutlichung der Alternative, um die es heute geht, einen Ausdruck der Chaos-oder Katastrophen-Theorie als Metapher benutzen: Wir stehen an einer „Feigenbaumsehen Bifurkation“, wo eine winzige Änderung in den Voraussetzungen genügt, um entweder auf ein höheres Niveau an Aufklärung, Wissen und Handlungsspielraum zu gelangen oder in Mystizismus, Magie, Okkultismus oder neuen Messianismus abzugleiten.