I. Einleitung
In „Geschichte und Klassenbewußtsein“ erwähnt der ungarische Marxist Georg Lukacs ein Gleichnis, das das Verhältnis der Wissenschaften zu ihrem Fundament widerspiegelt: Brahmanen. die über Jahrhunderte geglaubt hatten, daß die Erde von einem großen Elefanten getragen würde, fragten eines Tages beunruhigt den Oberbrahmanen, worauf denn der Elefant stehen würde. Der Oberbrahmane antwortete: auf einer Riesenschildkröte. Daraufhin, so Georg Lukacs, gingen die Brahmanen beruhigt wieder an ihre Tätigkeit.
Seit den Zeiten der kosmologisch orientierten Brahmanen hat sich wenig geändert an den Wissenschaften. Letzte Annahmen, auf denen ganze Wissenssysteme basieren, sind oft trivial und werden eines Tages hinterfragt und neu fundiert. Daß freilich solche neuen Fundierungen immer nur „Schildkröten“ sein werden, bleibt eine beunruhigende Möglichkeit, kann aber von Zeitgenossen nie genau bestätigt werden, gehören wir als Zeitgenossen doch zu jenen „Brahmanen“. die von den neuen Antworten befriedigt wieder an ihre Arbeit gehen.
Wir nennen solche Perioden, in denen kritisch nach den Grundlagen einer Wissenschaft gefragt wird und neue Antworten versucht werden, häufig „wissenschaftliche Revolutionen“. Den großen Revolutionen, wie sie sich aufgrund der Newtonschen Physik ergaben, sind viele kleine gefolgt. Der Begriff „Wissenschaftsrevolution“ mag dadurch manchmal inflationär gebraucht werden, jedoch bringt es die Überraschung des Neuen oft mit sich, daß der Bruch zu bisherigen Wissensbeständen derart dramatisiert wird.
Wir wollen im folgenden von einer vielleicht nur kleinen Wissenschaftsrevolution berichten, die jedoch in bestimmten Sparten der Politikwissenschaft ihre Spuren hinterlassen hat und diese in den kommenden Jahren wahrscheinlich noch mehr verdeutlichen wird. Es geht dabei um eine neue Sichtweise, wie man die Rangordnung von abstrakten und spezifischen Elementen im Denken von Individuen neu bestimmt und damit viele Probleme der Politik auch neu sehen und interpretieren wird. Nur beispielhaft steht dafür der Ideologiebegriff. War es bisher üblich, eine Rangordnung von obersten Werten, über deren weltanschauliche Verfestigung als Ideologie bis hinunter zu den jeweiligen politischen Einstellungen und Meinungen zu verfolgen und damit von einer Hierarchie der Wert-und Sachorientierungen auszugehen, so ergaben sich im letzten Jahrzehnt viele Zweifel an diesem Denkmodell. Heute vermutet man viel eher eine Parallelisierung unterschiedlicher Abstraktionsgrade im Denken nach Maßgabe jeweiliger Notwendigkeiten für das Erkennen. Dies wird im folgenden verdeutlicht werden.
Sollte der neue Ansatz, der Denkoperationen nicht in hierarchisch klar gegliederter Weise anordnet, sondern diese differenziert und diffusioniert, jedoch unter Bedingungen fein abgestimmter Steuerungsleistungen ansetzt, sich als erklärungskräftig erweisen, dann hätte dies auch eine Kritik des aufklärerisch-rationalistischen Denkens zur Folge, das uns in den beiden letzten Jahrhunderten dem Descartschen Diktum unterworfen hatte, daß „wahr“ nur das sei, was „klar und distinkt“ ist. Das neue Wissen baut viel stärker darauf, daß intellektuelle Fähigkeiten und spontanes Alltags-und Erfahrungswissen Zusammenwirken müssen, um menschliche Umweltorientierung zu ermöglichen. Dies hat Folgen für die wissenschaftlichen Erklärungen. Die bisherigen „kopflastigen“ Denkbilder über kognitive Orientierungen müßten aufgegeben werden zugunsten einer Mischung von „Kopf-und Fußleistungen“.
Die kleine Revolution, von der wir sprechen, und die sich unter Umständen als eine große erweisen könnte, findet statt im Bereich der kognitiven Psychologie in Verbindung mit der Informationswissenschaft und besonders mit dem Feld der „KünstIichen-Intelligenz“ -Forschung. Das zentrale Weltbild. um das es dabei geht, ist das sogenannte „kognitive Schema“, das sich als neues Wissenschaftsparadigma herausbildet.
II. Das Paradigma „Kognitives Schema“
Im Unterschied zur allgemeinen Psychologie, in der sich nach dem Krieg immer mehr behaviouristische Sichtweisen und Forschungsansätze durchgesetzt haben, blieben Teile der Sozialpsychologie dem Kognitionsansatz verhaftet. Dieser geht davon aus, daß Wahrnehmungen in der Umwelt und verhaltensbestimmende Dispositionen nicht einfach kausal determiniert, sondern aufgrund der Kontextabhängigkeit dieser Orientierungen sinnhaft strukturiert seien. Das setzt eine irgendwie geartete Traditionslinie zu jenen Theoretikern vor allem deutscher Provenienz voraus, die im 19. und 20. Jahrhundert als Vertreter der „ganzheitlichen“ Psychologie bekannt wurden Die Forschungsergebnisse dieser Richtung wurden schließlich in den dreißiger Jahren und danach von dem deutschen Emigranten Kurt Lewin in den USA systematisiert. Lewin selbst war der Erfinder der „Feldtheorie“, einer Präzisierung des ganzheitlichen Ansatzes, wodurch der Zusammenhang bestimmter Orientierungen mit anderen in einem Beziehungsmuster, genannt Feld, verdeutlicht werden konnte.
Nach dem Kriege waren es dann Ansätze wie die von der „kognitiven Dissonanz“ oder der „kognitiven Balance“ die dem Ansatz der „spekulativen“ Kognitionspsychologie weiterhin Beachtung verschafften. Insbesondere war es aber vor allem die Sozialpsychologie, die darauf verweisen konnte, daß es ohne die Beziehung von Individuum und Sozialem keine Sozialpsychologie geben konnte, die diesen Namen verdiente. In der auf Individuen bezogenen Psychologie wurden die großen Forschungsleistungen durch Beobachtungen, Experimente, Gehirnforschungen u. ä. mit Hilfe der methodisch auf Exaktheit gebrachten diversen verhaltenstheoretischen Fachrichtungen weitergeführt.
An der Sozialpsychologie blieb verständlicherweise der Vorwurf des „Spekulativen“ haften, weil viele ihrer Resultate nicht ähnlich exakt überprüft werden konnten, wie die in der Verhaltenspsychologie;
vielmehr blieb immer ein Spielraum für das „Interpretative“ übrig.
Es gibt jedoch eine Möglichkeit, wie man das „Spekulative“ vor dem Ruf der Unseriösität und Beliebigkeit retten kann. Das ist dann nämlich der Fall, wenn es gelingt, das Verhältnis „allgemeiner Strukturen“ und „empirischer Daten“ durch hermeneutische Interpretation in einen Zusammenhang zu bringen, aus dem heraus in mehr oder minder kontrollierter Weise Ergebnisse entstehen, die sodann wieder der empirischen Analyse ausgesetzt werden können oder die als solche unter bestimmten Bedingungen „wirken“. Einer der Durchbrüche kam hier in der „Atomphysik“ zustande, wo empirische Forschungen und Modellbildungen von Niels Bohr zusammenwirkten, um das Ergebnis der Kernfusion zu zeitigen.
Eine ähnlich brisante Situation ergab sich, als Ende der sechziger Jahre „kognitive Psychologie“ und künstliche Intelligenzforschung sich aufeinander zubewegten und sich gegenseitig in der Modellbildung und der Interpretation von Daten befruchteten. „Nur spekulative“ Resultate aus der Kognitionspsychologie können nämlich dann „verifiziert“ werden, wenn sie sich in der Computerprogrammstrukturierung als hilfreich erweisen. Diese Symbiose wurde Ende der siebziger Jahre in den USA im sogenannten „Yale-Projekt“ ins Auge gefaßt und hat seitdem eine gewisse Popularität und ein erneutes Prestige der Kognitionspsychologie bewirkt. Insbesondere waren es die Professoren Robert P. Abelson (Kognitionspsychologie) und Roger Schank (Artificial Intelligence [AI]), die den programmatischen Ansatz ins Leben riefen und die nunmehr nach gut zehn Jahren Forschung einigermaßen selbstbewußt auf das Erbrachte zurückblikken Auch wir können uns des Eindrucks nicht erwehren, daß dieses Selbstbewußtsein nicht unberechtigt ist.
Der Schema-Ansatz geht zurück bis in die zwanziger Jahre, doch erst im letzten Jahrzehnt wurde der Ansatz wissenschaftlich wirklich genutzt. Der Begriff „Kognitives Schema“, oder wie Abelson heute wieder verallgemeinernd sagt „Wissensstrukturen“ (Knowledge Structures), besagt, daß kognitive Orientierungen am ehesten als eine Mischung von allgemeinen und spezifischen Eigenschaften verstanden werden können, die nach bestimmten Ordnungsbeziehungen strukturiert sind. Nimmt man die Sprachlichkeit dieser Orientierungen noch mit hinzu, dann ergeben sich inhaltlich variable Denkbilder. Um es an einem Beispiel von Abelson zu verdeutlichen: Wir hören eine Geschichte: „Die Piraten ergriffen ihr Opfer, verbanden ihm die Augen und schleiften es die Treppe hinunter.“ Wir sind im Bilde. Worum es bei der Beschreibung anscheinend geht, läßt sich in unserem Bewußtsein nach dem Schema: „Grausame Piraten“ ordnen. Dieses Schema, aufgrund vorhergehenden Lernens, sprachlich vermittelter Symbole u. ä., ordnet mehr oder minder klar die Elemente, die unter dem Denkbild „Grausame Piraten“ zu fassen sind. Jedoch. die Geschichte geht weiter: „Dann brachten sie die Frau mit den verbundenen Augen in den Saal, wo der Maskenball stattfand.“ Wir ändern natürlich sofort unser Denkbild, und aus dem Schema: „Grausame Piraten“ wird das Schema „Verkleidete auf dem Maskenball“. Diese Flexibilität der Modifizierung bereitet uns, wie hier im Beispiel, kaum Schwierigkeiten, weil die eingehenden Informationen deutliche Ordnungsbildungen erlauben. Dies ist freilich nicht immer so. Was die Kognitionspsychologen an dieser Schemabildung für wichtig halten, ist ein doppelter Vorgang: Während wir die Erkenntnis des Bildes von den „Grausamen Piraten“ gleichsam aus unserem Kopfe abrufen konnten, also aus dem, was wir ohnehin schon wußten, mußten wir bei der Modifikation der Struktur einen Moment warten, um empirische Details aufzunehmen, die uns dann schlagartig klarmachten, daß es sich um eine Maskerade handelt. Diese Modifikation oder Korrektur erfolgte gleichsam „von unten“.
Piaget « der in den zwanziger Jahren sich den Denkvorgang schon ähnlich konzipiert hatte und der damit der Erfinder der Schemaforschung genannt werden kann, erklärte den Vorgang als Assimilation von neuen Informationen zu alten Schemata und von Anpassung (accomodation) von alten Schemata an neue Information. Dieser Vorgang der Doppelung in der Erkenntnis ist von zentraler Bedeutung.denn nur er verdeutlicht, daß Kognition ein aktiver und dynamischer Prozeß ist. in dem Veränderungen geringster Art ganz große Wirkungen zeitigen. Ein Individuum konstruiert und rekonstruiert seine subjektiv wahrgenommene Realität anhand seines Gedächtnisses einerseits und neuer Informationen, die es erhält, andererseits. Damit ist er nicht passiver Konsument, sondern aktiver Teilnehmer, Benutzer und Gestalter in sozialen Prozessen
Der Prozeß und die Verifikation der Schemabildung nach Abelson wird durch vier Stufen bedingt: einmal muß, wie vorhin gesagt, die Informationsverarbeitung nach dem Muster „Top-down“ (von oben nach unten) und „Bottom-up“ (von unten nach oben) ablaufen. Dabei handelt es sich aber nicht um gleichwertige Wissenselemente. Während die Top-down-Elemente außerhalb des „Textes“ liegen, arbeiten sich die Bottom-up-Elemente innerhalb des Textes zu höheren Abstraktionsgraden vor (aus „Piraten schleppen“ — „Frau/verbundene Augen“ — „Saal“ entsteht „Maskenball“). Zweitens muß sichergestellt sein, daß die partikularen Schemata ihre Wirkung in spezifischen Kontexten entfalten, um damit der starren Abstraktion zu entgehen, die jeder Modellbildung anhaftet und die die Künstliche-Intelligenz-Forschung bislang zum Scheitern verurteilte. Eine dritte, sehr schwer verständliche Forderung besagt, daß Schemata „funktionale Flexibilität“ aufweisen müssen. Dies besagt: “ Both words are operative. The ‘functional’ part says that knowledge structures do something. They aid comprehension, they organize memory, they guide learning und abstraction, and so on. The ‘flexibility’ says that knowledge structures and the processes that use them can be combined efficiently to serve multiple purposes."
Die vierte Stufe beinhaltet den wichtigen Test durch Al-Simulation; denn was immer von den Kognitionspsychologen an Begriffen und Metaphern angeführt wird, es muß soweit umgesetzt werden können, daß die Computerprogramme „laufen“. Vielfältige Forschungen aus ganz unterschiedlichen Bereichen mußten Ergebnisse erzielt haben, bevor eine solche Synopse, wie sie der Schemata-Ansatz erstrebt, wirklich umgesetzt werden konnte. Ergebnisse aus der Persönlichkeits-oder aus der Gedächtnisforschung müssen vorliegen, bevor diese neu geordnet und synthetisiert werden können. Vieles im Schemata-Ansatz dürfte noch terra incognita sein. Insofern stehen sich Wissen und Interpretation noch nicht völlig versöhnt gegenüber. Aber selbst wenn der Ansatz in erster Linie seine Bedeutung als interpretativer Ansatz hätte, wäre die Leistung für moderne Sozialwissenschaften weit über die Sozialpsychologie hinaus von großer Bedeutung.
Ist es für alle Schemata zwingend, daß in der Analyse eines bestimmten Schemas alle Attribute sowie die Relationen dieser Attribute zueinander klar erfaßt werden müssen, so trifft dies freilich für ihre Anwendung in Alltagssituationen nicht zu. Lange Zeit hat die Wissenschaft, bedingt durch die Denkvoraussetzungen des hierarchischen Diktums des Rationalismus, darauf bestanden, daß klar von oben nach unten zu ordnen sei — und was sich so nicht ordnen ließe, war irrational und nicht „durchdacht“. Sogar die aus der Lebensphilosophie stammende Phänomenologie Edmund Husserls, die mit dem Konzept „Lebenswelt“ eine eigentlich andere Organisation des Denkens als etwa die Kantische Philosophie anstrebte, versuchte, die Lebenswelt unter logisch ableitbare Regeln zu systematisieren Husserls Assistent, Martin Heidegger, hatte darüber einen Disput mit seinem Professor, der sich in der neueren Zeit für das Problem der Neuordnung der Elemente des Denkens (Top-down, Bottom-up) als äußerst fruchtbar erweist. Heidegger argumentierte nämlich gegen Husserls Versuch der Unterordnung von lebensweltlicher Erfahrung unter logisch ableitbare Regelsysteme mit der Behauptung, daß dies unmöglich sei, weil jegliche Erkenntnis mit Regeln und mit Erfahrungen zugleich zu tun habe. Erfahrung sei aber nicht subsumierbar. Diese von Heidegger begründete Sperrigkeit der Lebens-und Alltagswelt hat ihre moderne überraschende Bestätigung in der AI-Forschung erhalten, wo die Rationalisten und Hierarchiebilder aus der Schule der Programmgestalter (programmers) mit ihren Computermodellen nicht recht vorankommen weil sie geniale Idioten produzieren, die nicht in der Lage sind, mehrere Kombinationen vonSchemata (funktionale Flexibilität) gleichzeitig umzusetzen, da sie nur Top-Down gesteuert sind.
In Informationsverarbeitungsprozessen von Computern liegen die Regeln, nach denen diese verlaufen, unveränderlich fest. In menschlichen Informationsverarbeitungsprozessen dagegen können bereits die Informationswahmehmung und die Weiterverarbeitung die Regeln dieses Prozesses beeinflussen oder sogar verändern. Jeder Mensch, der über die Straße geht, sich dabei unterhält und auf den Verkehr achtet, kann dies nur dann tun, ohne überfahren zu werden — und wir alle tun dies täglich —, wenn er diese drei Schemata — und einiges mehr — als Top-down/Bottom-up-Informationsverarbeitungsprozesse durchführt.
Soweit sind die AI-Maschinen noch nicht; jedoch sind durch Heideggers Unbotmäßigkeit seinem akademischen Lehrer gegenüber einige der intellektuellen Schranken, die der Rationalismus gesetzt hatte, weggeräumt worden. Eine wesentliche und vielleicht noch weiterreichende Wirkung als Heidegger hat Ludwig Wittgenstein auf das neue Denken ausgeübt, weil er als radikaler Verfechter einer anti-abstrakten Denkrichtung (logischer Positivismus) wesentliche Denkleistungen auf dem Gebiet der Bottom-up-Theorie erbracht hat. Auch Nietzsches radikaler Aufklärungskritik kommt in dieser Neubestimmung eines gebrochenen und multifunktionalen Denkens große Bedeutung zu.
Können diese kurzen Verweise nur den Tiefgang der neuen Forschungen in die Bereiche der Wissenschaftstheorie hinein aufzeigen, so hat die Kognitionspsychologie ihrerseits sehr viel dazu beigetragen, den Ansatz zu ermöglichen. In einem neueren Lehrbuch legen Susan T. Fiske und Shelley E. Taylor die ganze Spannbreite der Schemaforschung vor. Sie unterscheiden zwischen fünf Typen der Schemaforschung: Personenschemata, Selbst-Schemata, Rollen-Schemata, Ereignis-Schemata und prozedurale soziale Schemata. Dies sind die wichtigen eigenständigen Bereiche der Kognition auf dem Weg ins soziale Handeln. Personen-und Selbst-Schemata beschäftigen sich mit der Informationsverarbeitung von Individuen oder bezogen auf ein reflexives Ich. während das Rollen-Schema schon den Übergang der Person ins soziale Verhalten umfaßt. Ereignis-Schemata, die einen großen Raum in der Schemata-Forschung einnehmen, werden auch als „Scripts“ bezeichnet, denn sie müssen Schemata erfassen und organisieren können, in denen Sequenzen ablaufen: Deshalb die metaphorische Nähe zu literarischen oder dramaturgischen „Scripts“.
Innerhalb der einzelnen Schemata-Typen verläuft die Organisierung der Kognition dann gemäß Fiske/Taylor nach immer gleichem Verlaufsmuster ab:
Wahrnehmung (perception). Gedächtnis (memory)
und (Schluß-) Folgerung (inference). Um die drei Muster der Grundoperationen von Kognition im alten Beispiel von den Piraten kurz zu erläutern:
Die Wahrnehmung steuert die aktuelle Erkenntnis des Schemas in seinem Kontext, aus dem Gedächtnis werden die gespeicherten Kenntnisse aus Literatur und Medien über Piraten abgerufen — denn persönliche Erfahrungen dürfte kaum jemand mit Piraten haben und wenn, gehören diese sicherlich nicht dem Abenteuer-Muster an; die Fähigkeit zur Folgerung kombiniert aus spärlichen Andeutungen den holistischen Gesamtzusammenhang, die „Gestalt“. So braucht man nicht in den Saal zu sehen, um zu „wissen“, daß dort ein Maskenball stattfindet. Auch diese drei organisierenden Muster des Kognitionsprozesses hören sich sicherlich großartiger an, als ihr wissenschaftlicher Ertrag zumindest bisher noch ist. Dennoch ist die Ordnungsleistung des Ansatzes grandios und reicht, wie im folgenden zu sehen ist, weit in andere Sozialwissenschaften hinein.
Die drei Größen: Wahrnehmung, Gedächtnis und (Schluß-) Folgerung (inference) sind selbst aber noch holistische Konzepte, die zerlegt werden müssen. um überhaupt dem von Abelson aufgestellten Erfordernis, daß ihr Lakmustest erst im Computer stattfindet, gerecht zu werden. So arbeitet die Kognitionspsychologie immer noch fieberhaft daran, zu erkennen, wie Prozesse der Kodierung ablaufen damit Gedächtnisspeicherungen erfolgen können. Bei solchen Fragen ist das Feld der experimentellen Mikroforschung gefordert, das natürlich von dem Schemata-Ansatz nicht ausgeschlossen, sondern geradezu aktiviert worden ist. Dieses Problem (Was wird beim Lernen wie gespeichert?) ist übrigens eines der zentralen der AI-Forschung und geht in den letzten Jahren über den von Abelson/Schank geschaffenen Arbeitszusammenhang noch hinaus. Der auch von Schank vertretene Programmer-Approach wird nämlich seit neuestem von den sogenannten Networkers überrundet, die von neuen Formen der Speicherung ausgehen und diese in parallel geschalteten Computern als „neuronale Netzwerke“ simulieren.
Was immer die Zukunft der neuen Revolution in der Kognitionspsychologie sein wird, eines dürfte jetzt schon feststehen: Sie hat das Schiff moderner Wissenschaftsentwicklung entscheidend zu einem erneuten Auslaufen provoziert und sie hat die engen Horizonte des wissenschaftlichen „methodischen Individualismus“ überwunden und erneut den Fehdehandschuh des strukturalistischen Denkens in die Debatte geworfen.
III. Der Schemata-Ansatz in der Bundesrepublik
Es ist uns nicht möglich, die gesamte empirische und theoretische Forschung eines anderen Faches, nämlich der Psychologie, in der Bundesrepublik auch nur annähernd zu überblicken. Insofern sind wir nur in der Lage, im folgenden „begründete Vermutungen“ zu äußern. Auch hinsichtlich des Forschungsstandes in der Politikwissenschaft mögen wir uns im folgenden irren, nehmen dieses Verdikt jedoch gerne in Kauf, wenn dadurch eine Hilfestellung beim Aufwachen aus dem Dornröschenschlaf mitgeliefert werden könnte.
Die Sozialpsychologen haben 1987 eine Konferenz zum Thema “ social cognition” veranstaltet, die in der Psychologischen Rundschau dokumentiert ist. Darin gibt Fritz Strack einen differenzierten Überblick über die vielfältigen Leistungen des Kognitionsansatzes. Die „Yale-Schule“ wird von ihm nicht erwähnt; Abelson ist nicht zitiert. Infolgedessen ist bei Strack auch nicht von einem Paradigmenwechsel die Rede, vielmehr wird die Literatur bis zu Beginn der sechziger Jahre zurückverfolgt und eine Kontinuität der Forschung angenommen. Der von Abelson behauptete kumulative Anstieg der Forschung in den letzten zehn Jahren wird von Strack nicht dokumentiert. Gleichsam in einem Gegenreferat deckt Carl F. Graumann den ideologiekritischen Part ab. Graumann spricht vom „WendeDiskurs“ und ist sich nicht ganz sicher, ob er die zunehmende Diskussion über kognitive Ansätze im Fach Psychologie mit der politischen Wende in Bonn oder Washington parallelisieren soll. Er bescheinigt der Wende, falls es sie geben sollte, daß diese nichts Neues bringen würde, weil der Kognitionsansatz bereits alt sei. Er glaubt vielmehr, daß der Begriff „social cognition“ irrig sei und einem individualistischen Ansatz das Wort geredet werde. Graumann hingegen fordert, sich mehr dem Sozialen innerhalb der Sozialpsychologie zuzuwenden. In einem dritten Beitrag fragt Gerd Gigerenzer ob nicht die neuen Ansätze der kognitiven Psychologie als Metaphern im Unterschied zu empirischen Tatbeständen aufgrund experimenteller Befunde zu verstehen seien. Metaphern, d. h. Denkbilder, die eher illustrativ eine Richtung anzeigen als selbst empirisch auffindbar zu sein, werden von ihm wissenschaftstheoretisch untersucht in der Absicht, aufzuzeigen, daß sie aus den Werkzeugen des Psychologen, nämlich der Statistik, oder, wie im Fall der neueren Kognitionspsychologie, der Computersimulation, entspringen.
In allen drei Beiträgen ist die Yale-Forschungsrichtung nicht dokumentiert. Selbst wenn diese aber nicht als entscheidend angesehen werden sollte oder falls deren Anspruch, einen Paradigmawechsel begründet zu haben, als nicht stichhaltig angesehen würde, so ist doch nicht einsehbar, warum der Ansatz nicht erwähnt wird. Stracks Literaturbericht verweist auf vielfältige Forschungsleistungen, die in dem Artikel als ein buntes Mosaik erscheinen, wobei die Struktur des Gesamtzusammenhanges aber irrelevant bleibt. Man kann sich des Eindrucks nicht erwehren, daß die psychologische Forschung in der Bundesrepublik im verhaltenswissenschaftlichen bzw. empiristischen Hafen angekommen ist. Dieser Eindruck ergab sich auch auf dem Jahreskongreß der Psychologen 1988 in Berlin. Einzelne Ansätze pflegen ihre Mikrozugänge, und die Frage nach Strukturen oder nach heuristischen Zielen wird aufgrund eigener Kompetenz mitleidig belächelt. Die von Lewin ausgegangenen Impulse aus den dreißiger Jahren sowie andere Formen der Gestaltpsychologie gelten eher als suspekt und sind in der Ausdifferenzierung empirischer Ansätze verschwunden. Graumanns ideologiekritisches Verdikt scheint hingegen dem Konservativismus der westdeutschen Linken verhaftet zu sein, die alle neuen Denkrichtungen, sofern sie mit Modernität oder mit Aufklärungskritik behaftet sind, mit der deutschen bürokratischen Triade — gewürzt mit einem Schuß Habermas — niedermacht: Das haben wir schon längst/Da könnte ja jeder kommen/Wozu brauchen wir das?
Gigerenzer hingegen verweist sicherlich auf einen wichtigen Aspekt der neuen Kognitionspsychologie, nämlich, ob diese nicht eher Metapher als Erklärung sei. Aber Metaphern, die neue Gesamtzusammenhänge interpretieren helfen, sind wichtige Bestandteile für den Fortgang der empirischen Forschung. Zumindest der Anspruch des Yale-Projektes besteht auch darin, daß Metaphern Teil der Simulation für die Computerprogramme der AI sein sollen. Insofern solche Metaphern dann Wirkung zeitigen, sind sie keine Metaphern mehr, sondern Bestandteile empirischer Forschung.
Vielleicht basiert die Fehlanzeige hinsichtlich der Aufarbeitung dieser Richtung der Kognitionspsychologie einfach darauf, daß in der Bundesrepublik noch keine symbiotischen Verbindungen zwischen Psychologie und AI-Forschung bestehen oder erst im Entstehen begriffen sind. Deutsche Großfirmen wie Siemens haben sowieso ihre Dependancen in den USA und zapfen zu wohlfeilen Bedingungen dortige Grundlagenforschungen an. Das mag dann Tendenzen zum Dornröschenschlaf hierzulande begünstigen. Geht man von der Kognitionspsychologie zu der unserem Fache nahestehenden Politischen Psychologie über, dann muß wohl völlige Fehlanzeige gemeldet werden. Wenn sich die neue Überblicksdarstellung „Politische Psychologie heute“ gemäß ihrem Titel auf dem Stand der Debatte wähnt, dann ist zu sagen, daß in diesem umfangreichen Heft vie-les an traditionalen Ansätzen aus der Psychoanalyse vertreten ist, auch ganzheitliche Argumentation gibt es da im Überfluß, aber eine Fortführung des ganzheitlichen Ansatzes von Lewin bis zum Schemata-Ansatzes der Moderne ist dort nicht zu finden. Deshalb bleiben die meisten Aussagen dieser Art von Politischer Psychologie metaphorisch. Wir konnten nicht feststellen, daß die im folgenden vorgestellten empirischen Arbeiten aus der amerikanischen Politischen Psychologie bei uns schon in die Forschung Eingang gefunden haben.
IV. Der Transfer des „social cognition“ -Ansatzes in die Politikwissenschaft
In der politikwissenschaftlichen Forschung der USA ist der Paradigmenwechsel der Kognitionspsychologie nicht ohne Folgen geblieben, sondern hat die Untersuchungen auf zwei Forschungsfeldern kanalisiert: Zum einen wurden die Studien zur Analyse von außenpolitischen Entscheidungsprozessen erneut stimuliert. Auf diese Weise hat der Paradigmenwechsel Untersuchungen zu politischen Eliten beeinflußt. Zum anderen wurden die Forschungen über öffentliche Meinung durch neue Einsichten angereichert, die aussichtsreich erscheinen, die kontroverse Diskussion der Meinungsforscher über den Zusammenhang zwischen Einstellungen der Öffentlichkeit und Wahlverhalten differenziert und nutzbringend fortzusetzen Auf diese Weise wird die Forschung über breite Gesellschaftsschichten vom Paradigmenwechsel in der Kognitionspsychologie programmatisch geprägt. Wir wollen uns im folgenden mit beiden Forschungsfeldern befassen. 1. Die Untersuchung außenpolitischer Entscheidungsprozesse Die Analyse außenpolitischer Entscheidungsprozesse ist ein vielschichtiges Forschungsfeld, dessen verschiedene Dimensionen in der grundlegenden Untersuchung von Snyder. Bruck und Sapin 1961 skizziert wurden Empirisch vorgehende Folge-studien, die zur Modellbildung für Entscheidungsprozesse geführt haben, waren zunächst auf das Verhalten von Staaten, Institutionen oder bürokratischen Einheiten konzentriert Seither sind vor allem zwei Tendenzen in der Forschung auszumachen. Erstens wird die politikwissenschaftliche Analyse von Entscheidungsprozessen von der Theoriebildung anderer Disziplinen beeinflußt und bereichert. Neben der fächerübergreifenden Organisationstheorie wurden Ansätze und Modelle aus der Betriebs-und Volkswirtschaftslehre für sozialwissenschaftliche Untersuchungen herangezogen Zweitens begann die Politikwissenschaft sich schon frühzeitig unter dem Einfluß der Psychologie von der Annahme zu entfernen, daß politische Entscheidungen ausschließlich aufgrund vollständig rationaler Überlegungen zustande kämen. Unter den gegebenen Bedingungen seien nur „begrenzt rationale“ Entscheidungen möglich, da die Entscheidungsträger unter Zeitdruck handelten, nicht alle denkbaren Handlungsalternativen übersehen könnten, deren Folgewirkung nur unvollständig abzuschätzen seien und sich daher nicht in ein Kosten-Nutzen-Kalkül bringen ließen, das den Forderungen nach wirtschaftlicher Sparsamkeit genüge Damit rückten der individuelle Entscheidungsträger und dessen subjektive Einstellungen und Entscheidungskriterien in das Blickfeld der Politikwissenschaftler. Der Entscheidungsträger, so wurde angenommen, handle nicht primär anhand der ihm zur Verfügung stehenden Informationen, sondern aufgrund seiner durch Sozialisation, Erfahrung und Lernen zustandegekommenen individuellen Denkbilder (belief Systems). Diese aus verschiedenen Einstellungenzusammengesetzten Systeme seien abstrakte, allgemeine und gegen Veränderungen resistente Gebilde, die das Entscheidungsverhalten des Individuums steuerten Wenn aber bestehende und wenig veränderbare Einstellungsmuster einen derartig steuernden Einfluß auf die Ergebnisse von Entscheidungsprozessen ausübten, dann wäre es wichtig, deren Inhalte zu kennen. Zu deren Analyse hat Alexander George einen Kategorialapparat aus jeweils fünf normativ-philosophischen und operativen Annahmen entwickelt, die zur Inhaltsanalyse verwendet werden konnten. Ole Holsti steuerte eine Typologie dieser Einstellungsmuster bei
Dagegen wurde die empirische Untersuchung, ob und gegebenenfalls wie Einstellungsmuster Entscheidungen beeinflussen und steuern weitgehend vernachlässigt. In seiner grundlegenden Untersuchung zog Robert Jervis neben Ergebnissen aus psychologischen Experimenten historische Fallbeispiele nur selektiv heran, um seine Befunde empirisch zu belegen Bisher liegen nur zwei Studien vor, in denen der Zusammenhang zwischen individuellen Einstellungsmustem und politischen Entscheidungen anhand von Fallstudien systematisch untersucht worden ist Doch obwohl es gelang, den Einfluß von Denkbildern auf außen-und sicherheitspolitische Entscheidungen nachzuweisen, blieben die Ergebnisse nach wie vor unbefriedigend. Erstens scheinen Denkbilder nicht derart allgemein und abstrakt zu sein, wie George ursprünglich angenommen hatte. Zweitens erscheint fragwürdig, ob Denkbilder auch über längere Zeiträume stabil und gegen Veränderungen resistent sind. Drittens kann in Frage gestellt werden, ob Denkbilder, wie George angenommen hatte, in sich konsistent und widerspruchsfrei sein müssen. Diese drei Einwände zusammen führten zu der Schlußfolgerung, daß die Annahmen über das Gewicht von Denkbildern der Entscheidungsträger zur Erklärung von Entscheidungen zwar einen wichtigen Beitrag leisten, aber hinsichtlich Zentralität, Konsistenz und Stabilität modifiziert werden müssen
Aus der Beobachtung, daß Entscheidungsträger in unterschiedlichen Situationen verschiedene Entscheidungen treffen, sollte nicht leichtfertig geschlossen werden, daß Denkbilder für Entscheidungsprozesse unerheblich seien. Vielmehr liegt die Vermutung näher, daß Denkbilder eine komplexere Struktur aus verschiedenen Schemata aufweisen als bisher angenommen. Welches Schema aus diesen Denkbildern eines Entscheidungsträgers zu einem bestimmten Zeitpunkt aktiviert wird, hängt demnach von der jeweiligen Situation ab, in der sich der Entscheidungsträger befindet. Die weitere Forschung zu Denkbildem in Entscheidungsprozessen wird sich folglich nicht mehr vorwiegend auf die Analyse der Inhalte beschränken dürfen, sondern muß die Struktur dieser Inhalte untersuchen. An dieser Stelle scheint es ausgesprochen nutzbringend zu sein, die Untersuchung von Entscheidungsprozessen mit dem Paradigma des „Schemas“ zu erweitern.
Die Vorteile des neuen Paradigmas liegen auf der Hand. Der Entscheidungsträger wird nicht mehr als relativ passives Individuum betrachtet, das in seinem Entscheidungsverhalten von seinem Denkbild gesteuert wird, sondern bekommt als aktiver Konstruktur, Rekonstrukteur und Umgestalter seiner subjektiv wahrgenommenen Wirklichkeit ein Eigengewicht Der Anstoß zu dieser Aktivität, so wird angenommen, entstammt entweder kognitiven oder affektiven Spannungen. Im kognitiven Sinne geraten vorhandene Schemata eines Entscheidungsträgers in einen Spannungszustand zu neu wahrgenommenen Informationen. Der Entscheidungsträger bemüht sich daher, diesen Spannungszustand zu beseitigen, indem er die neuen Informationen mit seinen vorhandenen Schemata derart verknüpft, daß die Spannung zwischen Denkbild und Information reduziert wird.
In dem eingangs geschilderten Beispiel geschah dies dadurch, daß das Schema „grausame Piraten“ durch „Verkleidete auf einem Maskenball“ ersetzt wurde. Das Individuum ist nunmehr, nachdem es den Spannungszustand beseitigt hat, bereit, weitere Informationen aus der Erzählung aufzunehmen und zuverarbeiten. Es hat sich als ein aktiv handelnder „Problemloser“ erwiesen, der mit seinen Schemata flexibel umgehen konnte, wenn die Situation es von ihm verlangte -Im genannten Beispiel erfolgte dies dadurch, daß das Individuum sein Schema von den „grausamen Piraten“ deaktiviert und das von den „Verkleideten auf dem Maskenball“ aktiviert hat. Im affektiven Sinne wird der Spannungszustand dadurch verursacht, daß in einer Situation zwei mit-einander unverträgliche Schemata gleichzeitig aktiviert wurden. In diesem Fall versucht der Entscheidungsträger durch aktives Suchen, ein Gleichgewicht zwischen den beiden konkurrierenden Schemata herzustellen, bei dem die Spannung reduziert ist. Dies kann z. B. durch Informationssuche oder das Setzen von Prioritäten geschehen. Der Entscheidungsträger handelt hier als „Gleichgewichtssucher“
Das bedeutet, daß die Schemata eines Entscheidungsträgers keineswegs alle gleichzeitig aktiviert sind. Es bedeutet weiter, daß die verschiedenen Schemata in einem Denkbild nicht hierarchisch etwa nach Allgemeinheits-oder Abstraktionsgraden geordnet vorliegen. Die Art und Weise, wie die verschiedenen Schemata angeordnet und miteinander verknüpft sind oder aktiviert bzw.deaktiviert werden, ist nicht durch die Physiologie vorgegeben, sondern entwickelt sich erst im Laufe der Jahre durch Sozialisations-und Lernprozesse. Sie ist darüber hinaus ganz entscheidend von der jeweiligen Situation abhängig, in der sich ein Entscheidungsträger befindet. Der Entscheidungsträger hat deshalb angesichts dieser differenzierten Struktur seines Denkbildes ungleich mehr Möglichkeiten zur Konstruktion subjektiv wahrgenommener Wirklichkeit zur Verfügung, als dies aufgrund der früheren Konsistenz-, Dissonanz-oder Balancetheorien angenommen worden war.
So war es z. B. für den mit dem bisherigen Verständnis des Denkbildes von George arbeitenden emirischen Forscher schwierig zu erklären, weshalb der amerikanische Abrüstungsexperte Paul Nitze in den fünfziger Jahren auf den Aufbau eines landgestützten ballistischen Raketenpotentials gedrängt hat, um die nuklearstrategische Überlegenheit der USA zu festigen, und zu diesem Zweck — mit anderen zusammen — von einer Raketenlücke sprach. In den sechziger und zu Beginn der siebziger Jahre setzte sich Nitze dann im Rahmen von Rüstungskontrolle für strategische Parität ein. um ab 1975 dann mit der Formel vom „Fenster der Verwundbarkeit“ die schärfste Attacke gegen den SALT-II Vertrag zu beginnen und wieder eine strategische Überlegenheit der USA über die Sowjetunion zu fordern Innerhalb der Reagan-Administration erwies Nitze sich wiederum als ein eifriger Verfechter von Rüstungskontrolle und Abrüstung.
Diese vielfältigen Veränderungen Nitzes zu zentralen Fragen der Außen-und Sicherheitspolitik sind mit unserem bisherigen Verständnis von Denkbildem kaum erklärbar. Mit dem Schema-Ansatz dagegen bekommt Nitzes Entscheidungsverhalten eine einleuchtende Kontur: Immer dann, wenn er sich außerhalb des amerikanischen Regierungsapparates befand — während der Eisenhower-und der Carter-Administration — entschied Nitze sich für die harte, nach amerikanischer Überlegenheit strebende Linie. Er sah seine Aufgabe in dieser Zeit darin, die Öffentlichkeit auf die seiner Meinung nach notwendigen Verteidigungsmaßnahmen einzustimmen. Innerhalb der Administrationen (Nitze diente den Präsidenten Roosevelt, Truman, Kennedy, Johnson, Nixon, Ford und Reagan) erwies er sich als ein sachlich-nüchterner Fachmann für Außen-und Sicherheitspolitik, der Rüstungskontrolle keineswegs nur als ein Instrument zur politischen Propaganda betrachtete, sondern als einer, der Rüstungskontrolle zur Herstellung strategischer Stabilität und Parität nutzen wollte. Dieses Beispiel soll andeuten, daß Nitzes Entscheidungen zu zentralen Fragen der amerikanischen Außenpolitik entscheidend von seinem Selbstverständnis und seinem Rollenverständnis beeinflußt waren. Offenbar hat Nitze über die Jahre verschiedene Schemata zur Grundlage seiner Entscheidungen herangezogen. Er variierte sein Selbst-und Rollenverständnis je nachdem, ob er gerade innerhalb oder außerhalb einer Administration stand.
Ähnliche Beispiele ließen sich für Präsident Reagan finden, von dem behauptet wurde, seine anti-staatliche und anti-kommunistische Rhetorik sei mit seiner Haushalts-, Wirtschafts-und Sowjetunionpolitik unvereinbar. Mithin fielen seine deklaratorische Politik und seine tatsächlichen Entscheidungen weit auseinander Die Widersprüche könnten mit Hilfe des Schema-Ansatzes insoweit erklärt werden, daß Reagan offenbar in unterschiedlichen Situationen verschiedene Schemata aktivierte, je nachdem, ob er eine öffentliche Rede hielt bzw. Presseerklärungen abgab, oder ob er in seinem Kabinett eine politische Entscheidung traf. Reagan mußte sich dieser Widersprüche zwischen seinen Deklarationen und Entscheidungen nicht unbedingt bewußt sein und manches spricht dafür, daß er sich dessen auch nicht bewußt war.
Bei der Analyse derartiger Widersprüche in Entscheidungsprozessen hilft der von George empfohlene Denkbild-Ansatz nicht weiter. Diese angeblichen Widersprüche können jedoch anhand der Prämissen untersucht werden, die dem Schema-Ansatz zugrunde liegen: Danach besteht ein Denkbild aus mehreren Schemata, die ein Entscheidungsträger kreativ dazu nutzt, um Informationen kognitiv zu verarbeiten und affektive Spannungen zu vermin-dem, indem er in unterschiedlichen Situationen verschiedene Schemata aktiviert, respektive deaktiviert. Die Struktur eines Denkbildes ist nicht hierarchisch geordnet, sondern die verschiedenen Schemata liegen alle auf einer Ebene. Die Art ihrer Verknüpfung ist von Sozialisations-und Lernprozessen sowie von der jeweiligen Situation abhängig, in der sie aktiviert werden. Denkbilder müssen nicht in sich konsistent sein. Sie sind trotz einer gewissen Stabilität durchaus durch Lernprozesse veränderbar.
Mit diesen Prämissen ist jedoch erst der forschungsprogrammatische Einstieg beschrieben, wie der Zusammenhang von Einstellungen und Entscheidungen im Rahmen der außenpolitischen Entscheidungsanalyse in Zukunft untersucht werden sollte. Eine empirische Untersuchung liegt dazu bislang noch nicht vor. Erste Ansätze für Fallstudien werden jedoch auf dem Feld der Stereotypen-und Feindbildforschung sichtbar, die gewissermaßen einen Sonderfall für Schemata darstellen.
Der Ausgangspunkt dieser Forschungsrichtung ist die Annahme, daß die Aktivierung eines Denkbildes nicht auf abstrakte Prinzipien wie das „Gleichgewicht der Kräfte“ zurückzuführen ist, wie die sogenannte realistische Schule der Internationalen Politik behauptet Mit Bezug auf Heider und die Konsistenztheorie wird vielmehr davon ausgegangen, daß der kognitive Prozeß der Entscheidungsfindung von einem vorausgehenden affektiven Urteil aktiviert wird. Ausgehend von einem positiven Selbstbild sind politische Entscheidungsträger darum bemüht, die Außenpolitik ihrer Nation anhand von moralischen Kategorien in allgemeingültiger und kulturübergreifender Form zu definieren. In dem Augenblick, in dem eine Wahrnehmung von Bedrohung oder politischen Gelegenheiten in Spannung zu den latent vorhandenen Werturteilen über „gut“ und „böse“, „richtig“ oder „falsch“ gerät, muß die Situation des Entscheidungsträgers definiert werden, damit er politisch handeln kann. Zu diesem Zweck aktiviert der Entscheidungsträger verschiedene Schemata wie Feindbilder, Vorurteile oder Stereotypen Er ist nunmehr in der Lage, sich ein Situationsbild zu konstruieren, das ihm den kognitiven Umgang mit der wahrgenommenen Bedrohung oder Gelegenheit erlaubt. Mithin erfüllen die als Feindbilder, Stereotypen oder Vorurteile bezeichneten Schemata im kognitiven Entscheidungsprozeß mehrere Funktionen: Sie tragen zur Reduktion einer komplexen Realität bei. Sie ermöglichen die Zuordnung von Wahrnehmungen zu bereits vorhandenen Denkmustern und damit die Strukturierung von Wirklichkeit. Sie erleichtern die moralische Bewertung der Situation und die Eliminierung von Konflikten zwischen verschiede-nen Werten. Sie tragen dazu bei. Handlungsoptionenzu entwickeln, Auswahlentscheidungen zu treffen und Handlungsschritte einzuleiten. Und schließlich ermöglichen sie die moralische Rechtfertigung einer Handlung. Im affektiven Sinne zielen Feindbilder, Stereotypen und Vorurteile darauf ab, durch Handlung, wie z. B. die Beseitigung einer Bedrohung, jenen Spannungszustand aufzuheben, der zu ihrer Aktivierung geführt hat. Auf diese Weise wird das emotionale Gleichgewicht wiederhergestellt
Feindbilder, Stereotypen oder Vorurteile sind keineswegs realitätsfremd. Im kognitiven Sinne sind sie sogar äußerst wirklichkeitsnah, denn sie verweisen auf täglich wiederkehrende Denkvorgänge der Vereinfachung. Durch Vorurteile, Stereotypen oder Feindbilder wird der Bezug zur Realität auch nicht vollständig aufgegeben, sondern Wirklichkeit nur einseitig wahrgenommen, verarbeitet und wiedergegeben. Für viele Feindbilder, wie z. B. Ronald Reagans Sichtweise der Sowjetunion als dem „Reich des Bösen“, ließen sich extensiv empirische Belege finden, die für sich genommen sogar zutreffend sind. Die Vereinfachung und Verzerrung liegt jedoch in der Einseitigkeit der Auswahl jener Belege. Die politischen Motive der Sowjetunion werden einseitig auf weltweite Eroberungen und totalitäre Unterdrückung der Bevölkerung zugespitzt. Andere denkbare Motive (wie das Bedürfnis nach Sicherheit) werden vielfach, innenpolitischen Bedürfnissen folgend, bewußt vernachlässigt
Um die hier dargestellten Befunde empirisch untermauern zu können, hat Richard Herrmann vorgeschlagen, aufgrund der theoretischen Prämissen Stereotypen zu entwickeln, die in der Geschichte und Zeitgeschichte ihre Entsprechung finden können. Herrmann hat mit der Entwicklung eines „imperialen Stereotyps“ einen ersten Anfang gemacht und versucht, dieses Stereotyp in der sowjetischen Literatur über die Dritte Welt wieder aufzufinden Das imperiale Stereotyp wird dadurch aktiviert, daß ein Entscheidungsträger einer Großmacht angesichts des Machtgefälles eine enorm große Gelegenheit wahrnimmt, wie ein Entwicklungsland zu den eigenen sozio-ökonomischen Bedürfnissen beitragen könnte. Einmal aktiviert, muß das imperiale Stereotyp deshalb die Herrschaft über ein fremdes Volk rechtfertigen und den Wertekonflikt zwischen dem Wunsch nach eigener Ereignis-kontrolle einerseits und den völkerrechtlichen Prinzipien der Selbstbestimmung und nationalen Unabhängigkeit andererseits beseitigen.
Diese Rechtfertigung leistet das imperiale Stereotyp zunächst mit dem Konzept des konterrevolutionären Imperialismus. Die äußere Kontrolle muß ausgeübt werden, um die armen und hilflosen Völker der Dritten Welt vor dem Einfluß und dem Zugriff der gegnerischen Großmacht zu schützen. Weiterhin wird mit Hilfe des imperialen Stereotyps versucht, die innenpolitische Szene des Entwicklungslandes dichotomisch zu strukturieren. Auf diese Weise entsteht ein Bild vom Kampf zwischen fortschrittlichen Kräften, die das Land modernisieren wollen, und radikalen Fanatikern, die reaktionär und machthungrig sind. Die Möglichkeit eines dritten Weges wird bewußt ausgeschlossen, so daß die alternativen Optionen für die Großmacht nur darin bestehen, entweder auf der Seite des Fortschritts zu intervenieren, oder das Feld den Kräften der Finsternis zu überlassen.
Um schließlich die völkerrechtlichen Bedenken zu beseitigen, das entsprechende Entwicklungsland habe Anspruch auf und strebe nach nationaler Selbstbestimmung, wird im imperialen Stereotyp zunächst behauptet, daß dieses Land weder über die breite Erfahrung noch über eine gemeinsame Identität verfüge, die zusammen genommen die Voraussetzungen für Nationalgefühle bildeten. Die Eingeborenen seien überdies Bedürftige, die um die Hilfe und Bevormundung der überlegenen Großmacht nachgesucht hätten.
Herrmann hat versucht, dieses imperiale Stereotyp in der sowjetischen Literatur über die Dritte Welt wieder aufzufmden. Dabei stieß er auf erstaunliche Übereinstimmungen, wenngleich die Argumentation der Sowjetunion die Entwicklungsländer differenzierter beschreibe als das imperiale Stereotyp Dennoch scheint dieses erste Fallstudienergebnis ermutigend, die empirischen Forschungen auf der Grundlage der Annahmen des Schema-Ansatzes fortzuführen. 2. Der Schemata-Ansatz in der Attitude-Forschung Nicht nur im Bereich der Perzeptionen und Denkbilder in den internationalen Beziehungen, sondern auch mit Bezug auf die politischen Einstellungen der Bürger generell hat die Revolution durch die Kognitionspsychologie große Auswirkungen. Dies wird sich in den folgenden Jahren noch eindeutig erweisen. Zum Teil werden bisherige Forschungen ergänzt werden können, wahrscheinlich aber wird sich die Grundrichtung des Denkens ändern. Besonders betrifft dies die Annahmen über politische Ideologien, hierarchische Modelle hinsichtlich der Ableitung von Einstellungen sowie Arbeiten zum Bezug von Attitudes und Themen-(Issue-) Relevanz. Eine bedeutsame Rolle im Transfer der neuen Forschungen aus dem Yale-Projekt kommt den Arbeiten über politische Einstellungen von Donald R. Kinder zu. 1983 hat Kinder einen Überblicksartikel zum neueren Stand der Politischen Psychologie geschrieben Er hat diesen Beitrag wesentlich ausgeweitet und ihn 1985 im neuen „Handbook of Social Psychology" zusammen mit David O. Sears als Überblicksartikel über „Politische Meinung und Politisches Verhalten“ veröffentlicht Dieser Beitrag legt eine elegante und überzeugende Synopse der amerikanischen Forschung mit Bezug auf amerikanische Politik vor, die so leicht nicht einzuholen — geschweige denn zu überholen — wäre. Aufgrund der ausgezeichneten Empirischen Forschungen der Amerikaner und ihrer klaren Methodenreflexionen ist dieser Beitrag weltweit nicht replizierbar. Auch der Beitrag über den Kognitionsansatz, so ist den Diskussionen in der Psychologischen Rundschau abzulesen, dürfte ein epochaler sein David O. Sears arbeitet seit langem mit sozialpsychologischen Einstellungskonzepten und könnte sicherlich in der Politischen Psychologie als ebenbürtiger Forscher zu Abelson gesehen werden 1985 ist auch das „Handbook of Political Psychology“ erschienen, in dem Kinder und Fiske die Literatur über die Präsidenten in der öffentlichen Meinung neu sortierten und gewichteten In den bisher erwähnten Arbeiten Kinders wird jeweils das Verhältnis von Einstellungen zu politischen Themen, zu politischen Persönlichkeiten und zum Stellenwert von Ideologie in diesen Prozessen neu gewichtet. Dem Schema-Ansatz kommt dabei, wo er erklärungskräftig erscheint, Bedeutung zu. Insgesamt freilich sind Kinders Arbeiten zu einem gewichtigen Teil als Aufarbeitung bisheriger Forschungen und deren Neuinterpretationen zu verstehen. Dies kann nicht als Kritik verstanden werden; dennoch ist zu konstatieren, daß der Durchbruch des Schemata-Ansatzes hier noch aussteht.
Donald Kinder selbst hat zur Rolle des amerikanischenPräsidenten und deren Einschätzung jedoch auch eigene empirische Arbeiten vorgelegt und ein Schüler von Kinder, Jon A. Krosnick hat Teile des Ansatzes auch in einleuchtender Weise getestet. Innerhalb der politischen Ideologieforschung kommt man in den USA immer mehr von Philip Converses frühem Diktum ab. daß eine Ideologie klar sein müsse, um als solche bezeichnet zu werden, und daß unter diesem Kriterium nur eine geringe Prozentzahl von Bürgern oder Wählern als ideologisch zu begreifen sei. Weicht man von Converses Diktum ab. dann kommt der Ideologie als einem vagen Orientierungsinstrument im politischen Haushalt der Bürger eine große Bedeutung zu. Die Frage ist aber: Wie kann man eine solche flüchtige, aber dennoch sehr bedeutsame Kategorie empirisch ermitteln? Hier hilft die auf Lazarsfeld und Berelson zurückgehende sozialpsychologische Wahltheorie, die von Gruppenmentalitäten ausging, weiter. Arbeiten vor allem von Stanley Feldman zielten in den letzten Jahren darauf ab. das gruppenmäßige Vorhandensein von Ideologie anhand von symbolischen Verdichtungen dingfest zu machen. Von dieser Richtung aus ist es nicht sehr weit, den Schritt zur kognitiven Schema-Forschung zu vollziehen. In der Schemata-Forschung löst sich dann das Rätsel, wie es kommt, daß allgemeine ideologische Dispositionen durchaus schwach ausgeprägt sein können, daß aber der Ideologie in den Orientierungen durchaus ein wichtiger Stellenwert zukommen kann. Das ist nämlich dann der Fall, wenn Schemata als orientierungsprägend angenommen werden. Innerhalb eines Schemas, z. B.dem von der „effektiven Staatstätigkeit“, kommt symbolisch vermittelten ideologischen Teil-elementen eine große kognitive Steuerungsleistung zu. Es muß dabei freilich von hierarchisierenden Vorstellungen und vom Vorhandensein oberster Werte, die alle weitere Erkenntnis und das Handeln steuern sollen, abgerückt werden. Am weitesten ist der Ansatz von Paul M. Sniderman/Philip E. Tetlock strukturiert worden, die in Korrektur des Converseschen Ansatzes aufzeigen, daß die meisten Bürger bei Themen, die sie in der Politik interessieren, über hinreichendes Orientierungswissen verfügen, ohne allerdings eine übergeordnete und in sich konsistente Ideologie reproduzieren zu können.
Bürger orientieren sich an Politikfeldem und verfügen über symbolisch vermittelte abstrakte Zuordnungsfähigkeiten, klammern aber die sie nicht interessierenden Informationen aus und gehen mit Hilfe eigener Schemata aktiv die sie interessierenden politischen Themen an. Diese Alltagsorientierung ist vielfach spezifischer und adäquater als dies bisherige Ansätze der empirischen Einstellungsforschung erkennen konnten. Diese zentralen Alltags-Schemata sind auch die steuernden Größen innerhalb politischer Wahlen und sie machen die subtilen Orientierungsleistungen und Veränderungen von Einstellungen aus, die letztlich auch das Wahlverhalten steuern. Insofern ist der Ertrag der Schema-Forschung nicht nur für die Erklärung von Einstellungen wichtig, sondern er wird auch die Theorien zum Wahlverhalten nachhaltig verändern.