Die Vorstellung vom Wettbewerb als Motor des wissenschaftlichen Fortschritts und vom Wert des akademischen Wetteiferns um die besten Theorien, Konzepte, Diagnosen ist vielleicht so alt wie die moderne Wissenschaft selbst. Deutlich jüngeren Datums ist hingegen die Idee, die Qualität wissenschaftlicher Ausbildungsstätten zu messen und Ranglisten der Besten unter ihnen aufzustellen, um sowohl die Konkurrenz von Universitäten um knappe Forschungsgelder wie um die klügsten Studierenden auf eine objektive Grundlage zu stellen.
Entsprechende Klassifikationen US-amerikanischer Hochschulen lassen sich bis in die 1880er Jahre zurückverfolgen. Doch das eigentliche Zeitalter der Hochschulrankings begann erst zur Jahrtausendwende: Seit Ende der 1990er Jahre werden Forschung und Lehre an deutschen Universitäten "gerankt". Im Jahr 2003 wurde mit dem Shanghai-Ranking erstmals eine weltweite Hochschulrangliste publiziert.
Genauso alt wie die Rankings ist auch der Streit um ihren Sinn und Zweck: Sind sie segensreiche Instrumente, die das zuvor nur Eingeweihten zugängliche Hochschulsystem transparenter machen? Oder sind sie Teil eines Ökonomisierungsfluchs, der nun auch die in ihrem traditionellen Selbstverständnis allein der Wahrheitssuche verpflichtete Universität zu erfassen beginnt? Hochschulrankings, soviel ist gewiss, stehen im Zentrum wissenschaftlicher und politischer Kontroversen, erfahren gleichermaßen emphatischen Zuspruch wie energische Ablehnung. Sie bewegen sich auf "a thin line between love and hate" (Salmi/Saroyan 2007: 40).
Was wollen Rankings?
"Ranking" ist ein Anglizismus für das deutsche Wort Rangordnung. Eine Rangordnung wiederum ist genau das: eine Ordnung von Rängen, sprich eine Reihung von vergleichbaren Objekten, die eine Bewertung festlegt. Wer oben steht, ist nach einem bestimmten Kriterium oder einem Komplex von Kriterien besser als alle anderen, die dahinter und weiter unten stehen. Diese Praxis des Reihens und Listens ist in den letzten Jahren in verschiedenen gesellschaftlichen Bereichen zunehmend populär geworden: von Musikcharts über Weltranglisten in diversen Sportarten bis hin zu der regelmäßigen Fernsehwahl von "Unseren Besten", die ebenfalls im Jahr 2003 begann und in der ersten Sendung "Die größten Deutschen" ermittelte (Ergebnis: Platz 1 für Konrad Adenauer, Platz 10 für Albert Einstein).
Die bewertende Ordnung von universitärer Forschung und Lehre mittels Ranglisten fügt sich also in einen offenbar allgemeineren gesellschaftlichen Trend ein. Er bedient und verstetigt womöglich den verbreiteten Wunsch, komplexe und unklare Zusammenhänge zu vereinfachen und eindeutig zu machen: Folgt man dem von der Shanghaier Jaotong-Universität durchgeführten "Academic Ranking of World Universities", dann stand im Jahr 2013 die Universität von Harvard ganz oben, gefolgt von denen in Stanford und Berkeley. Als beste deutsche Hochschule rangierte die Technische Universität München auf Platz 50. Ähnlich bekannt wie das Shanghai-Ranking sind die seit 2004 publizierten "World University Rankings" des britischen Magazins "Times Higher Education".
Zumindest zu derartigen Ranglisten gibt es mittlerweile doch eine einhellige Meinung unter prinzipiellen Befürwortern von Rankings wie deren Kritikern gleichermaßen: Ihre Aussagekraft über die Forschungs- oder gar Lehrqualität der bewerteten Einrichtungen ist denkbar gering. Grund dafür sind einerseits die recht fragwürdigen Beurteilungskriterien. Im Fall des Shanghai-Ranking umfassen sie etwa die Zahl der Nobelpreisträger unter den Absolventinnen und Absolventen bzw. im aktuellen Lehrkörper der jeweiligen Universität oder aber die Anzahl der Publikationen ihrer Forscherinnen und Forscher in den (wiederum anderen Rankings zufolge) naturwissenschaftlichen Top-Journalen "Nature" und "Science". Andererseits wird die überaus willkürliche Gewichtung dieser Kriterien bei der Berechnung des Gesamtwertes kritisiert. Beim Shanghai-Ranking beispielsweise tragen die Werte der zuvor genannten Kriterien immerhin zu 50 Prozent zum Endergebnis bei.
Auch unter den prinzipiellen Befürwortern von Hochschulrankings gelten derartige Konstrukte vorrangig als Marketinginstrumente, mit denen vor allem amerikanische Universitäten weltweit zahlungskräftige Studierende zu gewinnen suchen – und als Geschäftsmodell des US-Medienkonzerns Thomson Reuters, der einen beträchtlichen Teil des Unternehmensumsatzes über seine quasi-monopolistische Stellung auf dem Markt für Wissenschaftsdaten erzielt (etwa mit dem „Social Sciences Citation Index“, einer Rangliste der internationalen Wahrnehmung wissenschaftlicher Publikationen). So verwundert es kaum, dass Thomson Reuters auch als Sponsor der beiden genannten Weltrankings auftritt.
Dessen ungeachtet erhalten solche Rankings eine hohe öffentliche Aufmerksamkeit, die sie nicht zuletzt ihrer Eindimensionalität und der dadurch radikal erleichterten Lesbarkeit verdanken: Der jeweils "besten Universität der Welt" ist ein Platz auf den Titelseiten der Tagespresse sicher, und wenn die ETH Zürich (wie etwa 2013 wieder) von "Times Higher Education" zur besten Universität auf kontinentaleuropäischem Boden gekürt wird, dann knallen im dortigen Präsidium selbstverständlich die Sektkorken.
Was können Rankings?
Doch ist auch die Welt der Hochschulmessungen durchaus vielfältig – und Ranking nicht gleich Ranking. Neben den grobschlächtigen Globalrankings gibt es qualitativ bessere, weil mehrdimensionale Instrumente, die zudem auf eine allzu schlichte, bundesligatabellenartige Reihung der einbezogenen Universitäten verzichten. Hochwertigere und damit aufwändigere Rankings versuchen in der Tat, über Leistungsunterschiede in der universitären Forschung und Lehre aufzuklären und Studieninteressierten, aber auch hochschulpolitischen Akteuren fundierte Entscheidungshilfen an die Hand zu geben. Als die hierzulande in diesem Sinne mit Abstand bedeutsamsten Exemplare der Gattung können die vom Gütersloher Centrum für Hochschulentwicklung (CHE) getragenen Rankings gelten. Das CHE-Forschungsranking und das CHE-Hochschulranking zeichnen sich dadurch aus, dass sie nicht ganze Universitäten bewerten, sondern strikt fachbezogene Qualitätsbeurteilungen vornehmen.
Das seit dem Jahr 1998 durchgeführte und seit 2005 auch als "ZEIT-Studienführer" veröffentlichte CHE-Hochschulranking betrachtet vor allem die universitäre Lehre. Es erfasst 37 Fächer an über 250 Hochschulen und wertet Strukturdaten (wie etwa die eingeworbenen Forschungsmittel), die wechselseitigen Reputationseinschätzungen universitärer Institute und insbesondere Urteile von Studierenden über die Qualität ihrer Studiengänge aus. Für das Fach Soziologie beispielsweise wurden in der Studienführer-Version zuletzt sechs (von insgesamt ca. 20 erhobenen) Indikatoren gelistet: neben der Forschungsreputation und den eingeworbenen Forschungsgeldern pro Wissenschaftler/in waren dies die Studierendenurteile zur Methodenausbildung, zur internationalen Ausrichtung des Studiengangs, zur Studierbarkeit (sprich „technischen“ Organisation) desselben sowie zur Studiensituation insgesamt. Die etwa 60 möglichen Studienorte für Soziologie wurden sodann, soweit die entsprechenden Daten vorlagen und als brauchbar eingeschätzt wurden, anhand ihres relativen Abschneidens bei diesen Kriterien in drei Gruppen eingeordnet: Spitzengruppe, Mittelgruppe, Schlussgruppe, jeweils symbolisiert durch einen grünen, gelben oder blauen "Ampelpunkt". Studieninteressierte erhalten so einen schnellen Eindruck davon, an welcher deutschen Hochschule das Fach – im Einzelnen wie auch in der Gesamtschau der Indikatoren – gut oder schlecht, oder genauer: besser oder weniger gut vertreten ist und wird (vgl.Externer Link: https://studiengaenge.zeit.de/ranking).
Was ist gegen eine solche, avancierte und differenzierende Variante des Rankings einzuwenden? Nach Kritikermeinung mindestens zweierlei. Zum einen stellt sich grundsätzlich die Frage, ob sich ein derart komplexer sozialer Sachverhalt wie die universitäre Lehre standardisiert messen lässt. Kann man subjektive Urteile von Studierenden an unterschiedlichen Studienorten überhaupt miteinander vergleichen? Für sich genommen hat etwa die Aussage von Soziologiestudierenden, die Methodenausbildung am Institut A sei "sehr gut", zwar einen gewissen Wert, wenngleich dieser in solcher Pauschalität qualitativ durchaus begrenzt ist. Doch erscheint es wenig sinnvoll, diesen absoluten Zufriedenheitswert jenem von Institut B gegenüberzustellen, an dem das entsprechende studentische Urteil "schlecht" lautet. Vielleicht fänden die Studierenden am Institut B die ihnen angebotene Methodenlehre ja doch relativ „gut“, wenn sie die "sehr gute" Lehre am Institut A selbst kennen würden und vergleichend beurteilen könnten. Damit ist bereits der zweite problematische Aspekt auch anspruchsvollerer Instrumente wie des CHE-Hochschulrankings angsprochen: Von der hierarchisierenden Gruppenbildung – hier die "Spitzenstandorte", dort die Schlusslichter – können und wollen sie nicht lassen, trotz der methodisch letztlich nicht zufriedenstellend lösbaren Zuordnungsproblematik.
Was machen Rankings?
Am Ende bleibt, zumal für den (zeitgemäß) flüchtigen Leser von Hochschulrankings, doch der Eindruck der Eindeutigkeit – und zählt eben das Zählbare. Auch ist nicht zu vergessen, dass das CHE, getragen von der Bertelsmann-Stiftung und übrigens beauftragt von der Hochschulrektorenkonferenz, mit seinen Rankings letztlich ebenso unternehmerische Interessen verfolgt wie DIE ZEIT mit dem zugehörigen Printprodukt. Gegenwärtig zielt das CHE mit seinem "U-Multirank"-Projekt auf die Eroberung des (EU-)europäischen Rankingmarkts. Und auch hochschulpolitische Akteure wie Universitätsleitungen und Ministerialbürokratien, Wissenschaftsgesellschaften und Förderinstitutionen greifen, wenn es um Strukturreformen (wie die Zusammenlegung von Hochschulstandorten), Profilbildungen (einschließlich der Streichung von Studiengängen oder der Schließung von Instituten) oder Mittelzuweisungen aus Landeshaushalten geht, auf indikatorengestützte Handreichungen zurück, die nicht allzu komplex sein dürfen. Sie sollen vielmehr aus möglichst unmissverständlichen Kennziffern bestehen, die dann als Entscheidungsgrundlage dienen können. Mit anderen Worten: Ein Ranking "verkauft" sich eben, im wörtlichen wie im übertragenen Sinn, deswegen (und nur dann) gut, weil (und wenn) es das auch im akademischen Betrieb und in der Wissenschaftspolitik herrschende Rangordnungsbedürfnis bedient.
Vor diesem Hintergrund wird nachvollziehbar, warum das erste Lebensjahrzehnt der Rankingpraxis zunehmend konfliktreich als Zyklus "from birth to boycott" verlaufen ist (Stergiou/Lessenich 2013) und nach anderen Möglichkeiten der Informationsaufbereitung gesucht wird. Die Deutsche Gesellschaft für Soziologie etwa hat, gemeinsam mit anderen sozialwissenschaftlichen Fachgesellschaften, ein onlinebasiertes Studieninformationsportal entwickelt, das die berechtigten Informationsbedürfnisse und Transparenzansprüche von Studieninteressierten berücksichtigt, ohne die Ranglistenliebe der Öffentlichkeit und die Kennziffernwünsche politischer Entscheidungsträger zu bedienen. Rankings nämlich, und dies ist ihre vielleicht folgenreichste Wirkung, funktionieren nach der Logik des "present-as-future" (Marginson 2009), sprich sie stellen eine Zukunft her, die bereits als gegenwärtig behauptet wird: Indem sie bloß bestehende Qualitätsunterschiede in wissenschaftlicher Forschung und Lehre abzubilden vorgeben, tragen sie nach Art einer sich selbst erfüllenden Prophezeiung selbst aktiv dazu bei, dass eben diese Qualitätsunterschiede zukünftig Wirklichkeit werden. Denn wer in den universitären Ranglisten einmal oben steht, wird zuverlässig damit rechnen können, diese Position gerade aufgrund der Folgeeffekte seiner Platzierung langfristig festigen zu können: über den Zufluss öffentlicher wie privater Mittel und den Zustrom der "besten Köpfe" oder jedenfalls der Studierenden aus den "besten Elternhäusern". Im Effekt dieser Entwicklung droht eine hierzulande (anders als etwa in den USA oder auch in Großbritannien) bislang noch nicht vollzogene Spaltung der Hochschullandschaft in einige wenige großzügig finanzierte Universitäten, die sich hauptsächlich der Forschung widmen, und viele unterausgestattete Standorte, die vor allen Dingen Lehre für die immer noch wachsenden Studierendenkohorten anbieten. "University rankings are here to stay": Ob sich diese Formel der Rankingmacher, zuletzt im Juni 2013 vom Initiator des Shanghai-Rankings Prof. Nian Cai Liu auf den Internetseiten der UNESCO vorgebracht