Markus Tepe, Sebastian Schneider, Zur Reputations- und Performanzmessung politikwissenschaftlicher Institute in Deutschland in:

ZPol Zeitschrift für Politikwissenschaft, page 581 - 608

ZPol, Volume 19 (2009), Issue 4, ISSN: 1430-6387, ISSN online: 1430-6387, https://doi.org/10.5771/1430-6387-2009-4-581

Browse Volumes and Issues: ZPol Zeitschrift für Politikwissenschaft

Bibliographic information
Zeitschrift für Politikwissenschaft 19. Jahrgang (2009) Heft 4, 581-608 581 Markus Tepe/Sebastian Schneider Zur Reputations- und Performanzmessung politikwissenschaftlicher Institute in Deutschland? Kurzfassung Auf Basis der Daten des CHE-Hochschulrankings werden in diesem Beitrag zwei Aspekte der institutsvergleichenden Reputations- und Performanzmessung untersucht: Hinsichtlich der Validität der subjektiven Reputationsmessung legen die Ergebnisse der Regressionsanalyse von 42 politikwissenschaftlichen Instituten den Schluss nahe, dass die individuelle Reputation einzelner Institutsangehöriger der wichtigste Prädiktor für die Bewertung der Forschungsund Lehrreputation des gesamten Instituts ist (pars pro toto-Effekt). Zum zweiten wird der Frage nachgegangen, wie sich die Rangposition verändert, wenn Unterschiede in der Ressourcenausstattung der Institute bei der Performanzmessung berücksichtigt werden. Zu diesem Zweck schätzen wir die technische Effizienz der politikwissenschaftlichen Institute. Der Vergleich zeigt, dass der Rankingerfolg in starkem Maße davon abhängt, ob ein uni- oder multidimensionales Messkonzept angelegt wird. ? Wir bedanken uns bei Bernhard Kittel, Thomas Kalwitzki, Achim Goerres, Andreas Warntjen und zwei anonymen Gutachtern für wertvolle Kritik und konstruktive Verbesserungsvorschläge zu unserem Manuskript. Etwaige Fehler liegen in der alleinigen Verantwortung der Autoren. Der Datensatz und die Analysesyntax werden für Replikationszwecke zur Verfügung gestellt. Markus Tepe/Sebastian Schneider 582 1. Einleitung Die faktische Relevanz von Hochschul- und Institutrankings kann heute kaum mehr bestritten werden. Umso mehr scheint es daher geboten, sich mit dem zugrundeliegenden Messkonzept und den verwendeten Messinstrumenten auseinanderzusetzen. Trotz des Risikos der Simplifizierung überwiegt das allgemeine Interesse an eingängigen Maßzahlen, die einen schnellen Vergleich der Qualität von Forschung und Lehre ermöglichen. Überraschend ist das gesteigerte Informationsbedürfnis nicht, bedenkt man die Folgen, die entsprechenden Evaluationsergebnissen zugeschrieben werden: Studierende und wissenschaftlicher Nachwuchs erhoffen sich bessere Arbeitsmarktchancen, Hochschulrektoren und Dekane die Chance auf Drittmittel und die Akquise profilierter Wissenschaftler. Diese Entwicklung kann auch für die deutsche Politikwissenschaft beobachtet werden. Bezugnehmend auf das gesteigerte öffentliche Interesse einerseits und die wissenschaftliche Auseinandersetzung um die Praxis des universitären Leistungsvergleichs anderseits,1 rückt dieser Beitrag die Probleme der subjektiven Reputationsmessung und des unidimensionalen Leistungsvergleichs in den analytischen Mittelpunkt. Hinsichtlich des Messinstruments wird überprüft, ob die Erhebung der Forschungs- und Lehrreputation auf Basis subjektiver Bewertungen dadurch verzerrt ist, dass die Befragten nicht die Leistung des Instituts, 1 Münch 2006; Hornbostel 2009; Lamont 2009. Inhalt 1. Einleitung 582 2. Reputations- und Performanzmessung 584 a) Messinstrument: Subjektive Leistungsmessung 585 b) Messkonzept: Unidimensionale Rankings 586 3. Datenbasis 587 4. Validität der subjektiven Leistungsmessung 587 a) Regressionsanalyse 590 b) Ergebnisse 592 5. Uni- vs. multidimensionale Rankings 595 a) Data Envelopment Analysis 595 b) Ergebnisse 599 6. Schlussfolgerungen 601 Politikwissenschaftliche Institute in Deutschland ZPol 4/09 583 sondern vielmehr die Reputation einzelner Institutsangehöriger als Näherungsgröße verwenden. Die Reputation einer oder mehrerer exponierter Wissenschaftler wird zum pars pro toto der Reputation des Instituts. Hinsichtlich des Messkonzeptes wird danach gefragt, wie sich die Rangposition der Institute verändert, wenn die unterschiedliche Ressourcenausstattung der Institute berücksichtigt wird. Die unidimensionale Leistungsbewertung benachteiligt womöglich jene Institute, die, obgleich sie nicht auf einem der vorderen Plätze rangieren, mit den ihnen zur Verfügung stehenden Mitteln maximale Leistungen erzielen. Wir überprüfen diese Argumente am Beispiel der Daten des CHE-Hochschulrankings 2008 für das Fach Politikwissenschaft/Sozialwissenschaft.2 Wir wollen damit zu einem jüngeren Strang der politikwissenschaftlichen Literatur beitragen, der die Arbeitsweise und Funktionslogik der eigenen Disziplin zum Analysegegenstand macht.3 Die empirische Analyse erfolgt in zwei Schritten: Welchen Einfluss die Reputation einzelner Institutsangehöriger auf die Reputationsbewertung des gesamten Instituts ausübt, wird im Rahmen einer Regressionsanalyse geprüft. Die technische Effizienz der Institute wird im zweiten Schritt auf Basis der Data Envelopment Analysis (DEA) bestimmt. Die DEA wurde bereits wiederholt zur Effizienzmessung von Universitäten und anderen Fachbereichen genutzt.4 Ein Beitrag dieser Studie liegt in der Anwendung der Methode auf politikwissenschaftliche Institute in Deutschland. Die Befunde der Regressionsanalyse von 42 politikwissenschaftlichen Instituten in Deutschland legen den Schluss nahe, dass die individuelle Reputation einzelner Institutsangehöriger die wichtigste Determinante für eine positive Bewertung der Forschungs- und Lehrreputation des gesamten Instituts ist. Darüber hinaus können wir auf Basis der DEA-Effizienzscores beobachten, dass die Rangposition der Institute in starkem Maße davon abhängt, ob ein uni- oder multidimensionales Messkonzept angelegt wurde. Der Beitrag ist wie folgt gegliedert: In Abschnitt 2 werden die Möglichkeiten und Grenzen des Institutsleistungsvergleichs dargestellt und eine Kritik an der subjektiven Reputationsmessung und dem unidimensionalen Ranking der Institute hergeleitet. Die Datenbasis wird in Abschnitt 3 vorgestellt. Die Ergebnisse der empirischen Analyse werden in den Abschnitten 4 und 5 präsentiert. 2 Im CHE werden die Fächer „Politikwissenschaft/Sozialwissenschaft“ sowie die Fächer „Soziologie/Sozialwissenschaft“ jeweils gemeinsam ausgewiesen. Unsere Analyse beschränkt sich auf das Fach „Politikwissenschaft/Sozialwissenschaft“. Im Folgenden verwenden wir ausschließlich den Begriff „Politikwissenschaft“. 3 Kittel 2009; Plümper/Schimmelfennig 2007; Goerres/Warntjen 2006; Plümper 2003; Gerhards 2002. 4 Ahn/Dyckhoff/Gilles 2007; Dyckhoff/Rassenhövel/Sandfort 2008; Lehmann/Warning 2004; Warning 2007. Markus Tepe/Sebastian Schneider 584 Die Zusammenfassung der empirischen Befunde und Diskussion möglicher Implikationen für die universitäre Praxis erfolgt in Abschnitt 6. 2. Reputations- und Performanzmessung Während Rankings und Leistungsvergleiche bereits seit Anfang des 20. Jahrhunderts in die US-amerikanische Hochschullandschaft Eingang gefunden haben (Espeland/Sauder 2007: 9), handelt es sich um ein in Deutschland relativ junges Phänomen (Weingart/Maasen 2007). Eine Beschreibung der Dynamiken des Ranking-Business in den USA findet sich z. B. in den Arbeiten von Espeland und Sauder (2007) und Lamont (2009). Auch in Deutschland hat sich in kurzer Zeit, so lassen die Veröffentlichungen in Tageszeitungen und Magazinen vermuten (z. B. Der Spiegel, Die Zeit, Frankfurter Allgemeine Zeitung), der Leistungsvergleich von Hochschulen zu einem lukrativen (journalistischen) Geschäftszweig entwickelt. Zielgruppe sind vorrangig Abiturienten und Studierende, die bei der Wahl der Hochschule nach einfachen Vergleichsmöglichkeiten suchen (Bayer 2000). Mit zunehmender Differenzierung der Studienangebote und der Vielzahl universitärer Informationsangebote ist das Bedürfnis nach vergleichbaren Qualitätsindikatoren groß. Die zunehmende Popularität der Institutsrankings geht einher mit einer Auseinandersetzung um die Gütekriterien der universitären Performanzmessung.5 Espeland und Sauder (2007) sind der Ansicht, dass Hochschulrankings gar negative Rückwirkungen auf das Handeln der Universitäten und die Schwerpunktsetzung in Forschung und Lehre haben können. Ihres Erachtens reagieren die Hochschulen vorrangig mit Anpassung, d. h., sie orientieren ihr Verhalten an Erwartungen über Rankingpositionen (siehe ergänzend Dill/Soo 2005: 516- 519). Dass Leistungsvergleiche Anpassungsreaktionen hervorrufen, ist dem Grunde nach unproblematisch, sollten doch gerade jene Institute, die auf Basis wie auch immer definierter Indikatoren als „Sieger“ des Vergleichs hervortreten, als gemeinsames Vorbild für „gute Praxis“ dienen. Espeland und Sauder (2007) befürchten jedoch, dass sich die Anpassungsreaktionen nicht am Vorbild, sondern an den Indikatoren selbst ausrichten. Auch die gezielte Manipulation von Indikatoren z. B. durch Beurlaubungen in der Erhebungsphase wird von den Autoren nicht ausgeschlossen. Überdies wird befürchtet, dass Rankingergebnisse persistent sind. Bastedo und Bowman (2009: 21-24) vermuten, dass aktuelle Rankingergebnisse als Grundlage für die Bewertung in Folgeperioden 5 Münch 2006; Hornbostel 2009; Lamont 2009. Politikwissenschaftliche Institute in Deutschland ZPol 4/09 585 genutzt werden und so zu einer langfristigen Verfestigung der Rangplatzierung beitragen. Offenbar besteht eine Diskrepanz zwischen dem öffentlichen Interesse an universitären und fachspezifischen Leistungsvergleichen und der Einschätzung dieser Erhebungen durch die „Bewerteten“. Diese Studie möchte einen Beitrag zur empirischen Fundierung der institutsvergleichenden Reputations- und Performanzmessung liefern. Wir konzentrieren uns dabei auf zwei Aspekte: die Konstruktion des Messinstruments und das der Performanzmessung zugrundeliegende Messkonzept. a) Messinstrument: Subjektive Leistungsmessung Das CHE misst die Forschungs- und Lehrreputation von Fachgebieten an deutschen Universitäten durch eine Meinungsumfrage unter Wissenschaftlern. Die Wirkmächtigkeit des Rankings ergibt sich aber erst aus der Annahme, dass von der so ermittelten Reputation auf die Performanz des Instituts geschlossen werden kann. Dieser Schluss wird zwar in vielen Verwendungen des Rankings nahegelegt, aber weder vom CHE noch von den Nutzern des Rankings expliziert. Ob bzw. in welchem Umfang dieser Schluss gerechtfertigt ist, betrifft die Validität der subjektiven Reputationsmessung. Die gängige Praxis der subjektiven Bewertung der Forschungs- und Lehrreputation durch Mitglieder der eigenen Wissenschaftsdisziplin führt womöglich zu einer zweifachen Beeinträchtigung des Schlusses von der subjektiven Reputation auf die Performanz des Instituts. Einerseits ist die Teilnahme an der Befragung freiwillig, sodass tendenziell eher jene teilnehmen, die ein starkes Eigeninteresse an der Evaluation haben; zum Zweiten beinhaltet die subjektive Bewertung das Risiko, dass nicht die Qualität des Instituts, sondern vielmehr die Leistung einzelner exponierter Kollegen bewertet wird. Die subjektive Bewertung der Forschungs- und Lehrreputation der Institute durch interessierte und informierte Kollegen folgt der Logik des Peer-Review-Verfahrens. Während es für die Beurteilung fachspezifischer wissenschaftlicher Beiträge oder Forschungsanträge praktikabel ist, schwindet seine Validität mit dem Anwachsen des Beurteilungsgegenstandes, weil kaum ein Individuum über vollständige Informationen zu sämtlichen zu beurteilenden Einheiten verfügen kann (van Raan 2005: 6 ff.; Espeland/Sauder 2007: 13 f.). Zur Lösung dieses Problems beziehen sich die Befragungsteilnehmer auf Näherungsgrößen. Ist die Forschungsleistung von Wissenschaftlern bekannt, so wird die individuelle Reputation des Wissenschaftlers als Näherungsgröße Markus Tepe/Sebastian Schneider 586 der Reputation des Instituts verwendet.6 Genannt werden demnach regelmäßig jene Institute, die der Befragte durch die exponierte Stellung eines Kollegen wahrnimmt. Obgleich die Motive vielschichtiger sein können (die eigene Berufslaufbahn oder persönliche Netzwerke können die Bewertung ebenfalls beeinflussen) kann angenommen werden, dass die subjektive Reputationsmessung dazu führt, dass nicht die Forschungs- und Lehrreputation des Instituts erhoben wird, sondern die Reputation eines einzelnen Kollegen oder einer Kollegin. Die Reputation einer Person wird zum pars pro toto der Reputation des Instituts. In seiner allgemeineren Form wird dieses Phänomen auch als „Halo“-Effekt bezeichnet (Thorndike 1920), d. h. der Zuschreibung von Reputation durch Assoziation. b) Messkonzept: Unidimensionale Rankings Rankings politikwissenschaftlicher Institute sind in der Regel unidimensional. Die Rangplätze werden auf Basis eines einzelnen Indikators vergeben, während die Unterschiede in der Ressourcenausstattung der Institute unberücksichtigt bleiben. Insbesondere kleinere politikwissenschaftliche Institute sehen sich der Gefahr ausgesetzt, dass sie bei der unidimensionalen Evaluierung ihrer Performanz unterdurchschnittlich abschneiden könnten, obwohl sie möglicherweise mit den ihnen zur Verfügung stehen Ressourcen einen maximalen Rangplatz erzielen. In Zeiten knapper Kassen wird wohl überdies auch die Kenntnis darüber, welche Leistungen die Institute mit der ihnen gegebenen Ressourcenausstattung erbringen, für öffentliche Haushalte und Drittmittelgeber interessanter. Gesucht wird also nach einem Maß für die Effizienz der Institute, ein Messkonzept das per definitionem multidimensional ist, weil Leistung und Ressourcenausstattung ins Verhältnis gesetzt werden. Ob Rankings, die auf einem multidimensionalen Messkonzept beruhen, per se unidimensionalen Rankings überlegen sind, lässt sich im Rahmen dieses Beitrags nicht beantworten. Wir stellen vielmehr die deskriptive Frage, wie sich die Rangposition einzelner Institute verändert, wenn die Performanz unioder multidimensional ausgewiesen wird. Konkret geht es darum, welche politikwissenschaftlichen Institute mit der ihnen gegebenen personellen und finanziellen Ausstattung maximale Bewertungen in Forschung und Lehre erzielen. Zur Beantwortung dieser Frage schätzen wir die technische Effizienz für jedes Institut. Dieses Vorgehen setzt allerdings die Annahme voraus, dass eine optimierbare Produktionsfunktion existiert. Auf Basis dieser Annahme werden die politikwissenschaftlichen Institute als Produktionseinheiten konzeptualisiert, 6 Hagstrom 1965; Latour/Woolgar 1986; Merton 1968. Politikwissenschaftliche Institute in Deutschland ZPol 4/09 587 die Inputfaktoren (Personal, Budget etc.) zusammenführen und in Output (Reputation) verwandeln. Dabei kann die „Produktion“ akademischer Reputation mehr oder weniger effizient realisiert werden – d. h. unter minimaler Mittelverwendung oder unter Verschwendung von Ressourcen.7 3. Datenbasis Wir überprüfen diese Überlegungen zur subjektiven Reputationsmessung und unidimensionalen Performanzmessung am Beispiel des CHE-Hochschulrankings 2008 für das Fach Politikwissenschaft. Auf dem Markt der Hochschulrankings ist das CHE-Hochschulranking nicht nur etabliert, sondern grenzt sich auch durch methodische Transparenz positiv von alternativen Erhebungen ab. Das CHE unterscheidet zwischen objektiven Ausstattungsmerkmalen der Institute und subjektiven Bewertungen der Forschungs- und Lehrreputation des Instituts (CHE 2009: 7).8 In der Regel findet das Ranking der Forschungs- und Lehrreputation große Medienaufmerksamkeit, während die ebenfalls im CHE erhobenen vergleichsweise objektiven Indikatoren zur Ressourcenausstattung wenig beachtet werden. Herangezogen werden alle im CHE-Sample vertretenen politikwissenschaftlichen Institute deutscher Universitäten (n=53). Aufgrund fehlender Datenpunkte musste die Fallzahl auf n=42 reduziert werden.9 Der Erhebungszeitraum bezieht sich auf den Sommer 2007, veröffentlicht wurden die Ergebnisse im Herbst 2008. Im Gegensatz zu dem in den Medien vielfach zitierten „Ranking kompakt“, basiert die Analyse nicht auf den drei Ranggruppen, sondern auf den Rohdaten.10 Dies hat den Vorteil, dass die Variablen ihr metrisches Skalenniveau beibehalten und die Information darüber, wie groß der Abstand zwischen zwei Instituten ist, nicht verloren geht. 4. Validität der subjektiven Leistungsmessung Die Reputation eines Instituts wird im CHE durch zwei Items erfasst: die Forschungs- und die Lehrreputation. Explizit wurden die teilnehmenden 7 Es steht außer Frage, dass zwischen dem privatwirtschaftlichen und dem universitären Produktionsprozess Unterschiede bestehen. Eine dezidierte Diskussion zur Anwendung der Effizienzmessung auf öffentliche Einrichtungen findet sich bei Stone 2002. 8 Der CHE-Methodenbericht „Vorgehensweise und Indikatoren“ aus dem Jahre 2009 bezieht sich für die Politik- und Sozialwissenschaften auf die Veröffentlichung aus dem Jahre 2008 (CHE 2009). Die Erhebung wurde ein Jahr zuvor durchgeführt. 9 Insgesamt wurden vom CHE 62 Institute einbezogen, von denen 54 den Fragebogen beantworteten (CHE 2009: 22). Von diesen wiesen 12 unvollständige Daten auf. 10 Die Rohdaten sind auf der Internetseite http://ranking.zeit.de/che09/CHE nach vorheriger Registrierung unter der Option Fachbereichsvergleich abrufbar. Markus Tepe/Sebastian Schneider 588 Professoren und Professorinnen gebeten, bis zu fünf Universitäten zu nennen, die ihrer Meinung nach in Forschung bzw. Lehre führend sind. Die Nennung der eigenen Universität wird nicht berücksichtigt (CHE 2009: 33). Insgesamt wurden 283 Professoren aus dem Fachbereich Sozial-/Politikwissenschaft angefragt, von denen 149 (52,7 %) teilnahmen (CHE 2009: 33). Auf Basis des pars pro toto-Effekts wird angenommen, dass die so gewonnene Bewertung nicht die Forschungs- und Lehrreputation der Institute widerspiegelt, sondern die Reputation einzelner exponierter Kollegen und Kolleginnen. Um den Zusammenhang zwischen individueller Reputation und dem Reputationsergebnis des Instituts näher zu untersuchen, greifen wir auf die Studie von Falter und Knodt (2007) zurück und ermitteln für jedes in unserer Fallauswahl vertretene Institut einen Reputationswert. Die Studie zur Reputation deutscher Politikwissenschaftler von Falter und Knodt (2007) bezieht sich auf die Grundgesamtheit sämtlicher Mitglieder der Deutschen Vereinigung für Politische Wissenschaft (DVPW) und der Deutschen Gesellschaft für Politikwissenschaft (DGfP). Die DVPW benennt auf ihrer Homepage mehr als 1500 ordentliche Mitglieder, die DGfP rund 200, Falter und Knodt (2007: 147) beziffern die Grundgesamtheit auf 1568 Personen. Die Daten wurden im Jahre 2006 erhoben. Insgesamt beteiligten sich 135 Personen, rund 9 % aller Mitglieder, an der schriftlichen Umfrage, sodass keinesfalls von einer repräsentativen Studie ausgegangen werden kann. Auf diesen Sachverhalt wird von den Autoren eindeutig hingewiesen. Sie schreiben, dass die Ergebnisse ihrer Studie „aufgrund der bedauerlich geringen Teilnahmequote nur teil-repräsentativ sind“ (Falter/Knodt 2007: 147). Hinsichtlich der Frage, in welche Richtung der bias wirkt, kann vermutet werden, dass Personen, die ein generelles Interesse an Evaluation, Rankings und Performanzmessung haben, eine höhere Beteiligungsbereitschaft aufweisen. Dies ist ebenso für das CHE-Survey zur Forschungs- und Lehrreputation zu vermuten. Die Teilnehmer an der Studie von Falter und Knodt (2007: 148) sind zum überwiegenden Teil Professoren bzw. Professorinnen. Nimmt man nun an, dass sich die Reputation eines Kollegen nur langsam verändert, erscheint es uns berechtigt, beide Datenquellen miteinander in Bezug zu setzen. Hierfür werden die Reputationspunkte von Falter und Knodt (2007), die einzelne Personen in den Ranglisten zu verschiedenen Teilbereichen der Politikwissenschaft (z. B. internationale Beziehungen, vergleichende Politikwissenschaft) erhielten, für jedes Institut aufaddiert und auf eine Skala von 0 bis 1 standardisiert. Die Aggregationsstrategie ist dabei stets konservativ: Können Personen nicht eindeutig einem Institut zugeordnet werden, beispielsweise Politikwissenschaftliche Institute in Deutschland ZPol 4/09 589 durch Hochschulwechsel oder die Beschäftigung an einer außeruniversitären Forschungseinrichtung, wurden die Reputationswerte der Person keinem universitären Institut zugerechnet.11 Tabelle 1 Messinstrument: Variablen für die Regressionsanalyse Variable Definition Quelle Abhängige Var. CHE-Reputationsscores Summe aus CHE Forschungsreputation und CHE Lehrreputation, standardisiert auf eine Skala von 0-1 CHE (2008)/ eigene Berechnung Unabhängige Var. Rel. Größe Verhältnis der Studierenden am Fachbereich zur Gesamtzahl der Studierenden CHE (2008)/ eigene Berechnung Ost Universität in Ost-Deutschland Eigene Recherche Gründung >1965 Gründung der Universität nach 1965 CHE (2008) Spitzengruppe Spitzengruppe bei der Evaluation des rechtlichen Rahmens (Baden-Württemberg, Bremen, Hamburg, Hessen, Niedersachsen) Stifterverband (2002) Mittelgruppe (Referenzkategorie) Mittelgruppe bei der Evaluation des rechtlichen Rahmens (Bayern, Brandenburg, Mecklenburg-Vorpommern, Nordrhein-Westfalen, Sachsen) Stifterverband (2002) Schlussgruppe Schlussgruppe bei der Evaluation des rechtlichen Rahmens (Rheinland-Pfalz, Saarland, Sachsen-Anhalt, Schleswig- Holstein, Thüringen) Stifterverband (2002) Individuelle Reputation Reputation der Personen am Fachbereich (additiver Index) Falter/Knodt (2007)/eigene Berechnung Anmerkung: Die Evaluation der Hochschulgesetzgebung durch den Stifterverband (2002) enthält nicht das Bundesland Berlin. 11 Von den insgesamt 63 Politik- bzw. Sozialwissenschaftlern, die in der Studie von Falter und Knodt (2007) genannt werden, konnten 17 Personen keinem Institut zugeordnet werden, von diesen arbeiten fünf für außeruniversitäre Forschungseinrichtungen, neun an deutschen Universitäten, die nicht im Sample vertreten sind, und drei im Ausland. Markus Tepe/Sebastian Schneider 590 a) Regressionsanalyse Der Einfluss der aggregierten individuellen Reputation der am Institut beschäftigten Personen auf die vom CHE ausgewiesene Forschungs- und Lehrreputation wird im Rahmen einer Regressionsanalyse geschätzt. Das statistische Modell berücksichtigt neben der aggregierten individuellen Reputation der am Institut beschäftigten Personen eine Reihe von Kontrollvariablen, mit denen wir die Robustheit des postulierten Zusammenhangs überprüfen wollen. Wir unterscheiden zwischen vier institutionellen Kontextfaktoren, welche die CHE- Reputationsbewertung ebenfalls beeinflussen könnten: Die relative Größe des Fachbereichs, der Gründungszeitpunkt der Universität, die Unterscheidung zwischen ost- und westdeutscher Hochschule und die landesspezifische Hochschulgesetzgebung. Es kann vermutet werden, dass mit Anwachsen der relativen Größe, also dem Verhältnis von Fachbereichsstudierenden zur Gesamtzahl der Studierenden an der Universität, die CHE-Reputationsscores steigen. Die relative Größe des Instituts informiert über die relative Bedeutung des Fachs an der Universität. Erreicht die Politikwissenschaft innerhalb der Gesamtuniversität eine relevante Größe, steigt die Chance auf Profilierung, die sich wiederum im CHE- Hochschulranking widerspiegeln könnte. In jüngerer Zeit konnte beobachtet werden, dass ostdeutsche Universitäten mit den Folgen der Abwanderung und geringeren Studierendenanmeldungen konfrontiert sind. Laut dem Ergebnis einer Umfrage der Hochschulinitiative Neue Bundesländer (2009) können sich von westdeutschen Abiturienten, die beabsichtigen, ihren Heimatort für das Studium zu verlassen, nur 9 % vorstellen, ein Studium an einer ostdeutschen Hochschule zu beginnen. Der Vorteil westdeutscher Hochschulen wird von den Befragten insbesondere in einem besseren Lehrangebot und den damit verbundenen Karriereaussichten gesehen. Vor diesem Hintergrund enthält das statistische Modell einen Ost/ West-Dummy. Die Variable „Gründungsjahr vor 1965“ versucht den Unterschied zwischen den sogenannten Traditionsuniversitäten und solchen Universitäten, die im Zuge der Bildungsreformen Mitte der 60er-Jahre gegründet wurden, zu erfassen. Diese Hochschulen sehen sich zum Teil noch heute dem Vorwurf ausgesetzt, dass das sozialpolitische Gründungsethos von einst mit geringeren Ansprüchen in Forschung und Lehre einhergeht. Für die jüngeren Universitäten wird folglich ebenfalls ein geringerer CHE-Reputationsscore erwartet. Politikwissenschaftliche Institute in Deutschland ZPol 4/09 591 Als letzte institutionelle Determinante wird die Hochschulgesetzgebung des jeweiligen Bundeslandes berücksichtigt. Diese wurde vom Stifterverband für die Deutsche Wissenschaft (2002) evaluiert und in drei Gruppen eingeteilt. Die Spitzengruppe erfüllt dabei das Leitbild einer autonomen und wettbewerbsorientierten Hochschule, die Mittelgruppe entspricht diesem zumindest teilweise und die Schlussgruppe weicht davon deutlich ab. Vermutet wird folgende Wirkung: Im Vergleich zur Mittelgruppe (Referenzkategorie) sollte die Spitzengruppe höhere und die Schlussgruppe niedrigere Reputationsscores erhalten. Sollte die Argumentation des Stifterverbandes für die Deutsche Wissenschaft (2002) zutreffen, dann fördert eine Hochschulgesetzgebung, die den Universitäten ein großes Maß an Autonomie einräumt, bessere Leistungen in Forschung und Lehre (Tabelle 1). Die Publikationsleistungen der Institute konnten aufgrund der unzulänglichen Datenlage leider nicht berücksichtigt werden. Plümper (2003) misst die Publikationstätigkeit und den Rezeptionserfolg politikwissenschaftlicher Institute und Forschungseinrichtungen in Deutschland auf Basis von Zeitschriftenartikeln, die zwischen 1980 und 1992 in einem im Social Science Citation Index (SSCI) gelisteten Journal veröffentlicht wurden. Dem wurde entgegengehalten, dass SSCI-Zeitschriften lediglich einen Teil des Publikationsoutputs in der deutschsprachigen Sozial- und Politikwissenschaft erfassen (Gläser 2006: 44). Problematischer erscheint uns jedoch für die Untersuchung des Zusammenhangs zwischen Publikationstätigkeit und CHE-Reputationsscores, dass Zeitschriftenartikel zwar eindeutig einem Autor, aber weit weniger eindeutig einem Institut zugeordnet werden können (Koautorenschaft, Einreichungszeitpunkt etc.). Vor diesem Hintergrund wurde davon abgesehen, die Publikationstätigkeit in das statistische Modell aufzunehmen. Wir vermuten vielmehr einen indirekten Zusammenhang zwischen internationalen Zeitschriftenpublikationen und den CHE-Reputationsscores dahingehend, dass internationale Zeitschriftenpublikationen einen positiven Einfluss auf die individuelle Reputation des Autors haben, die dann wiederum über den pars pro toto-Effekt, die Reputation des Instituts, an dem der Autor tätig ist, fördert. Markus Tepe/Sebastian Schneider 592 Abbildung 1 Zusammenhang zwischen Forschungs- und Lehrreputation b) Ergebnisse Bevor wir uns den Ergebnissen der Regressionsanalyse zuwenden, beginnen wir mit der deskriptiven Analyse der beiden Variablen Forschungs- und Lehrreputation aus dem CHE-Hochschulranking. Abbildung 1 zeigt einen deutlich positiven Zusammenhang zwischen der Forschungs- und Lehrreputation, d. h. Institute mit hohen Bewertungen in der Forschung erhalten auch hohe Bewertungen in der Lehre. Die paarweise Korrelation der Variablen ist statistisch signifikant auf dem 1 %-Niveau und beträgt beachtliche 0.96. Abbildung 1 zeigt zudem die ungewöhnliche Verteilung der beiden Reputationsvariablen. Demnach sind hohe Bewertungen in beiden Dimensionen auf einige wenige Institute konzentriert, während der Großteil der Institute auf beiden Achsen sehr niedrige Punktzahlen erreicht. Wir vermuten, dass eben dieser Befund das Ergebnis des pars pro toto-Effekts ist. Für die Regressionsanalyse haben wir die beiden subjektiven Bewertungen der Forschungs- und Lehrreputation zu TU Dresden Uni Bamberg Uni Frankfurt a.M. Uni Münster TU Darmstadt Uni Tübingen Uni Heidelberg LMU München Uni Bremen Uni Mannheim Uni Konstanz FU Berlin Die Punktewolke beinhaltet: Uni Mainz, Uni Köln, Uni Hamburg, Uni Potsdam, Uni Bonn, Uni Erl.?Nürnb., Uni Göttingen, Uni Halle?Wittenberg, Uni Marburg, Uni Duisburg?Essen, Uni Trier, Uni Jena, Uni Osnabrück, Uni Regensburg, Uni Siegen, Uni Greifswald, Uni Leipzig, TU Chemnitz, Uni Hannover, Uni Düsseldorf, Uni Rostock, Uni Kassel, TU Braunschweig, Uni Eichst.?Ing., RWTH Aachen, Uni Augsburg, Uni Kiel, Uni Erfurt, Uni Kobl.?Land., Uni Bochum (sortiert nach CHE?Forschungsreputation, mehrfach belegte Rangplätze)0 .2 .4 .6 .8 1 CH E? Le hrr ep uta tio n 0 .2 .4 .6 .8 1 CHE?Forschungsreputation Politikwissenschaftliche Institute in Deutschland ZPol 4/09 593 einer Variable – CHE-Reputationsscores – zusammengefasst. Wir rechtfertigen diesen Schritt mit der hohen paarweisen Korrelation, d. h. die beiden Items scheinen ein unidimensionales Konstrukt zu messen, das sich als Forschungsund Lehrreputation bezeichnen lässt. Die Variable CHE-Reputationsscores entspricht der Summe aus den beiden Variablen Forschungsreputation und Lehrreputation aus dem CHE-Hochschulranking (standardisiert auf das Intervall [0,1]) und dient als abhängige Variable in unserem statistischen Modell. Tabelle 2 Determinanten der CHE-Reputationsscores Modell 1 Modell 2 Modell 3 Modell 4 Modell 5 Modell 6 Modell 7 Modell 8 OLS Tobit rel. Größe 6.24*** 2.80 4.33** 1.60 7.58*** 3.60 5.38** 2.26 [2.17] [2.31] [1.93] [2.03] [2.38] [2.35] [2.07] [2.03] Gründungsjahr >1965 -0.11 -0.03 -0.00 0.06 -0.16 -0.07 -0.04 0.02 [0.09] [0.09] [0.08] [0.08] [0.10] [0.09] [0.09] [0.08] Ostdeutschland -0.21** -0.07 -0.13 -0.03 -0.20* -0.05 -0.11 -0.00 [0.10] [0.10] [0.09] [0.09] [0.11] [0.10] [0.09] [0.09] Schlussgruppe -0.03 -0.07 -0.02 -0.07 [0.10] [0.09] [0.10] [0.09] Spitzengruppe 0.18** 0.13* 0.21** 0.15* [0.08] [0.07] [0.09] [0.08] Reputation 0.69*** 0.61*** 0.75*** 0.64*** [0.18] [0.17] [0.19] [0.17] N 42 41 42 41 42 41 42 41 F-Test 3.51* 1.99 7.12*** 4.30*** LR chi2 10.84** 10.32* 23.63*** 22.33*** AIC 6.048 -0.202 -5.654 -11.11 26.72 17.42 15.94 7.41 adj. R2 0.16 0.11 0.37 0.33 McKelvey & Zavoina‘s R2 0.24 0.22 0.44 0.43 Hinweis: Tobit-Schätzung (untere Grenze=0, obere Grenze=1), Standardfehler in Klammern, * p<0.10 ** p<0.05 *** p<0.01 Markus Tepe/Sebastian Schneider 594 Das Vorgehen bei den Regressionsanalysen erfolgt hierarchisch. Zuerst wird ein Basismodell geschätzt (Modell 1), das lediglich die Struktur der Universität berücksichtigt. Im Anschluss werden jeweils die Variablen zum hochschulgesetzlichen Rahmen (Modell 2) und der individuelle Reputationsindex (Modell 3) eingeführt. Das Gesamtmodell 4 enthält alle erklärenden Faktoren. Die Beurteilung der Modellgüte erfolgt auf Basis des F-Tests, dem angepassten R2 und dem Akaike’s Information Criterion (AIC). Die Ergebnisse der OLS-Schätzung werden in Tabelle 2 zusammengefasst.12 Die relative Größe des Fachbereichs hat einen positiven Effekt auf die CHE-Rankingscores für Forschungs- und Lehrreputation (Modell 1). Eine Gründung der Hochschule nach 1965 und die Lokalisierung in Ostdeutschland hingegen senken die CHE-Bewertung, wobei die Gründung nach 1965 kein statistisch signifikantes Niveau erreicht (Modell 1). Die negative Beurteilung der Reputation ostdeutscher politikwissenschaftlicher Institute deckt sich zumindest vordergründig mit den Befunden der Umfrage der Hochschulinitiative Neue Bundesländer (2009). Ergänzt man das statistische Modell um die Variable „hochschulpolitische Rahmengesetzgebung“, ist der Ost/West-Effekt nicht länger statistisch signifikant (Modell 2). Die Zugehörigkeit zur Gruppe der Länder, deren hochschulpolitische Rahmengesetzgebung am ehesten dem Ideal des Stifterverbandes für die Deutsche Wissenschaft entspricht (Spitzengruppe), hat einen positiven, statistisch signifikanten Einfluss auf die CHE-Bewertung. Der nicht signifikante F-Test zur Überprüfung des Gesamtmodells deutet jedoch auf schwere Mängel in der Modellspezifikation hin.13 Durch die Eingabe unseres Falter/Knodt-Reputationsindex verändert sich die Modellgüte jedoch beträchtlich (Modell 3). Das angepasste R2 steigt von 0.16 im Basismodel auf 0.37. Die Variable „individuelle Reputation“ – basierend auf dem Ergebnis der Reputationsstudie von Falter und Knodt (2007) – erweist sich als stärkster Prädiktor für die CHE-Reputationsscores, auch unter Kontrolle der hochschulpolitischen Rahmengesetzgebung (Modell 4). Dies stützt die Vermutung, dass die CHE-Bewertung der Forschungs- und Lehrqualität zu einem großen Teil an renommierten Persönlichkeiten festgemacht wird. Die individuelle Reputation einzelner am Institut tätiger Kollegen und Kolleginnen wirkt sich positiv auf die Reputation des gesamten Instituts aus. Der Befund 12 Alle OLS-Modelle wurden auf Heteroskedastizität, Multikollinearität und Autokorrelation überprüft. Sämtliche Tests fielen negativ aus. 13 Der Stifterverband für die Deutsche Wissenschaft (2002) liefert nicht für jedes Bundesland eine Beurteilung der hochschulpolitischen Rahmengesetzgebung, sodass sich die Zahl der Beobachtungen von n=42 in Model 1 und 3 auf n=41 Institute in Model 2 und 4 reduziert. Auch vor diesem Hintergrund haben wir uns entscheiden, die erklärenden Variablen blockweise in das statistische Modell einzuführen. Politikwissenschaftliche Institute in Deutschland ZPol 4/09 595 spricht dafür, dass die Teilnehmer an der CHE-Befragung die Reputation exponierter Kollegen und Kolleginnen als pars pro toto für die Reputation des Instituts angeben. Im Rahmen der Robustheitsanalyse wurden alle Modelle mit einer Tobit- Regression reproduziert. Die Tobit-Regression berücksichtigt die Limitation der abhängigen Variablen auf den Wertebereich [0,1]. Die Verwendung dieses alternativen Schätzverfahrens ändert die substanziellen Ergebnisse nicht (Modelle 5-8). Insgesamt sind die Befunde der Regressionsanalyse konsistent mit dem pars pro toto-Effekt. Bei der Evaluation politikwissenschaftlicher Institute durch das CHE ist die Reputation einzelner Wissenschaftler für die Forschungsund Lehrreputation des gesamten Instituts von entscheidender Bedeutung. Das legt den Schluss nahe, dass personenbezogene Reputationsmaße als Näherungsgröße für die Bewertung der Forschung und Lehre des gesamten Instituts herangezogen werden. Institutionelle Faktoren (Größe, Gründung, Lage, rechtlicher Rahmen) haben hingegen einen vergleichsweise geringen Einfluss auf die CHE-Reputationsscores. Zwar zeigt sich in den Basismodellen, dass ostdeutsche Universitäten im Durchschnitt geringere CHE-Reputationsscores erhalten, doch wird dieser Effekt deutlich von dem Einfluss der individuellen Reputation überlagert. Eben dieser Überlagerungseffekt zeigt sich auch beim Einfluss der hochschulpolitischen Rahmengesetzgebung (vgl. Modell 2 und 4). 5. Uni- vs. multidimensionale Rankings Wenden wir uns nun der Frage zu, welchen Einfluss das Messkonzept auf die Rangposition der Institute nimmt. Eine Möglichkeit, die Unterschiede in der Ressourcenausstattung der Institute bei der Performanzmessung zu berücksichtigen, kann darin bestehen, die technische Effizienz der Institute zu schätzen. Dazu wird das vom CHE verwendete unidimensionale Messkonzept mit einem multidimensionalen, am „Produktionsoptimum“ orientierten Messkonzept verglichen. a) Data Envelopment Analysis Effizienz lässt sich mit dem Verfahren der Data Envelopment Analysis (DEA) schätzen. Bei der DEA handelt es sich um ein non-parametrisches statistisches Verfahren aus der Betriebswirtschaftslehre, das wiederholt zur Evaluation von Hochschulen und Fachbereichen eingesetzt wurde.14 Die Effizienz einer 14 Zum Beispiel Dyckhoff/Rassenhövel/Sandfort 2008; Ahn/Dyckhoff/Gilles 2007; Lehmann/ Warning 2004; Warning 2007. Markus Tepe/Sebastian Schneider 596 Produktionseinheit (Decision-Making Unit – DMU) wird ermittelt, indem mehrere Output- und Input-Faktoren simultan miteinander in Beziehung gesetzt werden (Bauer/Hammerschmidt 2006). In unserem Fall beschreibt Effizienz die Fähigkeit, mit gegebenen Inputfaktoren maximalen Output zu erzielen – die sogenannte Output-Effizienz oder auch technische Effizienz.15 Sobald mehrere Output- und Inputfaktoren betrachtet werden, besteht die Schwierigkeit, die einzelnen Input/Output-Kombinationen möglichst objektiv zu gewichten. Charnes, Cooper und Rhodes (1978) verwenden die lineare Programmierung zur Lösung dieses Problems und gelten damit als Wegbereiter der DEA.16 Die DEA weist jeder DMU einen Wert zwischen [0,1] zu, wobei DMUs mit dem Wert 1 relativ zu allen anderen DMUs am effizientesten produzieren. Das bedeutet, sie generieren aus ihren vorhandenen Ressourcen den größtmöglichen Output.17 Im Gegensatz zur Kleinst-Quadrate-Schätzung, die sich am Erwartungswert orientiert (d. h. die geschätzte Funktion verläuft „mittig“ durch die Punktwolke), werden bei der DEA die gegebenen Output/ Input-Kombinationen umhüllt („enveloped“). Alle DMUs, die sich auf dieser Kurve befinden, produzieren relativ zu allen anderen Instituten mit derselben Mittelausstattung am effizientesten. Allen anderen DMUs wird auf Basis ihres Abstandes zur optimalen Produktionskurve ein entsprechend niedrigerer Wert zugewiesen. Als vorteilhaft erweist sich die Tatsache, dass die DEA kein Wissen über die funktionale Form des Zusammenhangs zwischen Input und Output voraussetzt (Bauer/Hammerschmidt 2006: 34). Ein weiterer Grund für die Beliebtheit des Verfahrens kann darin gesehen werden, dass die DEA ohne dezidierte Informationen zu den monetären Input- und Outputfaktoren auskommt und dadurch zur Effizienzmessung von Non-Profit-Organisationen besonders geeignet scheint (Charnes/Cooper/Rhodes 1978: 429).18 15 Die technische Effizienz ist von der Input-Effizienz zu unterscheiden. Die Input-Effizienz beschriebt die Fähigkeit, einen fixen Output unter minimalem Inputeinsatz bereitzustellen. 16 Maximierungsproblem: 1 1 1 s r rj r m i ij i u y v x = = ? ? ? wobei j=1,…n DMU’s, rjy Outputfaktoren, ijx Inputfaktoren und ru , iv die durch lineare Programmierung zu bestimmenden Gewichte repräsentieren (Charnes/Cooper/Rhodes 1978: 430). 17 Eine grafische Erläuterung des Verfahrens liefert Abbildung 3 (siehe Anhang). 18 Mit dezidierten Informationen zur Kostenrechung der Institute könnte die Produktionsfunktion eines politikwissenschaftlichen Instituts mit der stochastic frontier analysis (SFA) ermittelt werden. Politikwissenschaftliche Institute in Deutschland ZPol 4/09 597 Tabelle 3 Messkonzept: Variablen für die DEA Variable Definition Quelle Inputfaktoren Drittmittel Drittmittel aus Industrie, Stiftungen, DFG usw. (in Tausend Euro) im Verhältnis zur Zahl der Wissenschaftlerinnen und Wissenschaftler (ohne Drittmittelstellen) über einen Zeitraum von drei Jahren CHE (2008) Professuren Professuren am Fachbereich CHE (2008) Studierende Hauptfachstudierende am Fachbereich, ohne Nebenfachstudierende CHE (2008) Promotionen Promotionen pro Professor in den der Befragung vorangegangenen sechs Semestern CHE (2008) Outputfaktoren CHE Forschungsreputation Die Professorinnen und Professoren wurden gebeten, bis zu fünf Universitäten zu nennen, die sie in ihrem eigenen Fach für in der Forschung führend halten. CHE (2008) CHE Lehrreputation Die Professorinnen und Professoren wurden gebeten, bis zu fünf Hochschulen zu nennen, die sie aufgrund der Qualität der Lehre für ein Studium in dem entsprechenden Fach empfehlen würden. CHE (2008) Für die DEA werden vier Inputfaktoren (Professoren, Doktoranden, Drittmittel und Studierende) und zwei Outputfaktoren (Reputation in Forschung und Lehre) herangezogen (Tabelle 3). Bei den Inputfaktoren unterscheiden wir zwischen personellen und monetären Produktionsfaktoren. Die Personalausstattung wird durch die Anzahl an Professoren und Doktoranden bestimmt. Dezidiertere Informationen zum Personal, insbesondere dem wissenschaftlichen Mittelbau, liegen leider nicht vor, wodurch die tatsächliche personelle Ausstattung der Institute systematisch unterschätzt wird. Wir vermuten jedoch, dass alle Institute von dieser Verzerrung gleichermaßen betroffen sind. Die Studierenden werden ebenfalls als Inputfaktor betrachtet. Einerseits sind sie das Objekt akademischer Lehre, zum anderen bestimmt ihre Zahl zu einem nicht unwesentlichen Anteil über die Mittelzuweisungen an das Institut. Für die Forschung spielt das erfolgreiche Einwerben von Drittmitteln eine zusehends wichtigere Rolle. Dyckhoff u. a. (2005: 63) nehmen an, dass Drittmittel eine Form des Outputs darstellen, da sie die Folge einer intensiven Vorbereitungsphase sind. Wir orientieren uns bei der Auswahl von Input- und Outputfaktoren am Produktionsmodell. Demnach erhöhen Drittmittel die finanzielle Ausstattung Markus Tepe/Sebastian Schneider 598 einer Universität für die Erbringung von Leistungen (bei der Drittmittelförderung i. d. R. Forschung). Somit sind Drittmittel in unserer Betrachtung kein Output, sondern ein monetärer Inputfaktor der universitären Produktionsfunktion. Diese Einschätzung ist konsistent mit Münch (2006: 473), der feststellt, „dass Drittmittel nur als ein Inputfaktor gewertet werden, der überhaupt nichts über die tatsächliche Exzellenz eines Standortes aussagt.“ Die Professorenstellen werden als einfacher Zählindex operationalisiert, die Promotionen in Relation zur Anzahl der Professoren – als Proxy für wissenschaftliches Personal – und die Drittmittel (in Tausend €) in Relation zur Anzahl der Wissenschaftler (in einem Zeitfenster von drei Jahren). Zur Erfassung der Anzahl der Studierenden werden lediglich diejenigen herangezogen, die Sozial- oder Politikwissenschaft als Hauptfach studieren. Man kann annehmen, dass diese Produktionsfaktoren zumindest langfristig veränderbar sind und somit die Voraussetzung für die DEA erfüllen (Bauer/Hammerschmidt 2006: 56). Die vier Inputfaktoren werden im institutsinternen Produktionsprozess in Publikationen und Absolventen umgewandelt. Zur Messung der Qualität dieses „physischen“ Outputs politikwissenschaftlicher Institute liegen bislang keine vergleichbaren objektiven Informationen vor.19 Die Ergebnisse der vorangegangenen Analyse zur Validität der subjektiven Reputationsmessung legen den Schluss nahe, dass die im CHE ausgewiesene Forschungs- und Lehrreputation die individuelle Reputation einzelner Mitarbeiter am Institut widerspiegelt. Auch wenn daraus der Schluss gezogen wird, dass die im CHE-Hochschulranking ausgewiesenen Items für die Forschungs- und Lehrreputation nicht valide sind, kann die Messung durchaus reliable Ergebnisse liefern. Der pars pro toto- Effekt sollte sich auch bei wiederholter Anwendung des Messinstruments in der Forschungs- und Lehrreputation niederschlagen. Auf Basis dieser Überlegungen und mangels alternativer objektiver Indikatoren verwenden wir die Forschungs- und Lehrreputation aus dem CHE-Ranking als Outputgrößen in der Effizienzanalyse (DEA). Die geltenden Faustregeln zur Mindestfallzahl unter Berücksichtigung der Input- und Output-Parameter werden von unserem Modell erfüllt (Bauer/Hammerschmidt 2006: 57).20 19 Das jüngst gegründete „Kompetenzzentrum Bibliometrie für die deutsche Wissenschaft“ – gefördert durch das Bundesministerium für Bildung und Forschung (BMBF), das Institut für Forschungsinformation und Qualitätssicherung (IFQ), das Fraunhofer- Institut für System- und Innovationsforschung (ISI), das Institut für Wissenschafts- und Technikforschung (IWT) der Universität Bielefeld sowie das Fachinformationszentrum Karlsruhe (FIZ) – stellt sich eben dieser Herausforderung auf dem Gebiet der Messung und Bewertung des Outputs an wissenschaftlicher Literatur. 20 n min. = (Anzahl Inputparameter x Anzahl Outputparameter) x 2= 4 x 2 x 2 = 16 (Dyson u. a. 2001: 248). Politikwissenschaftliche Institute in Deutschland ZPol 4/09 599 Die Auswahl der Input- und Output-Faktoren ist zweifelsfrei durch die Verfügbarkeit vergleichbarer Indikatoren restringiert. An dieser Stelle sei daher nochmals angemerkt, dass es uns nicht darum geht, die „tatsächliche“ technische Effizienz der Institute zu ermitteln. Wir wollen vielmehr zeigen, wie sich die Rangplatzierung der Institute verändert, wenn anstelle der unidimensionalen Leistungsbewertung ein multidimensionales Messkonzept angelegt wird, dass die unterschiedliche Mittelausstattung der Institute berücksichtigt. Abbildung 2 Uni- vs. multidimensionale Rankings b) Ergebnisse Die Ergebnisse der DEA sind in Abbildung 2 dargestellt. Das linke Balkendiagramm zeigt das ursprüngliche Ranking auf Basis der CHE-Reputationsscores (unidimensional), das mittlere Balkendiagramm zeigt das Ranking der Institute 0 .2 .4 .6 .8 1 Effizienzscores (CRS) RWTH Aachen Uni Kobl.?Land./Landau Uni Eichst.?Ing./Eichstät Uni Augsburg Uni Bochum TU Braunschweig Uni Kassel Uni Erfurt Uni Osnabrück Uni Hannover Uni Trier Uni Regensburg Uni Duisburg?Essen/Duisb. Uni Greifswald Uni Erl.?Nürnb./Erlangen Uni Marburg TU Chemnitz Uni Jena Uni Kiel Uni Leipzig Uni Rostock Uni Münster Uni Hamburg Uni Siegen Uni Göttingen Uni Köln Uni Halle?Wittenberg Uni Bamberg Uni Potsdam TU Dresden Uni Düsseldorf LMU München Uni Tübingen Uni Frankfurt a.M. TU Darmstadt FU Berlin Uni Bremen Uni Bonn Uni Heidelberg Uni Konstanz Uni Mainz Uni Mannheim 0 .2 .4 .6 .8 1 Effizienzscores (VRS) RWTH Aachen Uni Kobl.?Land./Landau Uni Bochum Uni Kassel Uni Osnabrück Uni Trier Uni Duisburg?Essen/Duisb. Uni Marburg Uni Regensburg Uni Erl.?Nürnb./Erlangen TU Chemnitz Uni Jena Uni Leipzig Uni Kiel Uni Erfurt Uni Greifswald Uni Münster Uni Hamburg Uni Siegen Uni Augsburg Uni Göttingen Uni Halle?Wittenberg Uni Potsdam Uni Köln TU Dresden Uni Bamberg Uni Düsseldorf Uni Rostock LMU München Uni Tübingen Uni Frankfurt a.M. TU Darmstadt Uni Bremen FU Berlin TU Braunschweig Uni Bonn Uni Eichst.?Ing./Eichstät Uni Hannover Uni Heidelberg Uni Konstanz Uni Mainz Uni Mannheim Hinweis: Inputfaktoren = Drittmittel, Professuren, Studierende, Promotionen; Outputfaktoren = Forschungsreputation, Lehrreputation. 0 .2 .4 .6 .8 1 CHE Forschungs? und Lehrreputation RWTH Aachen TU Braunschweig Uni Augsburg Uni Eichst.?Ing./Eichstät Uni Kobl.?Land./Landau Uni Bochum Uni Erfurt Uni Regensburg Uni Hannover Uni Kassel Uni Kiel Uni Rostock TU Chemnitz Uni Greifswald Uni Leipzig Uni Siegen Uni Osnabrück Uni Trier Uni Erl.?Nürnb./Erlangen Uni Göttingen Uni Jena Uni Marburg Uni Duisburg?Essen/Duisb. Uni Düsseldorf Uni Bonn Uni Halle?Wittenberg Uni Hamburg Uni Potsdam Uni Bamberg Uni Köln Uni Münster TU Dresden TU Darmstadt Uni Mainz Uni Frankfurt a.M. Uni Tübingen Uni Heidelberg LMU München Uni Bremen Uni Konstanz Uni Mannheim FU Berlin Markus Tepe/Sebastian Schneider 600 auf Basis der DEA-Effizienzscores unter der Annahme konstanter Skalenerträge (constant returns to scale – CRS) und das rechte Balkendiagramm zeigt das Ranking der Institute auf Basis der DEA-Effizienzscores unter der Annahme variabler Skalenerträge (variable returns to scale – VRS).21 Im CRS-Modell können in Relation zu allen anderen Instituten fünf Institute eine technische Effizienz von 1 aufweisen. Es folgt eine etwa ebenso große Gruppe von Instituten, deren Effizienz zwischen 0.7 und 0.95 liegt. Das CRS-Modell unterstellt jedoch proportional anwachsende Skalenerträge. Dies kann für politikwissenschaftliche Institute möglicherweise unzutreffend sein, da auch nicht-linear wachsende und abnehmende Skalenerträge denkbar sind (Ahn/Dyckhoff/ Gilles 2007: 623). Ein Beispiel zur Illustration: Unter der Annahme konstanter Skalenerträge müsste die Verdopplung der Professorenzahl mit einer Verdopplung des Outputs einhergehen. Ahn/Dyckhoff/Gilles (2007: 631) und Dyckhoff/ Rassenhövel/Sandfort (2008: 22) führen an, dass für betriebs- und volkswirtschaftliche Fachbereiche in Deutschland konstante Skalenerträge angenommen werden können. Das muss jedoch nicht zwangläufig für alle politikwissenschaftlichen Institute zutreffen. Weil diese Frage bislang nicht abschließend beantwortet wurde, haben wir uns entschieden, beide Varianten – CRS- und VRS-Effizienzscores – anzugeben. Geht man nun von variablen Skalenerträgen (VRS) aus (Abbildung 2, rechte Seite), werden doppelt so viele Institute als maximal effizient ausgewiesen wie unter der Annahme konstanter Skalenerträge (CRS). Unter der Annahme variabler Skalenerträge wird eine konvexe Produktionskurve angelegt. Dadurch ergeben sich für einige Institute drastische Veränderungen des Rangplatzes (siehe die Institute für Politikwissenschaft an der Universität Hannover und an der Universität Eichstätt-Ingolstadt). Dies lässt sich unter anderem dadurch erklären, dass unter der Prämisse variabler Skalenerträge eine DMU bereits dann den Effizienzscore 1 erhält, wenn sie die anderen DMUs in einem Input/ Output-Verhältnis dominiert; selbst wenn sie in allen anderen Bereichen zurückliegt (Ahn/Dyckhoff/Gilles 2007: 632). Abgesehen von diesem Effekt zeigt der Vergleich der CRS- und VRS-Effizienzscores jedoch auch, dass sich die Ergebnisse in weiten Teilen entsprechen. Der Vergleich der technischen Effizienz der Institute untereinander ergibt, dass von den 42 Instituten 32 einen CRS-Effizienzscore von unter 0.5 aufweisen bzw. 25 Institute einen VRS-Effizienzscore von unter 0.5 aufweisen. In 21 Die DEA wurde mit der statistischen Analysesoftware R und dem FEAR 1.12 Paket von Wilson (2008) durchgeführt. Politikwissenschaftliche Institute in Deutschland ZPol 4/09 601 beiden Fällen ist die Differenz beachtlich. Vergleicht man die Rangfolge der Institute auf Basis der CHE-Rankingscores mit der Rangfolge, die sich auf Basis der CRS-Effizienzscores ergibt, kann festgestellt werden, dass von den Top-5-Instituten drei Institute schlechter abschneiden. Vergleicht man die Rangfolge auf Basis der CHE-Rankingscores mit der Rangfolge auf Basis der VRS-Effizienzscores, werden vier der Top-5-Institute mit maximaler technischer Effizienz ausgewiesen. Um die relative Veränderung der Rangposition zu erfassen, haben wir zunächst 1-26 Ränge auf Basis der CHE-Reputationsscores zugewiesen. Die Zahl der Ränge ist niedriger als die Zahl der Institute, weil einige Rangplätze mehrfach belegt werden. Dies gilt auch für die Ränge auf Basis der Effizienzscores; so teilen sich z. B. alle Institute mit maximaler technischer Effizienz den ersten Rangplatz. Für die CRS-Effizienzscores konnten 1-38 Ränge vergeben werden, für die VRS-Effizienzscores 1-34. Der Vergleich zwischen CHE-Reputationsscore und CRS-Effizienzscore ergibt, dass 20 Institute ihre Rangposition verbessern, 20 verschlechtern und die Rangposition von zwei Instituten unverändert bleibt. Der Vergleich zwischen CHE-Reputationsscore und VRS-Effizienzscore ergibt, dass 25 Institute ihre Rangposition verbessern, 15 verschlechtern und die Rangposition von zwei Instituten unverändert bleibt. 6. Schlussfolgerungen Im Mittelpunkt dieses Beitrags standen zwei Fragen: Einerseits wurde überprüft, ob die Validität der subjektiven Bewertung von Forschungs- und Lehrreputation vom pars pro toto-Effekt beeinflusst wird. Anderseits wurde verglichen, wie sich die Rangposition der 42 politikwissenschaftlichen Institute verändert, wenn deren Performanz nicht uni-, sondern multidimensional im Form von DEA-Effizienzscores gemessen wird. Hinsichtlich der subjektiven Reputationsmessung legen die empirischen Befunde den Schluss nahe, dass die Forschungs- und Lehrreputation des Instituts in hohem Maße von der individuellen Reputation der Mitarbeiter abhängt. Nicht die Forschungs- und Lehrreputation des Institutes, sondern vielmehr die Reputation einer oder mehrerer am jeweiligen Institut beschäftigter Personen wird zum pars par toto der Reputation des Instituts. Diese Verzerrung sollte berücksichtigt werden, wenn die Forschungs- und Lehrreputation von künftigen Studenten, Wissenschaftlern oder Arbeitgebern für den Vergleich politikwissenschaftlicher Institute herangezogen wird. Aufgrund der Schwächen der Markus Tepe/Sebastian Schneider 602 subjektiven Leistungsmessung wird zunehmend an der Konstruktion „objektiver“ Indikatoren zur Messung der Forschungsleistung gearbeitet. Das betrifft insbesondere den Einsatz bibliometrischer Verfahren (Hix 2004), wenngleich auch dieses Vorgehen diverse Fallstricke aufweist (van Raan 2005: 8-14; Gläser 2006). Wie die Qualität der Lehre möglichst „objektiv“ evaluiert werden kann, bleibt indes völlig offen. Die empirischen Befunde der DEA legen den Schluss nahe, dass multidimensionale Messkonzepte eine sinnvolle Ergänzung zu den bislang vorrangig unidimensionalen Leistungsvergleichen sein können. Obgleich es – wie wir zu zeigen versucht haben – gute Gründe gibt, die für die Anwendung der multidimensionalen Performanzmessung sprechen, liefert die DEA letzten Endes keine völlig überzeugende Lösung. Die DEA leidet in bedeutenderem Maße als andere Analyseverfahren unter dem omitted variable bias. Wird die Skalierung manipuliert oder ein Produktionsfaktor unterschlagen, kann ein Institut, dass in dieser Dimension herausragend ist, leicht auf dem letzten Platz der DEA landen. Ähnliches lässt sich sagen über den Einschluss/Ausschluss von Fällen. So ist es nahezu ausgeschlossen, dass die Effizienzscores robust sind, wenn beispielsweise das politikwissenschaftliche Department der Harvard University oder der London School of Economics (LSE) in das Sample aufgenommen werden. Die Begrenztheit der unidimensionalen Performanzmessung einerseits und die methodischen Schwachpunkte der DEA andererseits sprechen unserer Meinung nach dafür, beide Messkonzepte zu berücksichtigen. Welche Schlussfolgerungen lassen sich aus den empirischen Befunden für die hochschulpolitische Praxis ziehen? Einerseits sprechen unsere Ergebnisse dafür, dass es sinnvoll sein kann, die Performanzmessung um die Kategorie „technische Effizienz“ zu erweitern. Zahlreiche Institute, die eine niedrige Bewertung im unidimensionalen CHE-Ranking erhalten haben, scheinen durchaus effizient zu arbeiten. Anderseits implizieren die Ergebnisse hinsichtlich der subjektiven Reputationsmessung, dass nicht all jene Institute, die schlecht bewertet wurden, fortlaufend mit diesem „Stigma“ leben müssen, d. h., der Schatten, den eine schlechte Bewertung auf die Zukunft wirft, fällt womöglich weniger stark ins Gewicht als vermutet. Hochschulrektoren und Dekane könnten – wenn sie denn wollten – die Verzerrung durch die Erhebung der subjektiven Forschungs- und Lehrreputation strategisch nutzen und einige wenige, aber dafür exponierte Kollegen und Kolleginnen rekrutieren, um auf diese Weise das Abschneiden beim nächsten Ranking kurzfristig zu verbessern. Politikwissenschaftliche Institute in Deutschland ZPol 4/09 603 Literatur Ahn, Harald/Dyckhoff, Heinz/Gilles, Roland, 2007: Datenaggregation zur Leistungsbeurteilung durch Ranking: Vergleich der CHE- und DEA-Methodik sowie Ableitung eines Kompromissansatzes, in: Zeitschrift für Betriebswirtschaft 77 (6), 615-643. Bastedo, Michael N./Bowman, Nicholas A., 2009: The U.S. News & World Report College Rankings: Modelling Institutional Effects on Organizational Reputation, in: American Journal of Education (im Druck). Bauer, Hans H./Hammerschmidt, Maik, 2006: Grundmodelle der DEA, in: Hans H. Bauer/Matthias Staat/Maik Hammerschmidt (Hrsg.), Marketing- Effizienz. Messung und Steuerung mit der DEA – Konzept und Einsatz in der Praxis, München, 33-60. Bayer, Christian R., 2000: Anspruch und Wirklichkeit von Hochschul-Ranking: Vorschlag einer allgemeinen Methodik, in: Die Betriebswirtschaft 50 (5), 547-569. Bowman, Nicholas A./Bastedo, Michael N., 2009: Getting on the Front Page: Organizational Reputation, Status Signals, and the Impact of U.S. News and World Report on Student Decisions, in: Research in Higher Education 50 (5), 415-436. Carrell, Scott E./West, James E., 2008: Does Professor Quality Matter? Evidence from Random Assignment of Students to Professors, Cambridge/MA (NBER Working Paper Series. National Bureau of Economic Research). Charnes, Abraham/Cooper, William/Rhodes, Edwardo, 1978: Measuring the efficiency of decision making units, in: European Journal of Operational Research 2 (6), 429-444. CHE, 2008: Ergebnisse des CHE Hochschulranking 2008, http://ranking.zeit. de/che9/CHE. CHE, 2009: CHE Hochschulranking. Vorgehensweise und Indikatoren. Gütersloh, CHE Centrum für Hochschulentwicklung, http://www.che.de/ downloads/CHE_AP119_Methode_Hochschulranking_2009.pdf (Stand 25.08.09) Dill, David D./Soo, Maarja, 2005: Academic quality, league tables, and public policy: A cross-national analysis of university ranking systems, in: Higher Education 49 (4), 495-533. Dyckhoff, Harald/Rassenhövel, Sylvia/Gilles, Roland/Schmitz, Christian, 2005: Beurteilung der Forschungsleistung und das CHE-Forschungsranking betriebswirtschaftlicher Fachbereiche, in: Wirtschaftswissenschaftliches Studium 34 (2), 62-69. Markus Tepe/Sebastian Schneider 604 Dyckhoff, Harald/Rassenhövel, Sylvia/Sandfort, Kirsten, 2008: Skalenerträge der Forschung betriebswirtschaftlicher Fachbereiche: Empirische Ergebnisse einer „Data Envelopment Analysis“, Arbeitsbericht des Lehrstuhls für Unternehmenstheorie der RWTH Aachen. Dyson, Robert G./Allen, R./Camanho, Ana S./Podinovski, Victor V./Sarrico, Claudia S./Shale, Estelle A., 2001: Pitfalls and protocols in DEA, in: European Journal of Operational Research 132 (2), 245-259. Espeland, Wendy/Sauder, Michael, 2007: Rankings and Reactivity: How Public Measures Recreate Social Worlds, in: American Journal of Sociology 113 (1), 1-40. Falter, Jürgen/Knodt, Michèle, 2007: Die Bedeutung von Themenfeldern, theoretischen Ansätzen und die Reputation von Fachvertretern. Eine Replikation der Studien von Böhret (1984), Honolka (1986), sowie Falter und Klingemann (1998), in: Rundbrief der Deutschen Vereinigung für Politische Wissenschaft (137), 147-161. Gerhards, Jürgen, 2002: Reputation in der deutschen Soziologie – zwei getrennte Welten, in: Soziologie 31 (2), 19-33. Gläser, Jochen, 2006: Die Fallstricke der Bibliometrie, in: Soziologie, 35 (1), 42-51. Goerres, Achim/Warntjen, Andreas, 2006: Requiem for a dream? Academic career opportunities for young political scientists in Germany, in: European Political Science 5 (3), 253-263. Hagstrom, Warren O., 1965: The Scientific Community, Carbondale. Hix, Simon, 2004: A Global Ranking of Political Science Departments, in: Political Studies Review 2 (3), 293-313. Hochschulinitiative Neue Bundesländer, 2009: Online-Umfrage zur Hochschulwahl, http://www.hochschulinitiative.de/content/de/presse/Pressemappe. html (Stand: 25.08.09). Hornbostel, Stefan, 2009: Alles eine Frage der Perspektive? Münchs Kritik am deutschen Wissenschaftssystem, in: Soziologische Revue 1, 15-20. Kittel, Bernhard, 2009: Eine Disziplin auf der Suche nach Wissenschaftlichkeit: Entwicklung und Stand der Methoden in der deutschen Politikwissenschaft, in: PVS 50 (3), 577-603. Lamont, Michele, 2009: How Professors Think, Cambridge. Latour, Bruno/Woolgar, Steve, 1986: Laboratory Life: The Construction of Scientific Facts, Princeton. Lehmann, Erik E./Warning, Susanne, 2004: Effizienz von Universitäten: Anwendung der Data Envelopment Analyse für britische Hochschulen, in: Politikwissenschaftliche Institute in Deutschland ZPol 4/09 605 Joachim Behnke/Thomas Plümper/Hans-Peter Burth, Jahrbuch für Handlungs- und Entscheidungstheorie, Band 3, Wiesbaden, 69-95. Merton, Robert K., 1968: The Matthew Effect in Science, in: Science 159, 56-63. Münch, Richard, 2006: Wissenschaft im Schatten von Kartell, Monopol und Oligarchie. Die latenten Effekte der Exzellenzinitiative, in: Leviathan 34 (4), 465-486. Plümper, Thomas, 2003: Publikationstätigkeit und Rezeptionserfolg der deutschen Politikwissenschaft in internationalen Fachzeitschriften, 1990-2002. Eine bibliometrische Analyse der Veröffentlichungsleistung deutscher politikwissenschaftlicher Fachbereiche und Institute, in: PVS 44 (4), 529-544. Plümper, Thomas/Schimmelfennig, Frank, 2007: Wer wird Prof - und wann? Berufungsdeterminanten in der deutschen Politikwissenschaft, in: PVS 48 (1), 97-117. Raan, Anthony F. J. van, 2005: Challenges in Ranking of Universities. Arbeitspapier First International Conference on World Class Universities. Shanghai Jaio Tong University, Shanghai. Stifterverband für die Deutsche Wissenschaft, 2002: Qualität durch Wettbewerb und Autonomie. Landeshochschulgesetze im Vergleich, in: Positionen, Stifterverband für die deutsche Wissenschaft, Essen, http://www.stifterverband.org/publikationen_und_podcasts/positionen_dokumentationen/qualitaet_durch_wettbewerb_und_autonomie_2002.pdf (Stand: 25.08.09). Stone, Mervyn, 2002: How Not to Measure the Efficiency of Public Services (And How One Might), in: Journal of the Royal Statistical Society, Series A 165 (3), 405-434. Thorndike, Edward L., 1920: A constant error in psychological rating, in: Journal of Applied Psychology 4, 25-19. Warning, Susanne, 2007: The Economic Analysis of Universities: Strategic Groups and Positioning, Cheltenham. Weingart, Peter/Maasen, Sabine, 2007: Elite through Rankings – The Emergence of the Enterprising University, in: Richard Whitley/Jochen Gläser (Hrsg.), The Changing Governance of the Sciences: The Advent of Research Evaluation Systems, Dordrecht, 75-101. Wilson, Paul W., 2008: FEAR: A package for frontier efficiency analysis with R, in: Socio-Economic Planning Sciences 42 (4), 247-254. Markus Tepe/Sebastian Schneider 606 Korrespondenzanschriften: Dr. Markus Tepe SFB 597 Staatlichkeit im Wandel Zentrum für Methoden der Sozialwissenschaften Carl von Ossietzky Universität Oldenburg Ammerländer Heerstr. 114-118 26129 Oldenburg E-Mail: markus.tepe@uni-oldenburg.de Sebastian Schneider, Dipl. Soz. Wiss. Zentrum für Methoden der Sozialwissenschaften Carl von Ossietzky Universität Oldenburg Ammerländer Heerstr. 114-118 26129 Oldenburg E-Mail: sebastian.schneider@uni-oldenburg.de Bitte bestellen Sie im Buchhandel oder versandkostenfrei unter www.nomos-shop.de Vom Interview zur Analyse Methodische Aspekte der Einstellungs- und Wahlforschung Herausgegeben von Harald Schoen, Hans Rattinger und Oscar W. Gabriel 2009, 390 S., brosch., 44,– €, ISBN 978-3-8329-4725-5 Der vorliegende Band widmet sich ausgewählten Fragen zur Methodik der Wahl- und Einstellungsforschung. In 15 Kapiteln werden auf der Grundlage umfangreichen Datenmaterials, das seit der Wiedervereinigung in Ost- und Westdeutschland gesammelt wurde, zentrale Themen der Forschung behandelt. Politikwissenschaftliche Institute in Deutschland ZPol 4/09 607 Anhang Tabelle 4 Deskriptive Statistiken Variable Obs Mean Std. Dev. Min Max CHE-Reputationsscores 42 0.17 0.27 0.0 1.0 rel. Größe 42 0.04 0.02 0.0 0.1 Gründungsjahr>1965 42 0.29 0.46 0.0 1.0 Ostdeutschland 42 0.19 0.40 0.0 1.0 Schlussgruppe 41 0.17 0.38 0.0 1.0 Spitzengruppe 41 0.34 0.48 0.0 1.0 Individuelle Reputation 42 0.12 0.20 0.0 1.0 Drittmittel 42 26.60 34.77 1.1 166.2 Professoren 42 5.88 3.32 2.0 19.0 Studenten 42 750.93 497.58 214.0 2828.0 Promotionen je Professor 42 0.92 0.74 0.1 3.1 CHE-Lehrreputation 42 8.81 12.59 0.1 46.2 CHE-Forschungsreputation 42 8.52 15.16 0.1 55.7 Anmerkungen: Reputation in Lehre und Forschung (CHE) wurden um 0,1 Punkte erhöht, um mit 0 besetzte Zellen zu vermeiden. SA = Standardabweichung. Markus Tepe/Sebastian Schneider 608 Abbildung 3 Exemplarische Darstellung der DEA mit einem Input- und einem Output-Faktor Anmerkungen: CRS – konstante Skalenerträge, VRS – variable Skalenerträge. CRS VRS 0 2 4 6 8 10 Outpu t 1 2 3 4 5 6 Input

Zusammenfassung

Markus Tepe/Sebastian Schneider

Zur Reputations- und Performanzmessung politikwissenschaftlicher Institute in Deutschland

Auf Basis der Daten des CHE-Hochschulrankings werden in diesem Beitrag zwei Aspekte der institutsvergleichenden Reputations- und Performanzmessung untersucht: Hinsichtlich der Validität der subjektiven Reputationsmessung legen die Ergebnisse der Regressionsanalyse von 42 politikwissenschaftlichen Instituten den Schluss nahe, dass die individuelle Reputation einzelner Institutsangehöriger der wichtigste Prädiktor für die Bewertung der Forschungsund Lehrreputation des gesamten Instituts ist (pars pro toto-Effekt). Zum zweiten wird der Frage nachgegangen, wie sich die Rangposition verändert, wenn Unterschiede in der Ressourcenausstattung der Institute bei der Performanzmessung berücksichtigt werden. Zu diesem Zweck schätzen wir die technische Effizienz der politikwissenschaftlichen Institute. Der Vergleich zeigt, dass der Rankingerfolg in starkem Maße davon abhängt, ob ein uni- oder multidimensionales Messkonzept angelegt wird.

pars pro toto-Effekt
References

Zusammenfassung

Die „Zeitschrift für Politikwissenschaft“ versteht sich als Forum für die gesamte Politikwissenschaft. Sie bietet eine Plattform für alle Teildisziplinen und Felder sowie für alle Ansätze und Richtungen des Fachs. Als gemeinsames Band stehen dabei die Grundlagen-, Theorie- und Praxisorientierung sowie die kritische Diskussion im Vordergrund der wissenschaftlichen Beiträge. Neben begutachteten Aufsätzen (Double Blind Peer Review), die im Zentrum jeder Ausgabe stehen, finden sich im „Forum“ Beiträge, die aktuelle Themen mit politikwissenschaftlicher Relevanz aufgreifen und diese aus der Perspektive der Teildisziplinen des Fachs analysieren und pointiert bewerten. Daneben steht Platz für Kommentare und Kurzanalysen zur Verfügung. Dadurch soll die Zeitschrift stärker für wissenschaftliche Debatten und die kritische Diskussion geöffnet werden. In der Rubrik „Lehre und Forschung“ werden die vielfältigen Entwicklungen und Veränderungen im hochschulpolitischen Bereich thematisiert, die auf die Politikwissenschaft gravierende Auswirkungen haben. Diese Rubrik dient in besonderem Maße der Selbstverortung des Fachs in den turbulenten Zeiten des Post-Bologna-Prozesses und wagt gleichzeitig den Blick voraus, zeigt Trends und Strömungen auf. In der Rubrik „Literaturbericht“ werden zudem zentrale Veröffentlichungen zu bestimmten thematischen Schwerpunkten aus den verschiedenen Teildisziplinen der Politikwissenschaft in Aufsatzform vorgestellt. Die Zeitschrift erscheint viermal im Jahr; zusätzlich gibt es in unregelmäßigen Abständen Sonderhefte zu wissenschaftlich aktuellen Themen.