In Kürze wird der Wissenschaftsrat auf einer Veranstaltung (hier das Programm) über die Ergebnisse einer Initiative berichten, die bereits 2004 beschlossen wurde. Im Hochschulmagazin duz kann man hier nachlesen, dass es dabei um ein neues Forschungsrating geht – entstanden aus der Unzufriedenheit mit bekannten nationalen und internationalen Verfahren. Diese dienen dazu, Ranglisten zu erstellen, an denen Wissenschaftler wie auch Studierende (und Förderinstitutionen) ablesen können sollen, wie gut eine Universität ist.
Das neue Verfahren des Wissenschaftsrats arbeitet vor allem mit Peer Reviews und kombiniert quantitative mit qualitativen Daten. „Statt nur die Zahl von veröffentlichten Aufsätzen in Fachzeitschriften zu zählen, werden ausgewählte Publikationen von den Gutachtern auch gelesen und bewertet“, so heißt es im besagten duz-Artikel.
Im Pilotverfahren wurden vier Fächer untersucht. Ziel war es unter anderem, die Spezifika der Fächer für ein Rating besser herauszuarbeiten. Der Ranking-Kritiker Richard Münch (Uni Bamberg) war einer der Gutachter in der Pilotstudie, und beschreibt im Artikel den Aufwand als sehr hoch: „Jedes einzelne der 16 Mitglieder der Gutachtergruppe hat im Zeitraum von zwei Jahren etwa drei Monate seiner Arbeitszeit in das Begutachtungsverfahren gesteckt“, so wird er zitiert.
16 mal drei Monaten innerhalb von zwei Jahren für einen Pilotbetrieb mit vier Fächern, das macht zusammen genau vier Jahre Arbeitszeit eines Wissenschaftlers oder eben ein Jahr Arbeitszeit von vier Wissenschaftlern für einen Bruchteil dessen, was an sich Gegenstand eines solchen Ratings wäre. Immerhin kommen dann die so beschäftigten Wissenschaftler nicht zum Forschen, sodass vielleicht der Evaluationsgegenstand ein bisschen kleiner wird. Wenn es das ist, was angestrebt wird (nämlich weniger Forschungsoutput, weil dieser vielleicht eh zu redundant, zu wenig neu o. ä. ist), dann hätte ich da noch ein paar andere Ideen, wie man das erreichen kann: z.B. mehr Zeitinvestition in die Lehre, mehr Personal für Betreuungsleistungen etc.
Um nicht falsch verstanden zu werden: Ich finde es gut, dass man die bisherigen Ranking-Verfahren kritisch hinterfragt. Es ist auch völlig legitim, nach Alternativen zu suchen. Positiv ist, dass man erkannt hat, wie wichtig die Beachtung verschiedener Fächerkulturen ist. Und ich schließe mich auch gerne der Ansicht an, dass die Fachöffentlichkeit und alle interessierten Bürger ein Recht darauf haben, zu erfahren, was an Hochschulen so passiert – also auch in der Forschung. Aber ginge das nicht auch anders? Mit mehr Transparenz, die jeder Wissenschaftler und jede Universität jenseits der bloßen Marketing-Maßnahmen herstellt? Mit mehr echter gegenseitiger und vor allem kooperativ (versus auf Selektion) angelegter Kritik, die der Sache dient?
Außerdem: Glaubt denn jemand ernsthaft, dass Peer Review-Verfahren weniger anfällig für Fehleinschätzungen sind als manipulierbare Zählmethoden? Und was ist mit dem Aufwand? Wie lässt sich das rechtfertigen? Werden, wie der Artikel in der duz an einer Stelle suggeriert, tatsächlich Bund oder Länder die Ergebnisse heranziehen, um schwächeren Hochschulen unter die Arme zu greifen? Kann ich mir nicht vorstellen!
Übrigens: In einem Workshop der GMW 2012 zum Thema E-Science (Programm) habe ich mit Thomas Köhler und Klaus Wannemacher kurz diskutiert, welche Vorteile es hätte, wenn sich Wissenschaftler zu einer Publikationsbegrenzung verpflichten würden – also z.B. nur zwei Artikel im Jahre zu schreiben. Wir sind unter anderem zu dem Schluss gekommen, dass das eine Maßnahme zur Qualitätssteigerung sein und insbesondere den Diskurs über Publikationsinhalte erhöhen könnte. Und genau diesen Diskurs könnte man sicher mindestens parallel zu Reviews mit Selektionscharakter nutzen, um sich Einsicht in die Qualität von Forschung zu verschaffen.
17. September 2012 um 05:52
Liebe Gabi,
sorry muss ein wenig widersprechen – eine Begrenzung ist genauso ein Zahlenspiel wie alles andere, man wird wieder Wege darum herum finden (sprich ich schreib mehr, heb es für nächstes Jahr auf, veröffentliche es als Pseudonym, überlass es gänzlich meinem Mitautor, dafür werde ich zitiert) ..
Das Problem muss man viel weiter denken (und es erinnert mich ein klein wenig an deine „Prüfungsdiskussion“) .. in einer demokratischen Gesellschaft versucht man möglichst alle gleich gerecht zu behandeln, daher (wäre meine Schlussfolgerung) braucht man ein objektives Bewertungskriterium (z.B. Prüfungen :-), die jedoch verschiedenartig aussehen können) – nun da bietet sich das Zählen von Publikationen an, sofern man dies als „Output“ der Wissenschaft akzeptiert.
Das dies große Probleme hat wissen wir alle – aber Schranken einzuführen, würde die Heterogenität der Wissenschaft stark einschränken und da muss ich mich dann dagegen aussprechen.
Vielmehr sollte man über Transparenz reden – wieso legen wir nicht alle Prozesse offen auf den Tisch? Warum werden die Reviewer nicht auch gerankt? Warum bekomm ich als Reviewer keine Anrechnung?
Warum beginnt man nicht darüber nachzudenken, wie mein Profil als Wissenschaftler ist (%Lehre, %Forschung, %Administration)?
Es gibt auch bei uns halt Personen die mehr Forschung als Lehre machen bzw. umgekehrt. Nur ist die Wahrnehmung der Gesellschaft bzw. die Würdigung eine andere. Wieso? Und ich bin auch überzeugt, dass es wie immer im Leben der richtige Mix an Personen ist, der die Institution erfolgreich macht …
wie auch immer, auch nur so Gedanken hierzu 🙂
lg
martin
17. September 2012 um 06:37
Hallo Martin,
also, wenn, dann war dieser zusätzliche Gedanke als Selbstbegrenzung, nicht als eine gemeint, die andere einem auferlegen: Wissenschaftler begrenzen sich selbst und zwar in dem Sinne, dass man nicht einen Inhalt in mehreren Variationen publiziert, weil man es muss, um im Wettrennen mitzuhalten. Wenn jemand das wirklich aus einem freien, gut begründeten Willen heraus macht – ja, warum nicht. Oft genug aber wird der eine oder andere dazu eher getrieben – das ist dann auch keine wirklich freiwillige Handlung mehr. Darum ging es mir. Es wird oft aus anderen Gründen publiziert als aus dem, der Community oder der Öffentlichkeit etwas Neues mitzuteilen. Und DAS finde ich nicht sinnvoll!
Mehr Transparenz hatte ich ja ebenfalls ein einen weiteren alternativen Weg genannt – das sehe ich ähnlich. Auch der Gedanke, gute Reviews zu honorieren, finde ich geeignet: Diese Diskussion hatten wir auch schon ein paar Mal in diesem Blog, unter anderem auch anlässlich eines Beitrags (zur GMW übrigens) mit Christian Spannagel.
Fazit: Ich denke, da hast du mich falsch verstanden. Mein angehängter Hinweis auf ein Gespräch auf der GMW diente als Anregung, darüber nachzudenken, wie sinnvoll es ist, der Quantität so einen hohen Stellenwert beizumessen. Man gerät dadurch in eine Dynamik, die mit wissenschaftlicher Erkenntnis kaum mehr etwas zu tun hat und für viele (sicher nicht alle) Wissenschaftler auch zum Zwang ausarten kann.
Gabi
17. September 2012 um 06:51
Hallo Gabi,
stimmt das hatte ich wirklich anders gelesen 🙂 .
Nun dann bleich ich mal bei meiner Forderung nach mehr Transparenz – ich denke es würde vieles verbesern, aber überall wo ich es bisher versucht hatte einzuführen, bin ich auf Protest gestoßen (einzig und allein bei L3T konnten wir es durchziehen und haben ja sehr positive Erfahrungen gemacht).
Liebe Grüße
Martin