Donnerstag, 28. März 2024

Archiv


Lesen statt zählen

Man müsse wissenschaftliche Veröffentlichungen "letztlich lesen, um die Qualität zu beurteilen, und nicht nur zählen", sagt Wolfgang Marquardt, Vorsitzender des Wissenschaftsrates. Um ein Ranking zu erstellen, müsse zu allererst die Qualität der Inhalte überprüft werden.

Wolfgang Marquardt im Gespräch mit Markus Dichmann | 21.09.2012
    Markus Dichmann: Nicht nur in der Finanzwirtschaft sorgt das Wörtchen Rating für Befindlichkeiten, das tut es manchmal auch in der Wissenschaft. Forschungsratings sind gemeint. Sie sollen im besten Fall den Hochschulen ermöglichen, sich miteinander zu vergleichen, was ihre jeweiligen Forschungsleistungen angeht. Aber wie gesagt, damit sind nicht alle einverstanden, wie zum Beispiel der BWL-Professor Alfred Kieser aus Friedrichshafen. Er hat eine Initiative gegründet, die eines dieser Rankings boykottieren will, nämlich das des "Handelsblatts". vor zwei Wochen war er hier bei "Campus und Karriere" im Gespräch.

    "Alfred Kieser: Ein erstes Problem ist, dass ein einseitiges Bild gemalt wird, das nur die Forschung hervorhebt, und dadurch auch andere Tätigkeiten des Professors, die ja sehr wichtig sind, als nicht so wichtig darstellt. Alle Rankings messen eine Art von Forschern, die sie definieren, aber die ist nicht objektiv. Es gibt im Grunde keine objektive Messung der Forschung. Es gibt unterschiedliche Ansätze mit unterschiedlichen Ergebnissen."

    Dichmann: Heute bin ich verbunden mit Wolfgang Marquardt. Er ist Vorsitzender des Wissenschaftsrates und gerade auf einem Kongress eben genau zu diesem Thema, Forschungsratings. Guten Tag, Herr Marquardt!

    Wolfgang Marquardt: Guten Tag, Herr Dichmann!

    Dichmann: Ihr Kollege Kieser, Herr Marquardt, der bemängelt, dass Hochschulratings zu wenig objektiv und dafür zu einseitig ausfielen. Sie sind gerade auf dem Kongress mitten drin in der wissenschaftlichen Community, und da würde mich erst mal interessieren, ob Sie den Eindruck haben, dass diese Meinung mehrheitsfähig ist.

    Marquardt: Das ist sicher richtig, dass gerade das "Handelsblatt"-Ranking deshalb Schwächen hat, weil es eindimensional, eng geführt sogar, nur Forschung bewertet. Eng geführt deshalb, weil eben nur Publikationen in Fachzeitschriften erfasst werden und damit nur ein Aspekt von vielen bezüglich der Forschungsleistung erfasst wird.

    Dichmann: Und was meinen Sie ganz speziell? Wie sinnvoll oder unsinnig können Ratings letzten Endes sein?

    Marquardt: Ich denke, dass Ratings einen Nutzen haben können, immer dann, wenn sie methodisch sauber aufgebaut sind, das heißt, die Realität möglichst gut widerspiegeln. Und dazu braucht man natürlich mehr als eine Leistungsdimension – sie müssen, das erfüllt allerdings das "Handelsblatt"-Ranking, auch transparent sein, also für jeden so weit wie möglich nachvollziehbar sein.

    Dichmann: Aber dann sprechen wir doch mal genau über die Methoden, das ist nämlich eines der Bedenken, die gegenüber diesen Ratings geäußert wird. Viele bemängeln zum Beispiel, dass da rein quantitativ die Aufsatzveröffentlichungen in wissenschaftlichen Fachzeitschriften gemessen werden. Ist das eine berechtigte Kritik?

    Marquardt: Das geht genau in die gleiche Richtung, wie wir vorhin schon das angesprochen hatten. Natürlich ist das eine berechtigte Kritik, und wenn man beispielsweise Publikationsleistung erfassen will, dann geht es eben nicht nur, Publikationen zu zählen und die vielleicht mit einem sogenannten Impact Factor, also einer Zitierhäufigkeit einer Zeitschrift, zu wichten, sondern am Ende muss man letztlich lesen, um die Qualität zu beurteilen, und nicht nur zählen.

    Dichmann: Und dann gibt es noch einen anderen Kritikpunkt, der heißt, dass sich die Universitäten und Fachhochschulen zu sehr an diesen Ratings orientieren mit dem Wunsch, dort gut abzuschneiden, das hat auch Professor Kieser so formuliert.

    "Kieser: Wissenschaftler machen keine riskante Forschung mehr, weil riskante Forschung, die läuft Gefahr, dass sie abgelehnt wird als Aufsatz. Es gibt viele Nobelpreisträger, deren Aufsätze abgelehnt worden sind – also das Neue ist immer riskanter, ist immer schwieriger, und deswegen verlegen sich viele Wissenschaftler darauf, das Bewährte zu variieren."

    Dichmann: Also Herr Marquardt, könnte man sagen, dass Ratings die Forschung zahm machen?

    Marquardt: Die Gefahr besteht, die Gefahr besteht dann, wenn man eben wieder nur versucht, quantitative Maße anzusprechen und eben nicht auf die Qualität zu achten. Das ist ein Punkt, den auch der Wissenschaftsrat in Empfehlungen im letzten Jahr aufgegriffen hat. Die haben sich mit Bewertung und Steuerung von Forschungsleistung befasst, und dort sind genau diese methodischen Probleme und andere und auch die damit verbundenen Gefahren zusammengestellt. Und das ist einfach so, dass sich Wissenschaftler schnell anpassen an solche Methoden, solche Kriterien, die einfach durchschaubar sind wie beim "Handelsblatt"-Ranking, und dann schadet es letztlich der Forschungsqualität und konterkariert letztlich die Absicht, die man mit Ratings verfolgt, nämlich gute Forschung zu befördern.

    Dichmann: Also wenn ich Sie richtig verstehe, müssen wir Qualität statt Quantität messen, Herr Marquardt. Der Wissenschaftsrat selbst hat auch ein eigenes Forschungsrating entwickelt. Was machen Sie denn da an der Stelle besser, wie gehen Sie vor?

    Marquardt: Der Wissenschaftsrat hat sich mit vielen Rating-/Ranking-Methoden schon seit vielen Jahren auch intensiv auseinandergesetzt und auf der Basis dieser Analyse einen neuen Ansatz gewählt, der mehrdimensional bewertet, also Forschung hinsichtlich Qualität, auch hinsichtlich der Effektivität, der Effizienz, auch die Nachwuchsförderung, der Transfer von Ergebnissen in die Praxis wird dabei erfasst, die Forschungseinheiten werden differenziert bewertet, also man guckt ins Detail und bewertet nicht ganze Universitäten zum Beispiel, und es wird wissenschaftsgeleitet ausgestaltet. Das heißt, die Kriterien, was ist eigentlich Qualität, zum Beispiel, die werden im Rahmen des Verfahrens durch Peers, durch eine Gruppe von renommierten Fachwissenschaftlern gemeinsam erarbeitet und bilden dann die Grundlage, die Indikatoren, die man hat, quantitative Indikatoren, zum Beispiel Publikationszahlen, die dann zu bewerten eben vor dem Hintergrund dieser Qualitätsmaße, also ein sogenannter informierter Peer-Review, bei dem man diese Indikatoren als Basis nimmt, um eine qualitative Bewertung zu machen, und kein Ranking dabei anzustreben – also keine Platzzahl so wie beim "Handelsblatt"-Ranking oder wie im Fünfkampf im Sport –, sondern es geht um ein Leistungsprofil, um ein Qualitätsprofil.

    Dichmann: Sie haben dieses Ratingsystem jetzt auch in einer Pilotstudie schon mehrere Jahre lang getestet, haben schon Ergebnisse auch für Chemie, Soziologie oder Disziplinen wie Elektrotechnik herausgegeben. Ganz kurz zum Ende, das Fazit: Wie fällt das aus bis jetzt? Sind die Kollegen und die Wissenschaft zufrieden?

    Marquardt: Also die Akzeptanz des Verfahrens ist hoch, das hören wir auf Einzelfallbasis, aber auch über eine Erhebung, die wir gemacht haben, nämlich bei den Universitäten, die am Chemie- und Soziologie-Rating des Wissenschaftsrates im Rahmen der Pilotstudie teilgenommen haben. Hier haben wir von 68 Universitäten bescheinigt bekommen, dass das Rating grundsätzlich oder sogar einen hohen Nutzen für sie hat, als letztlich Instrument der Selbststeuerung, der Selbstbeobachtung und Selbststeuerung, also die Rückmeldung, die wir bekommen haben bezüglich Methodik, aber auch Nutzbarkeit, ist insgesamt sehr positiv.

    Dichmann: Sagt Wolfgang Marquardt, Vorsitzender des Wissenschaftsrates. Wir sprachen mit ihm über Vor- und Nachteile von Forschungs-Ratings. Vielen Dank, Herr Marquardt!

    Marquardt: Gerne!


    Äußerungen unserer Gesprächspartner geben deren eigene Auffassungen wieder. Deutschlandradio macht sich Äußerungen seiner Gesprächspartner in Interviews und Diskussionen nicht zu eigen.