Advertisement

Selbststeuerung der Wissenschaft: Peer Review

  • Friedhelm Neidhardt

Zusammenfassung

Peer Review ist das Kernelement in der Selbststeuerung von Wissenschaft. Peer Review bedeutet, dass eine Begutachtung von wissenschaftlichen Leistungen und Akteuren in geregelten Verfahren von Fachkollegen vorgenommen wird. Betroffen sind Forschungsanträge, Manuskripte und Kandidaturen für Stellen und Preise, auch (wenngleich seltener) die Universitätslehre. Gesichert werden soll, dass wissenschaftliche Qualität wissenschaftlich kompetent eingeschätzt wird. Unter welchen Bedingungen gelingt dies – mehr oder weniger? Und welche Bedeutung besitzt diese Art Evaluation bei der Steuerung von Wissenschaft?

Preview

Unable to display preview. Download preview PDF.

Unable to display preview. Download preview PDF.

Literatur

Grundlegende Literatur

  1. Bormann, Lutz/Daniel, Hans-Dieter (2003): Begutachtung durch Fachkollegen in der Wissenschaft. Stand der Forschung zu Reliabilität, Fairness und Validität des Peer-Review-Verfahrens. In: Stefanie Schwarz/Ulrich Teichler (Hrsg.): Universität auf dem Prüfstand. Frankfurt a.M.: Campus, S. 207–225.Google Scholar
  2. Hornbostel, Stefan (1977): Wissenschaftsindikatoren. Bewertungen in der Wissenschaft. Opladen: Westdeutscher Verlag.Google Scholar
  3. Weller, Ann C. (2001): Editorial Peer Review. Its strength and weaknesses. Medford, N.J.: ASIST.Google Scholar

Weiter verwendete Literatur

  1. Deutsche Forschungsgemeinschaft (1997): Erster Zwischenbericht zur Antragstellerbefragung. Berichtsband. Bonn.Google Scholar
  2. Finetti, Marco (2000): Die überforderten Türhüter. In: Gegenworte, 5, S. 32–35.Google Scholar
  3. Fröhlich, Gerhard (2003): Anonyme Kritik: Peer Review auf dem Prüfstand der Wissenschaftsforschung. In: medizin – bibliothek – information, 3, S. 33–39.Google Scholar
  4. Gläser, Jochen (2006): Wissenschaftliche Produktionsgemeinschaften. Die soziale Ordnung der Forschung. Frankfurt a.M.: Campus.Google Scholar
  5. Hargens, Lowell L./Herting, Jerald R. (2006): Analyzing the association between referees´ recommendations and editors’ decisions. In: Scientometrics, 67, S. 15–26.CrossRefGoogle Scholar
  6. Hirschauer, Stefan (2004): Peer Review Verfahren auf dem Prüfstand. In: Zeitschrift für Soziologie, 33, S. 62–83.Google Scholar
  7. Hornbostel, Stefan / Olbrecht, Meike (2007): Peer Review in der DFG: die Fachkollegiaten. iFQ-Working Paper No.2. Bonn.Google Scholar
  8. Jestaed, Matthias (2001): Das Geheimnis im Staat der Öffentlichkeit. In: Archiv des öffentlichen Rechts, 126, S. 205–238.Google Scholar
  9. Koch, Stefan (2006): Das Begutachtungsverfahren der Deutschen Forschungsgemeinschaft nach Einführung der Fachkollegien. In: Stefan Hornbostel/Dagmar Simon (Hrsg.): Wie viel (In-)Transparenz ist notwendig? Peer Review revisited. IFQ-Workingpaper, No. 1. Bonn, S. 15–26.Google Scholar
  10. Langfeld, Liv (2006): The policy challenges of peer review: Managing bias, conflict of interest and interdisciplinary assessments. In: Research Evaluation, 15, S. 31–41.CrossRefGoogle Scholar
  11. Mannheim, Karl (1929): Die Bedeutung der Konkurrenz auf dem Gebiet des Geistigen. In: Verhandlungen des Sechsten Deutschen Soziologentages vom 17. bis 19. September in Zürich. Tübingen: Mohr, S. 35–83.Google Scholar
  12. Marsh, Herbert W./Bond, Nigel W./Jayasinghe, Upsali W. (2007): Peer review process: Assessments by applicant-nominated referees are biased, inflated, unreliable and invalid. In: Australian Psychologist, 42, S. 33–38.CrossRefGoogle Scholar
  13. Marsh, Herbert W./Jayasinghe, Upsali W./Bond, Nigel W. (2008): Improving the peer-review process for grant applications. In: American Psychologist, 62, S. 160–168.CrossRefGoogle Scholar
  14. Nature Peer Review Debatte: www.nature.com/nature/peerreview/debate/index.html (Stand 21.12.2008).
  15. Neidhardt, Friedhelm (1986): Kollegialität und Kontrolle am Beispiel der Gutachter der Deutschen Forschungsgemeinschaft (DFG). In: Kölner Zeitschrift für Soziologie und Sozialpsychologie, 38, S. 3–12.Google Scholar
  16. Neidhardt, Friedhelm (2008): Fehlerquellen und Fehlerkontrollen in den Begutachtungssystemen der Wissenschaft. In: Stefan Hornbostel/Dagmar Simon (Hrsg.): Wie viel (In-)Transparenz ist notwendig. Peer review revisited. iFQ-Working paper, No. 1. Bonn:, S. 7–13.Google Scholar
  17. Neidhardt, Friedhelm (2008a): Das Forschungsrating des Wissenschaftsrats. Einige Erfahrungen und Befunde. In: Soziologie, 76, S. 421–432.Google Scholar
  18. Nickerson, Richard S. (2005): What authors want from journal reviewers and editors. In: American Psychologist, 60, S. 661–662.CrossRefGoogle Scholar
  19. Pöschl, Ulrich (2006): Open access & collaborative peer review: Öffentliche Begutachtung und interaktive Diskussion zur Verbesserung von Kommunikation und Qualitätssicherung in Wissenschaft und Gesellschaft. In: Stefan Hornbostel/Dagmar Simon (Hrsg.): Wie viel (In-)Transparenz ist notwendig. Peer review revisited. iFQ-Working paper, No. 1. Bonn:, S. 43–46.Google Scholar
  20. Polanyi, Michael (1962): The republic of science. Its political and economic theory. In: Minerva, 1, S. 54–73.CrossRefGoogle Scholar
  21. Schimank, Uwe (2005): ‘New Public Management’ and the academic profession: Reflections of the German situation. In: Minerva, 43, S. 361–376.CrossRefGoogle Scholar
  22. Toulmin, Stephen (1983): Kritik der kollektiven Vernunft. Frankfurt a.M.: Suhrkamp.Google Scholar
  23. Weingart, Peter (2005): Das Ritual der Evaluierung und die Verführbarkeit der Zahlen. In: Ders.: Die Wissenschaft der Öffentlichkeit. Weilerswist: Velbrück, S. 102–122.Google Scholar

Copyright information

© VS Verlag für Sozialwissenschaften | GWV Fachverlage GmbH 2010

Authors and Affiliations

  • Friedhelm Neidhardt

There are no affiliations available

Personalised recommendations