Advertisement

(Forschungs-)Evaluation

  • Stefan Hornbostel
Living reference work entry
Part of the Springer NachschlageWissen book series

Zusammenfassung

Der Beitrag skizziert die historische Entwicklung von Evaluationsverfahren, verortet ihre Verbreitung in der Wissenschaft in veränderten Governancestrukturen und Wachstumsprozessen, beschreibt wesentliche Funktionen von Evaluationen, diskutiert die Wissenschaftlichkeit derartiger Verfahren und die Erwartungen und Kritiken an ihrem Einsatz. Verschiedene Formen von Evaluationsverfahren, einschließlich Rankings, werden von anderen Bewertungstechniken abgegrenzt und wesentliche Ziele und Elemente charakterisiert, sowie Folgen von Evaluationen beleuchtet.

Schlüsselwörter

Evaluation Ranking Forschung Indikatoren Peer Review Qualitätssicherung 

Literatur

  1. Adler, Robert, John Ewing, und Peter Taylor. 2008. Citation statistics. A report from the International Mathematical Union (IMU) in cooperation with the International Council of Industrial and Applied Mathematics (ICIAM) and the Institute of Mathematical Statistics (IMS).Google Scholar
  2. Auspurg, Katrin, Andreas Diekmann, Thomas Hinz, und Matthias Näf. 2015. Das Forschungsrating des Wissenschaftsrats für die Soziologie in Deutschland revisited. Soziale Welt 66(2): 177–192.CrossRefGoogle Scholar
  3. Beywl, Wolfgang, und Sandy Taut. 2000. Standards: Aktuelle Strategie zur Qualitätsentwicklung in der Evaluation. Vierteljahreshefte zur Wirtschaftsforschung 69(3): 358–370.CrossRefGoogle Scholar
  4. Beywl, Wolfgang, und Thomas Widmer. 2009. Evaluation. in Expansion: Ausgangslage für den intersektoralen Dreiländer-Vergleich. In Evaluation Ein systematisches Handbuch, Hrsg. Thomas Widmer, Wolfgang Beywl und Fabian Carlo, 13–23. Wiesbaden: VS Verlag für Sozialwissenschaften.Google Scholar
  5. Biagioli, Mario. 2002. From book censorship to academic peer review. Emergences 12(1): 11–45.CrossRefGoogle Scholar
  6. Biesenbender, Sophie, und Stefan Hornbostel. 2016. The research core dataset for the German science system: Challenges, processes and principles of a contested standardization project. Scientometrics 106(2): 837–847.CrossRefGoogle Scholar
  7. Bornmann, Lutz. 2014. On the function of university rankings. Journal of the American Society of Information Science and Technology 65(2): 428–429.CrossRefGoogle Scholar
  8. Bourdieu, Pierre. 1988. Homo Academicus. Frankfurt/M.: Suhrkamp.Google Scholar
  9. Brandt, Tasso. 2009. Evaluation in Deutschland – Professionalisierungsstand und -perspektiven. Münster: Waxmann.Google Scholar
  10. Buschor, Ernst. 2002. Evaluation und new public management. Zeitschrift für Evaluation 2002(1): 61–73.Google Scholar
  11. Butler, Linda. 2003. Explaining Australia’s increased share of ISI publications – The effects of a funding formula based on publication counts. Research Policy 32:143–155.CrossRefGoogle Scholar
  12. Campbell, David F. J. 2003. The evaluation of university research in the United Kingdom and the Netherlands, Germany and Austria. In Learning from science and technology policy evaluation, Hrsg. Philip Shapira und Stefan Kuhlmann, 98–131. Cheltenham/Northampton: Edward Elgar.Google Scholar
  13. Cook, Thomas D., und Werner W. Wittmann. 1998. Lessons Learned about evaluation in the United States and some possible implications for Europe. European Journal of Psychological Assessment 14(2): 97–115.CrossRefGoogle Scholar
  14. Daniel, Hans-Dieter, Sandra Mittag, und Lutz Bornmann. 2007. The potential and problems of peer evaluation in higher education and research. In Quality assessment for higher education in Europe, Hrsg. Alessandro Cavalli, 71–82. London: Portland Press.Google Scholar
  15. de Rijcke, Sarah, Wallenburg Iris, Wouters Paul, und Roland Bal. 2015a. Comparing comparisons. On rankings and accounting in hospitals and universities. In Practising comparison: Logics, relations, collaborations, Hrsg. M. Guggenheim, J. Deville und Z. Hrdlickova. Manchester: Mattering Press.Google Scholar
  16. de Rijcke, Sarah, Paul Wouters, Alex D. Rushforth, Thomas P. Franssen, und Björn Hammarfelt. 2015b. Evaluation practices and effects of indicator use – A literature review. Research Evaluation. doi:10.1093/reseval/rvv038.Google Scholar
  17. de Solla Price, Derek. 1963. Little science, big science. New York: Columbia University Press.Google Scholar
  18. DeGEval – Gesellschaft für Evaluation e.V., Hrsg. 2008. Standards für Evaluation. Mainz. http://www.degeval.de/fileadmin/user_upload/Sonstiges/STANDARDS_2008-12.pdf. Zugegriffen am 07.03.2016.
  19. Erkkilä, Tero. 2014. Global University rankings, transnational policy discourse and higher education in Europe. European Journal of Education 49(1): 91–101.CrossRefGoogle Scholar
  20. Felt, Ulrike. 1999. Evaluation im wissenschaftspolitischen Kontext. In Qualitätsförderung durch Evaluation? Ziele, Aufgaben und Verfahren von Forschungsbewertungen im Wandel, Hrsg. Martina Röbbecke und Dagmar Simon. Dokumentation des Workshops vom 20. und 21. Mai 1999. WZB-Discussion paper, S. 99–003, 11–31.Google Scholar
  21. Fricke, Werner. 2005. Sozialwissenschaftler in Entwicklungsprozessen. Zur Funktion ‚wissenschaftlicher Begleitung‘ in Modellversuchen aus Sicht eines Aktionsforschers. In Wissenschaftliche Begleitung bei der Neugestaltung des Lernens, Hrsg. Heinz Holz und Dorothea Schemme, 40–51. Bonn: Bundesinstitut für Berufsbildung.Google Scholar
  22. Gibbons, Michael, Camille Limoges, Helga Nowotny, Simon Schwartzman, Peter Scott, und Martin Trow. 1994. The new production of knowledge. The dynamics of science and research in contemporary societies. London: SAGE.Google Scholar
  23. Gläser, Jochen, Stefan Lange, Grit Laudel, und Uwe Schimank. 2008. Evaluationsbasierte Forschungsfinanzierung und ihre Folgen. In Wissensproduktion und Wissenstransfer, Hrsg. Renate Mayntz, Friedhelm Neidhardt, Peter Weingart und Ulrich Wengenroth, 145–170. Bielefeld: transcript.Google Scholar
  24. Glass, Gene V., und Frederick S. Ellet Jr. 1980. Evaluation research. Annual Review of Psychology 31:211–228.CrossRefGoogle Scholar
  25. GWK – Gemeinsame Wissenschaftskonferenz. 2015. Pakt für Forschung und Innovation. Monitoring-Bericht 2015, Bonn. http://www.gwk-bonn.de/fileadmin/Papers/GWK-Heft-42-PFI-Monitoring-Bericht-2015.pdf. Zugegriffen am 15.12.2015.
  26. Hazelkorn, Ellen. 2015. Rankings and the reshaping of higher education. London: Palgrave Macmillan.Google Scholar
  27. Hicks, Diana, Paul Wouters, Ludo Waltman, Sarah de Rijcke, und Ismael Rafols. 2015. Bibliometrics: The Leiden Manifesto for research metrics. Nature 520(7548): 429–431.CrossRefGoogle Scholar
  28. Hornbostel, Stefan. 1997. Wissenschaftsindikatoren. Bewertungen in der Wissenschaft. Opladen: Westdeutscher Verlag.Google Scholar
  29. Hornbostel, Stefan. 1999. Das SPIEGEL-Ranking deutscher Hochschulen und die Folgen, Interaktionsprozesse zwischen Öffentlichkeit und Wissenschaft. In Die Eigenwilligkeit sozialer Prozesse. Friedhelm Neidhardt zum 65. Geburtstag, Hrsg. Jürgen Gerhards und Ronald Hitzler, 174–205. Opladen: Westdeutscher Verlag.CrossRefGoogle Scholar
  30. Hornbostel, Stefan. 2006. From CRIS to CRIS. Integration and Intreroperability. In Enabling Interaction and quality. Beyond the Hanseatic League. 8th international conference on current research information systems, Hrsg. Anne Gams, Steine Asserson und Eduard J. Simons, 29–38. Leuven: University Press.Google Scholar
  31. Hornbostel, Stefan. 2008. Exzellenz und Differenzierung. In Hochschule im Wandel. Die Universität als Forschungsgegenstand, Hrsg. Barbara Kehm, 253–266. Frankfurt/New York: Campus.Google Scholar
  32. Hornbostel, Stefan. 2015. Das Zitat als Währung. In Zitat, Paraphrase, Plagiat. Wissenschaft zwischen guter Praxis und Fehlverhalten, Hrsg. Christiane Lahusen und Christoph Markschies, 307–316. Frankfurt/New York: Campus Verlag.Google Scholar
  33. Hornbostel, Stefan. 2007. Neue Evaluationsregime? Von der Inquisition zur Evaluation. In Wissenschaft unter Beobachtung – Effekte und Defekte von Evaluationen, Hrsg. Hildegard Matthies, 59–82. LEVIATHAN Sonderheft 24/2007.Google Scholar
  34. Hornbostel, Stefan, und Dagmar Simon. Hrsg. 2006. Wie viel (In-)Transparenz ist notwendig? – Peer review revisited. iFQ-Working Paper No. 1. Bonn.Google Scholar
  35. Hornbostel, Stefan, und Meike Olbrecht. 2007. Peer Review in der DFG: die Fachkollegiaten. iFQ-Working Paper No. 2. Bonn.Google Scholar
  36. Hornbostel, Stefan, und Torger Möller. 2015. Die Exzellenzinitiative und das deutsche Wissenschaftssystem: Eine bibliometrische Wirkungsanalyse. Wissenschaftspolitik im Dialog, 12. Aufl. Berlin: Berlin-Brandenburgische Akademie der Wissenschaften.Google Scholar
  37. Internationale Expertenkommission Exzellenzinitiative. 2016. Evaluation der Exzellenzinitiative. Endbericht der Internationalen Expertenkommission, Berlin. http://www.gwk-bonn.de/fileadmin/Papers/Imboden-Bericht-2016.pdf. Zugegriffen am 29.01.2016.
  38. Krohn, Wolfgang, und Günter Küppers. 1989. Die Selbstorganisation der Wissenschaft. Frankfurt/M.: Suhrkamp.Google Scholar
  39. Kromrey, Helmut. 2001. Evaluation – ein vielschichtiges Konzept. Begriff und Methodik von Evaluierung und Evaluationsforschung. Empfehlungen für die Praxis. Sozialwissenschaften und Berufspraxis 24:105–129.Google Scholar
  40. Krücken, Georg. 2001. Wissenschaft im Wandel? Gegenwart und Zukunft der Forschung an deutschen Hochschulen. In Die Krise der Universitäten. Leviathan Sonderheft 20/2001, Hrsg. Erhard Stölting und Uwe Schimank, 326–345. Opladen: Westdeutscher Verlag.CrossRefGoogle Scholar
  41. Kuhlmann, Stefan, und Heinze Thomas. 2004. Evaluation von Forschungsdienstleistungen in Deutschland: Erzeuger und Bedarf. Tl.1: Konzeptionelle Grundlagen. Wissenschaftsrecht 37, No.1, S. 53–69;.Tl.2: No.2, S. 125–149.Google Scholar
  42. Langville, Amy N., und Carl D. Meyer. 2012. Who’s #1? The science of rating and ranking. Princeton: Princeton University Press.Google Scholar
  43. Leitner, Karl-Heinz (ARC), Hölzl, Werner (WIFO), Nones, Brigitte (JoanneumResearch), und Streicher, Gerhard (Joanneum Research). 2007. Studie 2007: Finanzierungsstruktur von Universitäten. Internationale Erfahrungen zum Verhältnis zwischen Basisfinanzierung und kompetitiver Forschungsfinanzierung. Wien: BMWF.Google Scholar
  44. Mayntz, Renate. 1994. Deutsche Forschung im Einigungsprozeß: Die Transformation der Akademie der Wissenschaften der DDR 1989 bis 1992. Schriften des Max-Planck-Institut für Gesellschaftsforschung Köln, 17. Aufl. Frankfurt am Main/New York: Campus-Verlag.Google Scholar
  45. Münch, Richard, und Len Ole Schäfer. 2014. Rankings, diversity and the power of renewal in science. A comparison between Germany, the UK and the US. European Journal of Education 49(1): 60–76.CrossRefGoogle Scholar
  46. Neidhardt, Friedhelm. 2008. Das Forschungsrating des Wissenschaftsrates. Einige Erfahrungen und Befunde. Soziologie 37:421–432.Google Scholar
  47. Nowotny, Helga, Peter Scott, und Michael Gibbons. 2004. Wissenschaft neu denken: Wissen und Öffentlichkeit in einem Zeitalter der Ungewißheit. Weilerswist: Velbrück Wissenschaft.Google Scholar
  48. Osterloh, Margit, und Bruno S. Frey. 2008. Anreize im Wissenschaftssystem. Working Paper, Institute for Empirical Research in Economics, University of Zurich. www.dzk-a.de/wkorg/images/Dateien/WK_ORG_2009/beitrag_osterloh_frey.pdf. Zugegriffen am 06.06.2009.
  49. Overbeke, John, und Elizabeth Wager. 2003. The state of the evidence: What we know and what we don’t know about journal peer review. In Peer review in health sciences, Hrsg. Fiona Godlee und Tom Jefferson, 45–61. London: BMJ Books.Google Scholar
  50. Pawson, Ray. 2013. The science of evaluation: A realist manifesto. London: Sage.Google Scholar
  51. Power, Michael. 1997. The audit society: Rituals of verification. Oxford: Oxford University Press.Google Scholar
  52. Rallis, Sharon F., und Gretchen B. Rossmann. 2000. Dialogue for learning: Evaluator as critical friend. New Directions for Evaluation, 2000 (86), Special Issue: How and why language matters in evaluation. San Francisco: Jossey-Bass, S. 81–92.Google Scholar
  53. Rauhvargers, Andrejs. 2014. Where are the global rankings leading us? An analysis of recent methodological changes and new developments. European Journal of Education 49(1): 29–44.CrossRefGoogle Scholar
  54. Rossi, Peter H., Mark W. Lipsey, und Howard E. Freeman. 2004. Evaluation a systematic approach, 7 Aufl. Thousand Oaks: Sage.Google Scholar
  55. Saisana, Michaela, Béatrice d’Hombres, und Andrea Saltelli. 2011. Rickety numbers. Volatility of university rankings and policy implications. Research Policy 40(1): 165–177.CrossRefGoogle Scholar
  56. Sanders, James R. 1999. Handbuch der Evaluationsstandards. Die Standards des Joint Committee on Standards for Educational Evaluation. Opladen: Leske u. Budrich.Google Scholar
  57. Sauder, Michael, und Wendy Nelson Espeland. 2009. The discipline of rankings. American Sociological Review 741:63–82.CrossRefGoogle Scholar
  58. Schmoch, Ulrich. 2003. Hochschulforschung und Industrieforschung: Perspektiven der Interaktion. Frankfurt: Campus Verlag.Google Scholar
  59. Schwarz, Christine. 2006. Evaluation als modernes Ritual. Münster: Lit Verlag.Google Scholar
  60. Shapin, Steven. 1999. Vorurteilsfreie Wissenschaft und gute Gesellschaft. Zur Geschichte eines Vorurteils. In: Transit – Europäische Revue 16. www.iwm.at/index.php?option=com_content&task=view&id=248&Itemid=424. Zugegriffen am 15.06.2009.
  61. Simon, Dagmar. 2007. Als Konsequenz mehr Kohärenz?. In Wissenschaft unter Beobachtung – Effekte und Defekte von Evaluationen, Hrsg. Matthies, Hildegard und Dagmar Simon, 178–189. LEVIATHAN Sonderheft 24/2007.Google Scholar
  62. Stockmann, Reinhard. 2006. Evaluation und Qualitätsentwicklung. Münster: Waxmann.Google Scholar
  63. Torka, Marc. 2011. Der Evaluator. Positionierungen, Strategien, Deutungs-, Handlungs- und Urteilsweisen von Wissenschaftlern in Prozessen der Wissenschaftsevaluation. Sozialer Sinn. Zeitschrift für hermeneutische Sozialforschung 12(1): 115–138.Google Scholar
  64. van Vught, Frans, und Frank Ziegele, Hrsg. 2012. Multidimensional ranking. The design and development of U-Multirank. Dordrecht/New York: Springer.Google Scholar
  65. Weingart, Peter. 2005. Die Wissenschaft der Öffentlichkeit. Essays zum Verhältnis von Wissenschaft, Medien und Öffentlichkeit. Weilerswist: Velbrück.Google Scholar
  66. Weingart, Peter. 2016. Nostalgia for the world without numbers. Soziale Welt 2:243-250-192.Google Scholar
  67. Wissenschaftsrat (WR). 1985. Wettbewerbsempfehlung des WR. Empfehlungen zum Wettbewerb im deutschen Hochschulsystem. Köln.Google Scholar
  68. Wissenschaftsrat (WR). 2003. Strategische Forschungsförderung. Empfehlungen zu Kommunikation, Kooperation und Wettbewerb im Wissenschaftssystem. Köln.Google Scholar
  69. Wissenschaftsrat (WR). 2008. Bericht der Steuerungsgruppe zur Pilotstudie Forschungsrating Chemie und Soziologie. Köln.Google Scholar
  70. Wissenschaftsrat (WR). 2009. Aufgaben, Kriterien und Verfahren des Evaluationsausschusses des Wissenschaftsrates, Stand Januar 2009. Köln.Google Scholar
  71. Wissenschaftsrat (WR). 2011. Empfehlungen zur Bewertung und Steuerung von Forschungsleistungen. Köln.Google Scholar
  72. Wissenschaftsrat (WR). 2013. Empfehlungen zur Zukunft des Forschungsratings, Köln. http://www.wissenschaftsrat.de/download/archiv/3409-13.pdf. Zugegriffen am 15.12.2015.
  73. Wissenschaftsrat (WR). 2016. Empfehlungen zur Spezifikation des Kerndatensatz Forschung, Köln. http://www.wissenschaftsrat.de/download/archiv/5066-16.pdf. Zugegriffen am 22.01.2016.
  74. Wollmann, Hellmut. 2012. Herkünfte, Phasen und Ansätze der Evaluationsforschung. In Bürokratie im Irrgarten der Politik Zum Gedenken an Hans-Ulrich Derlien, Hrsg. Dieter Schimank et al., 321–333. Baden-Baden: Nomos.CrossRefGoogle Scholar

Copyright information

© Springer Fachmedien Wiesbaden 2016

Authors and Affiliations

  1. 1.Department 2 „Research System and Science Dynamics“Deutsches Zentrum für Hochschul- und WissenschaftsforschungBerlinDeutschland
  2. 2.Department of Social SciencesHumboldt-Universität zu BerlinBerlinDeutschland

Personalised recommendations