Soziologie

, Volume 35, Issue 4, pp 440–461 | Cite as

Drittmittel und Publikationen

Forschung zwischen Normalwissenschaft und Innovation
  • Richard Münch
Identität und Interdisziplinarität

Zusammenfassung

Die Einwerbung von Drittmitteln ist in Deutschland zum dominanten Indikator zur Messung von Forschungsqualität geworden. Diese Entwicklung hat allerdings eine Reihe von Nebeneffekten mit sich gebracht, die diese Methode der Messung von Forschungsqualität erheblich in Frage stellen. Wenn diese Effekte verrnieden werden sollen, ist Publikationen als Nachweis von Forschungsqualität eine herausragende Bedeutung beizumessen. Aber such deren Messung in bibliometrischen Verfahren wirft erhebliche Probleme auf. Urn die Forschung nicht vollständig durch Begutachtungsverfahren zu normalisieren, müssen bibliometrische Messverfahren Anreize so setzen, dass genügend Spielraum für Kreativität, Originalität und Innovation bleibt.

Abstract

Recruiting third-party funds has become the primary indicator when it comes to measuring research quality in Germany. Nevertheless, this development has involved a whole series of side-effects that challenge this method of assessing research quality substantially. If such effects are to be avoided publications should acquire major significance in providing evidence of research quality. Yet, assessing these by means of bibliometric methods also presents considerable problems. To avoid complete standardization of research through assessment procedures, bibliometric measuring processes have to provide stimuli in such a way that there is enough scope left for the unfolding of creativity, originality and innovation.

Preview

Unable to display preview. Download preview PDF.

Unable to display preview. Download preview PDF.

Literaturverzeichnis

  1. Albert, H. 1963: Modell-Platonismus. Der neoklassische Stil des ökonomischen Denkens in kritischer Beleuchtung. In F. Karrenberg, H. Albert (Hg.), Sozialwissenschaft und Gesellschaftsgestaltung. Festschrift für Gerhard Weisser. Berlin: Duncker & Humblot, 45–76.Google Scholar
  2. Armstrong, J.S. 1997: Peer Review for Journals: Evidence on Quality Control, Fairness, and Innovation. Science and Engineering Ethics, 3. Jg., Heft 1, 63–84.CrossRefGoogle Scholar
  3. Ben-David, J. 1971: The Scientist’s Role in Society: A Comparative Study. Englewood Cliffs, N.J.: Prentice Hall.Google Scholar
  4. Berezin, A. 1998: The Perils of Centralized Research Funding Systems. Knowledge, Technology & Policy, 11. Jg., Heft 3, 5–26.Google Scholar
  5. Berghoff, S., Federkeil, G., Giebisch, P., Hachmeister, C.-D., Siekermann, M., Müller-Böling, D. 2005: Das CHE-ForschungsRanking 2004. Auszug aus dem Arbeitspapier Nr. 62. Gütersloh: Centrum für Hochschulentwicklungs.Google Scholar
  6. Bogler, R. 1994: The Impact of Past Experience on People’s Preference: The Case of University Researchers’ Dependency on Funding Sources. Higher Education, 28. Jg., Heft 2, 169–187.CrossRefGoogle Scholar
  7. Bookstein, A., Yitzhaki, M. 1999: Own Language Preference: A new Measure of “Relative Language Self-citation. Scientometrics, 46. Jg., Heft 2, 337–348.CrossRefGoogle Scholar
  8. Bourdieu, P. 1992: Homo Academicus. Frankfurt a.M.: Suhrkmaap (frz. Original 1984).Google Scholar
  9. Bourke, P., Butler, L. 1999: The Efficacy of Different Modes of Funding Research: Perspectives from Australian Data on the Biological Sciences. Research Policy 28. Jg., Heft 5, 489–499s.CrossRefGoogle Scholar
  10. Butler, L. 2003: Explaining Australia’s Increased Share of ISI Publications — the Effects of a Funding Formula Based on Publication Counts. Research Policy 2003, 32. Jg., Heft 1, 143–155.CrossRefGoogle Scholar
  11. Campanario, J.M. 1998a. Peer Review for Journals as it Stands Today — Part I. Science Communication 19. Jg., Heft 3, 181–211.CrossRefGoogle Scholar
  12. Campanario, J.M. 1998b. Peer Review for Journals as it Stands Today — Part II. Science Communication 19. Jg., Heft 4, 277–306.CrossRefGoogle Scholar
  13. Cole, S., Cole, J.R., Simon, G.A. 1981: Chance and Consensus in Peer Review. Science 214. Bd., Heft 4523, 881–886.CrossRefGoogle Scholar
  14. Coupé, T. 2003: Revealed Performances: Worldwide Rankings of Economists and Economic Departments, 1990–2000. Journal of the European Economic Association. 1. Jg., Heft 6, 1309–1345.CrossRefGoogle Scholar
  15. Deutsche Forschungsgemeinschaft (DFG) 2003: Förder-Ranking 2003. Institutionen — Regionen — Netzwerke. DFG-Bewilligungen und weitere Basisdaten öffentlich geförderter Forschung. Bonn.Google Scholar
  16. Deutsche Forschungsgemeinschaft (DFG) 2006: Chancengleichheit. www.dfg.de/wissenschaftliche_karriere/chancengleichheit/statistik.html.Google Scholar
  17. Feyerabend, P. K. 1976: Wider den Methodenzwang. Skizze einer anarachistischen Erkenntnistheorie. Frankfurt a.M.: Suhrkamp.Google Scholar
  18. Fröhlich, G. 2002: Anonyme Kritik. Peer Review auf dem Prafstand der empirischtheoretischen Wissenschaftsforschung. In E. Pipp (Hg.), Drehscheibe E-Mitteleuropa. Information: Produzenten, Vermittler, Nutzer. Die gemeinsame Zukunft. Wien: Phoibos Verlag, 129–146.Google Scholar
  19. Gerhards, J. 2002: Reputation in der deutschen Soziologie — zwei getrennte Welten. Soziologie, 31. Jg., Heft 2, 539–552.Google Scholar
  20. Gläser, J. 2006: Die Fallstricke der Bibliometrie. Soziologie, 35. Jg., Heft 1, 42–51.CrossRefGoogle Scholar
  21. Gläser, J., Laudel, G., Hinze, S., Butler, L. 2002: Impact of Evaluation-based Funding on the Production of Scientific Knowledge. Worry About, and How to Find Out. Expertise for the German Ministry for Education and Research. www.sciencepolicystudies.de/doldexpertiseglae-lau-hin-but.pdf.Google Scholar
  22. Harley, S., Lee, F.S. 1997. Research Selectivity, Managerialism, and the Academic Process: The Future of Nonmainstream Economics in the U.K. Universities. Human Relations 50. Jg., Heft 11, 1427–1460.Google Scholar
  23. Hayek, F.A. von 1969: Freiburger Studien. Tabingen: Mohr Siebeck.Google Scholar
  24. Hirschauer, S. 2004: Peer Review auf dem Prüifstand. Zum Soziologiedefizit der Wissenschaftsevaluation. Zeitschrift für Soziologie, 33. Jg., Heft 1, 62–83.Google Scholar
  25. Hodgson, G., Rothman, H. 1999: The Editors and Authors of Economic Journals: A Case of Institutional Oligopoly? Economic Journal, 109. Bd., Heft 453, F165–F186.CrossRefGoogle Scholar
  26. Hornbostel, S. 1997: Wissenschaftsindikatoren. Bewertungen in der Wissenschaft. Opladen: Westdeutscher Verlag.Google Scholar
  27. Hornbostel, S. 2001: Third Party Funding of German Universitities. An Indicator of Research Activity. Scientometrics, 50. Jg., Heft 3, S. 523–537.CrossRefGoogle Scholar
  28. Hornbostel, S. 2006: Leistungsmessung in der Forschung. In Hochschulrektorenkonferenz (HRK) (Hg.), Von der Qualit~tssicherung der Lehre zur Qualitätsentwicklung als Prinzip der Hochschulsteuerung. Beiträge zur Hochschulpolitik 1/2006, Band 1, Bonn, 219-228.Google Scholar
  29. Horrobin, D.F. 1990: The Philosophical Basis of Peer Review and the Suppression of Innovation. Journal of the American Medical Association (JAMA), 263. Bd., Heft 10, 1438–1441.CrossRefGoogle Scholar
  30. Horrobin, D.F. 1996: Peer Review of Grant Applications: A Harbinger for Mediocrity in Clinical Research? Lancet, 348. Bd., Heft 9037, 1293–1295.CrossRefGoogle Scholar
  31. Kalaitzidakis, P., Mamuneas, Th.P., Stengos, Th. 2003: Rankings of Academic Journals and Institutions in Economics. Journal of the European Economic Association 1, Jg., Heft 6, 1346–1366.CrossRefGoogle Scholar
  32. King, D.A. 2004. The Scientific Impact of Nations. Nature 430, 311–316.CrossRefGoogle Scholar
  33. Kocher, M., Sutter, M. 2001: The Institutional Concentration of Authors in Top Journals of Economics During the Last Two Decades. The Economic Journal, 111. Bd., Heft 472, F405–F421.CrossRefGoogle Scholar
  34. Kuhn, Th. 1967: Die Struktur wissenschaftlicher Revolutionen. Frankfurt a.M.: Suhrkamp.Google Scholar
  35. Langfeldt, L. 2001: The Decision-Making Constraints and Processes of Grant Peer Review, and their Effects on the Review Outcome. Social Studies of Science, 31. Jg., Heft 6, 820–841.CrossRefGoogle Scholar
  36. Laudel, G. 1999: Interdisziplinfire Forschungskooperation: Erfolgsbedingungen der Institution ‚Sonderforschnngsbereich’. Berlin: edition sigma.Google Scholar
  37. Laudel, G. 2003: The Art of Getting Funded. How Scientists Adapt to their Funding Conditions. Proceedings TASA 2003 Conference, University of New England, 4.–6. Dezember 2003 (PDF).Google Scholar
  38. Laudel, G. 2004: The ‚Quality Myth’: Promoting and Hindering Conditions for Acquiring Research Funds. www.csi.ensmp.fr./csi/45/Google Scholar
  39. Lenhardt, G. 2005: Hochschulen in Deutschland und in den USA. Deutsche Hochschulpolitik in der Isolation. Wiesbaden: VS Verlag.Google Scholar
  40. Liebeskind, U., Ludwig-Mayerhofer, W. 2005. Auf der Suche nach der Wunsch-Universitfit — im Stich gelassen. Anspruch und Wirklichkeit von Hochschulrankings. Soziologie, 34. Jg., Heft 4, 442–462.CrossRefGoogle Scholar
  41. Luukkonen, T. 1995: The Impacts of Research Field Evaluations on Research Practice. Research Policy, 24. Jg., Heft 3, 349–365.CrossRefGoogle Scholar
  42. Luwel, M. 1999: Is the Science Citation Index US biased? Scientometrics, 46. Jg., Heft 3, 549–562.CrossRefGoogle Scholar
  43. Merton, R.K. 1949/1968b: Social Structure and Anomie. In R.K. Merton, Social Theory and Social Strucutre. New York: Free Press, 185–204.Google Scholar
  44. Merton, R.K. 1996: The Matthew Effect in Science, II: Cumulative Advantage and the Symbolism of Intellectual Property. In: R.K. Merton, On Social Structure and Science. Chicago: The University of Chicago Press, 318–336.Google Scholar
  45. Moed, H.F. 2005: Citation Analysis in Research Evaluation. Dordrecht: Springer.Google Scholar
  46. Münch, R. 2007: Die akademische Elite. Zur sozialen Konstruktion wissenschaftlicher Exzellenz. Frankfurt a.M.: Edition Suhrkamp.Google Scholar
  47. National Science Foundation. 2004: Science and Engineering Indicators. Arbington. Division of Science Resources Statistics (SRS) (www.nsf.gov/statistics/seindO4/c5/c5h.htm)Google Scholar
  48. Neidhardt, F. 1988: Selbststeuerung in der Forschungsförderung: Das Gutachterwesen der DFG. Opladen: Westdentscher Verlag.Google Scholar
  49. Parsons T., Platt, G.M. 1973: The American University. Cambridge, MA: Harvard University Press.Google Scholar
  50. Raan, A.J.F. van 1996: Advanced Bibliometric Methods as Quantitative Core of Peer Review Based Evaluation and Foresight Exercises. Scientometrics, 36. Bd., Heft 3, 397–420.CrossRefGoogle Scholar
  51. Raan, A.J.F. van 2005: Fatal Attraction: Conceptual and Methodological Problems in the Ranking of Universities by Bibliometric Methods. Scientometrics, 62. Bd., Heft 1, 133–143.CrossRefGoogle Scholar
  52. Rammert, W. 2002: Die halbierte Reputation — eine grob fahrlassige und tmfaire Rechnung. Soziologie, 31. Jg., Heft 3, 53–55.Google Scholar
  53. Schimank, U. 1995: Hochschulforschung im Schatten der Lehre. Frankfurt a.M., New York: Campus.Google Scholar
  54. Seglen, P.O. 1997: Citations and Journal hnpact Factors: Questionable Indicators of Research Quality. Allergy, 52. Jg., Heft 11, 1050–1056.Google Scholar
  55. Sonnert, G. 1995: What Makes a Good Scientist? Determinants of Peer Evaluation Among Biologists. Social Studies of Science, 25. Jg., Heft 1, 35–55.CrossRefGoogle Scholar
  56. Statistisches Bundesamt 2005: Bildung and Kultur. Monetäre hochschulstatistische Kennzahlen. Artikelnummer 2110432037004. Wiesbaden.Google Scholar
  57. Talib, A.A. 2001: The Continuing Behavioural Modification of Academics since the 1992 Research Assessment Exercise. Higher Education Review, 33. Jg., Heft 3, 30–46.Google Scholar
  58. Taylor, J. 2001: The Impact of Performance Indicators on the Work of University Academics: Evidence from Australian Universities. Higher Education Quarterly, 55. Jg., Heft 1, 42–61.CrossRefGoogle Scholar
  59. Travis, G.D.L., Collins, H.M. 1991: New Light on Old Boys: Cognitive and Institutional Particularism in the Peer Review System. Science, Technology and Human Values, 16. Jg., Heft 3, 322–341.CrossRefGoogle Scholar
  60. Weber, M. 1922/1973: Die ‘Objektivität’ sozialwissenschaftlicher und sozialpolitischer Erkenntnis. In M. Weber, Gesammelte Aufsätze zur Wissenschaftslehre. Tübingen: Molar Siebeck, 146–214.Google Scholar
  61. Weingart, P. 2003: Evaluation of Research Performance: the Range of Numbers. In: Bibliometric Analysis in Science and Research. Applications, Benefits and Limitations. Second Conference of the Central Library. Forschungszentrum Jialich, 7-19.Google Scholar
  62. Weingart, P. 2004: Impact of Bibliometrics upon the Science System: Inadvertent Consequences? In H.F. Moed, W. Glänzel, U. Schmoch (Hg.), Handbook on Quantitative Science and Technology Research. Dordrecht: Kluwer Academic Publishers.Google Scholar
  63. Zuckerman, H., R.K. Merton 1971: Patterns of Evaluation in Science. Institutionalization, Structure and Functions of the Reference System. Minerva, 9. Jg., Heft 1, 66–100.CrossRefGoogle Scholar

Copyright information

© VS Verlag für Sozialwissenschaften/GWV Fachverlage 2006

Authors and Affiliations

  • Richard Münch

There are no affiliations available

Personalised recommendations