Advertisement

Open Science als wissenschaftspolitische Problemlösungsformel?

  • Martina FranzenEmail author
Chapter
Part of the Springer Reference Sozialwissenschaften book series (SRS)

Zusammenfassung

Open Science ist normatives Ideal einer sozial robusten Wissensproduktion und zugleich wissenschaftspolitisches Ziel, Investitionen in Forschung so effektiv wie möglich zu gestalten. Die Realisierung der Idee von Open Science ist an die digitale Transformation der Wissenschaft geknüpft, die weitreichende Veränderungen der bisherigen Praxis der Wissensproduktion mit sich bringt. Im vorliegenden Beitrag wird das schillernde Programm von Open Science in seinen vielfältigen Dimensionen systematisch abgesteckt und dessen Implikationen entlang aktueller Krisendiagnosen der Wissenschaft wissenschaftssoziologisch reflektiert.

Schlüsselwörter

Open Science Citizen Science Science 2.0 Governance Digitalisierung 

Literatur

  1. Assante, Massimiliano, Leonardo Candela, Donatella Castelli, Paolo Manghi, und Pasquale Pagano. 2015. Science 2.0 Repositories. Time for a Change in Scholarly Communication. D-Lib Magazine 21(1/2). doi:10.1045/january2015-assank.Google Scholar
  2. Beck, Ulrich. 1986. Risikogesellschaft. Auf dem Weg in eine andere Moderne. Frankfurt a. M.: Suhrkamp.Google Scholar
  3. Begley, Glenn C., und Lee M. Ellis. 2012. Drug development: Raise standards for preclinical cancer research. Nature 483:531–533.CrossRefGoogle Scholar
  4. Berlin Declaration on Open Access to Knowledge in the Sciences and Humanities. 2003. http://openaccess.mpg.de/Berliner-Erklaerung. Zugegriffen am 15.01.2016.
  5. Bernstein, Ethan S. 2012. The transparency paradox: A role for privacy in organizational learning and operational control. Administrative Science Quarterly 57:181–216.CrossRefGoogle Scholar
  6. Bethesda Statement on Open Access Publishing. 2003. Initiiert von Patrick O. Brown et al. http://www.earlham.edu/~peters/fos/bethesda.htm. Zugegriffen am 15.01.2016.
  7. Blattmann, Heidi, Otfried Jarren, Ulrich Schnabel, Peter Weingart, und Holger Wormer. 2014. Kontrolle durch Öffentlichkeit: Zum Verhältnis Medien – Wissenschaft in der Demokratie. In Wissen – Nachricht – Sensation, Hrsg. Peter Weingart und Patricia Schulz, 391–412. Weilerswist: Velbrück Wissenschaft.Google Scholar
  8. Bornmann, Lutz. 2012. Measuring the societal impact of research: Research is less and less assessed on scientific impact alone – we should aim to quantify the increasingly important contributions of science to society. EMBO Reports 13:673–676.CrossRefGoogle Scholar
  9. Bornmann, Lutz. 2014a. Is there currently a scientific revolution in Scientometrics? Journal of the Association for Information Science and Technology 65(3): 647–648.CrossRefGoogle Scholar
  10. Bornmann, Lutz. 2014b. Do altmetrics point to the broader impact of research? An overview of benefits and disadvantages of altmetrics. Journal of Informetrics 8(4): 895–903.CrossRefGoogle Scholar
  11. Bundesministerium für Bildung und Forschung (BMBF). 2013. Roadmap für Forschungsinfrastrukturen. Pilotprojekt des BMBF. https://www.bmbf.de/pub/roadmap_forschungsinfrastrukturen.pdf. Zugegriffen am 15.09.2015.
  12. Chambers, Chris, und Brian Nosek. 2015. The first imperative: Science that isn’t transparent isn’t science. The Guardian. 25. Juni 2015. http://www.theguardian.com/science/head-quarters/2015/jun/25/the-first-imperative-science-that-isnt-transparent-isnt-science. Zugegriffen am 15.09.2015.
  13. Chang, Andrew C., und Phillip Li. 2015. Is economics research replicable? Sixty published papers from thirteen journals say ‘Usually Not’. In Finance and economics discussion series, 2015–083. Washington: Board of Governors of the Federal Reserve System. doi:10.17016/FEDS.2015.083.Google Scholar
  14. Delfanti, Alessandro. 2013. Biohackers. The politics of open science. London: Pluto Press.Google Scholar
  15. Dickel, Sascha, und Martina Franzen. 2015. Digitale Inklusion: Zur sozialen Öffnung des Wissenschaftssystems. Zeitschrift für Soziologie 44(5): 330–347.CrossRefGoogle Scholar
  16. Dickel, Sascha, und Martina Franzen. 2016. „Das ‘Problem of Extension’ revisited: Neue Modi digitaler Partizipation in der Wissenschaft“. JCOM 15(01):A06_de.Google Scholar
  17. DORA. 2013. American Society for Cell Biology: San Francisco declaration on research assessment. http://am.ascb.org/dora. Zugegriffen am 15.09.2015.
  18. European Commission. 2014. Background document: Public Consultation ‘Science 2.0’: Science in transition. Directorates-General for Research and Innovation (RTD) and Communications Networks, content and Technology (CONNECT) http://ec.europa.eu/research/consultations/science-2.0/background.pdf . Zugegriffen am 15.09.2015.
  19. European Commission. 2015. Validation of the results of the public consultation on Science 2.0: Science in Transition. https://ec.europa.eu/research/consultations/science-2.0/science_2_0_final_report.pdf. Zugegriffen am 15.09.2015.
  20. Fecher, Benedikt, und Sascha Friesike. 2013. Open science: One term, five schools of thought. RatSWD WP 218. http://ssrn.com/abstract-227036. Zugegriffen am 15.05.2016.
  21. Finke, Peter. 2014. Citizen Science: Das unterschätzte Wissen der Laien. München: oekom verlag.Google Scholar
  22. Franzen, Martina. 2011. Breaking News. Wissenschaftliche Zeitschriften im Kampf um Aufmerksamkeit. Baden-Baden: Nomos.CrossRefGoogle Scholar
  23. Franzen, Martina. 2015. Der Impact Factor war gestern. Altmetrics und die Zukunft der Wissenschaft. Themenheft: Der impact des impact factors, Soziale Welt 66(2): 225–242.Google Scholar
  24. Franzen, Martina. 2016 (i. E.). Science between trust and control: Non-Reproducibility in scholarly publishing. In Reproducibility: Principles, problems, practices and prospects, Hrsg. Harald Atmanspacher und Sabine Maasen, 468–485. New York: Wiley.Google Scholar
  25. Franzen, Martina, Simone Rödder, und Peter Weingart. 2012. Wissenschaft und Massenmedien: Von Popularisierung zu Medialisierung. In Handbuch Wissenschaftssoziologie, Hrsg. Sabine Maasen, Mario Kaiser, Martin Reinhardt und Barbara Sutter, 355–364. Wiesbaden: Springer.Google Scholar
  26. Gewin, Virgina. 2016. An open mind on open data. Nature 529:117–119.CrossRefGoogle Scholar
  27. Haeussler, Carolin. 2011. Information-sharing in academia and the industry: A comparative study. Research Policy 40(1): 105–122.CrossRefGoogle Scholar
  28. Herb, Ullrich. 2015. Open Science in der Soziologie. Eine interdisziplinäre Bestandsaufnahme zur offenen Wissenschaft und eine Untersuchung ihrer Verbreitung in der Soziologie. Schriften zur Informationswissenschaft, Bd. 67. Glückstadt: Verlag Werner Hülsbusch. doi:10.5281/zenodo.31234.Google Scholar
  29. Hirschauer, Stefan. 2004. Peer Review Verfahren auf dem Prüfstand. Zum Soziologiedefizit der Wissenschaftsevaluation. Zeitschrift für Soziologie 33(1): 62–83.CrossRefGoogle Scholar
  30. Hung, Jochen. 2011. Großbritannien: Aufregung im Elfenbeinturm. duz Deutsche Universitätszeitung vom 19.08.2011.Google Scholar
  31. King’s College London and Digital Science. 2015. The nature, scale and beneficiaries of research impact: An initial analysis of Research Excellence Framework (REF) 2014 impact case studies. Research Report 2015/01.Google Scholar
  32. Kriegeskorte, Nikolaus. 2012. Open evaluation: A vision for entirely transparent post-publication peer review and rating for science. Frontiers in Computational Neuroscience 6:79. doi:10.3389/fncom.2012.00079.Google Scholar
  33. Leonelli, Sabina. 2013. Why the current insistence on open access to scientific data? Big data, knowledge production and the political economy of contemporary biology. Bulletin of Science, Technology and Society 33(1–2): 6–11.CrossRefGoogle Scholar
  34. Leonelli, Sabina, Daniel Spichtinger, und Barbara Prainsack. 2015. Sticks and carrots: Encouraging open science at its source. Geography and Environment 2(1): 12–16.CrossRefGoogle Scholar
  35. Luhmann, Niklas. 1984. Soziale Systeme. Grundriß einer allgemeinen Theorie. Frankfurt a. M.: Suhrkamp.Google Scholar
  36. Luhmann, Niklas. 1990. Die Wissenschaft der Gesellschaft. Frankfurt a. M.: Suhrkamp.Google Scholar
  37. Meyer, Marshall W., und Vipin Gupta. 1994. The performance paradox. Research in Organizational Behavior 16:309–369.Google Scholar
  38. Münch, Richard. 2011. Akademischer Kapitalismus. Über die politische Ökonomie der Hochschulreform. Berlin: Suhrkamp.Google Scholar
  39. Munthe, Christian, und Stellan Welin. 1996. The morality of scientific openness. Science and Engineering Ethics 2(4): 411–428.CrossRefGoogle Scholar
  40. Nassehi, Armin. 2006. Der soziologische Diskurs der Moderne. Frankfurt a. M.: Suhrkamp.Google Scholar
  41. Nature Editorial. 2015. Rise of the citizen scientist. Nature 534:265.Google Scholar
  42. Neuberger, Christoph. 2014. Social Media in der Wissenschaftsöffentlichkeit. Forschungsstand und Empfehlungen. In Wissen – Nachricht – Sensation. Zur Kommunikation zwischen Wissenschaft, Öffentlichkeit und Medien, Hrsg. Peter Weingart und Patricia Schulz, 315–368. Weilerswist: Velbrück.Google Scholar
  43. Nosek, Brian A., et al. 2015. Promoting an open research culture. Science 348(6242): 1422–1425.CrossRefGoogle Scholar
  44. Open Science Collaboration. 2015. Estimating the reproducibility of psychological science. Science 349(6251): aac4716Google Scholar
  45. ORCID. 2016. Requiring ORCID in Publication Workflows: Open Letter. https://orcid.org/content/requiring-orcid-publication-workflows-open-letter. Zugegriffen am 19.01.2016.
  46. Osterloh, Margrit. 2010. Governance by numbers: Does it really work in research? Analyse und Kritik 32:267–283.CrossRefGoogle Scholar
  47. Paglione, Laura, und Rebecca N. Lawrence. 2015. Data exchange standards to support and acknowledge peer-review activity. Learned Publishing 28(4): 309–316.CrossRefGoogle Scholar
  48. Priem, Jason. 2013. Beyond the paper. Nature 495:437–440.CrossRefGoogle Scholar
  49. Priem, Jason, Dario Taraborelli, Paul Groth, und Cameron Neylon. 2010. Alt-metrics: A manifesto. http://altmetrics.org/manifesto. Zugegriffen am 15.10.2015.
  50. Pulverer, Bernd. 2010. Transparency showcases strength of peer review. Nature 468:29–31.CrossRefGoogle Scholar
  51. Reich, Eugenie Samuel. 2013. Science publishing: The golden club. Nature 502(7471): 291–293.CrossRefGoogle Scholar
  52. Rogge, Jan-Christoph. 2015. Soziale Bedingungen und Effekte der quantitativen Leistungsmessung, Themenheft: Der impact des impact factors. Soziale Welt 66(2): 205–214.CrossRefGoogle Scholar
  53. Scheufele, Dietram. 2014. Science communication as political communication. Proceedings of the National Academy of Sciences 111(Suppl. 4): 13585–13592.CrossRefGoogle Scholar
  54. Schimank, Uwe. 2010. Reputation statt Wahrheit: Verdrängt der Nebencode den Code? Soziale Systeme 16:233–242.Google Scholar
  55. Stichweh, Rudolf. 1994. Differenzierung der Wissenschaft. In Wissenschaft, Universität, Professionen. Soziologische Analysen, Hrsg. R. Stichweh, 15–51. Frankfurt a. M.: Suhrkamp.Google Scholar
  56. Tenopir, Carol, et al. 2011. Data sharing by scientists: Practises and perceptions. PLoS ONE 6(6), e21101.CrossRefGoogle Scholar
  57. Wehling, Peter. 2012. From invited to uninvited participation (and back?): Rethinking civil society engagement in technology assessment and development. Poiesis & Praxis 9(1–2): 43–60.CrossRefGoogle Scholar
  58. Weingart, Peter. 2001. Die Stunde der Wahrheit? Zum Verhältnis der Wissenschaft zu Politik, Wirtschaft und Medien in der Wissensgesellschaft. Weilerswist: Velbrück Wissenschaft.Google Scholar
  59. Weingart, Peter. 2012. The lure of the mass media and its repercussions on science. In The sciences’ media connection – Communication to the public and its repercussions. Sociology of the sciences yearbook, Bd. 28, Hrsg. Simone Rödder, Martina Franzen und Peter Weingart, 17–32. Dordrecht: Springer.Google Scholar
  60. Wilsdon, James, et al. 2015. The Metric Tide: Report of the independent review of the role of metrics in Research Assessment and Management. doi:10.13140/RG.2.1.4929.1363.Google Scholar
  61. Wissenschaftsrat (WR). 2011. Empfehlungen zu Forschungsinfrastrukturen in den Geistes- und Sozialwissenschaften. Drs. 10465–11. Berlin: Wissenschaftsrat.Google Scholar
  62. Wissenschaftsrat (WR). 2012. Empfehlungen zur Weiterentwicklung der wissenschaftlichen Informationsinfrastrukturen in Deutschland bis 2020. Drs. 2359–12. Berlin: Wissenschaftsrat.Google Scholar
  63. Wouters, Paul, und Rodrigo Costas. 2012. Users, narcissism and control – tracking the impact of scholarly publications in the 21st century, Utrecht. http://research-acumen.eu/wp-content/uploads/Users-narcissism-and-control.pdf. Zugegriffen am 15.09.2015.
  64. Wouters, Paul, et al. 2015. The Metric Tide: Literature review (Supplementary report I to the independent review of the role of metrics in research assessment and management). HEFCE. doi:10.13140/RG.2.1.5066.35.Google Scholar

Copyright information

© Springer Fachmedien Wiesbaden 2016

Authors and Affiliations

  1. 1.Wissenschaftszentrum Berlin für Sozialforschung (WZB), Forschungsgruppe WissenschaftspolitikBerlinDeutschland

Personalised recommendations