Zusammenfassung
Evidenzbasierung ist in den vergangenen Jahren zu einem wichtigen Leitbild von Forschung in vielen praktisch relevanten Bereichen geworden und entwickelt sich zu einem solchen auch in der Hochschuldidaktik. Aufbauend auf einer kritischen Analyse der Leistungen von Metaanalysen und der Methodenkrise in der Psychologie sowie den besonderen Anforderungen an Erkenntnis in der Hochschuldidaktik fragt der vorliegende Beitrag, wie weit Evidenzbasierung die in sie gesetzten Erwartungen erfüllen kann und welche unbeabsichtigten Folgen sie hat.
Access this chapter
Tax calculation will be finalised at checkout
Purchases are for personal use only
Preview
Unable to display preview. Download preview PDF.
Similar content being viewed by others
Literatur
Akkerman, S. F., & Bakker, A. (2011). Boundary crossing and boundary objects. Review of Educational Research, 81, 132-169.
Becher, T., & Trowler, P. R. (2001). Academic tribes and territories: Intellectual enquiry and the cultures of disciplines. 2. Aufl . Buckingham: Open University Press.
Becker, B. J. (2005). Model-based meta-analysis. In H. R. Rothstein, A. J. Sutton & M. Borenstein (Hrsg.), Publication bias in meta-analysis: Prevention, assessment and adjustments (S. 377-395). Chichester: John Wiley.
Beelmann, A. (2014). Möglichkeiten und Grenzen systematischer Evidenzkumulation durch Forschungssynthesen in der Bildungsforschung. Zeitschrift für Erziehungswissenschaft, 17 (Suppl.), 55-78.
Bellmann, J., & Müller, T. (Hrsg.). (2011). Wissen, was wirkt: Kritik evidenzbasierter Pädagogik. Wiesbaden: VS Verlag für Sozialwissenschaften.
Berliner, D. C. (2002). Educational science: The hardest science of all. Educational Researcher, 31, 18-20.
Biesta, G. (2011a). Evidenz, Erziehung und die Politik der Forschung. In J. Bellmann & T. Müller, T. (Hrsg.), Wissen, was wirkt: Kritik evidenzbasierter Pädagogik (S. 269-278). Wiesbaden: VS Verlag für Sozialwissenschaften.
Biesta, G., (2011b). Warum „What works“ nicht funktioniert: Evidenzbasierte pädagogische Praxis und das Demokratiedefi zit der Bildungsforschung. In J. Bellmann & T. Müller, T. (Hrsg.). Wissen, was wirkt: Kritik evidenzbasierter Pädagogik (S. 95-120). Wiesbaden: VS Verlag für Sozialwissenschaften.
Bromme, R., Prenzel, M., & Jäger, M. (2014). Empirische Bildungsforschung und evidenzbasierte Bildungspolitik: Eine Analyse von Anforderungen an die Darstellung, Interpretation und Rezeption empirischer Befunde. Zeitschrift für Erziehungswissenschaft, 17 (Suppl.), 3-54.
Brunswik, E. (1955). Representative design and probabilistic theory in a functional psychology. Psychological Review, 62, 193-217.
Bunz, M. (2012). Die stille Revolution: Wie Algorithmen Wissen, Arbeit, Öffentlichkeit und Politik verändern, ohne dabei viel Lärm zu machen. Berlin: Suhrkamp.
Button, K. S., Ioannidis, J. P. A., Mokrysz, C., Nosek, B. A., Flint, J., Robinson, E. S. J., & Munafò, M. R. (2013). Power failure: Why small sample size undermines the reliability of neuroscience. Nature Reviews Neuroscience, 14, 365-376.
Campbell, C., & Levin, B. (2009). Using data to support educational improvement. Educational Assessment, Evaluation and Accountability, 21, 47-65.
Cohen, J. (1962). The statistical power of abnormal-social psychological research: A review. The Journal of Abnormal and Social Psychology, 65, 145-153.
Defila R., & DiGiulio A. (2006). Vorbereitung auf interdisziplinäres Arbeiten: Anspruch, Erfahrungen, Konsequenzen. In B. Berendt, H.-P. Voss & J. Wildt (Hrsg.), Neues Handbuch Hochschullehre (E 1.3). Stuttgart: Raabe.
DeVries, R., & Lemmens, T. (2006). The social and cultural shaping of medical evidence: Case studies from pharmaceutical research and obstretic science. Social Science & Medicine, 62, 2694-2706.
Design-Based Research Collective. (2003). Design-based research: An emerging paradigm for educational inquiry. Educational Researcher, 32(1), 5-8.
Dunn, D. S., Saville, B. K., Baker, S. C., & Marek, P. (2013). Evidence-based teaching: Tools and techniques that promote learning in the psychology classroom. Australian Journal of Psychology, 65, 5-13.
Eysenck, H. J. (1984). Meta-analysis: An abuse of research integration. The Journal of Special Education, 18, 41-59.
Fiedler, K. (2011). Voodoo correlations are everywhere–not only in neuroscience. Perspectives on Psychological Science, 6, 163-171.
Francis, G., Tanzman, J., & Matthews, W. J. (2014). Excess success for psychology articles in the journal Science. PLoS, ONE 9, e0114255. https://doi.org/10.1371/journal.pone/0114255.
Gelman, A. (2015). The connection between varying treatment effects and the crisis of unreplicable research: A Bayesian perspective. Journal of Management, 41, 632-643.
Gigerenzer, G. (1998). We need statistical thinking, not statistical rituals. Behavioral and Brain Sciences, 21, 199-200.
Gigerenzer, G. (2004). Mindless statistics. The Journal of Socio-Economics, 33, 587-606.
Gigerenzer, G., Krauss, S., & Vitouch, O. (2004). The null ritual: What you always wanted to know about signifi cance testing but were afraid to ask. In D. Kaplan (Hrsg.), The Sage handbook of quantitative methodology for the social sciences (S. 391-408). Thousand Oaks, CA, US: Sage.
Hennig, I., Kruse, M.-M., Hobuß, S., & Thomas, T. (2011). Verunsicherungen als Lehr- und Forschungskonzept. In T. Thomas, S. Hobuß, M.-M. Kruse & I. Hennig (Hrsg.), Dekonstruktion und Evidenz: Ver(un)sicherungen in Medienkulturen (S. 8-21). Sulzbach/Taunus: Ulrike Helmer Verlag.
Hentig, H. v. (1980). Die Krise des Abiturs und eine Alternative. Stuttgart: Klett-Cotta.
Higgins, J. P., & Green, S. (2008). Cochrane handbook for systematic reviews of interventions (Bd. 5). Chichester: Wiley-Blackwell.
Huber, L. (1991). Fachkulturen: Über die Mühen der Verständigung zwischen den Disziplinen. Neue Sammlung, 31, 3–24.
Huber, L. (1999). Wer B.A. sagt, muß auch C sagen. Sollen fl inke Retuschen vor echten Reformen schützen? Ein Verdacht. Die Zeit. http://www.zeit.de/1999/23/199923.c-bachelor_xml. Zugegriffen: 28. Juli 2017.
Huber, L. (2011). Forschen über (eigenes) Lehren und studentisches Lernen – Scholarship of Teaching and Learning (SoTL): Ein Thema auch hierzulande? Das Hochschulwesen, 59, 118-124.
Ioannidis, J. P. A. (2005). Why most published research fi ndings are false. PLoS Medicine, 2, e124. https://doi.org/10.1371/journal.pmed.0020124
Ioannidis, J. P. A., Munafò, M. R. Fusar-Poli, P., Nosek, B. A., & David, S. P. (2014). Publication and other reporting biases in cognitive sciences: Detection, prevalence and prevention. Trends in Cognitive Sciences, 18, 235-241.
John, L. K., Loewenstein, G., & Prelec, D. (2012). Measuring the prevalence of questionable research practices with incentives for truth telling. Psychological Science, 23, 524-532.
Kerr, N. L. (1998). HARKing: Hypothesizing after the results are known. Personality and Social Psychology Review, 2, 196-217.
Kreber, C. (2015). Reviving the ancient virtues in the scholarship of teaching, with a slight critical twist. Higher Education Research and Development, 34, 568-580.
Kuhn, T. S. (2001). Die Struktur wissenschaftlicher Revolutionen. Frankfurt a.M.: Suhrkamp.
Lambert, H. (2006). Accounting for EBM: Notions of evidence in medicine. Social Science & Medicine, 62, 2633-2645.
Lambert, H., Gordon, E. J., & Bogdan-Lovis, E. A. (2006). Introduction: Gift horse or Trojan horse? Social science perspectives on evidence-based health care. Social Science & Medicine 62, 2613-2620.
Langemeyer, I., & Reinmann, G. (2017). Evidenzbasierte Hochschullehre? Kritik und Alternativen für eine Hochschulbildungsforschung. Unveröff. Manuskript.
Lipsey, M. W. (2003). Those confounded moderators in meta-analysis: Good, bad, and ugly. Annals of the American Academy of Political and Social Science, 587, 69-81.
Meehl, P. E. (1990). Why summaries of research on psychological theories are often uninterpretable. Psychological Reports, 66, 195-244.
Meehl, P. E. (2006). The power of quantitative thinking. In N. G. Waller, L. J. Yonce, W. M. Grove, D. Faust, & M. F. Lenzenweger (Hrsg.), A Paul Meehl Reader: Essays on the practice of scientifi c psychology (S. 433-444). Mahwah, NJ: Erlbaum.
Open Science Collaboration (2015). Estimating the reproducibility of psychological science. Science, 349, aac4716. https://doi.org/10.1126/science.aac4716
Pant, H. A. (2014). Aufbereitung von Evidenz für bildungspolitische und pädagogische Entscheidungen: Metaanalysen in der Bildungsforschung. Zeitschrift für Erziehungswissenschaft, 17 (Suppl.), 79-99.
Reinmann, G. (2013). Entwicklung als Forschung? Gedanken zur Verortung und Präzisierung einer entwicklungsorientierten Bildungsforschung. In S. Seufert & C. Metzger (Hrsg.), Kompetenzentwicklung in unterschiedlichen Lernkulturen: Festschrift für Dieter Euler zum 60. Geburtstag (S. 45-60). Paderborn: Eusl.
Rothstein, H. R., Sutton, A. J., & Borenstein, M. (2005a). Publication bias in meta-analysis. In dies. (Hrsg.), Publication bias in meta-analysis: Prevention, assessment and adjustments (S. 1-7). Chichester: John Wiley.
Rothstein, H. R., Sutton, A. J., & Borenstein, M. (2005b). Publication bias in meta-analysis: Prevention, assessment and adjustments. Chichester: John Wiley.
Sedlmeier, P., & Gigerenzer, G. (1989). Do studies of statistical power have an effect on the power of studies? Psychological Bulletin, 105, 309–316.
Seifried, E., Lenhard, W., & Spinath, B. (2016). Automatic essay assessment: Effects on students’ acceptance and on learning-related characteristics. Psihologija, 49, 469-482.
Shermis, M. D., & Hamner, B. (2013). Contrasting state-of-the-art automated scoring of essays. In M. D. Shermis & J. Burstein (Hrsg.), Handbook of automated essay evaluation: Current applications and new directions (S. 313–346). New York, NY: Routledge.
Simmons, J. P., Nelson, L. D., & Simonsohn, U. (2011). False-positive psychology: Undisclosed fl exibility in data collection and analysis allows presenting anything as signifi cant. Psychological Science, 22, 1359-1366.
Simonsohn, U., Nelson, L. D., & Simmons, J. P. (2014). P-curve: A key to the fi le-drawer. Journal of Experimental Psychology: General, 143, 534-547.
Slavin, R. E. (2008). Evidence-based reform in education: What will it take? European Educational Research Journal, 7, 124-128.
Song, F., Hooper, L., Loke, Y. K. (2013). Publication bias–What is it? How do we measure it? How do we avoid it? Open Access Journal of Clinical Trials, 5, 71-81. https://doi.org/10.2147/oajct.s34419
Traynor, M. (2000). Purity, conversion and the evidence based movements. Health, 42, 139–158.
Vankov, I., Bowers, J., & Munafò, M. R. (2014). On the persistence of low power in psychological science. The Quarterly Journal of Experimental Psychology, 67, 1037-1040.
Vilsmaier, U., & Lang, D. J. (2014). Transdisziplinäre Forschung. In H. Heinrichs & G. Michelsen (Hrsg.), Nachhaltigkeitswissenschaften (S. 87-113). Berlin Heidelberg: Springer.
Wiseman, A. W. (2010). The uses of evidence for educational policymaking: Global contexts and international trends. Review of Research in Education, 34, 1-24.
Author information
Authors and Affiliations
Corresponding author
Editor information
Editors and Affiliations
Rights and permissions
Copyright information
© 2019 Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature
About this chapter
Cite this chapter
Scharlau, I. (2019). Sich verständigen. In: Jenert, T., Reinmann, G., Schmohl, T. (eds) Hochschulbildungsforschung. Springer VS, Wiesbaden. https://doi.org/10.1007/978-3-658-20309-2_7
Download citation
DOI: https://doi.org/10.1007/978-3-658-20309-2_7
Published:
Publisher Name: Springer VS, Wiesbaden
Print ISBN: 978-3-658-20308-5
Online ISBN: 978-3-658-20309-2
eBook Packages: Social Science and Law (German Language)