Zusammenfassung
In diesem Beitrag geben wir einen Überblick der Kritik an Experimenten in der Ökonomik. Im ersten Teil gehen wir auf die Diskussion um Vor- und Nachteile von experimentellen Methoden ein und bestimmen das Verhältnis zum Mainstream der Wirtschaftswissenschaften. Im zweiten Teil begründen wir, weshalb Methodenkritik ein fester Bestandteil einer pluralen Ökonomik sein sollte. Methoden sind nicht einfach nur neutrale Werkzeuge mit technischen Vor- und Nachteilen. Plurale Ökonom*innen sollten daher die wissenschaftstheoretische und politisch-normative Einbettung von Methoden kritisch beleuchten. Diese Forderung lösen wir am Beispiel von Experimenten ein, indem wir im dritten Teil die Anwendung von Experimenten in der Sozialpolitik des Globalen Nordens und in der Entwicklungspolitik im Globalen Süden kritisch beleuchten.
Wir bedanken uns bei Juliane Böhme, Magdalena Malecka, Christian Meyer, Julian Rode und den anonymen Gutachtern für hilfreiche Kommentare und Kritik.
Access this chapter
Tax calculation will be finalised at checkout
Purchases are for personal use only
Similar content being viewed by others
Notes
- 1.
- 2.
Dies ist der einfachste Aufbau einer randomisierten Studie. Oftmals werden verschiedene Kombinationen von Interventionen getestet. Dabei stehen einer Kontrollgruppe mehrere Treatmentgruppen gegenüber (vgl. Duflo et al. 2015).
- 3.
Unter Hinzunahme weiterer Annahmen können die Verteilungen der Einkommen in Treatment- und Kontrollgruppe verglichen werden, indem z. B. auf Gleichheit oder stochastische Dominanz getestet wird (Banerjee und Duflo 2009, S. 169; Deaton 2010, S. 440). Aussagen über die Verteilung der abhängigen Variable können u. a. durch weitere Verhaltensannahmen erreicht werden (vgl. Heckman et al. 1997). Abbring und Heckman (vgl. 2007) geben eine Übersicht über die Schätzung weiterer Verteilungsstatistiken über den Mittelwert hinaus.
- 4.
Bothwell et al. schreiben im renommierten ‘New England Journal of Medicine’ abschließend: „despite their limitations, RCTs have revolutionized medical research and improved the quality of health care by clarifying the benefits and drawbacks of countless interventions. Clinical investigators, supported by government funding and empowered by FDA regulations, have used RCTs to advance clinical research theory and practice“ (Bothwell et al. 2016, S. 2179).
- 5.
Ein Beispiel ist die Arbeit von Armin Falk et al. (vgl. 2017) zum Effekt von unfairer Entlohnung auf Gesundheit, in der neben einem Laborexperiment eine Analyse mit dem sozio-oekonomischen Panel (SOEP) vorgenommen wird.
- 6.
Vgl. Hacking (1983) zur Konstruktion von Wirklichkeit in Experimenten.
- 7.
Backhouse und Cherrier (vgl. 2017) weisen darauf hin, dass die Wirtschaftswissenschaften schon vor dem 2. Weltkrieg überwiegend empirisch gearbeitet haben und die Dominanz von theoretischer Forschung in der Nachkriegszeit bis in die 1970er-Jahre eine historische Ausnahme darstellt.
- 8.
- 9.
- 10.
David Card et al. (vgl. 2011) zeigen, dass in Laborexperimenten mehr Bezüge zu ökonomischer Theorie als in Feldexperimenten gemacht werden.
- 11.
Das Thema Wirkmacht thematisiert der Beitrag → ‚Macht Ökonomie Gesellschaft? Zur Wirkmacht ökonomischen Wissens‘ in diesem Sammelband.
- 12.
Eine gute Übersicht zu ethischen Fragen von Experimenten in der Praxis findet sich bei Glennester und Powers (vgl. 2016).
- 13.
Es ist eine offene Frage, ob sich diese Entwicklung als ökonomischer Imperialismus deuten lässt.
- 14.
Im Interview mit Ogden sieht sich Deaton damit in einer Linie mit dem institutionalistischen Ansatz von Daron Acemoglu und James A. Robinson (vgl. Ogden 2017). Deren Arbeiten zeigen die Bedeutung von Institutionen für wirtschaftliches Wachstum und weisen gleichzeitig auf historische Pfadabhängigkeiten hin, die nur schwer zu verändern sind. Gleichwohl werden in den Arbeiten von Acemoglu und Robinson selten Fragen nach den Effekten heutiger Institutionen gestellt. Daher sind die Arbeiten von Acemoglu et al. (vgl. 2005) auf der einen Seite und Banerjee und Duflo (vgl. 2014) auf der anderen Seite auch nicht gegensätzlich, sondern insofern als einander komplementierend anzusehen, dass die inkrementellen Verbesserungen den institutionellen Pfadabhängigkeiten nicht widersprechen.
Literatur
Abbring, Jaap, und James J. Heckman. 2007. Econometric evaluation of social programs, part III. Distributional treatment effects, dynamic treatment effects, dynamic discrete choice, and general equilibrium policy evaluation. In Handbook of econometrics, Hrsg. James J. Heckman und Edward E. Leamer, 5145–5303. Amsterdam: Elsevier.
Acemoglu, Daron, Simon Johnson, und James Robinson. 2005. Institutions as a fundamental cause of long-run growth. In Handbook of economic growth, Hrsg. Philippe Aghion und Steven Durlauf, 385–472. Amsterdam: Elsevier.
Angrist, Joshua, und Jörn-Steffen Pischke. 2009. Mostly harmless econometrics. An empiricist’s companion. Princeton: Princeton University Press.
Angrist, Joshua, und Jörn-Steffen Pischke. 2010. The credibility revolution in empirical economics. How better research design is taking the con out of econometrics. Journal of Economic Perspectives 24 (2): 3–30.
Backhouse, Roger E., und Beatrice Cherrier. 2017. The age of the applied economist: The transformation of economics after 1970. History of Political Economy 49 (Supplement): 1–33.
Banerjee, Abhijit V., und Esther Duflo. 2009. The experimental approach to development economics. Annual Review of Economics 1 (1): 151–178.
Banerjee, Abhijit V., und Esther Duflo. 2012. Poor economics. A radical rethinking of the way to fight global poverty. New York: Public Affairs.
Banerjee, Abhijit V., und Esther Duflo. 2014. Under the thumb of history? Political institutions and the scope for action. Annual Review of Economics 6 (1): 951–971.
Banerjee, Abhijit V., und Ruimin He. 2003. The World Bank of the future. American Economic Review 93 (2): 39–44.
Banerjee, Abhijit V., und Ruimin He. 2007. Making aid work. In Making aid work, Hrsg. Abhijit V. Banerjee, 47–92. Cambridge: MIT Press.
Banerjee, Abhijit V., Esther Duflo, Nathanael Goldberg, Dean Karlan, Robert Osei, William Pariente, Jeremy Shapiro, Bram Thuysbaert, und Christopher Udry. 2015. A multifaceted program causes lasting progress for the very poor. Evidence from six countries. Science 348 (6236): 772–890.
Behavioral Insights Team. 2016. Update report 2015–16. London: Nesta.
Berndt, Christian. 2015. Behavioural economics, experimentalism and the marketization of development. Economy and Society 44 (4): 567–591.
Bhatt, Jigar. 2011. Causality and the experimental turn in development economics. New School Economic Review 5 (1): 50–67.
Böhme, Juliane. 2015. ‚Doing‘ Laborexperimente. Eine ethnomethodologische Betrachtung der Praxis experimenteller Wirtschaftsforschung im Labor. Berliner Journal für Soziologie 25 (1–2): 33–59.
Bothwell, Laura E., Jeremy Greene, Scott Podolsky, und David Jones. 2016. Assessing the gold standard. Lessons from the history of RCTs. New England Journal of Medicine 374 (22): 2175–2181.
Camerer, Colin. 2015. The promise and success of lab-field generalizability in experimental economics. A critical reply to Levitt and List. In Handbook of experimental economic methodology, Hrsg. Guillaume R. Fréchette und Andrew Schotter, 249–295. Oxford: Oxford University Press.
Camerer, Colin, Anna Dreber, Eskil Forsell, Teck-Hua Ho, Jürgen Huber, Magnus Johannesson, Michael Kirchler, Johan Almenberg, Adam Altmejd, Taizan Chan, Emma Heikenstein, Felix Holzmeister, Taisuke Imai, Siri Isaksson, Gideon Nave, Thomas Pfeiffer, Michasel Razen, Michael Razen, und Hang Wu. 2016. Evaluating replicability of laboratory experiments in economics. Science 351 (6280): 1433–1436.
Card, David, Stefano DellaVigna, und Ulrike Malmendier. 2011. The role of theory in field experiments. Journal of Economic Perspectives 25 (3): 39–62.
Cartwright, Nancy. 2007. Are RCTs the gold standard? BioSocieties 2 (1): 11–20.
Cartwright, Nancy, Andrew Goldfinch, und Jeremy Howick. 2010. Evidence-based policy. Where is our theory of evidence? Journal of Children’s Services 4 (4): 6–14.
Congdon, William J., Jeffrey R. King, Jens Ludwig, und Sendhil Mullainathan. 2017. Social policy. Mechanism experiments and policy evaluations. In Handbook of economic field experiments, Hrsg. Abhijit V. Banerjee und Esther Duflo, 389–426. Amsterdam: Elsevier.
Deaton, Angus. 2010. Instruments, randomization, and learning about development. Journal of Economic Literature 48 (2): 424–455.
Deaton, Angus, und Nancy Cartwright. 2016. Understanding and misunderstanding randomized controlled trials. Working Paper No. 22595. Cambridge: National Bureau of Economic Research.
Dübgen, Franziska. 2016. Epistemic injustice in practice. Wagadu: A Journal of Transnational Women’s and Gender Studies 15: 1–10.
Duflo, Esther. 2010. Social experiments to fight poverty. Ted Talk. https://www.ted.com/talks/esther_duflo_social_experiments_to_fight_poverty. Zugegriffen: 15. Juli. 2017.
Duflo, Esther. 2017. The economist as plumber. American Economic Review 107 (5): 1–26.
Duflo, Esther, Michael Kremer, und Jonathan Robinson. 2011. Nudging farmers to use fertilizer. Theory and experimental evidence from Kenya. American Economic Review 101 (6): 2350–2390.
Duflo, Esther, Pascaline Dupas, und Michael Kremer. 2015. School governance, teacher incentives, and pupil–teacher ratios. Experimental evidence from Kenyan primary schools. Journal of Public Economics 123: 92–110.
Every-Palmer, Susanna, und Jeremy Howick. 2014. How evidence-based medicine is failing due to biased trials and selective publication. Journal of Evaluation in Clinical Practice 20 (6): 908–914.
Falk, Armin, und James J. Heckman. 2009. Lab experiments are a major source of knowledge in the social sciences. Science 326 (5952): 535–538.
Falk, Armin, Fabian Kosse, Ingo Menrath, Pablo E. Verde, und Johannes Siegrist. 2017. Unfair pay and health. Management Science 64 (4): 1477–1488.
Favereau, Judith. 2016. On the analogy between field experiments in economics and clinical trials in medicine. Journal of Economic Methodology 23 (2): 203–222.
Feinstein, Alvan R., und Ralph I. Horwitz. 1997. Problems in the evidence of evidence-based medicine. The American Journal of Medicine 103 (6): 529–535.
Fréchette, Guillaume R., und Andrew Schotter. 2015. Handbook of experimental economic methodology. Oxford: Oxford University Press.
Fricker, Miranda. 2007. Epistemic injustice. Power and the ethics of knowing. Oxford: Oxford University Press.
Friedman, Milton. 1953. The methodology of positive economics. In Essays in positive economics, Hrsg. Milton Friedman, 3–43. Chicago: University of Chicago Press.
Gigerenzer, Gerd. 2015. On the supposed evidence for libertarian paternalism. Review of Philosophy and Psychology 6 (3): 361–383.
Glennerster, Rachel, und Shawn Powers. 2016. Balancing risk and benefit. Ethical tradeoffs in running randomized evaluations. In The Oxford handbook of professional economic ethics, Hrsg. George DeMartino und Deirdre McCloskey, 367–400. Oxford: Oxford University Press.
Gneezy, Uri, und John A. List. 2013. The why axis. Hidden motives and the undiscovered economics of everyday life. New York: Public Affairs.
Greenberg, David H., und Mark Schroder. 1998. Digest of social experiments. Washington: Urban Institute Press.
Guala, Francesco. 2005. The methodology of experimental economics. Cambridge: Cambridge University Press.
Hacking, Ian. 1983. Representing and intervening. Introductory topics in the philosophy of natural science. Cambridge: Cambridge University Press.
Halpern, David. 2015. What works? The rise of ‘experimental’ government. Civil Service Quarterly. https://quarterly.blog.gov.uk/2015/01/27/what-works-the-rise-of-experimental-government/. Zugegriffen: 15. Juli 2017.
Halpern, David, und Daniele Mason. 2015. Radical incrementalism. Evaluation 21 (2): 143–149.
Hamermesh, Daniel S. 2013. Six decades of top economics publishing. Who and how? Journal of Economic Literature 51 (1): 162–172.
Harrison, Glenn W. 2013. Field experiments and methodological intolerance. Journal of Economic Methodology 20 (2): 103–117.
Harrison, Glenn W., und John List. 2004. Field experiments. Journal of Economic Literature 42 (4): 1009–1055.
Haynes, Laura, Owain Service, Ben Goldacre, und David Torgerson. 2012. Test, learn, adapt. Developing public policy with randomised controlled trials. London: Cabinet Office & Behavioral Insights Team.
Heckman, James J. 1992. Randomization and social policy evaluation. In Evaluating welfare and training programs, Hrsg. Charles E. Manski und Irwin Garfinkel, 201–230. Cambridge: Harvard University Press.
Heckman, James J., und Jeffrey A. Smith. 1995. Assessing the case for social experiments. The Journal of Economic Perspectives 9 (2): 85–110.
Heckman, James J., und Edward J. Vytlacil. 2007. Econometric evaluation of social programs, part II. Using the marginal treatment effect to organize alternative econometric estimators to evaluate social programs, and to forecast their effects in new environments. In Handbook of econometrics, Hrsg. James J. Heckman und Edward E. Leamer, 4875–5143. Amsterdam: Elsevier.
Heckman, James J., Jeffrey A. Smith, und Nancy Clements. 1997. Making the most out of programme evaluations and social experiments. Accounting for heterogeneity in programme impacts. The Review of Economic Studies 64 (4): 487–535.
Henrich, Joseph, Steven J. Heine, und Ara Norenzayan. 2010. The weirdest people in the world? Behavioral and Brain Sciences 33 (2–3): 61–83.
Heukelom, Floris. 2011. How validity travelled to economic experimenting. Journal of Economic Methodology 18 (1): 13–28.
Heukelon, Floris. 2014. Behavioral economics. A history. Cambridge: Cambridge University Press.
Infante, Gerardo, Guilhem Lecouteux, und Robert Sugden. 2016. Preference purification and the inner rational agent. A critique of the conventional wisdom of behavioural welfare economics. Journal of Economic Methodology 23 (1): 1–25.
Kessler, Judd, und Lise Vesterlund. 2015. External validity of laboratory experiments. The misleading emphasis on quantitative effects. In Handbook of experimental economic methodology, Hrsg. Guillaume R. Fréchette und Andrew Schotter, 391–405. Oxford: Oxford University Press.
Lepenies, Robert, und Magdalena Malecka. 2016. Nudges, Recht und Politik. Institutionelle Implikationen. Zeitschrift für Praktische Philosophie 3 (1): 487–530.
Lepenies, Robert, und Magdalena Malecka. (2019). Behaviour change: Extralegal, apolitical, scientistic? In Handbook of behavioural change and public policy, Hrsg. Silke Beck und Holger Strassheim, 344–360. UK: Edward Elgar Publishing.
Levitt, Steven D., und John A. List. 2007. What do laboratory experiments measuring social preferences reveal about the real world? Journal of Economic Perspectives 21 (2): 153–174.
Ludwig, Jens, Jeffrey R. Kling, und Sendhil Mullainathan. 2011. Mechanism experiments and policy evaluations. Journal of Economic Perspectives 25 (3): 17–38.
Mäki, Uskali. 2005. Models are experiments, experiments are models. Journal of Economic Methodology 12 (2): 303–315.
Mill, John Stuart. 1844. Essays on some unsettled questions of political economy. London: Longmans, Green, Reader, and Dyer.
Mirowski, Philip. 2013. Never let a serious crisis go to waste. London: Verso.
Morgan, Mary S. 2005. Experiments versus models. New phenomena, inference and surprise. Journal of Economic Methodology 12 (2): 317–329.
Morvant-Roux, Solène, Isabelle Guérin, Marc Roesch, und Jean-Yves Moisseron. 2014. Adding value to randomization with qualitative analysis. The case of microcredit in rural Morocco. World Development 56 (4): 302–312.
Muralidharan, Karthik, Paul Niehaus, und Sandip Sukhtankar. 2017. General equilibrium effects of (improving) public employment programs. Experimental evidence from India. Working Paper No. 23838. Cambridge: National Bureau of Economic Research.
Ogden, Timothy. 2017. Angus Deaton. In Experimental conversations. Perspectives on randomized trials in development economics, Hrsg. Timothy Ogden, 37–48. Cambridge: MIT Press.
Open Science Collaboration. 2015. Estimating the reproducibility of psychological science. Science 349 (6251): 943–951.
Quigley, Muireann. 2013. Nudging for health. On public policy and designing choice architecture. Medical Law Review 21 (4): 588–621.
Reddy, Sanjay D. 2012. Randomise this! On poor economics. Review of Agrarian Studies 2 (2): 60–73.
Reiss, Julian. 2016. Thought experiments in economics and the role of coherent explanations. Studia Metodologiczne 36:113–130.
Roth, Alvin E. 2002. The economist as engineer. Game theory, experimentation, and computation as tools for design economics. Econometrica 70 (4): 1341–1378.
Schmidt, Klaus. 2009. The role of experiments for the development of economic theories. Perspektiven der Wirtschaftspolitik 10 (S1): 14–30.
Sukhtankar, Sandip. 2017. Replications in development economics. American Economic Review 107 (5): 32–36.
Svorenčík, Andrej. 2015. The experimental turn in economics. A history of experimental economics. Utrecht School of Economics Dissertation Series #29. Utrecht: University of Utrecht.
Thaler, Richard, und Cass Sunstein. 2008. Nudge. New Haven: Yale University Press.
Thoma, Johanna. 2016. On the hidden thought experiments of economic theory. Philosophy of the Social Sciences 46 (2): 129–146.
Tversky, Amos, und Daniel Kahneman. 1974. Judgment under uncertainty. Heuristics and biases. Science 185 (4157): 1124–1131.
World Bank Group. 2015. Mind, society, and behavior. World Development Report 2015. Washington: International Bank for Reconstruction and Development/The World Bank.
Author information
Authors and Affiliations
Corresponding author
Editor information
Editors and Affiliations
Rights and permissions
Copyright information
© 2019 Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature
About this chapter
Cite this chapter
Kersting, F., Lepenies, R., Neef, T. (2019). Mehr als nur Werkzeuge. In: Petersen, D., et al. Perspektiven einer pluralen Ökonomik. Wirtschaft + Gesellschaft. Springer VS, Wiesbaden. https://doi.org/10.1007/978-3-658-16145-3_9
Download citation
DOI: https://doi.org/10.1007/978-3-658-16145-3_9
Published:
Publisher Name: Springer VS, Wiesbaden
Print ISBN: 978-3-658-16144-6
Online ISBN: 978-3-658-16145-3
eBook Packages: Social Science and Law (German Language)