Auszug
Fehler, Irrtümer und Pannen begleiten menschliches Handeln — anscheinend unentrinnbar. „Es irrt der Mensch, so langer strebt“, wusste Goethes Faust. „Errare humanum est“, heißt es schon bei den alten Römern. Dass etwas nicht so funktioniert, wie es soll, gehört zum Leben, zum Alltagshandeln und damit auch zum beruflichen Handeln in Hochrisikobereichen.
Access this chapter
Tax calculation will be finalised at checkout
Purchases are for personal use only
Preview
Unable to display preview. Download preview PDF.
Literatur
Amalberti, R. (2001). The paradoxes of almost totally safe transportation systems. Safety Science 37(2–3) 109–126.
Chapanis, A. (1951). Theory and method for analyzing errors in man-machine systems. Annals of the New York Academy of Science 51, 1179–1203.
CIRS (2001). Critical Incident Reporting System [online document]. URL: http://www.cirsmedical.ch/demo/cirs/cirshelp.phpxx (gelesen 20. 08. 2007).
Dekker, S. (2005). Ten questions about human error. A new view of human factors and system safety London: Lawrence Erlbaum.
Dekker, S. (2002). The field guide to human error investigations. Aldershot: Ashgate.
Dörner, D. (1989). Die Logik des Misslingens. Reinbek bei Hamburg: Rowohlt.
Dörner, D., Kreuzig, H. W., Reither, F. & Stäudel, T. (Hrsg.) (1983). Lohhausen. Vom Umgang mit Unbestimmtheit und Komplexität. Bern: Huber.
Dörner, D. & Schaub, H. (1995). Handeln in Unbestimmtheit und Komplexität. Organisationsentwicklung, 14, 34–47.
Dörner, D. (1999). Bauplan für eine Seele. Reinbek bei Hamburg: Rowohlt.
Egger, M. (2001). Arbeitswissenschaft im Kontext sich wandelnder Rahmenbedingungen. Mering: Hampp.
Fischhoff, B. (1975). Hindsight is not foresight: The effect of outcome knowledge on judgement under uncertainty. Journal of Experimental Psychology: Human Perception and Performance, 1, 288–299.
Fiske, S. T. & Taylor, S. E. (1984). Social cognition. Reading, Mas: Addison-Wesley.
Freud, S. (1901). Psychopathologie des Alltagslebens. Reprint 1948. Frankfurt a. M.: Fischer.
Gauss, C. F. (1823). Theoria combinationis observationum erroribus minimis obnoxiae. Commentationes societ. reg. Scient. Götting. rec. Vol V. Hrsg. 1880 von der Königlichen Gesellschaft der Wissenschaften. Leipzig: Teubner.
Giesa, H. G. & Timpe, K.-P. (2002). Technisches Versagen und menschliche Zuverlässigkeit: Bewertung der Zuverlässigkeit in Mensch-Maschine-Systemen. In K.-P. Timpe, T. Jürgensohn & H. Kolrep (Hrsg.), Mensch-Maschine-Systemtechnik (S. 63–106). Berlin: Symposion.
Goethe, J.W.v. (1820). Hör-, Schreib-und Druckfehler. Kunstund Altertum, II, 177–185.
Hacker, W. (1998). Allgemeine Arbeitspsychologie. Psychische Regulation von Arbeitstätigkeiten. Bern: Huber.
Hagen, E. & Mays, G. (1981). Human Factors Engineering in the U.S. Nuclear Arena. Nuclear Safety, 17(3) 315–326.
Hofinger, G. (2003). Fehler und Fallen beim Entscheiden in kritischen Situationen. In S. Strohschneider (Hrsg.), Entscheiden in kritischen Situationen. Herausgegeben im Auftrag der Plattform „Menschen in komplexen Arbeitswelten“ e. V. (S. 115–136). Frankfurt a. M.: Verlag für Polizeiwissenschaften.
Hollnagel, E. (1993). Human reliability analysis: Context and control. London: Academic Press.
Hollnage, E., Woods, D. & Leveson, N. (2006). Resilience engineering. Concepts and precepts. Aldershot: Ashgate.
Kahneman, D., Slovic, P. & Tversky, A. (1982). Judgement under uncertainty: Heuristics and biases. Cambridge UK: Cambridge University Press.
Kirwan, B. (1994). A guide to practical human reliability assessment. London: Taylor & Francis.
Klumb, P. L. (1995). Attention, action, absent-minded aberrations. A behaviour-economic approach. Frankfurt a. M.: Lang.
Mach, E. (1905). Erkenntnis und Irrtum, Skizzen zur Psychologie der Forschung. Dordrecht: D. Reidel.
Meister, D. (1971). Human factors: Theory and practice. Hoboken: Wiley.
Metzger, W. (1936). Gesetze des Sehens. Frankfurt a. M.: Kramer.
Miller, M. W. & Turnbull, W. (1990). The counter factual fallacy. Confusing what might have been with what ought to have been. Social Justice Research, 4, 1–9.
Necker, I. A. (1832). Ueber einige merkwürdige optische Phänomene. Annalen der Physik, 103(3) 497–504.
Norman, D. A. (1981). Categorization of action slips. Psychological Review, 88(1), 1–15.
Perrow, C. (1999). Normal accidents. Living with high-risk technologies. Princeton, NJ: Princeton University Press.
Rasmussen, J. (1983). Skills, rules, knowledge — signals, signs and symbols and other distinctions in human performance models. IEEE transactions on systems, Man and cybernetics, Vol. SMC-13 No. 3, 257–267.
Rasmussen, J. (1982). Human errors — A taxonomy for describing human malfunction in industrial installations. Journal of Occupational Accidents, 4/1982, 311–333.
Reason, J. (1990). Human error. Cambridge UK: Cambridge University Press.
Reason, J. (1997). Managing the risk of organisational accidents. Aldershot: Ashgate.
Reason, J. (2001). Foreword. In B. Strauch (Ed.), Investigating human error: incidents, accidents, and complex systems (XII–XVII). Aldershot: Ashgate.
Rigby, L. (1970). The nature of human error, 24 th Annual Technical Conference Transactions of the ASQC, pp. 457–466. Milwaukee: American Society for Quality Control.
Senders, J. W. & Moray, N. P. (1991). Human error: Cause, prediction, and reduction. Hillsdale, N. J.: Erlbaum.
Sharit, J. (2006). Human Error. In G. Salvendy (Ed.), Handbook of human factors and ergonomics, 3rd Edition (pp. 708–760). Hoboken, New Jersey: Wiley & Sons.
St. Pierre, M., Hofinger, G. & Buerschaper, C. (2007). Crisis management in acute care settings: Human factors and team psychology in a high stakes environment. New York u. a.: Springer.
Stanton, N. A., Salmon, P. M., Walker, G. H., Barber, C. & Jenkins, D. P. (2005). Human factors methods. A practical guide for engineering and design. Aldershot: Asghate.
Strauch, B. (2001). Investigating human error: incidents, accidents, and complex systems. Aldershot: Ashgate.
Swain, A. D. & Guttman, H. E. (1983). Handbook of human reliability analysis with emphasis on nuclear power plant applications NUREG/CR-1278. Albuquerque: Sandia Laboratories.
Sully, J. (1881). illusions. A psychological study. London: Kegan.
Turner, B. A. (1978). Man-made disasters. London: Wykeham.
Vaughan, D. (1997). The Challenger launch decision: Risky technology, culture, and deviance at NASA. Chicago: University of Chicago Press.
Wallace, B. & Ross, A. (2006). Beyond human error. Taxonomies and safety sciences. Boca Raton, London, New York: Taylor & Francis.
Wason, P. C. (1960). On the failure to eliminate hypotheses in a conceptual task. Quarterly Journal of Experimental Psychology, 12, 129–140.
Wehner, T. (1992). Sicherheit als Fehlerfreundlichkeit. Opladen: Westdeutscher Verlag.
Wehner, T. (1984). Im Schatten des Fehlers — Einige methodisch bedeutsame Arbeiten zur Fehlerforschung. Bremer Beiträge zur Psychologie, 34. Bremen: Universität Bremen.
Wehner, T., Mehl, K. & Dieckmann, P. (im Druck). Handlungsfehler und Fehlerprävention. In U. Kleinbeck & K.-H. Schmidt (Hrsg.), Enzyklopädie der Psychologie — Band Arbeitspsychologies. Göttingen: Hogrefe.
Weick, K. & Sutcliffe, R. (2001). Managing the unexpected. Assuring high performance in an age of complexity. San Francisco, CA: Jossey-Bass.
Weimer, H. (1925). Psychologie der Fehler. Leipzig: Klinkhardt.
Willis, G. (1992). Failure modes and effects analysis in clinical engineering. Journal of Clinical Engineering, 17(1), 59–63.
Editor information
Editors and Affiliations
Rights and permissions
Copyright information
© 2008 Springer Medizin Verlag Heidelberg
About this chapter
Cite this chapter
Hofinger, G. (2008). Fehler und Unfälle. In: Badke-Schaub, P., Hofinger, G., Lauche, K. (eds) Human Factors. Springer, Berlin, Heidelberg. https://doi.org/10.1007/978-3-540-72321-9_3
Download citation
DOI: https://doi.org/10.1007/978-3-540-72321-9_3
Publisher Name: Springer, Berlin, Heidelberg
Print ISBN: 978-3-540-72320-2
Online ISBN: 978-3-540-72321-9
eBook Packages: Humanities, Social Science (German Language)