Skip to main content

Scheitern an Technik

  • Chapter
  • First Online:
Failure Management

Zusammenfassung

Wenn wir ein technisches System benutzen wollen, so stehen wir oft vor einer Herausforderung, egal ob es eine Kaffeemaschine ist oder ein Multifunktionsdrucker. Wie funktioniert das Ding und was muss ich tun, um eine Tasse Kaffee zu bekommen oder eine Seite einzuscannen? Während früher die Funktionsweise vieler Geräte meist offensichtlich war, hat die Digitalisierung unserer technischen Umwelt dazu geführt, dass wir immer öfter der Herausforderung nicht gerecht werden und scheitern. Im Gegensatz zu anderen Lebensfeldern wird Scheitern an Technik allerdings nicht dramatisch erlebt, es scheitert lediglich eine Handlung. Das Scheitern einer Benutzungshandlung kann vielfältige Ursachen haben: Es mangelt an Wissen und Können, die Aufgabe ist zu komplex, das User Interface des technischen Systems ist schlecht gestaltet und der organisationsbezogene Kontext verhindert den Handlungserfolg. Diese Ursachen wirken zum einen für sich, zum anderen stehen sie in Wechselwirkung miteinander. Handlungen können auf verschiedene Weise gesteuert werden: durch Nachdenken und Problemlösen, durch das Anwenden gelernter Regeln und durch Automatismen. Auf allen drei Ebenen der Handlungskontrolle sind Fehler und Scheitern letztlich unvermeidlich. Die Wahrscheinlichkeit des Scheitern kann aber insbesondere durch ein Human Centered Design verringert werden. Andererseits kann Scheitern aber auch durchaus gewollt sein, etwa wenn technische Sicherheitsbarrieren gefährliche Handlungen scheitern lassen, bevor sie ihre Schadwirkung entfalten. Die in der Automatisierungstechnik verfolgte Idee, den unzuverlässigen Menschen durch zuverlässige technische Systeme zu ersetzen und so ein Scheitern zu verhindern, funktioniert leider nicht, da Menschen auch als Entwickler, Programmierer und Konstrukteure von technischen Systemen scheitern können. Deshalb führt auch ein blindes Vertrauen von Benutzern in Technik gelegentlich zum Scheitern, wie zahlreiche kuriose Ereignisse bei der Benutzung von Navigationsgeräten zeigen.

This is a preview of subscription content, log in via an institution to check access.

Access this chapter

Chapter
USD 29.95
Price excludes VAT (USA)
  • Available as PDF
  • Read on any device
  • Instant download
  • Own it forever
eBook
USD 29.99
Price excludes VAT (USA)
  • Available as EPUB and PDF
  • Read on any device
  • Instant download
  • Own it forever
Softcover Book
USD 39.99
Price excludes VAT (USA)
  • Compact, lightweight edition
  • Dispatched in 3 to 5 business days
  • Free shipping worldwide - see info

Tax calculation will be finalised at checkout

Purchases are for personal use only

Institutional subscriptions

Similar content being viewed by others

Literatur

  • Bainbridge, L. (1983). Ironies of automation. Automatica, 19(6), 775–779.

    Article  Google Scholar 

  • BBC News. (1999). http://news.bbc.co.uk/2/hi/business/353563.stm. Zugegriffen: 7. Mai 2015.

  • Dreyfus, H. L. & Dreyfus, S. E. (1987). Künstliche Intelligenz. Von den Grenzen der Denkmaschine und dem Wert der Intuition. Rheinbeck bei Hamburg: Rowohlt.

    Google Scholar 

  • Focus.de. (2006). http://www.focus.de/panorama/welt/endlos-fahrt_aid_120342.html.

  • Franzen, A. E. (2011). Navi denkt, FahrerIn lenkt. Aktive vs. semi-passive Ortserfahrung beim Autofahren. Bachelorarbeit Naturwissenschaftlichen Fakultät der Paris-Lodron-Universität Salzburg, Fachbereich Psychologie.

    Google Scholar 

  • Frese, M. & Zapf, D. (Hrsg.). (1991). Fehler bei der Arbeit mit dem Computer: Ergebnisse von Beobachtungen und Befragungen im Bürobereich. Reihe „Schriften zur Arbeitspsychologie“ (Bd. 52, hrsg. von E. Ulich). Bern: Huber.

    Google Scholar 

  • Friedrich Schiller @ www.Wissen-im-Netz.info. http://www.wissen-im-netz.info/literatur/schiller/briefe/koerner/1788/90.htm. Zugegriffen: 07. Mai 2015.

  • Gentner, D., & Stevens, A. L. (Ed.). (1983). Mental models. Hillsdale: Lawrence Erlbaum Associates.

    Google Scholar 

  • Hacker, W., & Sachse, P. (2013). Allgemeine Arbeitspsychologie. Psychische Regulation von Wissens-, Denk- und körperlicher Arbeit (3. Aufl.). Göttingen: Hogrefe.

    Google Scholar 

  • Hurtienne, J., & Prümper J. (2003). Stress in the office: The influence of software-ergonomic quality. In D. Harris, V. Duffy, M. Smith, & C. Stephanidis (Hrsg.), Human-centred computing: Cognitive, social, and ergonomic aspects (S. 63–67). Mahwah: Lawrence Erlbaum Associates.

    Google Scholar 

  • Johnson-Laird, P. N. (1983). Mental models: Towards a cognitive science of language, inference, and consciousness. Cambridge: Harvard University Press.

    Google Scholar 

  • Kahneman, D. (2012): Schnelles Denken, Langsames Denken. München: Siedler Verlag.

    Google Scholar 

  • Keith, N. & Frese, M. (2008). Effectiveness of error management training: A meta-analysis. Journal of Applied Psychology, 93, 59–69.

    Article  Google Scholar 

  • Lazar, J., Jones, A., & Shneiderman, B. (2006). Workplace user frustration with computers: An exploratory investigation of the causes and severity. Behaviour & Information Technology, 25(3), 239–251.

    Article  Google Scholar 

  • Maeda, J. (2006). The laws of simplicity. Cambridge: MIT Press.

    Google Scholar 

  • Norman, D. A. (2013). Design of everyday things: Revised and expanded. New York: Basic Books. London: MIT Press.

    Google Scholar 

  • o. A. (2007). idrive – und wer fährt? Automobil-Tests. Heft 5, S. 44–49.

    Google Scholar 

  • Prensky, M. (2001) Digital natives, digital immigrants. On the horizon, 9(5), 1–6. MCB University Press.

    Google Scholar 

  • Rasmussen, J. (1983). Skills, rules, knowledge; signals, signs, and symbols, and other distinctions in human performance models. IEEE Transactions on Systems, Man and Cybernetics, 13, 257–266.

    Article  Google Scholar 

  • Rasmussen, J. (1987). Mental models and the control of action in complex environments. Selected papers of the 6th Interdisciplinary Workshop on Informatics and Psychology: Mental Models and Human-Computer Interaction 1. 41–69. Amsterdam: North-Holland Publishing Co.

    Google Scholar 

  • Reason, J. (1987). The Chernobyl errors. Bulletin of the British Psychological Science, 40, 201–206.

    Google Scholar 

  • Reason, J. (1994). Menschliches Versagen. Heidelberg: Spektrum Akademischer Verlag.

    Google Scholar 

  • rp-online.de. (2007). http://www.rp-online.de/panorama/ausland/lastwagenfahrer-drei-tage-in-kurve-gefangen-aid-1.2030139. Zugegriffen: 14. Mai 2015.

  • Shortnews.de. (2006). http://www.shortnews.de/id/617449/gb-navigationssystem-fuehrt-autofahrer-anstatt-in-dorf-auf-30-meter-klippe. Zugegriffen: 14. Mai 2015.

  • Spiegel Online.de. (2012). http://www.spiegel.de/reise/aktuell/navi-leitete-touristen-mit-mietwagen-ins-meer-a-821757.html. letzter. Zugegriffen: 14. Mai 2015.

  • Streitz, N. (1985). Die Rolle von mentalen und konzeptuellen Modellen in der Mensch-Computer-Interaktion: Konsequenzen für die Software-Ergonomie? Software-Ergonomie. 280–292.

    Google Scholar 

  • Triebe, J. K., & Wittstock, M. (1997). Die Gebrauchstauglichkeit von Software im Dienste einer gesundheitlichen Prävention. In R. Liskowsky et al. (Hrsg.), Software-Ergonomie 1997 (S. 297–306). Stuttgart: Teubner.

    Google Scholar 

Download references

Author information

Authors and Affiliations

Authors

Corresponding author

Correspondence to Hartmut Wandke .

Editor information

Editors and Affiliations

Rights and permissions

Reprints and permissions

Copyright information

© 2016 Springer-Verlag Berlin Heidelberg

About this chapter

Cite this chapter

Wandke, H. (2016). Scheitern an Technik. In: Kunert, S. (eds) Failure Management. Springer Gabler, Berlin, Heidelberg. https://doi.org/10.1007/978-3-662-47357-3_5

Download citation

  • DOI: https://doi.org/10.1007/978-3-662-47357-3_5

  • Published:

  • Publisher Name: Springer Gabler, Berlin, Heidelberg

  • Print ISBN: 978-3-662-47356-6

  • Online ISBN: 978-3-662-47357-3

  • eBook Packages: Business and Economics (German Language)

Publish with us

Policies and ethics