Explainable AI (ex-AI)


,,Explainable AI“ ist kein neues Gebiet. Vielmehr ist das Problem der Erklärbarkeit so alt wie die AI selbst, ja vielmehr das Resultat ihrer selbst. Während regelbasierte Lösungen der frühen AI nachvollziehbare ,,Glass-Box“-Ansätze darstellten, lag deren Schwäche im Umgang mit Unsicherheiten der realen Welt. Durch die Einführung probabilistischer Modellierung und statistischer Lernmethoden wurden die Anwendungen zunehmend erfolgreicher – aber immer komplexer und opak. Beispielsweise werden Wörter natürlicher Sprache auf hochdimensionale Vektoren abgebildet und dadurch für Menschen nicht mehr verstehbar. In Zukunft werden kontextadaptive Verfahren notwendig werden, die eine Verknüpfung zwischen statistischen Lernmethoden und großen Wissensrepräsentationen (Ontologien) herstellen und Nachvollziehbarkeit, Verständlichkeit und Erklärbarkeit erlauben – dem Ziel von ,,explainable AI“.


  1. 1.

    Bach S, Binder A, Montavon G, Klauschen F, Müller KR, Samek W (2015) On pixel-wise explanations for non-linear classifier decisions by layer-wise relevance propagation. Plos One 10(7):e0130140, doi:10.1371/journal.pone.0130140

    Article  Google Scholar 

  2. 2.

    Caruana R, Lou Y, Gehrke J, Koch P, Sturm M, Elhadad N (2015) Intelligible Models for Healthcare: Predicting Pneumonia Risk and Hospital 30-Day Readmission. In: 21th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining (KDD ’15), Sydney, 2015. ACM, doi:10.1145/2783258.2788613, pp 1721–1730

  3. 3.

    Girardi D, Küng J, Holzinger A (2015) A Domain-Expert Centered Process Model for Knowledge Discovery in Medical Research: Putting the Expert-in-the-Loop. In: Guo Y, Friston K, Aldo F, Hill S, Peng H (eds) Brain Informatics and Health, Lecture Notes in Computer Science LNCS 9250. Springer, Cham Heidelberg Berlin London Dordrecht New York, pp 389–398

    Google Scholar 

  4. 4.

    Holzinger K, Mak K, Kieseberg P, Holzinger A (2018) Can we trust Machine Learning Results? Artificial Intelligence in safety-critical Decision Support. ERCIM News 112(1):42–43

    Google Scholar 

  5. 5.

    Holzinger A, Plass M, Holzinger K, Crisan GC, Pintea CM, Palade V (2017) A Glass-Box Interactive Machine Learning Approach for Solving NP-hard Problems With The Human-in-the-Loop. arXiv:1708.01104

  6. 6.

    Lake BM, Ullman TD, Tenenbaum JB, Gershman SJ (2017) Building machines that learn and think like people. Behav Brain Sci 40(e253), doi:10.1017/S0140525X16001837

  7. 7.

    Lakkaraju H, Kamar E, Caruana R, Leskovec J (2017) Interpretable and Explorable Approximations of Black Box Models. arXiv:1707.01154

  8. 8.

    Letham B, Rudin C, McCormick TH, Madigan D (2015) Interpretable classifiers using rules and Bayesian analysis: Building a better stroke prediction model. Ann Appl Stat 9(3):1350–1371

    MathSciNet  Article  MATH  Google Scholar 

  9. 9.

    Mikolov T, Sutskever I, Chen K, Corrado GS, Dean J (2013) Distributed Representations of Words and Phrases and Their Compositionality. In: Burges CJC, Buttou L, Welling M, Ghahramani Z, Weinberger KQ (eds) Advances in Neural Information Processing Systems 26 (NIPS 2013). pp 3111–3119

  10. 10.

    Peters J, Janzing D, Schölkopf B (2017) Elements of Causal Inference: Foundations and Learning Algorithms. MIT Press, Cambridge (MA)

    Google Scholar 

  11. 11.

    Puppe F (1993) Einführung in Expertensysteme. Springer, Heidelberg

    Google Scholar 

  12. 12.

    Ribeiro MT, Singh S, Guestrin C (2016) Why Should I Trust You? Explaining the Predictions of Any Classifier. In: 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining, pp 1135–1144

  13. 13.

    Schewe S, Quak T, Reinhardt B, Puppe F (1996) Evaluation of a Knowledge-Based Tutorial Program in Rheumatology – A Part of a Mandatory Course in Internal Medicine. In: Frasson C, Gauthier G, Lesgold A (eds) International Conference on Intelligent Tutoring Systems (ITS 1996), LNCS 1986. Springer, Heidelberg, pp 531–539

    Google Scholar 

  14. 14.

    Sturm W, Schaefer T, Schreck T, Holzinger A, Ullrich T (2015) Extending the Scaffold Hunter Visualization Toolkit with Interactive Heatmaps. In: Borgo R, Turkay C (eds) EG UK Computer Graphics & Visual Computing CGVC 2015, University College London (UCL), Euro Graphics (EG), pp 77–84

  15. 15.

    Wick C (2017) Deep Learning. Informatik-Spektrum 40(1):103–107

    Article  Google Scholar 

Download references

Author information



Corresponding author

Correspondence to Andreas Holzinger.

Rights and permissions

Open Access This article is distributed under the terms of the Creative Commons Attribution 4.0 International License (https://creativecommons.org/licenses/by/4.0), which permits use, duplication, adaptation, distribution, and reproduction in any medium or format, as long as you give appropriate credit to the original author(s) and the source, provide a link to the Creative Commons license, and indicate if changes were made.

Reprints and Permissions

About this article

Verify currency and authenticity via CrossMark

Cite this article

Holzinger, A. Explainable AI (ex-AI). Informatik Spektrum 41, 138–143 (2018). https://doi.org/10.1007/s00287-018-1102-5

Download citation