Advertisement

Künstliche Intelligenz

Ein nützliches Werkzeug für den Radiologen?
  • B. SchützeEmail author
  • H. Schlieter
Informationstechnologie und Management

Zusammenfassung

Künstliche Intelligenz (KI) ist nicht im menschlichen Sinne intelligent, sie arbeitet anhand vom Menschen geschaffener Algorithmen, und die Ergebnisse basieren auf Daten der reellen Welt. Dabei gelten für KI alle rechtlichen Rahmenbedingungen, die auch in anderen Szenarien gelten, insbesondere Datenschutzrecht und auch das Medizinprodukterecht. KI liefert dabei maximal so gute Ergebnisse, wie es die Datenbasis, welche den Lerninhalt der KI bildete, erlaubt. Beinhalten die der KI zugrunde liegenden Daten beispielsweise eine Diskriminierung, so wird diese Diskriminierung von der KI gelernt; da KI nicht wirklich denkt, kann KI auch nicht die eigenen Ergebnisse reflektieren – nur einen Abgleich im Rahmen der Parameter der Vorgaben durch die Softwareentwickler durchführen. Wenn KI eingesetzt wird, muss daher zuvor die Frage nach den eingesetzten Algorithmen und der für die Entscheidung zugrunde liegenden Datenbasis geklärt werden und darauf basierend eine Prüfung erfolgen, ob die KI für den Einsatz geeignet ist. Auf Grund der fehlenden Möglichkeit eines echten menschlichen Denkens kann KI keinen Arzt ersetzen, diesen aber bei der täglichen Arbeit unterstützen.

Schlüsselwörter

Künstliche Intelligenz Digitalisierung Algorithmen Maschinelles Lernen Medizinische Informatik 

Artificial intelligence

A helpful tool for radiologists?

Abstract

Artificial intelligence (AI) is not intelligent in the human meaning—AI works on the basis of algorithms created by humans and the results of AI are based on real-world data. AI is regulated by all legal frameworks that also apply in other scenarios, in particular data protection law and medical device law. AI delivers results that are as good as the database that formed the learning content of the AI enables. If, for example, the data on which the AI is based contain discrimination, this discrimination is “learned” by the AI; since the AI does not really think, the AI cannot reflect its own results either—it can only make a comparison within the parameters of the specifications by the software developers. If AI is used, the question of the algorithms implemented and the database on which the decision is based must therefore be clarified beforehand and a check must be carried out based on this to determine whether the AI is suitable for use. Due to the missing possibility of real human thinking, AI cannot replace physicians, but can assist them in their daily work.

Keywords

Artificial intelligence Digitalization Algorithm Machine learning Medical computer science 

Notes

Einhaltung ethischer Richtlinien

Interessenkonflikt

B. Schütze und H. Schlieter geben an, dass kein Interessenkonflikt besteht.

Für diesen Beitrag wurden von den Autoren keine Studien an Menschen oder Tieren durchgeführt. Für die aufgeführten Studien gelten die jeweils dort angegebenen ethischen Richtlinien.

Literatur

  1. 1.
    McCarthy J, Minsky ML, Rochester N, Shannon CE (2006) A proposal for the Dartmouth summer research project on artificial intelligence, August 31, 1955. AI Mag 27(4):12.  https://doi.org/10.1609/aimag.v27i4.1904 CrossRefGoogle Scholar
  2. 2.
    Minsky M (Hrsg) (1968) Semantic information processing. MIT Press, CambridgeGoogle Scholar
  3. 3.
    Universität Oldenburg (2009) Schwache KI und Starke KI. http://www.informatik.uni-oldenburg.de/~iug08/ki/Grundlagen_Starke_KI_vs._Schwache_KI.html. Zugegriffen: 3. Aug. 2019Google Scholar
  4. 4.
    Dukino C (2019) Was ist Künstliche Intelligenz? Eine Definition jenseits von Mythen und Moden. https://blog.iao.fraunhofer.de/was-ist-kuenstliche-intelligenz-eine-definition-jenseits-von-mythen-und-moden. Zugegriffen: 3. Aug. 2019Google Scholar
  5. 5.
    Hammond K (2017) The periodic table of AI. https://www.datasciencecentral.com/profiles/blogs/the-periodic-table-of-ai. Zugegriffen: 3. Aug. 2019Google Scholar
  6. 6.
    bitkom (2019) KI Periodensystem. https://periodensystem-ki.de/. Zugegriffen: 3. Aug. 2019Google Scholar
  7. 7.
    DW Akademie (2019) Wenn der Richter mit Softwarehilfe urteilt. https://www.dw.com/de/wenn-der-richter-mit-softwarehilfe-urteilt/a-47174579. Zugegriffen: 3. Aug. 2019Google Scholar
  8. 8.
    FAZ (2019) Vom Computer zur Gefahr für die Gesellschaft erklärt. https://www.faz.net/aktuell/rhein-main/algorithmen-werden-in-amerika-bei-gerichtsprozessen-genutzt-16230589.html. Zugegriffen: 3. Aug. 2019Google Scholar
  9. 9.
    Reuters (2018) Amazon scraps secret AI recruiting tool that showed bias against women. https://www.reuters.com/article/us-amazon-com-jobs-automation-insight/amazon-scraps-secret-ai-recruiting-tool-that-showed-bias-against-women-idUSKCN1MK08G. Zugegriffen: 3. Aug. 2019Google Scholar
  10. 10.
    AW AlgorithmWatch gGmbH (2016) 2. Arbeitspapier: Überprüfbarkeit von Algorithmen. https://algorithmwatch.org/publication/zweites-arbeitspapier-ueberpruefbarkeit-algorithmen/. Zugegriffen: 18. Aug. 2019Google Scholar
  11. 11.
    Datenschutzkonferenz (2019) Entschließung der 97. Konferenz der unabhängigen Datenschutzaufsichtsbehörden des Bundes und der Länder: Hambacher Erklärung zur Künstlichen Intelligenz. https://www.datenschutzkonferenz-online.de/media/en/20190405_hambacher_erklaerung.pdf. Zugegriffen: 3. Aug. 2019Google Scholar
  12. 12.
    Hetmank S, Lauber-Rönsberg A (2018) Künstliche Intelligenz – Herausforderungen für das Immaterialgüterrecht. Gewerbl Rechtsschutz Urheberrecht 120(6):574–582Google Scholar
  13. 13.
    EUR-Lex (2017) Verordnung (EU) 2017/745 des Europäischen Parlaments und des Rates vom 5. April 2017 über Medizinprodukte. https://eur-lex.europa.eu/legal-content/DE/TXT/?uri=CELEX%3A32017R0745. Zugegriffen: 3. Aug. 2019 (zur Änderung der Richtlinie 2001/83/EG, der Verordnung (EG) Nr. 178/2002 und der Verordnung (EG) Nr. 1223/2009 und zur Aufhebung der Richtlinien 90/385/EWG und 93/42/EWG des Rates)Google Scholar
  14. 14.
    Gesellschaft für Informatik e. V. (2018) Explainable AI (ex-AI). https://gi.de/informatiklexikon/explainable-ai-ex-ai/. Zugegriffen: 18. Aug. 2019Google Scholar
  15. 15.
    Defense Advanced Research Projects Agency (2017) The U.S. military wants its autonomous machines to explain themselves. https://www.technologyreview.com/s/603795/the-us-military-wants-its-autonomous-machines-to-explain-themselves/. Zugegriffen: 18. Aug. 2019Google Scholar
  16. 16.
    Samek W, Montavon G, Vedaldi A, Hansen LK, Muller K‑R (Hrsg) (2019) Explainable AI: interpreting, explaining and visualizing deep learning. Lecture notes in artificial intelligenceGoogle Scholar

Copyright information

© Springer Medizin Verlag GmbH, ein Teil von Springer Nature 2019

Authors and Affiliations

  1. 1.Arbeitsgruppe „Datenschutz und IT-Sicherheit im Gesundheitswesen“ (DIG)Deutsche Gesellschaft für Medizinische Informatik, Biometrie und Epidemiologie (GMDS)KölnDeutschland
  2. 2.Fachgruppe Digital HealthGesellschaft für Informatik e. V. (GI)BonnDeutschland

Personalised recommendations