Über den Zusammenhang Zwischen Informationsmassen, Bayes-Risiko und Sensitivität bei Diagnostischen Tests

  • C. Gutenbrunner
Conference paper
Part of the Medizinische Informatik und Statistik book series (MEDINFO, volume 64)

Zusammenfassung

Um den Informationsgehalt eines Merkmals bzw. einer Merkmalsgruppe X über das Vorliegen einer Krankheit K zu quantifizieren, werden in der medizinischen Diagnostik verschiedene Maßzahlen („Informationsmaße“) verwendet. Diese lassen sich unterteilen in prävalenzabhängige Größen, wie die häufig verwendete Shannonsche Information, und solche, die nicht von der Prävalenz abhängen, wie die z.B. von Peev und Kaihara [7] verwendete Kullback-Leiblersche Divergenz. Das Problem, den durch Fehldiagnosen zu erwartenden Schaden (Verlust) zu minimieren, ist entscheidungstheoretischer Natur. Daher sollten die verwendeten Informationsmaße entscheidungstheoretisch interpretiert werden. Für eine wichtige Klasse von prävalenzunabhängigen Informationsmaßen, die von Csiszar [3] eingeführten f-Divergenzen, gaben F. Österreicher und D.Feldman[6] im Zusammenhang mit integralgeometrischen Betrachtungen eine Darstellung an, die eine solche Interpretation erlaubt. Zu den f-Divergenzen gehören u.a. die Kullback-Leiblerschen Informationen ([1],[2]), die Hellinger-Distanz (Matusita [5]), die X2-Abstandsfunktion und bis auf eine monotone Transformation die Renyischen Informationsmaße ([4]). Da durch die Voraussetzungen an die Funktion f in [6] einige wichtige f-Divergenzen ausgeschlossen werden (z.B.Kullback-Leibler-Informationen und X2-Abstand), zeigen wir hier eine modifizierte Darstellung, die allgemeinere f erlaubt und zudem entscheidungstheoretisch besser interpretierbar ist.

Preview

Unable to display preview. Download preview PDF.

Unable to display preview. Download preview PDF.

Literatur

  1. [1]
    KULLBACK, S., LEIBLER, R.A. (1951): On Information and Sufficiency. Ann. Math. Stat. 22, 79–86.CrossRefMATHMathSciNetGoogle Scholar
  2. [2]
    KULLBACK, S.: Information Theory and Statistics. Wiley, New York 1959.MATHGoogle Scholar
  3. [3]
    CSISZAR, I. (1967): Information-Type Measures of the Difference of Probability Distributions and Indirect Observations. Studia Sci. Math. Hung. 2, 299–318.MATHMathSciNetGoogle Scholar
  4. [4]
    RENYI, A. (1961): On Measures of Entropy and Information. Proc. IV. Berkeley Sympos. Math. Stat. Vol I. 547–561.MathSciNetGoogle Scholar
  5. [5]
    MATUSITA, K. (1951): On the Theory of Statistical Decision Funktions. Ann. Inst. Math. III, 17–35.Google Scholar
  6. [6]
    ÖSTERREICHER, F., FELDMANN, D.: Divergenzen von Wahrscheinlichkeitsverteilungen - integralgeometrisch betrachtet. (Manuskript).Google Scholar
  7. [7]
    PEEV, Ch.P., KAIHARA, S. (1981): A Method for Estimating Prognosis Based on Physician’s Decision-Making Process. Meth. Inform. Med. 20, 202–206.Google Scholar

Copyright information

© Springer-Verlag Berlin Heidelberg 1986

Authors and Affiliations

  • C. Gutenbrunner
    • 1
  1. 1.Abteilung Forstliche Biometrie und InformatikUniversität GöttingenDeutschland

Personalised recommendations