Skip to main content

Schließen mit Unsicherheit

  • 46k Accesses

Part of the Computational Intelligence book series (CI)

Zusammenfassung

Dass eine zweiwertige Logik beim Schließen im Alltag zu Problemen führt, haben wir in Kap. 4 an Hand des Tweety-Problems aufgezeigt. In diesem Beispiel führen die Aussagen Tweety ist ein Pinguin, Alle Vögel können fliegen und Pinguine sind Vögel zu der Folgerung Tweety kann fliegen. Interessant wäre zum Beispiel eine Sprache, in der es möglich ist, die Aussage Fast alle Vögel können fliegen zu formalisieren und darauf dann Inferenzen durchzuführen. Die Wahrscheinlichkeitsrechnung stellt hierfür eine bewährte Methode bereit, denn durch die Angabe eines Wahrscheinlichkeitswertes lässt sich die Unsicherheit über das Fliegen von Vögeln gut modellieren. Wir werden zeigen, dass etwa eine Aussage wie 99 % aller Vögel können fliegen zusammen mit Wahrscheinlichkeitslogik zu korrekten Schlüssen führt.

This is a preview of subscription content, access via your institution.

Buying options

Chapter
USD   29.95
Price excludes VAT (USA)
  • DOI: 10.1007/978-3-658-13549-2_7
  • Chapter length: 54 pages
  • Instant PDF download
  • Readable on all devices
  • Own it forever
  • Exclusive offer for individuals only
  • Tax calculation will be finalised during checkout
eBook
USD   29.99
Price excludes VAT (USA)
  • ISBN: 978-3-658-13549-2
  • Instant PDF download
  • Readable on all devices
  • Own it forever
  • Exclusive offer for individuals only
  • Tax calculation will be finalised during checkout
Abb. 7.1
Abb. 7.2
Abb. 7.3
Abb. 7.4
Abb. 7.5
Abb. 7.6
Abb. 7.7
Abb. 7.8
Abb. 7.9
Abb. 7.10
Abb. 7.11
Abb. 7.12
Abb. 7.13
Abb. 7.14
Abb. 7.15
Abb. 7.16
Abb. 7.17

Notes

  1. 1.

    Die berechneten Wahrscheinlichkeiten können nur dann für weitergehende Aussagen benutzt werden, wenn die gemessene Stichprobe (100 Fahrzeuge) repräsentativ ist. Andernfalls können nur Aussagen über die beobachteten 100 Fahrzeuge gemacht werden.

  2. 2.

    Für Definitionen von Sensitivität und Spezifität siehe (7.16) und (7.17)

  3. 3.

    Siehe http://www.prostata.de/pca_haeufigkeit.html für einem 55-jährigen Mann.

  4. 4.

    Der Autor ist kein Mediziner. Daher sollten diese Berechnungen von eventuellen Betroffenen nicht als Grundlage für persönliche Entscheidungen verwendet werden. Gegebenenfalls ist ein Facharzt beziehungsweise die einschlägige Fachliteratur zu konsultieren.

  5. 5.

    Eine Menge von probabilistischen Gleichungen heißt konsistent, wenn es mindestens eine Lösung (das heißt mindestens ein Verteilung) gibt, die alle Gleichungen erfüllt.

  6. 6.

    Der Leser möge dieses Resultat durch Maximierung der Entropie unter der Normierungsbedingung berechnen (Aufgabe 5).

  7. 7.

    QP([Pinguin=ja]-|> [Fliegt=ja]) ist eine alternative Form der PIT-Syntax von QP([Fliegt=ja] | [Pinguin=ja]).

  8. 8.

    Das Projekt wurde finanziert vom Land Baden-Württemberg im Rahmen der Innovativen Projekte, von der AOK Baden-Württemberg, der Hochschule Ravensburg-Weingarten und vom Krankenhaus 14 Nothelfer in Weingarten.

  9. 9.

    Dieser negative Befund wird als „unspezifische Bauchschmerzen“, (engl. non specific abdominal pain) oder NSAP bezeichnet.

  10. 10.

    Die Aufgabe, aus einer Menge von Daten eine Funktion zu generieren, wird als maschinelles Lernen bezeichnet. Hierauf wird in Kap. 8 ausführlich eingegangen.

  11. 11.

    Eine Version mit eingeschränkter Funktionalität ist ohne Passwort zugänglich.

  12. 12.

    Statt einzelner numerischer Werte können hier auch Intervalle (beispielsweise \([0{,}06,0{,}12]\)) verwendet werden.

  13. 13.

    Für eine systematische Einführung in das maschinelle Lernen verweisen wir auf Kap. 8.

  14. 14.

    Der Unterschied zu einem Bayesnetz liegt z. B. darin, dass die Regeln noch mit Wahrscheinlichkeitsintervallen versehen sind und erst nach Anwendung des Prinzips maximaler Entropie ein eindeutiges Wahrscheinlichkeitsmodell erzeugt wird.

  15. 15.

    Ambulant beobachten bedeutet, dass der Patient nach Hause entlassen wird.

  16. 16.

    Bei der Naive-Bayes-Methode wird die Unabhängigkeit aller Attribute angenommen und mit Erfolg auf die Textklassifikation angewendet (siehe Abschn. 8.7).

  17. 17.

    Die binären Variablen J und M stehen für die beiden Ereignisse „John ruft an“, beziehungsweise „Mary ruft an“, Al für „Alarmsirene ertönt“, Ein für „Einbruch“ und Erd für „Erdbeben“.

  18. 18.

    Für den Fall eines Knotens ohne Vorgänger ist das Produkt in dieser Summe leer. Hierfür setzen wir den Wert 1 ein, denn die CPT für Knoten ohne Vorgänger enthält mit der A-priori-Wahrscheinlichkeit genau einen Wert.

  19. 19.

    Wenn zum Beispiel die drei Knoten X 1, X 2, X 3 einen Zyklus bilden, dann gibt es die Kanten \((X_{1},X_{2})\), \((X_{2},X_{3})\) und \((X_{3},X_{1})\), wobei X 3 den Nachfolger X 1 hat.

  20. 20.

    Die auch nicht immer ganz einfach sein kann.

  21. 21.

    In Abschn. 8.7, beziehungsweise in Aufgabe 17 werden wir zeigen, dass die Scores äquivalent sind zum Spezialfall Naive-Bayes, das heißt zur Annahme, alle Symptome sind bedingt unabhängig gegeben die Diagnose.

Author information

Authors and Affiliations

Authors

Corresponding author

Correspondence to Wolfgang Ertel .

Rights and permissions

Reprints and Permissions

Copyright information

© 2016 Springer Fachmedien Wiesbaden

About this chapter

Cite this chapter

Ertel, W. (2016). Schließen mit Unsicherheit. In: Grundkurs Künstliche Intelligenz. Computational Intelligence. Springer Vieweg, Wiesbaden. https://doi.org/10.1007/978-3-658-13549-2_7

Download citation