Denkfehler bei diagnostischen Entscheidungen

Cognitive errors in diagnostic decision making

Zusammenfassung

Geschätzte 10–15 % unserer Diagnosen sind falsch und können zu abwendbaren, gefährlichen Krankheitsverläufen führen. Für einen Großteil dieser Fehldiagnosen sind Denkfehler im diagnostischen Prozess verantwortlich.

Unsere medizinisch-diagnostischen Entscheidungen basieren auf einem intuitivem „System 1“ (Blickdiagnose) und einem analytischem „System 2“ (Differentialdiagnose), welche durch unbewusste Faktoren (Bias) beeinflusst werden und zu Denkfehlern führen.

Solche kognitiven Verzerrungen können auf Systemebene und Individualebene positiv beeinflusst werden. Dem Einzelnen helfen im diagnostischen Prozess Metakognition (inneres Zurücktreten vom Entscheidungsprozess) und Debiasingstrategien, wie Verifikation, Falsifikation und Ausschluss möglicher gefährlicher Verlaufsformen, zu besseren diagnostischen Entscheidungen.

Summary

Approximately 10–15% of our diagnostic decisions are faulty and may lead to unfavorable and dangerous outcomes, which could be avoided. These diagnostic errors are mainly caused by cognitive biases in the diagnostic reasoning process.

Our medical diagnostic decision-making is based on intuitive “System 1” and analytical “System 2” diagnostic decision-making and can be deviated by unconscious cognitive biases.

These deviations can be positively influenced on a systemic and an individual level. For the individual, metacognition (internal withdrawal from the decision-making process) and debiasing strategies, such as verification, falsification and rule out worst-case scenarios, can lead to improved diagnostic decisions making.

Einleitung

Jeder Arzt möchte nach Möglichkeit richtige Diagnosen stellen, doch leider scheint das nicht immer so zu gelingen, wie es wünschenswert wäre [1,2,3,4]. Diagnostische Fehlentscheidungen wirken sich auf die Gesundheit, die Lebensqualität und Lebenslänge der Patienten, sowie mit den zunehmenden therapeutischen Möglichkeiten auch auf die Gesamtbehandlungskosten aus. Letzteres v. a. durch die zumeist hohen Kosten einer zu spät begonnenen korrekten Therapie [3, 4]. Es sind sehr oft unbewusste Denkfehler im diagnostischen Prozess, die unsere Fähigkeit, eine richtige Diagnose zu stellen, beeinflussen [5]. Im Folgenden soll auf die Hintergründe von Diagnosefehlern eingegangen werden und der diagnostische Prozess, mögliche Denkfehler und Beeinflussungen durch Bias, sowie Vermeidungsstrategien (v. a. auf individueller Ebene), erläutert werden.

Hintergrund

Das Stellen der Diagnose nimmt eine zentrale Stellung im ärztlichen Tun ein, da durch die Klassifizierung und Benennung der Krankheit, eine Aussage über das zugrundeliegende Problem getroffen wird und damit auch schon oft die Weichen für den einzuschlagenden therapeutischen Weg gestellt werden [1, 6]. Leider ist es oft gar nicht möglich, eine exakte Diagnose zu stellen. In der Allgemeinpraxis kommt es nur in ca. 50 % der Fälle zu einer Diagnose bzw. zu einer Klassifizierung von Krankheitsbildern, bei den anderen 50 % sind es nur beschreibende Symptomgruppen und Einzelsymptome, wie z. B. Fieber und Halsschmerzen [3, 6].

Die Ausführlichkeit der Diagnostik richtet sich nach den Notwendigkeiten, Möglichkeiten und Zielsetzungen der Situation. So reicht im Notfall das Symptom des Atem- bzw. Kreislaufstillstandes um mit einer Reanimation zu beginnen. Das primäre Ziel ist, den drohenden Schaden abzuwenden und in weiterer Folge reversible Ursachen zu behandeln. Erst nach Wiederherstellung des spontanen Kreislaufs und der primären Stabilisierung wird versucht, eine (er)klärende Diagnose zu stellen, die zur definitiven Therapie führt [7].

Je nach Studie sind geschätzte 10–15 % unserer Diagnosen falsch [8]. Wobei als Diagnosefehler eine unterlassene, verzögerte oder falsche Diagnosestellung bezeichnet wird, ebenso wie das Unterlassen angebrachter Untersuchungen, Anordnung von nichtindizierten Untersuchungen und Tests, sowie dem Versagen auf Befunde adäquat zu reagieren [2, 9,10,11].

Die Rate an Fehldiagnosen ist in der Radiologie und der Pathologie mit 2–5 % am niedrigsten und in der klinischen Medizin, und hier der Notfallmedizin, der Allgemeinmedizin und der Inneren Medizin, mit bis zu 15 % am höchsten [8, 12]. Die am häufigsten übersehene Diagnose mit fatalem Ausgang ist die Pulmonalembolie, die in bis zu 55 % der Fälle erst in der Autopsie erkannt wird [8, 13].

Es wird geschätzt, dass in den USA Fehldiagnosen für den Tod von 10 % der Patienten verantwortlich sind [2]. Tehrani et al. [14] konnten zeigen, dass Diagnosefehler (mit knapp 30 %) der häufigste Grund für Kunstfehlerprozesse in einem Zeitraum von 25 Jahren in den USA waren. In Deutschland waren 2015 knapp 19 % der 12.000 vermuteten Arzthaftungsfälle (die von den Gutachterkommissionen und Schlichtungsstellen der deutschen Ärztekammern behandelt wurden) Diagnose-assoziiert [15].

Zwaan et al. [5] konnten in einer Studie bei 66 % der untersuchten Diagnosen einen Fehler im Diagnoseprozess nachweisen, wobei es in 13,8 % aller Fälle zu einer Fehldiagnose kam, die bei 11,3 % (aller Patienten) einen Schaden zur Folge hatte. Als Schaden wurde dabei jeder Nachteil für den Patienten gewertet, der zu einem verlängerten oder intensiviertem Aufenthalt führte oder eine körperliche Beeinträchtigung (inkl. Tod) zur Folge hatte. Bei 4 % der Patienten wurde allerdings eine falsche Diagnose gestellt, ohne dass ein Fehler im diagnostischen Prozess erkennbar war. Die häufigsten Fehler im diagnostischen Prozess, die zu einem Schaden führten, standen im Zusammenhang mit der Anordnung oder Interpretation von Labortests.

Prinzipiell geht man davon aus, dass fehlerhafte Diagnosen in 28 % der Fälle durch kognitive Irrtümer, in 19 % systembedingt und in 46 % system- und kognitionsbedingt entstehen [16].

Weniger als 3 % der medizinischen Fehldiagnosen passieren aber durch mangelndes Wissen. Es sind in 14 % Fehler in der Datenerhebung, in 50 % mangelhafte Integration der vorhandenen Informationen und in 33 % Fehler in der Datenverifikation, die zu falschen Diagnosen führen. Letzteres v. a. durch eine vorschnell gestellte Diagnose (Premature Closure) und dem Nichtanordnen von angebrachten Tests (um eine Diagnose zu bestätigen oder auszuschließen), bzw. dem Versäumnis, auf vorliegende Untersuchungsergebnisse zu reagieren [16,17,18].

Seit dem im Jahr 2000 erschienen Landmark-Report „To err is human: Building a Safer Health System“ [19], ist in der Medizinwelt das Thema Patientensicherheit in den Vordergrund gerückt und hat vielerorts zu einem Umdenken geführt [2, 20]. Allerdings wurde in diesem Report wenig Augenmerk auf Fehler in der Diagnosestellung gelegt [2]. Von der WHO-Arbeitsgruppe für Patientensicherheit wurde das Thema „Diagnosefehler“ als Forschungsschwerpunkt für 2008 gewählt [21]. 2015 erschien nun der Report „Improving Diagnosis in Health Care“[2], indem das kritische Thema der Diagnosefehler sehr ausführlich behandelt wird. Versuche, diagnostische Fehler zu messen und zugrunde liegende Ursachen zu analysieren, halten sich dennoch in überschaubaren Grenzen. Es wird u. a. vermutet, dass ein mangelndes Verständnis von Entscheidungsbias, das Vermeiden von Diskussionen über Fehldiagnosen und die Schwierigkeiten, solche Fehler zu definieren und zu identifizieren, wesentliche Gründe für diesen Mangel an Beachtung für das Thema sind [2, 4, 11, 21].

Der Diagnoseprozess

Im klinischen Alltag unterscheiden wir üblicherweise zwischen der Blickdiagnose und der Differentialdiagnose (Abb. 1). Unter Blickdiagnose versteht man die unbewusste, intuitive Diagnosestellung, durch das Erkennen von Mustern, sogenannten Heuristiken. Die Differentialdiagnose hingegen ist das bewusste, analytische Abwägen der klinischen Symptomatik, der vorhandenen Befunde und der Krankheitswahrscheinlichkeiten mit der Bildung von Verdachtsdiagnosen, die im weiteren Verlauf entweder bestätigt oder verworfen werden [2, 18, 22]. Psychologen nennen dieses intuitive Entscheiden der Blickdiagnose „System 1“ bzw. „Schnelles Denken“ und das analytische differentialdiagnostische Überlegen „System 2“ bzw. „Langsames Denken“. Diese Denk- und Entscheidungsmechanismen ziehen sich durch viele Bereiche in unserem Leben [1, 20].

Abb. 1
figure1

Diagnosefindung durch eine intuitiv-spontane Blickdiagnose oder analytisch-logische Differentialdiagnose. Grafik nach [2, 18, 30]

System 1 – Intuition und Blickdiagnose

Im intuitiven diagnostischen Entscheiden (System 1 – Schnelles Denken) spielt unsere Erfahrung eine große Rolle, die mit wenigen Informationen ein Muster erkennt und fast reflexartig eine Diagnose stellt. Informationstheoretisch spricht man bei dieser Mustererkennung von einer Heuristik, die im Normalfall mit hoher Wahrscheinlichkeit rasch zur richtigen Diagnose führt. Diese Mustererkennung funktioniert bei typischen und häufigen Krankheitsbildern sehr gut, ist aber bei unbekannten oder ungewöhnlichen Situationen stark fehleranfällig für unbewusste Störeinflüsse bzw. Verzerrungen in unserem Denken, einem sogenannten kognitiven Bias [2, 22,23,24,25].

Beispiele für kognitive Verzerrungen (Bias) sind in Tab. 1 zusammengestellt.

Tab. 1 Auflistung von häufigen Bias mit Erklärung

System 2 – Rationale Analyse und Differentialdiagnose

Das logisch-rationale bzw. differentialdiagnostische Überlegen (System 2 – langsames Denken) findet vor allem bei unklaren, unbekannten bzw. komplexen Problemen oder bei fehlender Erfahrung seine Anwendung. Man geht von der Prämisse aus, dass man unter Abwägen aller verfügbaren und möglichen Informationen zur besten Entscheidung kommt. Allerdings zu dem Preis des hohen (zeitlichen und materiellen) Aufwandes und der Begrenzung, dass es niemals möglich ist, „allwissend“ eine Entscheidung zu treffen [2, 22, 24].

Viele Diagnosen können initial nur mit einer bestimmten Wahrscheinlichkeit gestellt oder ausgeschlossen werden und es bleibt oft eine statistische Unsicherheit bestehen, wie in Abb. 2 dargestellt wird [2, 26].

Abb. 2
figure2

Diagnosewahrscheinlichkeit als Kontinuum zwischen Krankheitsausschluss und -bestätigung. Grafik nach [26, 55]

Analytisch betrachtet beginnt dieser Diagnoseprozess (Diagnostic Reasoning) bei der Anamneseerhebung und der klinischen Untersuchung, wo aufgrund der gefundenen Hinweise („Cue acquisition“) Verdachtsdiagnosen gebildet werden („Hypothesis generation“). In diese Überlegungen fließen differentialdiagnostisch dazu gehörende, statistisch häufig auftretende, Erkrankungen mit ein. Ebenso wie bedrohliche Diagnosen, deren Übersehen schwere Folgen für den Patienten nach sich ziehen können. Letztere werden auch als „Abwendbare gefährliche Verläufe“ oder „Rule out worst-case scenarios“ (ROWS) bezeichnet. Die Interpretation weiterer diagnostischer Hinweise aus Anamnese, körperlicher Untersuchung und angeordneten Tests helfen, die diagnostischen Hypothesen zu bestätigen oder auszuschließen („Cue interpretation“). Die verbleibende hypothetische Diagnose wird nun evaluiert, was den Prozess der Verifikation und Falsifikation einschließt („Hypothesis evaluation“) [2, 3, 6, 18, 22, 26, 27]. Wenn sich in diesem Diagnoseprozess Widersprüchlichkeiten ergeben oder die Diagnose nicht gestellt werden kann, werden (zumeist automatisch) einer oder mehrerer dieser Schritte wiederholt [2].

Abb. 3 stellt den Diagnoseprozess grafisch dar.

Abb. 3
figure3

Analytisch-deduktiver Prozess der Diagnosefindung (Diagnostic Reasoning). Grafik nach [2, 26]

Dualer Entscheidungsprozess im Alltag

Die Trennung zwischen den beiden Systemen besteht jedoch nur in der Theorie. Wenn wir ein (Krankheits‑)Muster erkennen, entscheiden wir im Normalfall nach „System 1“, also intuitiv. Erkennen wir es nicht oder finden sich nach initialer Blickdiagnose Fakten, die nicht passen (sofern wir nicht einem kognitiven Bias erliegen und diese Fakten negieren), wechseln wir in das „System 2“ und arbeiten – aufbauend auf Leitsymptome oder Befunde – unsere differentialdiagnostischen Hypothesen ab, wobei wir versuchen, schwerwiegende (bedrohliche) Diagnosen möglichst auszuschließen [3, 22, 28]. Zumeist laufen aber beide Denkarten parallel ab, was auch als „Dual Process Theory“ bezeichnet wird (Abb. 4, [2, 29]). Der abschließende Schritt in der Diagnosestellung ist die Überprüfung der Arbeitsdiagnose (Hypothesis Evalution). Einerseits, ob sie schlüssig mit den vorhandenen und neu hinzugekommenen Befunden übereinstimmt (Verifikation), andererseits aber, ob nicht doch eine andere Diagnose wahrscheinlicher ist (Falsifikation) [26, 30].

Abb. 4
figure4

Gesamtdarstellung des dualen Prozesses der Diagnosefindung im Alltag. Grafik nach [2, 18, 26, 29, 30]

Kognitive Verzerrungen – Bias

Kognitive Verzerrungen sind unbewusste Störeinflüsse im Denkprozess, die als kognitiver Bias bezeichnet werden. Diese Verzerrungen finden sich bei beiden diagnostischen Prozessen, wobei der Bereich der Blickdiagnose – System 1 stärker davon betroffen ist [2, 22].

Eine repräsentative Liste dieser Bias mit Erklärungen sind in Tab. 1 zusammengestellt.

Bestimmte medizinische Bereiche dürften unterschiedlich stark von verschiedenen Bias betroffen sein, je nach Patientenkollektiv und Begleitumstände, wobei es dazu noch keine publizierten validen Untersuchungen gibt. So liegt es nahe, dass es in Bereichen mit hohem Patientenaufkommen und Zeitdruck, wo eine rasche Diagnosefindung im Vordergrund steht (wie z. B. in Notaufnahmen oder Arztpraxen), es leicht zu einem Confirmation Bias bzw. Search Satisficing – Premature Closure kommen kann.

Faktoren, die zur Patientensicherheit beitragen

Verschiedene Gegebenheiten tragen in diesem diagnostischen Prozess zur Patientensicherheit bei. Erhobene Bild‑, Labor- und andere Befunde werden im Normalfall auch von einem anderen Mediziner gesehen und es ist (zumindest in den Krankenhäusern, in denen der Autor gearbeitet hat) üblich, bei bedrohlichen Befunden telefonischen Kontakt mit dem behandelnden Arzt bzw. der behandelnden Abteilung aufzunehmen.

Nachdem viele Krankheiten sich erst im zeitlichen Verlauf nach und nach demaskieren und zu Beginn oftmals wichtige Befunde fehlen, ist eine Diagnosestellung nicht immer sofort möglich [11]. So kommt es auch an Notaufnahmen bei nicht-lebensbedrohlichen Erkrankungen fast immer zu einer Wartezeit nach der initialen Diagnostik, in der die Symptomatik klarer wird, aggraviert oder sich bessert, was bei regelmäßiger Evaluation erfasst wird. Auch an der Bettenstation werden die aufgenommenen Patienten im Normalfall noch am gleichen Tag von einem zweiten Arzt gesehen, bzw. seine Befunde in der Aufnahmevisite besprochen. Hier trägt der längere zeitliche Verlauf des stationären Aufenthaltes, mit den verschiedenen an der Behandlung beteiligten Berufsgruppen, nicht unwesentlich zur Diagnose- und Patientensicherheit bei. Somit ist Wartezeit auch eine manchmal notwendige und wertvolle Zeit für die Diagnosefindung.

Bei Entlassung des Patienten stellt die Vidierung des Arztbriefes die letzte Möglichkeit in diesem Prozess dar, die vorhandenen Informationen und Diagnosen zu überprüfen und zu korrigieren.

Auch im niedergelassenen Bereich erfolgt nach der initialen Konsultation bei unklaren oder kritischen Befunden entweder eine Wiederbestellung nach einer bestimmten Zeit oder Patienten, die aufgrund ihrer klinischen Symptomatik schwer krank oder bedroht wirken, werden im Normalfall sofort zu einem Spezialisten oder ins Krankenhaus transferiert. Eine gute Aufklärung des Patienten (bzw. seiner Betreuungsperson) bei der Entlassung, bei welchen Problemen auf alle Fälle erneute ärztliche Hilfe in Anspruch genommen werden soll, hilft Probleme frühzeitig zu erkennen und eventuelle Diagnosefehler zu korrigieren. Damit werden auch die Patienten in die Pflicht genommen, bei Unklarheiten den Kontakt mit dem Behandler zu suchen [2].

Die folgenden klinischen Fallbeispiele sollen Bias in der Diagnostik veranschaulichen.

Fallbeispiel 1

Bei einem afebrilen, morbid-adipösen, multimorbiden, 86-jährigen Patienten war am Vortag im Rahmen der abendlichen Dialyse eine deutliche CRP-Erhöhung und Leukozytose aufgefallen, weshalb er stationär aufgenommen wurde.

Am nächsten Tag erfolgte der Transfer an die geriatrische Abteilung. Dabei wurde darauf hingewiesen, dass der eigentliche Grund des Infektes noch unklar sei. Allerdings war, unter der Annahme eines neuerlichen Harnwegsinfektes, bereits eine Harnkultur abgenommen und eine empirische antibiotische Therapie eingeleitet worden.

Der Patient war zu diesem Zeitpunkt kardiorespiratorisch stabil und afebril.

An Vorerkrankungen bestanden eine dialysepflichtige diabetische Nephropathie, eine dilatative Kardiomyopathie mit hochgradig eingeschränkter Linksventrikelfunktion, Z. n. Schrittmacherimplantation, Immobilität bei Z. n. multiplen Knie- und Hüftprothesen-Implantationen und -Revisionen (wegen Prothesenlockerungen und einer chronischen Protheseninfektion mit Fistulierung im Kniebereich), sowie rezidivierenden Harnwegsinfektionen und einer Schmerztherapie mit Opioiden unter gleichzeitiger Laxantiengabe. Außerdem war eine renale Anämie und eine chronische CRP Erhöhung mit Werten um 10–12 mg/dl bekannt. Viele Komplikationen, wie eine interprothetische Oberschenkelfraktur und septische Zustandsbilder, hatten zu regelmäßigen stationären Aufenthalten geführt.

In der neuerlichen Anamnese berichtete der Patient nun über eine seit mehr als einer Woche bestehende Obstipation. Diese hätte sich trotz Bauch- und Rückenmassagen und Gabe abführender Mittel nicht gebessert.

In der klinischen Untersuchung fanden sich keine Auffälligkeiten im Herz-Lungenbereich. Jedoch bestand bei weit ausladendem Abdomen eine diskrete Defense mit Druckschmerz im rechten Mittel- und Unterbauch. Auf neuerliches Befragen gab der Patient an, drei Tage vor Aufnahme einmalig Schüttelfrost gehabt zu haben. Der hausärztliche Notdienst sei geholt worden, habe aber nichts gefunden und habe den Patienten zuhause belassen. Es sei zu keiner weiteren Beschwerdezunahme gekommen.

Im CT des Abdomens findet sich nun freie Luft im Bauchraum und es wird mit hoher Wahrscheinlichkeit eine Darmperforation suspiziert.

Der Patient entscheidet sich, trotz des hohen OP-Risikos, für die Operation, wo eine Perforation der rechten Colonflexur mit Peritonitis gefunden wird. Im postoperativen Verlauf kommt es allerdings zu einem Multiorganversagen, welches der Patient – bei fehlender Organreserve – nicht überlebt.

Diskussion – Fallbeispiel 1

Schwere Erkrankungen bei alten Patienten stellen sich sehr oft symptomarm dar und können durch eine gleichzeitige Schmerztherapie, wie bei unserem Patienten, kaschiert werden. Leider wurde dadurch die vermutlich bereits Tage vor der Aufnahme erfolgte Perforation nicht erkannt. Wie weit die Adipositas hier zu einem Viszeral Bias geführt hat, war nicht eruierbar.

Dass der Patient bei der regelmäßigen Dialyse als behandlungsbedürftig identifiziert und (gegen seinen anfänglichen Widerstand) stationär aufgenommen wurde, war retrospektiv eine richtige Entscheidung.

Die initiale Verdachtsdiagnose, dass ein neuerlicher Harnwegsinfekt bestand, war ein Posterior Probability Error, der den Kollegen aufgefallen ist und auf den bei der Übergabe an die weiterbehandelnde geriatrische Abteilung hingewiesen wurde.

Trotz des sehr hohen OP-Risikos und des unsicheren Ausganges hatte sich der Patient bewusst für die Operation entschieden, weil er diese (kleine) Überlebenschance nutzen wollte. Prinzipiell hätte er diese Option auch ablehnen können. Er war zum Zeitpunkt der Entscheidung bei ausgezeichnetem kognitiven Zustand, entscheidungs- und handlungsfähig [31,32,33,34].

Fallbeispiel 2

Ein 28jähriger Flüchtling kommt in Begleitung seiner Freunde an einem Vormittag von einem Fitness-Studio in die Notaufnahme. Soweit es trotz der Sprachbarriere zu erfahren ist, klagt er über massive Übelkeit und gibt einen dumpfen Druck in der Brust an, was während seiner Übungen mit Gewichten plötzlich begonnen habe.

Er wirkt nervös-unruhig, fast agitiert, und hyperventiliert leicht.

In der klinischen Untersuchung sind die Wirbelsäule und der Brustkorb druck-indolent, die Herztöne rein, rhythmisch, leicht tachykard und die Lungen frei. Das Abdomen, inkl. Nierenlager, ist ebenfalls unauffällig. Die Haut ist südländisch dunkel pigmentiert.

Die Sauerstoffsättigung ist mit 99 % normal, kann allerdings an der rechten Hand nicht suffizient abgeleitet werden. Die Blutgasanalyse erfolgt von der linken A. radialis (die rechte A. radialis ist für die Punktion nicht ausreichend tastbar) und zeigt eine leichte respiratorische Alkalose. Der Troponin-Schnelltest und das EKG sind unauffällig. Der Patient erhält eine Metoclopramid-Infusion gegen die Übelkeit und es wird überlegt, ihn unter dem Verdacht, dass er möglicherweise an einer Angststörung leidet, mit einer nervenberuhigenden Medikation nach Hause zu schicken. Allerdings soll noch das Ergebnis der Blutabnahme abgewartet werden.

Ungefähr eine Stunde später sucht der Patient die Toilette auf, wo er zusammenbricht und einen Kreislaufstillstand erleidet. Trotz der rasch begonnenen Reanimation kann der Patient nicht gerettet werden.

Diskussion – Fallbeipiel 2

In diesem tragischen Fall einer Aortendissektion haben eine atypische Fallpräsentation, die Sprachbarriere und möglicherweise mehrere Bias verhindert, dass es rechtzeitig zu einer korrekten Diagnose gekommen ist und man eine Verlegung in ein Zentralkrankenhaus mit Thorax-Chirurgie durchführen hätte können. Ob der junge Mann bei seinem raschen Verlauf zeitgerecht operiert werden hätte können (und so überlebt hätte), bleibt spekulativ.

Die südländische Ethnie (und die vermutete psychische Traumatisierung) des Kriegsflüchtlings, dürfte zu einem Attribution Error, bzw. Visceral Bias, mit der Verdachtsdiagnose Angststörung, geführt haben. Ebenso wurde die bestehende Seitendifferenz des Radialispulses nicht als diagnostischer Puzzlestein erfasst, was einem Confirmation Bias entspricht. Zusätzlich lässt sich ein Premature Closure/Search Satisficing erkennen, da man sich, scheinbar begünstigt durch den hohen Arbeitsdruck, vorerst für die Verdachtsdiagnose Hyperventilation bei Angststörung, entschieden hatte.

Vermeidung von Denkfehlern bei diagnostischen Entscheidungen

Die heutigen juristischen und fachlichen Anforderungen und Erwartungen an die Diagnostik einerseits und die zunehmenden ökonomischen Zwänge andererseits, stellen eine große Herausforderung und ein Ressourcenproblem für das System und den einzelnen dar, was durch den bestehenden Ärztemangel noch verschärft wird. Wo früher von Patienten ein abwartendes Beobachten akzeptiert wurde, wird heute eine korrekte Diagnosestellung selbst bei komplexer Differentialdiagnostik, zu jeder Tages- oder Nachtzeit, erwartet.

Daher stellen Strategien zur Verbesserung von diagnostischen Entscheidungen eine notwendige und wichtige Management- und Führungsaufgabe dar, die zu einer besseren Struktur‑, Prozess- und Ergebnisqualität führt und kontinuierlich angestrebt werden sollte [2, 25, 35].

Ähnliche Anforderungen an die Zuverlässigkeit und Sicherheit von Prozessen, wie in der Medizin, werden im Bereich der Flugsicherheit, in sicherheitskritischen Industrieprozessen (z. B. in Atomkraftwerken) oder im militärischem Bereich (z. B. auf Flugzeugträgern) gestellt, was bereits seit längerem zu einem Wissens- und Methodentransfer aus diesen Bereichen in die Medizin geführt hat [20, 25, 36, 37].

Waeschle et al. [25] beschreiben in Ihrem Artikel „Fehler in der Medizin“ Qualitätsverbesserungsstrategien, deren Implementierung jedoch einer kontinuierlichen Anstrengung im Sinne der Anwendung eines PDCA-Zyklus (Plan-Do-Check-Act nach Deming) bedarf [20, 25]. Sie spannen dabei den Bogen von den systemischen Schwachstellen bis zur Individualebene und beziehen Themen wie Crew Ressource Management, Critical Incident Reporting Systems, statische und dynamische Checklisten, Prospective Memory, etc., mit ein [25]. Zusätzlich können regelmäßige Fallbesprechungen – im Sinn von „Morbidity and Mortality“ Konferenzen-, wenn sie Teil eines PDCA-Zyklus sind, ebenfalls zur Qualitätsverbesserung beitragen [38, 39]. Hier kann die Verwendung von Fishbone-Diagrammen (auch als Ishikawa-Diagramm oder Root-Cause-Analysis bekannt) helfen, die verschiedenen Ursachen und beeinflussenden Faktoren systematisch aufzuarbeiten [2, 40, 41]. Wobei fehlerhafte Entscheidungen oft durch eine Kombination von Ursachen (auf System- und Individualebene) entstehen [36, 42].

Systembedingte Ursachen, die sich auf unser Denken auswirken und sich durchaus korrigieren lassen, sind strukturelle Gegebenheiten wie veraltete bauliche Strukturen, fehlende klinische Standards, Schlafmangel, Arbeitsüberlastung, Personalmangel, ineffiziente Arbeitsprozesse, zu hohe Fehlerakzeptanz, mangelnde Fehlerkultur und fehlendes Feedback [2, 25, 36, 43].

Gerade in komplexen Unternehmen, wie es Krankenhäuser und Notfallaufnahmen sind, lässt sich u. a. durch eine kollektive Änderung in der Sensibilität für mögliche Fehlerquellen eine Verbesserung der Patientensicherheit erzielen, wozu aber eine bewusste Veränderung der Betriebskultur notwendig ist, um von einer „Blame and Shame“ Mentalität zu einem offenen und konstruktiven Umgang mit Fehlern zu kommen, wo Fehler frühzeitig angesprochen und diskutiert werden können [25, 36, 44, 45].

Verbesserungen der individuellen Ursachen und damit des diagnostischen Entscheidens gestalten sich da schwieriger, sind vielschichtiger und benötigen wiederholtes Training und die Anwendung verschiedener Strategien [21, 25]. Nur vom Einzelnen zu verlangen, mehr aufzupassen, bringt leider wenig, da es per se nicht zu weniger Fehlern führt, wie Berwick [46] bereits 2001 in seinem Artikel „Not again!“ schreibt.

Das Wissen um unbewusste Beeinflussungen (Bias) kann dem einzelnen Arzt helfen, adäquat darauf zu reagieren und Debiasing Strategien zu lernen. Dazu gehören die Wissensvermittlung über den diagnostischen Prozess, Metakognition und Reflexion (im Sinne eines inneren Zurücktretens und Bewertens von Situation, Gedankenprozessen und getroffenen Entscheidungen), sowie des Bewusstmachens von möglichen Bias. Ebenso aber auch zu fragen, ob eine andere Diagnose möglich ist (Falsifikation), ob die erhobenen Fakten mit der Arbeitsdiagnose übereinstimmen (Verifikation) und welche Diagnose nicht übersehen werden darf (im Sinn des abwendbaren gefährlichen Verlaufes) [3, 12, 47, 48]. Dabei helfen Cognitive Forcing-Strategies, wo man sich bei bestimmten häufigen Symptomen zwingt, definierte Diagnosen im Sinn einer mentalen Checkliste auszuschließen, wie z. B. die „dramatischen Big-5“ des akuten thorakalen Schmerzes (ACS, Lungenembolie, Spannungspneumothorax, Aortendissektion, Ösophagusruptur) [49, 50].

Zusätzliche Unterstützung im diagnostischen Prozess erhält man durch die Verwendung von Checklisten, Mnemotechniken (Mnemonics), Algorithmen und elektronischen Unterstützungssystemen [21, 28, 51]. Letztere bieten ein großes Potential an Möglichkeiten und werden den ärztlichen Alltag vermutlich noch mehr beeinflussen, als man es sich derzeit vorstellen kann [2, 52, 53]. Allerdings kann ein schlecht gestaltetes digitales Informationssystem diese Vorteile rasch zunichte machen und ein Patientensicherheitsrisiko darstellen [2]. Elektronische Informationssysteme werden seit Jahren für die Bereitstellung und Weitergabe von Patienteninformationen (z. B. von Befunden, Arztbriefen, elektronischer Gesundheitsakte, etc.) und als Wissensdatenbanken mit Zugriff zu relevanten Informationen, wie Guidelines, etc., genutzt. Interaktive Systeme für das Work-up von diagnostischen Entscheidungen können durch die Verwendung von Abfrageschemata für Differentialdiagnosen, Erinnerungen bei offenen Befunden und Fragestellungen, automatischen Interpretationen von Befundmustern, Integration von Hinweisen auf Medikamentenneben- und -wechselwirkungen, Berechnungen von Krankheitswahrscheinlichkeiten, Rückmeldungen über die Compliance und das wirkliche Outcome, rascheren Zugriff auf Zweitmeinungen, usw., eine Unterstützung im diagnostischen Prozess sein [53].

So What?

Folgende drei Fragen können uns im Alltag, ungeachtet aller systemischer und struktureller Widrigkeiten, helfen, Denkfehler im diagnostischen Prozess zu erkennen.

  1. 1.

    Angenommen, die Diagnose ist falsch, welche alternative Diagnose kommt in Frage? = Falsifikation, zur Aufdeckung des häufigsten Bias, dem Premature Closure [3, 16].

  2. 2.

    Werden die Beschwerden vollständig durch die Diagnose erklärt? = Verifikation [2].

  3. 3.

    Gibt es eine Diagnose, die man hier nicht übersehen darf? = Ausschluss eines abwendbaren gefährlichen Verlaufes [3, 22].

Schlussbemerkung

In der Entscheidungswissenschaft, an der Philosophen, Psychologen, Ökonomen und andere forschen, ist sehr viel im Fluss und man kann persönlich für sich, seine Patienten und seine Arbeitszufriedenheit, sehr davon profitieren, wenn man sich konstruktiv damit auseinander setzt. Allerdings ist die Medizin keine theoretische Wissenschaft, sondern eine praktisch handelnde, und so wird man immer gefordert sein, Entscheidungen unter Unsicherheit nach bestem Wissen und Gewissen zu treffen [1, 26].

Weiterführende Literatur

Fazit für die Praxis

Ein Teil der gestellten Fehldiagnosen entstehen durch Denkfehler in unserem diagnostischen Prozess. Sie können durch inneres Zurücktreten von diesem Prozess und strukturiertem Hinterfragen der eigenen Diagnose identifiziert werden.

Literatur

  1. 1.

    Wieland W. Diagnose: Überlegungen zur Medizintheorie. Bd. 2. Warendorf: Hoof; 2015.

    Google Scholar 

  2. 2.

    Balogh EP, Miller BT, Ball JR. et al. Improving Diagnosis in Health Care [Internet]. Washington, DC: The National Academies Press 2015. http://www.nap.edu/catalog/21794/improving-diagnosis-in-health-care. Zugegriffen: 4. Oktober 2015.

    Book  Google Scholar 

  3. 3.

    Braun RN, Mader FH, Danninger H. Programmierte Diagnostik in der Allgemeinmedizin. Heidelberg Berlin: Springer; 2005.

    Google Scholar 

  4. 4.

    Khullar D, Jha AK, Jena AB. Reducing diagnostic errors – why now? N Engl J Med. 2015;373:2491–3.

    Article  PubMed  PubMed Central  Google Scholar 

  5. 5.

    Zwaan L, Thijs A, Wagner C, van der Wal G, Timmermans DRM. Relating faults in diagnostic reasoning with diagnostic errors and patient harm. Acad Med. 2012;87:149–56.

    Article  PubMed  Google Scholar 

  6. 6.

    Mader FH. Allgemeinmedizin und Praxis, 7. Aufl. Berlin, Heidelberg: Springer; 2014.

    Book  Google Scholar 

  7. 7.

    Soar J, Nolan JP, Böttiger BW, Perkins GD, Lott C, Carli P, et al. Erweiterte Reanimationsmaßnahmen für Erwachsene („adult advanced life support“): Kapitel 3 der Leitlinien zur Reanimation 2015 des European Resuscitation Council. Notf Rettungsmed. 2015;18:770–832.

    Article  Google Scholar 

  8. 8.

    Croskerry P. From mindless to mindful practice – cognitive bias and clinical decision making. N Engl J Med. 2013;368:2445–8.

    CAS  Article  PubMed  Google Scholar 

  9. 9.

    Hölscher UM, Gausmann P, Haindl H, Heidecke C‑D, Hübner N‑O, Lauer W, et al. Übersichtsartikel: Patientensicherheit als nationales Gesundheitsziel: Status und notwendige Handlungsfelder für die Gesundheitsversorgung in Deutschland. Z Evid Fortbild Qual Gesundheitswes. 2014;108:6–14.

    Article  Google Scholar 

  10. 10.

    Balla J, Heneghan C, Goyder C, Thompson M. Identifying early warning signs for diagnostic errors in primary care: a qualitative study. BMJ Open. 2012;2:e001539.

    Article  PubMed  PubMed Central  Google Scholar 

  11. 11.

    Zwaan L, Singh H. The challenges in defining and measuring diagnostic error. Diagnosis 2015. http://www.degruyter.com/view/j/dx.2015.2.issue-2/dx-2014-0069/dx-2014-0069.xml. Zugegriffen: 23. Febr 2017.

    Google Scholar 

  12. 12.

    Berner ES, Graber ML. Overconfidence as a cause of diagnostic error in medicine. Am J Med. 2008;121:S2–23.

    Article  PubMed  Google Scholar 

  13. 13.

    Pineda LA, Hathwar VS, Grant BJ. Clinical suspicion of fatal pulmonary embolism. Chest. 2001;120:791–5.

    CAS  Article  PubMed  Google Scholar 

  14. 14.

    Tehrani ASS, Lee H, Mathews SC, Shore A, Makary MA, Pronovost PJ, et al. 25-Year summary of US malpractice claims for diagnostic errors 1986–2010: an analysis from the National Practitioner Data Bank. BMJ Qual Saf. 2013;22:672–80.

    Article  Google Scholar 

  15. 15.

    Bundesärztekammer. Behandlungsfehler-Statistik der Gutachterkommissionen und Schlichtungsstellen 2015. http://www.bundesaerztekammer.de/patienten/gutachterkommissionen-schlichtungsstellen/behandlungsfehler-statistik-2015/. Zugegriffen: 23. Febr 2017.

    Google Scholar 

  16. 16.

    Graber ML, Franklin N, Gordon R. Diagnostic error in internal medicine. Arch Intern Med. 2005;165:1493–9.

    Article  PubMed  Google Scholar 

  17. 17.

    Bordage G. Why did I miss the diagnosis? Some cognitive explanations and educational implications. Acad Med. 1999;74:S138–S43.

    CAS  Article  PubMed  Google Scholar 

  18. 18.

    Nendaz M, Perrier A. Diagnostic errors and flaws in clinical reasoning: mechanisms and prevention in practice. Swiss Med Wkly. 2012; 13706. doi:10.4414/smw.2012.13706.

    PubMed  Google Scholar 

  19. 19.

    Kohn LT, Corrigan JM, Donaldson MS. Institute of Medicine (US) Committee on Quality of Health Care in America. To err is human: building a safer health system, Washington (DC): National Academies Press (US) 2000. http://www.ncbi.nlm.nih.gov/books/NBK225182/. Zugegriffen: 22. Febr. 2017.

    Google Scholar 

  20. 20.

    de Jonge V, Nicolaas JS, van Leerdam ME, Kuipers EJ. Overview of the quality assurance movement in health care. Best Pract Res Clin Gastroenterol. 2011;25:337–47.

    Article  PubMed  Google Scholar 

  21. 21.

    Croskerry P. Perspectives on diagnostic failure and patient safety. Heal Q Tor Ont. 2012;15(sp):50–6.

    Article  Google Scholar 

  22. 22.

    Croskerry P. Achieving quality in clinical decision making: cognitive strategies and detection of bias. Acad Emerg Med. 2002;9:1184–204.

    Article  PubMed  Google Scholar 

  23. 23.

    Kahneman D. Schnelles Denken, langsames Denken, 1. Aufl. München: Siedler; 2012. Aus dem Amerikan. Engl. von Thorsten Schmidt.

    Google Scholar 

  24. 24.

    Marewski JN, Gigerenzer G. Heuristic decision making in medicine. Dialogues Clin Neurosci. 2012;14:77–89.

    PubMed  PubMed Central  Google Scholar 

  25. 25.

    Waeschle RM, Bauer M, Schmidt CE. Fehler in der Medizin: Ursachen, Auswirkungen und Maßnahmen zur Verbesserung der Patientensicherheit. Anaesthesist. 2015;64:689–704.

    CAS  Article  PubMed  Google Scholar 

  26. 26.

    Sox HC, Higgins MC, Owens DK. Medical decision making, 2. Aufl. Chichester: John Wiley & Sons; 2013.

    Book  Google Scholar 

  27. 27.

    Kovacs G, Croskerry P. Clinical decision making: an emergency medicine perspective. Acad Emerg Med. 1999;6:947–52.

    CAS  Article  PubMed  Google Scholar 

  28. 28.

    Croskerry P, Nimmo G. Better clinical decision making and reducing diagnostic error. J R Coll Physicians Edinb. 2011;41:155–62.

    CAS  Article  PubMed  Google Scholar 

  29. 29.

    Croskerry P. Clinical cognition and diagnostic error: applications of a dual process model of reasoning. Adv Health Sci Educ. 2009;14:27–35.

    Article  Google Scholar 

  30. 30.

    Croskerry P. A universal model of diagnostic reasoning. Acad Med. 2009;84:1022–8.

    Article  PubMed  Google Scholar 

  31. 31.

    Wurmb T, Brederlau J. Patientenwille und Akutmedizin. Med Klin Intensivmed Notfallmed. 2016;111:113–7.

    CAS  Article  Google Scholar 

  32. 32.

    Hess EP, Grudzen CR, Thomson R, Raja AS, Carpenter CR. Shared decision-making in the emergency department: respecting patient autonomy when seconds count. Acad Emerg Med. 2015;22:856–64, Gaddis G, editor.

    Article  PubMed  Google Scholar 

  33. 33.

    Jonsen AR, Siegler M, Winslade WJ. Clinical ethics: a practical approach to ethical decisions in clinical medicine, 8. Aufl. New York: McGraw-Hill Education; 2015.

    Google Scholar 

  34. 34.

    Bioethikkommission. Empfehlungen zur Terminologie medizinischer Entscheidungen am Lebensende Stellungnahme der Bioethikkommission beim Bundeskanzleramt 2011. http://www.bundeskanzleramt.at/DocView.axd?CobId=46713. Zugegriffen: 9. Apr 2017.

    Google Scholar 

  35. 35.

    Donabedian A. Evaluating the quality of medical care. Milbank Q. 2005;83:691–729, Reprinted from The Milbank Memorial Fund Quarterly, Vol. 44, No. 3, Pt. 2, 1966 (pp. 166–203).

    Article  PubMed  PubMed Central  Google Scholar 

  36. 36.

    Weick KE, Sutcliffe KM. Managing the unexpected: sustained performance in a complex world, 3. Aufl. Hoboken: Wiley; 2015.

    Google Scholar 

  37. 37.

    Schulz CM, Endsley MR, Kochs EF, Gelb AW, Wagner KJ. Situation awareness in anesthesia: concept and research. Anesthesiology. 2013;118:729–42.

    Article  PubMed  Google Scholar 

  38. 38.

    Vogel P, Vassilev G, Kruse B, Cankaya Y. Morbidity and mortality conference as part of PDCA cycle to decrease anastomotic failure in colorectal surgery. Langenbecks Arch Surg. 2011;396:1009–15.

    Article  PubMed  Google Scholar 

  39. 39.

    Xiong X, Johnson T, Jayaraman D, McDonald EG, Martel M, Barkun AN. At the crossroad with morbidity and mortality conferences: lessons learned through a narrative systematic review. Can J Gastroenterol Hepatol. 2016;2016:1–11. doi:10.1155/2016/7679196.

    Article  Google Scholar 

  40. 40.

    Bruno MA, Nagy P. Fundamentals of quality and safety in diagnostic radiology. J Am Coll Radiol. 2014;11:1115–20.

    Article  PubMed  Google Scholar 

  41. 41.

    Reilly JB, Myers JS, Salvador D, Trowbridge RL. Use of a novel, modified fishbone diagram to analyze diagnostic errors. Diagnosis 2014. http://www.degruyter.com/view/j/dx.2014.1.issue-2/dx-2013-0040/dx-2013-0040.xml. Zugegriffen: 19. Dec 2016.

    Google Scholar 

  42. 42.

    Reason J. Human error: models and management. West J Med. 2000;172:393–6.

    CAS  Article  PubMed  PubMed Central  Google Scholar 

  43. 43.

    Landrigan CP, Rothschild JM, Cronin JW, Kaushal R, Burdick E, Katz JT, et al. Effect of reducing interns’ work hours on serious medical errors in intensive care units. N Engl J Med. 2004;351:1838–48.

    CAS  Article  PubMed  Google Scholar 

  44. 44.

    Nieva VF, Sorra J. Safety culture assessment: a tool for improving patient safety in healthcare organizations. Qual Saf Health Care. 2003;12(Suppl 2):ii17–23.

    PubMed  PubMed Central  Google Scholar 

  45. 45.

    Fleming M, Wentzell N. Patient safety culture improvement tool: development and guidelines for use. Healthc Q. 2008;11:10–5.

    Article  PubMed  Google Scholar 

  46. 46.

    Berwick DM. Not again! BMJ. 2001;322:247–8.

    CAS  Article  PubMed  PubMed Central  Google Scholar 

  47. 47.

    Croskerry P, Singhal G, Mamede S. Cognitive debiasing 1: origins of bias and theory of debiasing. BMJ Qual Saf. 2013;22:ii58–ii64.

    Article  PubMed  PubMed Central  Google Scholar 

  48. 48.

    Croskerry P, Singhal G, Mamede S. Cognitive debiasing 2: impediments to and strategies for change. BMJ Qual Saf. 2013;22:ii65–ii72.

    Article  PubMed  PubMed Central  Google Scholar 

  49. 49.

    Croskerry P. The importance of cognitive errors in diagnosis and strategies to minimize them. Acad Med. 2003;78:775–80.

    Article  PubMed  Google Scholar 

  50. 50.

    Herold G. Innere Medizin. Köln: Gerd Herold Eigenverlag; 2012, S. 826–34. Kap XI.

    Google Scholar 

  51. 51.

    Henriksen K, Brady J. The pursuit of better diagnostic performance: a human factors perspective. BMJ Qual Saf. 2013;22:ii1–ii5.

    Article  PubMed  PubMed Central  Google Scholar 

  52. 52.

    El-Kareh R, Hasan O, Schiff GD. Use of health information technology to reduce diagnostic errors. BMJ Qual Saf. 2013;22:ii40–ii51.

    Article  PubMed  PubMed Central  Google Scholar 

  53. 53.

    Schiff GD, Bates DW. Can electronic clinical documentation help prevent diagnostic errors? N Engl J Med. 2010;362:1066–9.

    CAS  Article  PubMed  Google Scholar 

  54. 54.

    Gigerenzer G. Bauchentscheidungen: die Intelligenz des Unbewussten und die Macht der Intuition. München: Bertelsmann; 2015.

    Google Scholar 

  55. 55.

    Tsalatsanis A, Hozo I, Kumar A, Djulbegovic B. Dual processing model for medical decision-making: an extension to diagnostic testing. PLOS ONE. 2015;10:e0134800.

    Article  PubMed  PubMed Central  Google Scholar 

  56. 56.

    Clarke A. Ageism and age discrimination in primary and community health care in the United Kingdom. London: Centre for Policy on Ageing; 2009.

    Google Scholar 

  57. 57.

    Dale DC. Poor prognosis in elderly patients with cancer: the role of bias and undertreatment. J Support Oncol. 2003;1:11–7.

    PubMed  Google Scholar 

  58. 58.

    Peake MD, Thompson S, Lowe D, Pearson MG, et al. Ageism in the management of lung cancer. Age Ageing. 2003;32:171–7.

    Article  PubMed  Google Scholar 

  59. 59.

    Eva KW. The aging physician: changes in cognitive processing and their impact on medical practice. Acad Med. 2002;77:S1–S6.

    Article  PubMed  Google Scholar 

Download references

Author information

Affiliations

Authors

Corresponding author

Correspondence to Dr. med. univ. Martin Gäbler MSc.

Ethics declarations

Interessenkonflikt

M. Gäbler gibt an, dass kein Interessenkonflikt besteht.

Ethische Standards

Dieser Beitrag beinhaltet keine vom Autor durchgeführten Studien an Menschen oder Tieren.

Additional information

Zu Gunsten der besseren Lesbarkeit wurde für die männliche und die weibliche Form nur eine dieser beiden Formen verwendet.

Rights and permissions

Open Access Dieser Artikel wird unter der Creative Commons Namensnennung 4.0 International Lizenz (http://creativecommons.org/licenses/by/4.0/deed.de) veröffentlicht, welche die Nutzung, Vervielfältigung, Bearbeitung, Verbreitung und Wiedergabe in jeglichem Medium und Format erlaubt, sofern Sie den/die ursprünglichen Autor(en) und die Quelle ordnungsgemäß nennen, einen Link zur Creative Commons Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden.

Reprints and Permissions

About this article

Verify currency and authenticity via CrossMark

Cite this article

Gäbler, M. Denkfehler bei diagnostischen Entscheidungen. Wien Med Wochenschr 167, 333–342 (2017). https://doi.org/10.1007/s10354-017-0570-6

Download citation

Schlüsselwörter

  • Medizinische Entscheidungen
  • Differentialdiagnose
  • Fehldiagnose
  • Blickdiagnose
  • Metakognition

Keywords

  • Medical Decision Making
  • Differential Diagnosis
  • Diagnostic Error
  • Bias
  • Metacognition