figure 1

© Rellas / Getty Images / iStock

figure 2

Prof. Dr. med. Christian Gerloff

In dieser Ausgabe wird exemplarisch die zunehmende Spreizung von gängigen und zukünftigen Stichprobenumfängen in der Medizin deutlich: Im Interview geht es um die mehr und mehr kommenden „Big Data“. Dieser Begriff bezieht sich in der Regel auf die drei Dimensionen „VVV“, also Volume (Datenvolumen), Velocity (Geschwindigkeit, mit der die Datenmengen generiert und weiterverarbeitet werden) und Variety (Unterschiede in der Datenart und -struktur). Im Grunde geht es darum, dass diese Daten, die Hunderttausende oder Millionen von Patienten umfassen können, zu groß sind, um sie mit den üblichen Methoden zu erfassen und weiter auszuwerten. In der Medizin spielt das eine große Rolle bei der Nutzung von Routinedaten zur Qualitätssicherung, Hypothesengenerierung oder auch Kohortenidentifizierung für prospektive Studien. Zum anderen sind „Big Data“ zentrales Thema bei genomweiten Assoziationsanalysen oder bei der Analyse und Modellierung neuronaler Netzwerke. Komplexe Biostatistik ist notwendig — und viel Know-How; denn bei gigantischen Datenmengen wächst auch das Risiko falsch positiver „signifikanter“, aber klinisch bedeutungsloser Ergebnisse. Richtig angewandt hingegen erlauben große komplexe Datenbanken den Einsatz von fein detaillierter Analytik bis hin zu selbstlernenden Algorithmen, die in der Versorgung von Patienten helfen können. Mindestens lassen sich Frühwarnsysteme vorstellen, die bei bestimmten Symptom- und Befundkonstellationen Alarm schlagen, ob in der Früherkennung oder Diagnostik von Erkrankungen, in der Risikoabschätzung von Medikamentennebenwirkungen oder auch in der Intensivüberwachung von Schwerstkranken. So erlauben einem eventuell die „Big Data“-Ansätze letztlich personalisiertere medizinische Einschätzungen, als die synoptische oder metaanalytische Interpretation randomisierter kontrollierter Studien alleine.

„Big-Data“-Nutzung und die Prinzipien evidenzbasierter Medizin stellen keinen Widerspruch dar. Ihre Kombination könnte helfen, die Brücke zwischen „Megatrials“ und personalisierter Medizin zu schlagen. Bemerkenswert ist dennoch, dass innovative Ansätze, eventuelle „Quantensprünge“, nur den Durchbruch schaffen können, wenn wir auch statistische „Signale“ von kleinen Beobachtungsstudien zulassen ... gewissermaßen hypothesenbildend. Ein gutes Beispiel dafür ist die MR-geführte Ultraschall-Thalamotomie, für die es zunächst nur kleine Pilotstudien gab, deren Effekte sich dann aber in einer randomisierten prospektiven Studie bestätigen ließen, die im aktuellen Journal Club vorgestellt wird (Elias et al., New England Journal of Medicine). Für die Geburt solcher Innovationen nutzen „Big-Data“ kaum etwas. Extremer noch war der Einsatz von Eculizumab in der EHEC-Krise. Zwar liegt bis heute keine Klasse-I-Evidenz dafür vor, dass dieser Antikörper bei EHEC-vermitteltem hämolytisch-urämischem Syndrom mit schweren neurologischen Komplikationen einzusetzen ist. Aber die empirischen Daten aus der EHEC-Krise sprechen sehr dafür. Die Schlüsselpublikationen, die diesem Therapiekonzept zugrunde lagen, waren Fallberichte zu einzelnen Patienten. Offensichtlich kann auch das für die klinische Praxis enorm wichtig und stimulierend sein. Große Zahlen, kleine Zahlen, beide haben ihren Stellenwert.

Also keine Angst vor „Big Data“. Zugleich darf man sich nicht entmutigen lassen, interessante Beobachtungen, auch mit Fallzahl n = 1, öffentlich zu machen, damit alle daraus lernen und vielleicht gute Folge-Ideen entwickeln können.