Das Ende des Zweiten Weltkriegs, der die zentralen Werte vieler Menschen zerstört hatte, war für viele ein Aufbruch zu Neuem. Die gesellschaftlichen und wissenschaftlichen Entwicklungen fanden im Nachkriegsdeutschland über 40 Jahre in zwei getrennten deutschen Staaten statt, deren Gesellschaftssysteme und Utopien nicht unterschiedlicher hätten sein können. Das bewirkte in den beiden Ländern auch eine unterschiedliche Rolle der Wissenschaften, die sich im Nachkriegseuropa mit revolutionären Paradigmen in Physik, Biologie und Genetik entwickelt hatten. Nach der Wende hat die Zusammenführung der zwei verschiedenen Entwicklungen bewirkt, dass wir heute in Deutschland im internationalen Vergleich die qualifizierteste neurochemische Labordiagnostik haben.

Internationale Entwicklungen der Liquoranalytik in der Nachkriegsära

Um 1950 stammten die Hauptmethoden der Liquoranalytik noch aus den Anfängen des Jahrhunderts (Normomastix-Kurve, Kafka-Gesamtproteinbestimmung, zytologische Schmierpräparate, als Schrankenparameter wurde eventuell noch Chlorid bestimmt). Für die folgenden internationalen Entwicklungen der Liquoranalytik sind vor allem einige charismatische Persönlichkeiten zu nennen: Hugh Davson in England, Edmond Schuller in Frankreich, Armand Loewenthal in Belgien, Hans Link in Schweden, Wallace W. Tourtellotte in USA und Antonio Spina França in Brasilien. In der DDR (Deutsche Demokratische Republik [Ost]) war Johannes Sayk (1923–2005) mit der Entwicklung der Liquorzytologie und in der BRD (Bundesrepublik Deutschland [West]) Helmut Bauer (1914–2008) mit der Entwicklung der Proteinanalytik richtungsweisend [14, 16].

Die umfassende Neugestaltung der Liquoranalytik kam jedoch mit den Naturwissenschaftlern in Ost und West. Die bis heute diagnostisch relevanten Basisparameter und die Entwicklung der Referenzbereiche in Quotientendiagrammen sind in Tab. 1 und 2 dargestellt. Eine große Zahl der in der Liquorforschung analysierten Parameter, ganz allgemein die niedermolekularen Verbindungen, erlangten keine bleibende diagnostische Bedeutung.

Tab. 1 Geschichte der diagnostisch wichtigen Analysenparameter der Liquordiagnostik
Tab. 2 Geschichte der Referenzbereiche in Quotientendiagrammen von Serumproteinen im Liquora

Die heutige Wissensbasis für die Interpretation von Liquordaten [12] begann mit der Erkenntnis, dass die Liquorkonzentrationen der Serumproteine von deren Serumkonzentrationen abhängig sind und so der Liquor/Serum-Quotient eine biologisch fundierte Analysengröße darstellt (Tab. 2).

Kumulativer Patientenbefund

Helmut Bauer und S. Poser hatten 1976 in Göttingen erstmals alle Labordaten und die dazu relevanten Informationen eines Patienten in einem kumulativen Befundbericht zusammengefasst. Auf dieser Göttinger Tradition basieren die heutigen, weiterentwickelten Befundberichte, die als Online-Evaluationssoftware für Nephelometerautomaten international angeboten werden. Zusammen mit wissensbasierten Interpretationsprogrammen werden auch Befund- und Kommentarvorschläge in der automatisierten Laboranalytik angeboten.

Mit diesen Grundlagen entstand die Möglichkeit, krankheitstypische Datenmuster zu erkennen [11].

Entwicklung theoretischer Grundlagen

Als wichtigste theoretische, wissenschaftliche Entwicklung in der Liquorforschung ist wohl das biophysikalische Diffusions/Liquorfluss-Modell [5] der Blut-Liquor-Schrankenfunktion zu nennen, mit dem die pathologische Erhöhung der Serumproteinkonzentrationen im Liquor als Konsequenz eines reduzierten Liquorflusses quantitativ erklärbar wird. Dieses mathematische Modell der pathologischen Liquorflussveränderung ist eine implizite Lösung einer Differenzialgleichung zweiten Grades [5], die einen Bezug zur Mathematik der bewegten Grenze hat [17]. Auch die Dynamik der Hirnproteine und leptomeningealen Proteine passen in dieses Modell [12]. Mit dieser Entwicklung konnten die vielen internationalen Modelle der Blut-Liquor-Schrankenstörung und die linearen diagnostischen Interpretationen (Index) theoretisch fundiert abgelöst werden.

Diese Entwicklung, wie auch die folgenden Beispiele aus der Krankheitsforschung, ist nicht ohne die dramatisch neuen Erkenntnisse in den verschiedenen relevanten Gebieten wie Biochemie, Biophysik komplexer Systeme, Biologie etc. zu verstehen.

Internationale Entwicklungen der Wissenschaften in der Nachkriegsära

In der zweiten Hälfte des letzten Jahrhunderts war das öffentliche Bewußsstsein geprägt von den Erkenntnissen in der Genetik und den Neurowissenschaften [8]. Watson und Crick haben 1953 die DNA-Doppelhelix publiziert und Francis O. Schmitt hatte 1954 den Begriff Neuroscience geprägt. In der Medizin kann wohl die Immunologie vor den bildgebenden Verfahren als Leitwissenschaft verstanden werden. Die Neuroimmunologie wird besonders relevant für und mit den Entwicklungen der Liquoranalytik.

Die Natur kennt keine gerade Linie oder lineare Funktionen

Die spektakulären Entwicklungen der Komplexitätswissenschaften waren dagegen weit weniger im öffentlichen Bewusstsein. Ilya Prigogine entdeckt 1946 die dissipativen Strukturen mit der Nichtgleichgewichtsthermodynamik [7, 9], die die Grundlage für das spontane Entstehen von Ordnung in chemischen und biologischen Systemen erklärt. Hermann Haken entdeckt die Synergetik und Edward Lorenz (1963) entdeckt aus Wettermodellen die Abhängigkeit nichtlinearer Funktionen vom Anfangszustand. Benoit Mandelbrot beschreibt in den 1960er und 1970er Jahren die Selbstähnlichkeit in der fraktalen Geometrie. Mit der fraktalen Dimension werden Zeitserien für Baumwollpreise, Form der Küstenlinien oder die Selbstähnlichkeit des Romanescu-Gemüses mathematisch beschreibbar [7, 9].

Das Zeitalter der nichtlinearen Dynamik komplexer Systeme bricht an, die Komplexitätswissenschaft gewinnt mit den Chaostheorien mathematische Gestalt.

Begriffe wie Ordnung oder Stabilität bekommen eine völlig neue Bedeutung [7], Bifurkation, Attraktor oder Chaos, aber auch Selbstorganisation bekommen klare physikalische Definitionen [7, 9]. Die Gestalt und Funktion komplexer Systeme wie biologischen Organismen wird als emergente Qualität ihrer Teile verstehbar.

Die erkenntnistheoretischen Konsequenzen der Komplexitätswissenschaften haben die klassische Wissenschaft mit einer formalen Logik, von den Zeitgenossen bemerkt oder unbemerkt, für immer verändert.

Genetisches Programm und Humangenomprojekt

Die Entdeckung des lac-Operon (1961) durch Jacob and Monod (1961) sowie die der Proteinallosterie (1965) sind wichtige Meilensteine der Erkenntnis in der Biochemie. Ihr „genetisches Programm“ [6, 9] stand für die Idee, dass das Genom die komplette Entwicklung des Organismus in Raum und Zeit steuert und so zum Schlüssel für das Verständnis von Leben wird. Daraus entstand das „Humangenomprojekt“ (HGP). Es sollte den „blue print of life“ entschlüsseln. Das Ergebnis war ernüchternd: Es gibt 500 Mastergene, die sich in allen untersuchten Organismen vom Regenwurm bis zum Menschen finden. Der Mensch hat nicht mehr Gene als die Kresse (30.000 und 27.000) und die Übereinstimmung mit dem Schimpansen liegt bei 98 %. Das, was mal als die DNA-Sequenz eines Gens betrachtet wurde, die für ein einzelnes Protein kodiert, kann in hundertfach verschiedener Weise gelesen werden (alternatives Spleißen). Auch für die Phylogenese [9] gilt es umzudenken: Dasselbe Gen, das im Insekt bei der Bildung des Facettenauges beteiligt ist, ist im Säuger am völlig anders strukturierten Säugerauge beteiligt. Funktion und Spezifität des Gens werden in der Entwicklung des Organismus kontextabhängig ausgeprägt (Selbstorganisation des Genoms).

Alternatives Spleißen bei der Genexpression oder RNA-Interferenz, die posttranskriptionale Kontrolle der mRNA durch Mikro-dsRNA ebenso wie „gene silencing“ widerlegten falsche Erwartungen: Die der Medizin verheißene Gentherapie hat nie funktioniert und kann aus den genannten Gründen prinzipiell nicht funktionieren.

Selbstorganisation – das komplementäre Modell der biologischen Entwicklung

Alan M. Turing hat 1952 mit der Iteration mathematischer Funktionen erstmals biologisches Wachstum, die Morphogenese, mathematisch darstellbar gemacht [17]. C.H. Waddington [9] entdeckt, dass die Drosophila-„Mutanten“ (Bithorax etc.) auch ohne Veränderung am Genom, z. B. durch Störung mit Äther in der Segmentierungsphase, gebildet werden können. Brian Goodwin (1931–2009; [3]) zeigt am empirisch und mathematisch fundierten Modell der einzelligen Alge Acetabularia, wie sich aus der Kalzium-Zytoskelett-Zellwand-Interaktion die phylotypische Form als eine selbstorganisierte Konvergenz auf die Blattbildung hin entwickelt. Es ist die stabile geometrische Form, die sich über Jahrmillionen als phylotypische Form der Familie der Dasycladaceae erhalten hat [3].

Biologische Stabilität ist nur im Phänotyp möglich, nicht im Genotyp

Goodwin beschreibt so die Morphogenese als eine mathematische Lösung des Konzepts der bewegten Grenze [17], die als eine stabile Lösung (Attraktor) aus einer Instabilität dissipativer Strukturen (Prigogine, 1977) entsteht. Das Genom liefert die Proteine, es wird aber im Entwicklungsprozess selbst funktionalisiert (induzierte Genexpression), aber es existiert keine Steuerung durch das Genom. Es kann kein Organismus als instabiler Phänotyp existieren [7, 9].

Epigenetik

Der Begriff Epigenetik [9, 10] wurde von C.H. Waddington 1942 kreiert, gewinnt aber erst mit der Entdeckung des Nukleosoms (1972) und der Entdeckung der DNA-Methyltransferase (1983) an wissenschaftlicher Aufmerksamkeit [9]. Aber auch hier hat der alte Reduktionismus mit Begriffen wie „steuern“ oder „Epigenom“ wieder Einzug gehalten. Die Methylierung verläuft jedoch wie jede andere enzymatische Reaktion nach statistischen biochemischen Regeln, also ungesteuert. Als Besonderheit kommt aber hinzu, dass sich die DNA für eine Methylierung zuerst vom Nukleosom befreien muss. Das passiert als ein Prozess mit oszillierender Dynamik, der nur 10–50 ms währt und sich 4‑mal pro Sekunde wiederholt. Damit entsteht eine Kompetition zwischen Abschirmung der DNA und der enzymatischen Reaktion [9, 10].

Mit der Epigenetik wird eine neue Sicht des Zusammenhangs vom Ganzen und seinen Teilen beschreibbar. Viele der entdeckten Mechanismen (wie z. B. „gene silencing“) weisen darauf hin, dass der Gesamtorganismus, als stabiler Phänotyp, als Emergenz einer Qualität, auf seine konstituierenden Teile, also die Aktivität der Gene, Einfluss hat. Zusammen mit der diskutierten phylotypischen Stabilität gewinnt so der Phänotyp eine wichtige entwicklungsbiologische Funktion [9].

Krankheitsforschung

Die genannten Zusammenhänge lassen in der Krankheitsforschung chronische Krankheiten (z. B. Bluthochdruck, Herzkrankheiten, Osteoporose etc.) als stabilen Regelungszustand erkennen [6, 7, 9]. Krankheiten können als ein Wechsel des Attraktors vom stabilen „gesunden Regelungszustand“ in einen pathologischen ebenfalls stabilen Regelungszustand beschrieben werden, wobei die Komplexität abnimmt (messbar als fraktale Dimension der Zeitreihen [7]). Bei Herzerkrankungen ist gezeigt worden, dass die Zunahme der Ordnung der Herzschlagvariabilität (Übergang von chaotischer zu oszillierenden Zeitreihe) mit geringerer Stabilität (z. B. Neigung zu Kammerflimmern) verbunden ist [6]. Bei einer Guillain-Barré-Polyradikulitis geht die Zeit zwischen zwei Herzschlägen in einen invariablen (stets gleichen) Zeitabstand über, die Ordnung hat weiter fatal zugenommen. Aus vielen anderen Beispielen lässt sich schließen: Chronische Krankheit ist ein stabiler Zustand mit geringerer Komplexität der Regulation.

Dies ist ein Hinweis darauf, dass die rein molekulare Forschung an dem eigentlichen Problem vorbeiforscht, solange nicht auch die Dynamik des gesamten Systems gesehen wird.

Die meisten neurologischen Erkrankungen haben etwas mit dem Immunsystem zu tun. Entsprechend folgten die neuroimmunologischen Forschungen in der Liquoranalytik den aktuellen Moden von Antigen-, Antikörper-, B‑Zell-, T‑Zell- und aktuell wieder B‑Zell-Forschung. Das Verständnis einer neuerdings beschriebenen spezifitätsunabhängigen, lokalen B‑Zell-Reaktion im Gehirn bei Multipler Sklerose [15] lässt noch auf sich warten.

Es fehlen die nichtlinearen Ursache-Wirkungs-Modelle

Das häufigste neuroimmunologische Forschungsmodell, die Multiple Sklerose, wurde auch an Tiermodellen untersucht, wie der experimentellen allergischen Enzephalomyelitis (EAE). Man findet aber nur das, was man reinsteckt (Autoimmunreaktion, Entzündung und Demyelinisierung), aber nicht die unbekannte Entstehung der Krankheit. Es fehlen die nichtlinearen Ursache-Wirkungs-Modelle. Als Beispiel dafür könnte das brillante Modell von Mayer et al. [4] dienen, das in einer vereinfachten immunologischen Konkurrenz von Replikation des Mikroorganismus (Antigen) und Antikörpersynthese bereits die Chronifizierung einer Infektion simulieren kann (Abb. 1). Für eine Therapie des chronischen (Abb. 1, links) oder des lebensbedrohlichen Zustands (Abb. 1, rechts) müssten die Grenzen der Bereiche (gestrichelte Linien) in Richtung des zentralen Bereichs überschritten werden, um zur Immunität mit Elimination des Virus zu führen. Für den letzten Fall machen das z. B. Antibiotika. Im ersteren Fall müsste, z. B., die Antikörperproduktion geboostert werden.

Abb. 1
figure 1

Dynamik der Immunreaktion und Entstehung eines stabilen chronisch-entzündlichen Zustands. (Adaptiert nach [4]). Je nach Startbedingung (Viruslast, A1, A2, A3) und vorgegebenen Reaktionsparametern führt die Immunreaktion zur Immunität (Im), zum Tod (D) oder zur Koexisten (Co) von Virus und Antikörpern

Auch die Liquoranalytik spiegelt 50 Jahre Geschichte der Screeningmethoden wider, die die Suche nach krankheitstypischen Veränderungen in Molekülgruppen darstellt. Angefangen von den chromatographischen Lipidmustern, den Fingerprints (Aminosäuremuster der Proteine), den Genmustern (Genomics), den Proteinmustern (Proteomics), bis zu den Transcriptomics mit eigenem Journal ist der Siegeszug der modischen ... omics-Technologien unübersehbar (Comics waren übrigens als erste da). Jenseits aller Polemik, lässt sich die Erfolglosigkeit gerade bei chronischen Erkrankungen auch als etwas zu Erwartendes wissenschaftlich begründen: Der geschilderte Übergang zwischen zwei stabilen Zuständen eines biologischen Systems kann als Wechsel von einem Attraktor in einen anderen Attraktor ohne Veränderung seiner konstituierenden Komponenten passieren [7]. Es ist hier also kein Markermolekül zu erwarten, das den Übergang zwischen gesundem und krankem System dokumentieren könnte.

Gesellschaftlicher Kontext der Wissenschaftsentwicklung in DDR und BRD

Michel Foucault hatte 1966 [2] aufgezeigt, dass es in jeder Epoche bewusst oder unbewusst grundlegende Prinzipien gab, nach denen für eine Gesellschaft gültiges Wissen geschaffen wurde: Das, was als erstrebenswertes Wissen gilt und was als Wahrheit akzeptiert ist, wird von der jeweiligen Gesellschaft bestimmt. Foucault hat damit auch ein Konzept über den Zusammenhang von Wissen und Macht vermittelt. In seiner Vorstellung des „Diskurses“ beschreibt er, wie so etwas wie Herrschaftswissen entsteht und wie durch Kontrollsysteme Macht aufrechterhalten wird.

Dieser Zusammenhang mag manchem Wissenschaftler überraschend erscheinen. Aber gerade im Vergleich der BRD- und DDR-Entwicklungen haben wir ein historisch einmaliges Beispiel. Ich muss mich hier aber auf die an anderer Stelle [14, 16] ausführlich, mit Referenzen geschilderten gesellschaftlichen, politischen, ideologischen Bedingungen der DDR und BRD beziehen, in der ich auch die sozialen und individuellen Konsequenzen inklusive der philosophischen, theologischen und politischen Entwicklungen beschreibe.

In Kürze: Der ideologische Marxismus in der DDR in der Abhängigkeit von der marxistisch-leninistisch geprägten Ideologie der Sowjetunion, in einer zentralistischen Gesellschaft mit Einheitspartei, Verstaatlichungen und dafür notwendigen brutalsten Repressionen stellt auch die Weichen für die offizielle Wissenschaft und Technologie, zusätzlich verstärkt durch ökonomische Restriktionen, die den Einsatz der Mittel für Technologie und Wissenschaft noch restriktiver machten. Der historische Materialismus ordnete die wissenschaftliche Forschung der gesellschaftlichen Entwicklung unter. Der Forschungsplan kam als Staatsplan von oben. Mit der Partei- und Ministerialbürokratie war die Ausstattung zu verhandeln.

Dem stand eine BRD gegenüber, deren Wiederaufbau einem pluralistischen, kapitalistischen Muster folgte, mitgeprägt sowohl von einem säkularen Protestantismus, einem katholischen Dogmatismus als auch einem humanitären Liberalismus. In der BRD wurde die unantastbare „Würde des Menschen“ zum zentralen Begriff des Grundgesetzes. Es waren hier auch Physiker und Theologen, die im Nachkriegsdeutschland die Rolle der Wissenschaft in der Gesellschaft, deren Weltbild und Ethik thematisierten [14]. Die politischen Turbulenzen um Wiederbewaffnung, Nazivergangenheit der politischen Vertreter oder die Studentenrevolte mit Beteiligung der Philosophen wie J.P. Sartre und M. Foucault prägen die internationale öffentliche Diskussion in der BRD ebenso wie die Internationalität der Wissenschaftlergeneration [14]. Aber auch die Entstehung einer grünen Alternative mit öffentlichem Protest gegen die Gentechnologie am Menschen und in der Agrarindustrie zeugen von einer völlig anderen Welt als die der politisch unterdrückten und von internationalen Kontakten abgeschotteten DDR-Bürger.

Es gab auch die De-facto-Macht der Industrie

Der Staatsmacht der DDR mit einer rigorosen Durchsetzung ihrer Interessen durch vielfältige Kontrollmechanismen und Disziplinierungsmaßnahmen standen im Westen ganz andere Machtfaktoren gegenüber, die auf die Wissenschaft Einfluss nehmen konnten. Mittelvergabe und Gutachterwesen waren noch durchschaubare Steuerungsmodelle. Es gab aber auch die De-facto-Macht der internationalen und nationalen Industrie, die in einer freien Marktwirtschaft mit kapitalistischem Verwertungsinteresse zusammen mit den gesellschaftlich wirksamen Mächten die Wissenschaft zunehmend mitbestimmte. So wurde z. B. die genetische Modifikation und Patentierung von herbizidresistenten Pflanzen zum kapitalistischen Unterfangen einer von der Gesellschaft nur schwer kontrollierbaren international agierenden Industrie (Monsanto, Bayer).

Im säkularisierten Verhältnis von Kirche, Staat und Wissenschaft der frühen BRD gegenüber dem nicht hinterfragbaren, religionsähnlichen Dogmatismus der DDR zeigte sich jedoch ein weltanschaulicher, für die Wissenschaft wesentlicher Unterschied.

Die Entwicklungen der neurochemischen Labors in DDR und BRD

Die grob skizzierten gesellschaftlichen Unterschiede hatten in der Tat eine erkennbare Konsequenz für die Entwicklung, wie es Foucaults Modell [2] erwarten lässt, selbst in unserem kleinen Fachgebiet [16] der Medizin.

Die Rolle der Wissenschaft wird in der DDR dem Primat der gesellschaftlichen Entwicklung unterstellt und beschränkt so das Interesse an Grundlagenforschung und sogar bewusst die internationale Kommunikation dazu. Dafür wird die Standardisierung und Vereinheitlichung des Erreichten mit einer sehr guten Ausbildung und Weiterbildung verbunden. Die Defizite an apparativen Einrichtungen wurden durch bessere Kenntnis der neurologischen Krankheitsbilder kompensiert.

Die zentral geförderte Standardisierung der Liquormethoden, richtungsweisende Weiterbildung in Liquorzytologie, auch Lehrbücher zur Liquordiagnostik waren früher in der DDR als in der BRD geschrieben worden. Das ist nicht zufällig, da auch auf anderen Gebieten die Bildungssystematik in der DDR sehr gepflegt wurde.

Der kumulative Befundbericht mit Quotientendiagramm wurde zwar im Westen entwickelt, aber schon sehr frühzeitig in vielen DDR-Labors verwendet. Hier wurde auch der Namensbezug (Reiber-Diagramm) hergestellt. Die Gründung einer DDR-weiten Arbeitsgemeinschaft war bereits 1961 erfolgt. Damit wird auch verständlich, warum im Osten die Liquorlabors einen einheitlicheren Qualitätsstand hatten, als das im Westen der Fall war.

In der BRD waren die neurologischen Lehrstühle weitgehend von der Schule der neurophysiologisch orientierten Neurologen besetzt, die wenig zur Entwicklung der Liquordiagnostik beitrugen. Daher waren die methodischen und wissenschaftlichen Entwicklungen auf wenige Liquorlabors beschränkt. Aber durch die Universitätsbudgets mit zusätzlichen Forschungsförderungen in Schwerpunktprogrammen oder Sonderforschungsbereichen der Deutschen Forschungsgemeinschaft (DFG) war es möglich, die neuesten Methoden und Geräte zu erwerben und den Anschluss an das internationale Wissen durch Reisen und Kongresse herzustellen. Durch die forschungsorientierte Vergabe der Mittel wurde auch ein Druck aufgebaut, Grundlagenforschung zu machen, an der man in der DDR nicht interessiert war. Dies erklärt die Unterschiede in der technischen Ausstattung der Labors. Die in Tab. 1 gezeigten Parameter wurden zwar weitgehend auch in der DDR gemacht, aber mit einfacheren und billigeren Verfahren oder auch um viele Jahre verzögert. Dagegen waren an den theoretischen, internationalen Entwicklungen, wie sie in der Tab. 2 gezeigt werden, die Kollegen aus der DDR nur sekundär als einer vergleichenden Evaluation beteiligt.

Die großen Unterschiede in der Qualität der BRD-Universitätslabors wurde erst mit der Einrichtung eines externen Qualitätskontrollsystems für Liquoranalytik mit INSTAND, Düsseldorf, verbessert. Dazu hatte allerdings auch die 1987 in Göttingen begonnene systematische Ausbildung von Neurologen und medizinisch-technischen Assistenten beigetragen.

Der Labormediziner Lothar Thomas hatte mit der Aufnahme eines Kapitels zur Liquordiagnostik von K. Felgenhauer in sein Standardwerk der klinischen Chemie und Labormedizin wesentlich dazu beigetragen, dass auch zunehmend qualifizierte Liquoranalytik in den niedergelassenen Labors oder in den universitären, klinisch chemischen Zentrallabors durchgeführt wurde.

Neben den organisatorischen und methodischen Entwicklungen wäre zu fragen, inwieweit auch die Inhalte der Forschung und die Akzeptanz der Ergebnisse beeinflusst wurden.

Es gibt keinen systematischen Weg zur Erkenntnis

Im Sinne von Paul Feyerabend [1] ist zuerst einmal nicht daran zu denken, aus irgendwelchen Rahmenbedingungen auf die Art der wissenschaftlichen Ergebnisse, d. h. deren Wahrheit zu schließen. Es gibt keinen systematischen Weg zur Erkenntnis [1]. Dieses Privileg wird also keine der Ideologien für sich in Anspruch nehmen können.

Der Wahnsinn eines staatlich verordneten Lyssenkoismus unter dem Druck der Sowjetunion war nur in der DDR denkbar. Der Spuk war allerdings mit dem Tod Stalins auch vorbei [14]. Dennoch gibt es eine Form der gesellschaftstypischen Argumentation, die bei manchen im historischen Materialismus aufgewachsenen und geschulten Biologen unverkennbar ist. Das hat eindeutig etwas mit der weltanschaulich bedingten Vorstellung von der im Marxismus geglaubten Gestaltbarkeit des Menschen zu tun. Diese Ausläufer einer marxistischen Entwicklungsidee vom Menschen finden bis heute in der gemeinsamen Republik ihren weltanschaulichen Niederschlag [14].

Beides passierte auch in der BRD, wenngleich mit subtileren Formen. Die im Kapitalismus existierende industrielle Verwertungsideologie mit der Macht (des Kapitals) konnte wegen der besseren Gewinnaussichten in der Medizin den Vorrang für eine molekulare Sicht und symptomatische Therapie begünstigen (s. Krankheitsforschung). Es gibt natürlich auch im Westen in der Wissenschaft die unbewussten oder auch bewussten ideologischen Interpretationen, hier aus dem Schöpfungsglauben stammende Argumentationslinien [13].

Eine Wissenschaft des Infragestellens von allem [1] konnte der Marxismus, der sowohl seine Ziele als auch die Wege dahin vorgab, jedenfalls nicht zulassen. Man kann allerdings auch nicht sagen, dass im „freien“ Westen Nonkonformität belohnt wurde, aber eben evtl in einer Nische toleriert wurde, um eventuell eines Tages zum „mainstream“ zu werden.

Nachwendeära und Perspektiven

Nach der Wende wurden Ostlabors sehr schnell zu den modernsten Labors umgerüstet und die Liquoranalytik wurde im allgemeinen Trend in die Zentrallabors integriert oder an neu entstandene private Labors vergeben. Entsprechend verloren nicht wenige Kollegen im Kapitalismus zuerst mal ihren Arbeitsplatz. Die neurologischen Lehrstühle wurden meist mit „Wessis“ neu besetzt.

In der gesamtdeutschen Entwicklung und Forschung gilt für die Liquordiagnostik was allgemein im geschilderten medizinisch-industriellen Komplex zutrifft. Eine an der wissenschaftlichen Fragestellung orientierte Kooperation ist nur selten der Fall. Es gibt dazu vielfältige Beispiele: Die neuronenspezifische Enolase (NSE) ist bei Hypoxien des Hirns 50-mal empfindlicher im Blut zu messen als das S‑100B-Protein. Als Roche den Test für NSE aus firmeninternen Gründen einstellte und gleichzeitig eine andere Firma den Markt mit S‑100-messenden Analysenautomaten und Studien zur Rolle des S 100 sättigte, war das der Siegeszug der S‑100-Analytik trotz beträchtlicher Mängel im Vergleich zur NSE.

Die Universitätsmedizin muss ihre Kompetenz zurückgewinnen

Die Diskussion über Relevanz oder Spezifität eines neuen Markers ignoriert aber meist den Bezug auf eine hinreichende, komplette Liquoranalytik [11], was dann meist zu einer Überschätzung seiner Relevanz führte. Auch in der Entwicklung der Therapeutika übernimmt die Industrie eine autonome Rolle. Viel zu oft wird für ein von der Industrie entwickeltes potenzielles Therapeutikum eine passende Krankheit gesucht. Bevorzugt natürlich wird eine Krankheit, die bei vielen Menschen auftritt und eine Langzeittherapie erfordert. Das zeigt sich z. B. an der Geschichte der Interferontherapien bei Multipler Sklerose. Angefangen mit dem aus Fibroplasten gewonnenen α‑Interferon, gefolgt von rekombinantem γ‑Interferon, das weder in niedrigen noch in hohen Dosen als wirksam gefunden wurde, bis dann zuletzt β‑Interferon die Investitionen wieder einspielte. Von der Idee, eine körpereigene Substanz zur Therapie zu verwenden, bis zum anscheinend unerwarteten Auftreten „neutralisierender Antikörper“ (=Autoantikörper) wäre dies auch ein Beispiel für Prüfungsfragen im Biochemiestudium.

Die Universitätsmedizin muss ihre Kompetenz in der Krankheitsforschung zurückgewinnen. Nur so ist eine Wende zu den komplexen Krankheitsmodellen möglich.

Den Blick auf den kranken Menschen zu schulen, eine Übung für die Funktion der „rechten“ Hirnhälfte [13], mag die Chance bieten, Neues über eine Krankheit zu erfahren. Das ist es letztlich, was die Beteiligung der Neurologen und Psychiater an der Liquoranalytik essenziell macht. Da ihre naturwissenschaftliche Ausbildung meist mangelhaft ist, ist auch das zunehmende Verschwinden der Naturwissenschaftler aus der Universitätsmedizin zu bedauern.

So bleiben die Bemühungen um die Fortbildung in der von Klaus Felgenhauer initiierten Fortbildungsakademie in der Deutschen Gesellschaft für Neurologie (DGN) eine wichtige Aufgabe, um das notwendige Krankheitswissen zu vermitteln. Mit dem Auslagern der Liquoranalytik in die kommerziellen Labors sollten diese Bemühungen nun auch die Fortbildung der klinischen Chemiker und Labormediziner einschließen.

Fazit

  • Wissenschaft ist Teil des Wertesystems einer Gesellschaft und wird von den real existierenden Machtstrukturen beeinflusst. Die Auflösung des medizinisch-industriellen Komplexes würde eine Chance bieten, kommerziell wenig interessante Modelle, z. B., nichtlineare Modelle wie die Selbstorganisation bei chronischen Erkrankungen, zu erforschen. Das könnte helfen von den symptomatischen Therapien hin zur kausalen Therapie einer Krankheit zu gelangen.

  • Die Ausbildung für naturwissenschaftliche Forschung in der Medizin, gerade auch in der Liquordiagnostik, lässt zu wünschen übrig und auf der anderen Seite ist die Krankheitsforschung, die den komplexen Prozess im Patienten untersucht, als die eigentliche medizinische Kompetenz, im reduktionistischen Forschungsbetrieb nicht hinreichend gefördert.

  • In Erweiterung von Paul Feyerabends Forderung nach Trennung von Staat und Wissenschaft würde ich heute eher eine Trennung von gesellschaftlich finanzierter Wissenschaft und Industrie anregen.