1 Die Wahl geeigneter Wahrheitsindikatoren

Mit der Identifikation einer geeigneten pluralen epistemischen Autorität sind für das Subjekt noch nicht alle Herausforderungen bewältigt. Der zweite Teil des Identifikationsproblems besteht darin, das Bestehen geeigneter wahrheitsindikativer Tatsachen über die Autorität festzustellen (analog zur Feststellung, ob eine individuelle epistemische Autorität eine bestimmte Überzeugung hat). Bereits die Auswahl des geeigneten Wahrheitsindikators kann allerdings entscheidend sein. Um dies zu demonstrieren, möchte ich noch einmal auf das in Abschnitt 12.2.2 eingeführte Beispiel zurückkommen. Angenommen, eine Geschworenenjury sei in dem Sinne wohlstrukturiert, dass die kollektiven Deliberations- und Diskussionsprozesse so organisiert sind, dass die Wahrscheinlichkeit groß ist, dass viele Mitglieder individuell eine korrekte Überzeugung über die Schuld des Angeklagten ausbilden werden: Die Jury sei sozial sehr diversifiziert, es gebe effektive Vorkehrungen gegen den Ankereffekt, Groupthink usw. Allerdings sei das von der Jury verwendete Verfahren zur Bildung der Kollektiv-Überzeugung suboptimal (sagen wir, sie werde durch das am wenigsten kompetente Mitglied oder per Zufall festgelegt). In einem solchen Fall produziert die Jury einen epistemischen Output, der vermutlich nicht zuverlässig die Wahrheit über die Schuld des Angeklagten anzeigt (die Kollektiv-Überzeugung), und zugleich einen Output, der sie vermutlich zuverlässig oder zumindest wesentlich zuverlässiger anzeigt (die Mehrheitsmeinung).

Das Beispiel mag unrealistisch erscheinen (welche Jury würde ihre Kollektiv-Überzeugung auf diese Weise bilden?; das Grundproblem ist vom Prinzip her aber ubiquitär). Wie wir (in Abschnitt 12.2.1) gesehen haben, gibt es in der Wissenschaft Anreizmechanismen, die die Herstellung epistemischer Diversität befördern, was angesichts des epistemischen Werts der Diversität sehr sinnvoll ist. Eine gut funktionierende wissenschaftliche Gemeinschaft wird somit häufig auch einige Mitglieder haben, die weniger gut bestätigte oder weniger aussichtsreiche Ansätze verfolgen. Wenn ein Ansatz sehr gut bestätigt ist, bedeutet das nicht automatisch, dass ihn alle Mitglieder der fraglichen Gemeinschaft verfolgen oder von seiner Überlegenheit überzeugt sind; Einstimmigkeit ist also möglicherweise ein zu anspruchsvoller Wahrheitsindikator. Mehr noch: Einstimmigkeit ist vielleicht nicht nur zu selten realisiert, um ein praktikabler Wahrheitsindikator zu sein; es besteht auch Grund zu der Annahme, dass Einstimmigkeit in einer Pluralität häufig sogar weniger zuverlässig die Wahrheit der fraglichen Proposition anzeigt als eine geringer ausgeprägte Mehrheitsmeinung (d. h. eine Mehrheit von – sagen wir – 90 Prozent) (dafür argumentiert auch Dellsén 2018). Denn wenn es eine kleine Minderheit in der Pluralität gibt, die eine abweichende Meinung vertritt, dann ist das Evidenz für die Existenz diversitätsbefördernder Mechanismen in der Pluralität, wohingegen Einstimmigkeit Evidenz für die Abwesenheit solcher Mechanismen ist. Und angesichts des großen epistemischen Werts der Diversität kann eine einstimmige Mehrheit in einer Pluralität ohne Diversität durchaus von geringerem wahrheitsindikativem Wert sein als eine weniger deutliche Mehrheit in einer diversifizierten Pluralität. Freilich kann es unabhängige Hinweise für die Existenz diversitätsbefördernder Anreize in einer Pluralität geben. Wenn es sehr starke solcher unabhängiger Hinweise gibt, dann könnte eine einstimmige Mehrheit vielleicht doch größtmöglichen wahrheitsindikativen Wert haben. (Die Überlegung wäre hier: Wenn sich trotz der Anreize alle einig sind, dann muss es wirklich außerordentlich starke Gründe für die Wahrheit der fraglichen Proposition geben.)

Andererseits gibt es unter Nicht-Wissenschaftlern inklusive Politikern, Justizvertretern und anderen oft die Erwartung, dass es eine einstimmige Mehrheit oder einen absoluten Konsens in einer wissenschaftlichen Gemeinschaft geben müsse, damit die Mehrheit oder der Konsens als guter Wahrheitsindikator taugt und damit man damit beispielsweise politische Maßnahmen oder juristische Entscheidungen begründen kann. In diesem Sinne meint Solomon: „The authority of experts depends on their unanimity“ (Solomon 2015a, 63). Viele Wissenschaftler nun kennen diese Erwartung und richten ihr Handeln an ihr aus. In manchen Situationen führt das dazu, dass sie Versuche unternehmen, Uneinigkeiten zu maskieren und einen Konsens zu konstruieren:

[One] reason why scientific experts might simplify the state of knowledge with regard to a particular issue, or why they might let a particular position stand as the group’s in spite of disagreement among themselves, is to protect their expert status. As long as they openly contest each other’s knowledge with regard to an issue of public concern, they may raise questions in the minds of the lay public as to whether they know what needs to be known, and even whether they have the competence to figure it out. By withholding information about the degree of disagreement among them, a group of scientists might preserve its perceived status as the group to consult and defer to – i.e., the experts – with regard to a particular set of issues. (Beatty 2006, 54)

Ob es sich bei dieser Strategie um eine weise Strategie handelt, darf (entgegen der Auffassung von Solomon (2015a), die sie zumindest für „angewandte Wissenschaften“ wie die Medizin empfiehlt)Footnote 1 eher bezweifelt werden: Denn in dem Maße, in dem sie publik wird, trägt sie zur Erosion ihrer eigenen Grundlage bei. Wenn unter den Laien, den Politikern, in der Bevölkerung allgemein der Eindruck entsteht, dass wissenschaftliche Konsense lediglich „manufactured consensuses“ sind, oder zumindest der Eindruck, dass solche konstruierten neben möglicherweise echten Konsensen stehen und sich nicht von diesen unterscheiden lassen, dann untergräbt auf lange Sicht genau dies die Glaubwürdigkeit der Wissenschaft. Vor diesem Hintergrund wäre es wohl ratsamer, zu versuchen, die Bevölkerung in stärkerem Maße über die Funktionsweise der Wissenschaft im Allgemeinen und die Relevanz diversitätsgenerierender Mechanismen im Speziellen aufzuklären, um so die Erwartung zu korrigieren, dass nur Einstimmigkeit oder absoluter Konsens taugliche Wahrheitsindikatoren sind.

Diese Problematik möchte ich jedoch an dieser Stelle nicht weiter vertiefen (ich werde diese Aspekte noch einmal konkreter in meiner Beispielanalyse in Kapitel 20 diskutieren), sondern vielmehr auf die Adäquatheit unterschiedlicher Wahrheitsindikatoren zurückkommen. Wenn ein Konsens lediglich konstruiert ist, dann ist er ein offenbar nur bedingt brauchbarer Wahrheitsindikator.Footnote 2 Vielleicht wäre die Mehrheitsmeinung ein besserer Indikator: Wenn man weiß, dass – sagen wir – eine absolute, aber keine Zweidrittelmehrheit der Mitglieder der Pluralität einer bestimmten Überzeugung ist, dann könnte man auf dieser Grundlage vermuten, dass der Inhalt der Überzeugung mit größerer Wahrscheinlichkeit wahr ist, aber noch erhebliche Restzweifel bleiben. Allein daraus, dass es einen Konsens unter den Wissenschaftlern gibt, könnte diese Information nicht abgeleitet werden.

Es sollte aber nicht der Eindruck entstehen, der Mehrheitsindikator sei immer überlegen. Wenn die Kollektiv-Überzeugung im Beispiel der Jury etwa durch prämissenorientierte Aggregation erzeugt wird, dann kann, wie wir gesehen hatten, die Situation eintreten, dass alle Jurymitglieder von der Unschuld des Angeklagten überzeugt sind, die Kollektiv-Überzeugung aber auf „schuldig“ lautet. Und letzteres kann sehr wohl das korrekte, adäquatere, das auf vernünftigerem Weg zustande gekommene Ergebnis sein. Denn jede einzelne Prämisse wird vielleicht mit sehr großer Mehrheit als zutreffend bewertet, und wenn die Jurymitglieder hinreichend zuverlässig im Einschätzen des Zutreffens der einzelnen Bedingungen sind, dann ist die Wahrscheinlichkeit größer, dass der Angeklagte schuldig ist, als dass er unschuldig ist.

Soweit habe ich gezeigt, dass die Wahl eines angemessenen Wahrheitsindikators bereits ein kritischer Punkt sein kann. Wenn verschiedene Wahrheitsindikatoren konvergieren (wenn es also sowohl einen Konsens als auch eine Kollektiv-Überzeugung als auch eine deutliche Mehrheitsmeinung gibt, dass p, und eventuelle weitere Wahrheitsindikatoren zum selben Ergebnis führen), dann ist die Situation für das Subjekt eindeutiger. Wenn es aber eine Divergenz verschiedener Mehrheitsindikatoren gibt, muss das Subjekt – im Rahmen seiner Einschätzung der epistemischen Performance der fraglichen Pluralität insgesamt – versuchen, den- oder diejenigen Wahrheitsindikator(en) zu identifizieren, der (oder die) in höherem Maße wahrheitsindikativ ist. Dieser Versuch kann als Teil jenes genealogischen Projekts verstanden werden, das wir (in Abschnitt 6.4) als charakteristisch für das Verhalten von Subjekten gegenüber epistemischen Autoritäten beschrieben hatten. Je nachdem, wie die mutmaßlich wahrheitsindikative Tatsache zustande gekommen ist, hat sie in stärkerem oder schwächerem Maße wahrheitsindikative Eigenschaften.

2 Methoden zur Feststellung des Bestehens wahrheitsindikativer Tatsachen

Ob eine relative oder qualifizierte Mehrheit von Mitgliedern der Pluralität P glaubt, dass p, ob es in P eine Kollektiv-Überzeugung oder einen Konsens gibt, dass p, oder ob eine relative oder qualifizierte Mehrheit der von Mitgliedern von P publizierten einschlägigen Veröffentlichungen zu dem Ergebnis kommt, dass p: Dies sind Fragen, deren Antworten nicht unbedingt offensichtlich sein müssen, zumal für nicht mit der relevanten Domäne vertraute Subjekte. Im Fall des Deferierens gegenüber individuellen epistemischen Autoritäten muss das deferierende Subjekt die Überzeugungen der Autorität feststellen, und testimoniale Kommunikation mit der Autorität ist die naheliegendste Weise, um dies zu tun (auch wenn es, wie wir in Abschnitt 7.2 gesehen hatten, nicht die einzige Weise ist). Eine Pluralität als solche ist aber nicht in vergleichbarer Weise ein möglicher Kommunikationspartner für ein Subjekt, so dass sich die Frage stellt, wie es das Bestehen oder Nicht-Bestehen der (mutmaßlich) wahrheitsindikativen Tatsachen alternativ feststellen kann. Um diese Frage geht es im Folgenden.

Eine prima facie simple Methode zur Feststellung der Wahrheitsindikatoren besteht darin, ein Mitglied der betroffenen Pluralität danach zu fragen bzw. eine entsprechende publizierte Äußerung des Mitglieds heranzuziehen. Man fragt das Mitglied dabei wohlgemerkt nicht danach, ob p seiner Meinung nach der Fall ist, sondern danach, ob die Mitglieder von P mehrheitlich glauben, dass p der Fall ist, oder einen entsprechenden Konsens gefasst haben usw. Diese Methode ist bei näherer Betrachtung gar nicht so simpel und anspruchslos, wie es zunächst den Anschein haben mag. Sie setzt nämlich zum einen voraus, dass ein solches Mitglied überhaupt verfügbar ist, was nicht immer der Fall sein muss. Außerdem stellt sich hier ein weiteres unter Umständen schwieriges Identifikationsproblem, denn Subjekte müssen nicht immer imstande sein, Mitglieder von P zuverlässig als solche zu identifizieren. In dem Maße, in dem sie sich auf die Selbstauskunft des mutmaßlichen Mitglieds verlassen müssen, besteht die Gefahr, dass dieses sich zu einem Mitglied erklärt, ohne es wirklich zu sein, oder leugnet, ein Mitglied zu sein, obwohl es eines ist. Wenn ein echtes Mitglied identifiziert wurde und verfügbar ist, muss es darüber hinaus auch tatsächlich wissen, ob die wahrheitsindikative Tatsache besteht, und es muss bereit sein, dieses Wissen an das Subjekt weiterzugeben. Beides versteht sich nicht von selbst. Ein Mitglied von P könnte zum Beispiel sehr wohl eine wahre Meinung zu p haben, aber eine falsche oder gar keine zu den wahrheitsindikativen Tatsachen. Beispielsweise hatte ich bereits auf die „pluralistische Ignoranz“ hingewiesen, also das Phänomen, dass die Mitglieder einer Pluralität inhaltlich in einem bestimmten Punkt übereinstimmen, aber nicht um diese Übereinstimmung wissen bzw. davon ausgehen, die anderen Mitglieder seien gegenteiliger Meinung. So, wie wir Expertise unterscheiden müssen von Metaexpertise (also Kenntnissen darüber, wer die Experten für bestimmte Fragen sind), so müssen wir die Kenntnis der erststufigen, zur thematischen Domäne gehörenden Propositionen unterscheiden von der Kenntnis jener eher soziologischen Sachverhalte, die den Wahrheitsindikatoren zugrundeliegen. Allerdings sind beide Typen von Kenntnissen zumindest in wissenschaftlichen Gemeinschaften häufig durchaus gekoppelt, so wie ja auch Expertise und Metaexpertise häufig gekoppelt sind. Das liegt daran, dass ein die Fachdebatten der eigenen Disziplin rezipierender oder an ihnen partizipierender Wissenschaftler in der Regel ein verhältnismäßig gutes Gefühl dafür hat, welche Meinungen in der eigenen Community in welchem Maße akzeptiert sind. Er weiß, welche Auffassungen in Fachpublikationen als „widerlegt“, „umstritten“, „gut bestätigt“ oder „selbstverständlich“ markiert werden; wie Konferenzbesucher auf diese oder jene Äußerung eines Vortragenden oder auf diese oder jene Frage aus dem Publikum reagieren; welcher Seite in Debatten die Beweislast zugewiesen wird usw. Vor diesem Hintergrund äußert Magnus (2013, 840) die Erwartung, dass wenn ein Laie eine wissenschaftliche Expertin konsultiert, diese Expertin die beiden hier relevanten Aspekte differenzieren kann: „She can relate what she as a particular scientist knows (what she herself thinks, where her sympathies lie in controversies, etc.), but she can also take a step back from those commitments to give her sense of what the community consensus or dominant opinion is on the same matters.“

Allerdings kommt an dieser Stelle erneut auch der oben diskutierte „intellectual bias“ zum Tragen; einige Autoren sprechen auch vom „expert paradox“: „[P]recisely what qualifies certain individuals to serve as advisers can also prevent them from objectively assessing the literature.“ (Wolf 2007, 609) Dazu führt Miller (2016, 17 f.) weiter aus: „Experts have vested interests in their theories. Their professional development, funding, and reputation often depend on the success and acceptance of a specific view or theory (Pickering 1982). It is hard to find experts who are truly objective, especially in cases of genuine controversies.“ Der „intellectual bias“ kann sowohl dazu führen, dass Wissenschaftler das Vorliegen eines Wahrheitsindikators nicht exakt einschätzen können, als auch dazu, dass sie es (selbst wenn sie es exakt einschätzen können) nicht akkurat zu kommunizieren bereit sind.

Darüber hinaus kann es sicher noch weitere Motive geben, warum ein Mitglied einer Expertengemeinschaft manchmal nicht akkurat das Vorliegen eines Wahrheitsindikators kommunizieren möchte. Man könnte etwa an so etwas wie epistemischen Paternalismus denken: Wenn ein Experte von einem Laien zu einer wichtigen Proposition p konsultiert wird, zu der der Experte eine von den meisten anderen Experten nicht geteilte Meinung hat, dann motiviert ihn das vielleicht dazu, die Deutlichkeit der Mehrheit kleinzureden oder zu leugnen, um den Laien davon abzuhalten, sich der seiner Ansicht nach falschen Mehrheitsmeinung anzuschließen. Aus ähnlichen Gründen könnte umgekehrt auch ein Vertreter der Mehrheitsmeinung motiviert sein, die Anzahl der verbliebenen Andersdenkenden kleinzureden.Footnote 3 Ein weiteres Motiv, wieso Experten manchmal vielleicht inakkurate Angaben zu Wahrheitsindikatoren machen, könnte mit etwas zusammenhängen, was der Soziologe Erving Goffman (1959) „impression management“ genannt hat. Ein auf seinen Status bedachter Experte befürchtet womöglich (und womöglich durchaus zu Recht) einen Ansehensverlust, wenn er gegenüber einem Laien eingesteht, keine genauen Kenntnisse über in seiner Fachgemeinschaft herrschende Konsense, Mehrheitsmeinungen usw. zu besitzen. Daher gibt er vielleicht lieber eine falsche Auskunft, als eine Wissenslücke zu offenbaren, die seinen Status unterminieren könnte.

Während die Methode des Mitglieder-Fragens auf alle Wahrheitsindikatoren anwendbar ist, sind andere Methoden nur auf bestimmte Indikatoren anwendbar. Eine Möglichkeit, um etwa das Vorliegen des ersten Indikators festzustellen (ob eine relative oder qualifizierte Mehrheit der Mitglieder von P der Meinung ist, dass p), besteht darin, eine Art Stichprobe der Mitglieder von P zu nehmen und jedes Mitglied nach seiner Meinung zu p zu fragen (oder auf publizierte Äußerungen des Mitglieds zu p zurückgreifen). Jeder Patient, der eine „zweite Meinung“ einholt, also einen zweiten Arzt konsultiert, tut vom Ansatz her genau dies. Im Unterschied zur ersten Methode werden die Mitglieder bei dieser Methode nicht nach ihrer Meinung zum Vorliegen der Wahrheitsindikatoren gefragt, sondern direkt nach ihrer Meinung zu den erststufigen Propositionen. Einige der Probleme, die wir im Zusammenhang mit dem ersten Indikator diskutiert hatten, spielen hier keine Rolle, etwa das Paternalismus-Problem und das Problem des „intellectual bias“. In anderen Hinsichten ist die zweite Methode dafür anspruchsvoller. Beispielsweise stellt sich auch hier das Problem der korrekten Identifizierung von Mitgliedern sowie deren Zugänglichkeit, und zwar nicht einmal, sondern mehrfach, denn es sollen ja mehrere Mitglieder gefragt werden. Zudem ist die Methode entsprechend zeitaufwendiger. Darüber hinaus gibt es ein Repräsentativitätsproblem. Aus der Stichprobentheorie ist bekannt, wie schwierig es sein kann, eine Stichprobe zu ziehen, von der man auf die Grundgesamtheit schließen kann. Probleme ergeben sich hier insbesondere aus der nötigen Größe der Stichprobe und der geforderten Zufälligkeit der Auswahl. Beide Aspekte dürften ein durchschnittliches Subjekt vor erhebliche Herausforderungen stellen. Eine Konsultation von zwei oder drei Ärzten mag praktikabel sein, doch um mit einiger Sicherheit sagen zu können, dass in der medizinischen Community beispielsweise mindestens eine absolute Mehrheit der Mitglieder glaubt, dass p, wäre eine weitaus größere Stichprobe nötig. Zudem müssten, um die Zufälligkeit der Stichprobe zu gewährleisten, erhebliche Anstrengungen unternommen werden. Wenn ich verschiedene Ärzte im Bereich meines Wohnumfelds auswähle, lässt diese Stichprobe vielleicht nur schlecht Rückschlüsse auf die medizinische Community insgesamt zu, da es durchaus einen Zusammenhang geben kann zwischen dem Ort, wo ein Arzt niedergelassen oder angestellt ist, und seinen medizinischen Ansichten, denn bestimmte Regionen, Stadtviertel oder sonstige Wohnumfelder können Menschen mit bestimmten Einstellungen anziehen (und andere abschrecken) und dadurch indirekt auch für Ärzte mit bestimmten Orientierungen attraktiv sein. Trotz dieser Schwierigkeiten ist auch diese Methode nicht ohne Wert und bietet zumindest eine gewisse Entscheidungsgrundlage hinsichtlich der Feststellung des ersten Indikators.

Eine Methode speziell zur Feststellung des vierten Indikators (der Tatsache, dass eine Mehrheit der für p relevanten Publikationen, die von Mitgliedern von P veröffentlicht wurden, zu dem Ergebnis kommt, dass p) ist die Konsultation von Metastudien. Diese Methode setzt mehrere Dinge voraus: dass die Mitglieder von P überhaupt Publikationen verfassen, dass es einschlägige Publikationen zu p gibt und schließlich, dass diese Publikationen in Form einer Metastudie ausgewertet wurden. Diese Bedingungen sind freilich nicht immer erfüllt. Aber auch wenn sie erfüllt sind, ist die Anwendung der Methode anspruchsvoll. Einerseits ist Fachliteratur inklusive Metastudien über das Internet heute relativ einfach für jedermann verfügbar. Andererseits kann es schwierig sein, Metastudien zu finden und zu verstehen, insbesondere dann, wenn man mit der Institution wissenschaftlicher Fachjournale, mit technischem Vokabular oder mit statistischen Methoden wenig vertraut ist. Manche Subjekte allerdings sind mit derlei Dingen vertraut (wenn jemand ein Laie in Bezug auf die Domäne ist, zu der p gehört, schließt das nicht aus, dass er Experte in Bezug auf eine andere Domäne ist, in der statistische Methoden und dergleichen ebenfalls verwendet werden), und für solche Subjekte könnte die Verwendung von Metastudien durchaus eine sinnvolle Option sein.

Eine Schwierigkeit ergibt sich allerdings daraus, dass unterschiedliche Metastudien zur selben Frage zu unterschiedlichen Ergebnissen kommen können. In solchen Situationen kann es (selbst für Experten) schwierig sein, die adäquatere zu identifizieren. Zumindest ansatzweise kann aber auch hier eine gerechtfertigte Entscheidung möglich sein: So sind Metastudien, die von Autoren mit besserer Reputation oder in höher gerankten Journalen veröffentlicht wurden ceteris paribus vermutlich adäquater als solche, die von Autoren mit schlechterer Reputation oder in niedriger gerankten Journalen veröffentlicht wurden. Die Reputation von Autoren und das Ranking von Fachjournalen sind keine esoterischen Informationen und können von recherchewilligen Laien herausgefunden werden (Goldmans Methoden – insbesondere die dritte – erlauben eine grobe Einschätzung der Reputation von Autoren; Listen mit Rankings von Fachjournalen können im Internet gefunden werden).

Eine weitere Möglichkeit für das Subjekt besteht darin, Leitlinien oder ähnliche Formate zu konsultieren. Ein Vorteil von Leitlinien gegenüber Metastudien ist, dass sie häufig (noch) leichter verfügbar und zudem auch für Laien verständlicher sind (zumal sich beispielsweise viele medizinische Leitlinien explizit auch an Patienten richten). Ähnlich wie bei Metastudien kommt allerdings bei Leitlinien auch die Limitierung zum Tragen, dass es, anders als in der Medizin oder Klimaforschung, nicht in allen Pluralitäten Leitlinien oder ähnliche Formate gibt; und auch in Pluralitäten, wo es sie gibt, gibt es sie nicht zu jeder potentiell interessanten Frage. Wenn es sie gibt, bietet sich ihre Verwendung aber insofern an, als bei solchen Formaten häufig explizit versucht wird, so etwas wie wissenschaftliche Konsense oder den „Stand der Forschung“ abzubilden, und zwar durch Akteure, die viel besser qualifiziert sind, dies zu tun, als ein Laie. Das Subjekt spart sich also sozusagen die eigene Recherchearbeit, um sie jenen zu überlassen, die besser Metastudien auswerten können usw. Eines der Probleme, das sich dabei stellt, ist die Frage, ob die Leitlinien-Autoren tatsächlich sowohl in der Lage als auch willens sind, einen wissenschaftlichen Konsens akkurat abzubilden. Beispielsweise macht Solomon (2015b) deutlich, dass in medizinische Leitlinien auch andere Aspekte eingehen können; statt die nach dem Stand der Forschung beste Behandlung zu empfehlen, wird dann z. B. jene Behandlung empfohlen, die aus ökonomischen Gesichtspunkten optimal erscheint (zumindest aus Sicht bestimmter Akteure). Das hat zur Folge, dass unterschiedliche Leitlinien unterschiedliche Empfehlungen machen, nicht weil ihre Autoren den wissenschaftlichen Konsens anders eingeschätzt hätten, sondern weil unterschiedliche ökonomische Interessen – oder allgemeiner: unterschiedliche nicht-epistemische Werte – berücksichtigt bzw. anders gewichtet wurden, ohne dass dies für den Benutzer transparent sein muss. Das lässt sich etwa an Leitlinien zur Brustkrebsvorsorge demonstrieren: „[R]ecommendations for mammograms to screen for breast cancer may be different in countries with different resources or different values. In the UK, mammograms are not routinely offered to elderly women because they are not assessed as cost-effective at that age; in the United States cost effectiveness is not valued so highly.“ (Solomon 2015b, 77) Vor diesem Hintergrund wird ein generelles Problem der Methode der Verwendung von Leitlinien deutlich, das wir in ähnlicher Form auch bei der vorherigen Methode festgestellt hatten. Wie es konkurrierende Metastudien geben kann (und häufig gibt), kann es auch konkurrierende (z. B. von verschiedenen medizinischen Gesellschaften erstellte oder in verschiedenen Ländern verwendete) Leitlinien geben, und für die Subjekte stellt sich vor diesem Hintergrund die Frage, welchen davon sie vertrauen sollten. Zugleich bietet sich hier aber auch eine Chance: In Situationen nämlich, in denen unterschiedliche Leitlinien zum selben Ergebnis kommen, kann damit ein recht starkes Indiz dafür vorliegen, dass sie wirklich akkurat den Stand der Forschung abbilden und nicht durch sonstige kontingente Interessen bzw. nicht-epistemische Werte o.dgl. verzerrt sind. Auch der Vergleich unterschiedlicher Leitlinien ist etwas, was von professionellen Akteuren teilweise sozusagen als „Service“ angeboten wird, so dass Laien sich den Rechercheaufwand sparen können (in den USA wird eine solche „guideline synthesis“ etwa vom National Guidelines Clearinghouse betrieben, vgl. Solomon 2015b, 220 ff.). Die dabei resultierenden „Meta-Leitlinien“ stehen in einem ähnlichen Verhältnis zu den einzelnen Leitlinien wie Metastudien zu den einzelnen Studien. Freilich müssen auch dabei nicht alle Zweifel beseitigt werden, denn ähnlich wie sich bei der Erstellung von Metastudien die Frage stellt, welche Einzelstudien einbezogen werden, stellt sich die Frage, welche einzelnen Leitlinien berücksichtigt und wie sie jeweils gewichtet werden.

Die soweit besprochenen Methoden stellen keine vollständige Zusammenstellung dar. Man könnte auch noch an Umfragen unter Mitgliedern einer Pluralität, Delphi-Studien oder anderes denken. Ich möchte es aber dabei bewenden lassen und zusammenfassend noch einmal die Struktur des Identifikationsproblems insgesamt in den Blick nehmen. Um den Wahrheitswert einer interessanten Proposition zu erfahren, kann ein Subjekt auf geeignete, wahrheitsindikative Tatsachen über eine geeignete Pluralität P zurückgreifen. Wie bei der Interaktion mit individuellen epistemischen Autoritäten, ist es dabei mit zwei Typen von Herausforderungen bzw. Unsicherheiten konfrontiert. Die erste besteht darin, sicherzustellen, dass die mutmaßlich wahrheitsindikative Tatsache über P auch tatsächlich wahrheitsindikativ ist. Das Risiko, dass p falsch ist, obwohl die Tatsache indiziert, dass p wahr ist (oder umgekehrt), lässt sich nicht restlos eliminieren. Gleichwohl gibt es einige sinnvolle Möglichkeiten, um es zumindest ein Stück weit zu reduzieren. Ansatzpunkte sind dabei zum einen die allgemeine epistemische Performance der Pluralität, zum anderen die Art und Weise, wie die (mutmaßlich) wahrheitsindikativen Tatsachen konkret zustande gekommen sind. Zu beiden Aspekten bieten sich im weitesten Sinn soziologische, sozialpsychologische oder historische Recherchen zu den Dimensionen Zusammensetzung, Struktur und Umwelt der Pluralität an. Die zweite Herausforderung besteht darin, festzustellen, ob die als wahrheitsindikativ vermutete Tatsache tatsächlich besteht. Keine der Methoden, die ich dazu diskutiert habe, ist perfekt. Die Befragung von Mitgliedern von P nach dem Bestehen der Tatsachen oder direkt nach der Wahrheit der Proposition, die Verwendung von Metastudien oder die Lektüre von Leitlinien haben jeweils unterschiedliche Vor- und Nachteile; ein Restrisiko bleibt aber in jedem Fall, dass die als wahrheitsindikativ vermutete Tatsache besteht, obwohl die Anwendung der Methoden zu dem Ergebnis geführt hat, dass sie nicht besteht (oder umgekehrt) (es könnte beispielsweise einen Konsens in der Pluralität geben, dass p, wohingegen meine Methode zur Feststellung aber ergibt, dass es keinen solchen Konsens gibt). Gleichwohl versprechen die diskutierten Methoden aber auch mit Blick auf diese zweite Herausforderung zumindest eine gewisse Verminderung der Unsicherheit.