Sich auf eine epistemische Autorität zu stützen, heißt, deren Überzeugungen (oder sonstige sie betreffende geeignete Tatsachen) als Wahrheitsindikatoren zu verwenden. Dazu muss zunächst erst einmal eine epistemische Autorität als solche erkannt werden. Man will sich in seiner Überzeugungsbildung ja nicht auf beliebige Akteure stützen, auch nicht auf solche, die lediglich vortäuschen, epistemische Autoritäten zu sein, sondern vielmehr auf solche, die es tatsächlich sind. Das aber wirft die Frage auf, wie man denn eine epistemische Autorität als solche erkennen und gegebenenfalls von Schein-, Fake- oder Pseudo-Autoritäten unterscheiden kann (vgl. zu dieser Differenzierung Jäger 2023). Wenn man eine „echte“ Autorität identifiziert hat, muss man ferner auch ihre Überzeugungen (oder das Vorliegen der sonstigen als Wahrheitsindikatoren in Frage kommenden Tatsachen) feststellen. Denn auch wenn zweifelsfrei feststeht, dass man eine Autorität als solche identifiziert hat, kann man daraus nur dann einen Nutzen für seine eigene epistemische Praxis ziehen, wenn man auch diese Überzeugungen (oder sonstigen Tatsachen) kennt (man stelle sich etwa einen Akteur vor, von dem man zwar weiß, dass er alles über D weiß, der aber nichts von seinem Wissen preisgeben möchte oder eine Neigung zur Lüge hat). Das Identifikationsproblem besteht somit aus zwei Teilen und lautet: Wie kann man (1) eine epistemische Autorität als solche erkennen und wie (2) ihre Überzeugungen (oder sonstigen als Wahrheitsindikatoren infrage kommenden Tatsachen) feststellen? Die beiden folgenden Abschnitte sind der Auseinandersetzung mit diesen beiden Teilproblemen gewidmet. Der Einfachheit halber konzentriere ich mich dabei auf den Fall menschlicher epistemischer Autoritäten mit Überzeugungen; ausführliche Überlegungen zum Identifikationsproblem im Hinblick auf plurale epistemische Autoritäten folgen dann in Teil III.

1 Die Identifikation geeigneter epistemischer Autoritäten

Führen wir uns noch einmal paradigmatische Situationen vor Augen, in denen ein Transfer von propositionalen Kenntnissen von einer individuellen epistemischen Autorität EA an ein Subjekt S vonstattengeht. Beispielsweise könnte EA ein Experte für – sagen wir – die Evolution des Lebens sein und S einem wissenschaftlichen Vortrag von EA zuhören und dadurch eine Reihe von Dingen über Evolution erfahren, von denen er vorher keine Ahnung hatte (Situation A). Oder EA könnte Ss Arzt sein und S eine wichtige Diagnose stellen, über entsprechende Therapiemöglichkeiten aufklären usw. (Situation B). Man vergleiche demgegenüber eine Situation, in der ein Kreationist einen Vortrag hält und seiner Zuhörerschaft eine Reihe von falschen Informationen über die Entwicklung des Lebens vermittelt (Situation A*). Oder (Situation B*) der Arzt besitzt zwar korrekte Informationen über Ss Zustand, hält diese aber aus irgendwelchen Gründen zurück (z. B. aus medizinischem Paternalismus). Es könnte auch sein (Situation B**), dass sich die Informationen des Arztes lediglich auf Trivialitäten erstrecken, die S bereits bekannt sind.

Durch einen Vergleich der Situationen A und B einerseits mit den Situationen A*, B* und B** andererseits lassen sich die Merkmale freilegen, die die Situationen besitzen, in denen ein erfolgreicher Transfer propositionaler Kenntnisse von einer epistemischen Autorität zu einem Subjekt vonstattengeht (die Situationen A und B), und die in jenen Situationen fehlen, in denen dies nicht der Fall ist (nämlich den Situationen A*, B* und B**). Der erfolgreiche Transfer propositionaler Kenntnisse von epistemischen Autoritäten zu Subjekten lässt sich durch das folgende Transferprinzip beschreiben:

(Transferprinzip)

Wenn ein Subjekt S von einer epistemischen Autorität EA für Domäne D Kenntnisse bezüglich einer zu D gehörenden Proposition p erwirbt, dann ist folgendes der Fall:

  1. (1)

    EA kennt den Wahrheitswert von p,

  2. (2)

    EAs Kenntnisse hinsichtlich p sind für S in geeigneter Weise transparent oder zugänglich,

  3. (3)

    S kannte den Wahrheitswert von p ursprünglich nicht.Footnote 1

Dieses Prinzip formuliert wohlgemerkt lediglich notwendige Bedingungen dafür, dass ein Transfer von Kenntnissen zwischen EA und S erfolgt; sie sind nicht zusammengenommen hinreichend (es könnte z. B. sein, dass die Bedingungen erfüllt sind, S aber aus irgendwelchen Gründen keine eigene Überzeugung hinsichtlich der Proposition ausbildet).

Die Bedingung (1) des Transferprinzips erklärt den Unterschied zwischen Situation A und Situation A*: Von dem Evolutionsexperten kann man, anders als von dem Kreationisten, etwas über die Entstehung des Lebens lernen, weil er die Wahrheitswerte von evolutionsbiologischen Propositionen kennt, wohingegen der Kreationist diese Wahrheitswerte nicht kennt, auch wenn er behaupten und selbst glauben mag, sie zu kennen. Bedingung (2) erklärt den Unterschied zwischen Situation B und Situation B*: In Situation B* besitzt der Arzt zwar wie in Situation B korrekte Kenntnisse, hält diese aber zurück, so dass sie S nicht zugänglich bzw. transparent sind. Durch Bedingung (3) schließlich wird Situationen vom Typ B** Rechnung getragen: Wenn S bereits selbst die Wahrheitswerte der Propositionen kannte, kann es von EA diesbezüglich augenscheinlich ebenfalls nichts Neues erfahren.

Die Bedingungen (1) und (2) des Transferprinzips entsprechen nun den beiden Teilen des Identifikationsproblems. Ein Subjekt, das Kenntnisse über eine Domäne D von einer Autorität für D erwerben möchte, steht vor der Herausforderung, jemanden zu finden, der (verglichen mit ihm selbst) hinreichend viele Überzeugungen in Bezug auf Propositionen aus D besitzt, von denen hinreichend viele wahr sind, ohne dass unverhältnismäßig viele falsch wären (erste Aufgabe). Darüber hinaus (zweite Aufgabe) muss es den Inhalt dieser Überzeugungen ermitteln (zweite Aufgabe).

Die erste Aufgabe lässt sich in zwei Teilaufgaben zergliedern: 1. jemanden zu finden, der überhaupt hinreichend viele Überzeugungen bezüglich D besitzt; 2. zu beurteilen, ob diese in hinreichendem Maße wahr sind. Beide Teilaufgaben sind für jemanden, der mit D nicht selbst gut vertraut ist – und nur der hat eine epistemische Autorität ja nötig –, freilich alles andere als trivial.

Zumindest teilweise dürften dem Subjekt allerdings gewisse, im weitesten Sinn ökonomische Mechanismen unseres Systems epistemischer Arbeitsteilung bei der Bewältigung der Aufgaben entgegenkommen. Dieses System besitzt bis zu einem gewissen Grad eine marktförmige Struktur. Ähnlich wie der klassische Markt (mit dem es ja auch verwoben ist)Footnote 2 basiert es auf Spezialisierung sowie auf dem Prinzip von Angebot und Nachfrage. Es lohnt sich für die Individuen, sich in jeweils unterschiedlichen Domänen hochgradig zu spezialisieren, da sie Teil eines Systems sind, in dem sie auf die Spezialkenntnisse der anderen gegebenenfalls zurückgreifen können, wenn sie ihrerseits bereit sind, diesen ihre eigenen Kenntnisse zur Verfügung zu stellen.Footnote 3 Teilweise beruht dieses Tauschsystem darauf, dass die Individuen ihre Spezialkenntnisse sozusagen feilbieten: Sie bieten sie aktiv jenen an, die sie brauchen könnten; sie betreiben „epistemische Reklame“. Eine Teillösung der ersten Aufgabe lautet somit, dass jene, die eine epistemische Autorität für eine bestimmte Domäne suchen, auf die epistemische Reklame, die die Autorität betreibt, zurückgreifen können. Epistemische Akteure mit vielen Überzeugungen in einer Domäne haben häufig ein Interesse daran, „gefunden“ zu werden, und das vermag den Suchenden ihre Suche zu erleichtern. Dass dies nur eine „Teillösung“ der ersten Aufgabe ist, liegt daran, dass nicht unbedingt immer jeder, der viele Überzeugungen in einer Domäne hat, diese auf die beschriebene Weise auf dem epistemischen Markt feilbietet. Manchmal will er es nicht – man denke etwa an jemanden, der die Beschäftigung mit einer bestimmten Domäne sozusagen als Hobby betreibt und kein Interesse daran hat, andere an seinen erworbenen Überzeugungen teilhaben zu lassen –; manchmal kann oder darf er es nicht – man denke beispielsweise an das Werbeverbot für Abtreibung, das bis 2022 in Deutschland galt, oder an die Gefahr, in der sich der Zeuge eines Verbrechens befinden kann, und die ihn womöglich davon abhält, sich als Zeuge (also als jemand mit Spezialkenntnissen über die Tat) erkennen zu geben. Auch wenn sich also manchmal Individuen mit vielen Überzeugungen in einer Domäne als solche identifizieren lassen, lassen sich nicht unbedingt alle Individuen mit vielen Überzeugungen in einer Domäne als solche identifizieren.

Wie steht es mit der zweiten Teilaufgabe? Wie kann man, wenn man jemanden mit hinreichend vielen Überzeugungen bezüglich D identifiziert hat, beurteilen, ob hinreichend viele davon auch tatsächlich wahr sind? Besondere Brisanz besitzt diese Frage durch den Umstand, dass jemand tendenziell in einer umso schlechteren Position zu sein scheint, sie zu beantworten, je nötiger er den Rat einer epistemischen Autorität hat. Die Notwendigkeit, sich in seinem epistemischen Verhalten nach einer Autorität zu richten, ergibt sich ja in erster Linie dann, wenn man nicht selbst entsprechende Kenntnisse in der fraglichen Domäne D besitzt. Wenn man aber beurteilen will, ob eine mutmaßliche D-Autorität wirklich eine Autorität für D ist, ob also ihre einschlägigen Überzeugungen tatsächlich wahr sind, dann kann man offenbar nicht ohne weiteres einfach diese Überzeugungen mit den Wahrheitswerten der sie betreffenden Propositionen vergleichen: Wer diesen Vergleich zwischen der Wirklichkeit und den Meinungen der mutmaßlichen Autorität anstellen kann, besitzt selbst bereits alle Kenntnisse, die von letzterer erworben werden könnten, und hat deren Rat also nicht nötig.

Ganz hoffnungslos ist die Lage für den Ratsuchenden dennoch nicht. Ich denke, wir können einen ersten Ansatzpunkt zur Lösung der zweiten Teilaufgabe gewinnen, wenn wir nochmals auf die (in Abschnitt 6.4) angestellten Überlegungen zur Struktur von Autoritätsargumenten zurückgreifen. Wir hatten gesehen, dass einem Autoritätsargument eine Art genealogische Spekulation vorausgeht. Wer sich auf eine Autorität stützt, geht davon aus, dass die mutmaßliche Autorität ihre Überzeugungen unter Verwendung einer sensitiven Methode gebildet hat, nicht unter Verwendung einer nicht-sensitiven Methode. Und wie es scheint, kann man nun zumindest in manchen Fällen gerechtfertigt sein, davon auszugehen, dass ein bestimmter Akteur eine Reihe von Überzeugungen zu einer Domäne D tatsächlich unter Verwendung einer sensitiven Methode gebildet hat, auch wenn man selbst keinerlei Meinungen zu Propositionen in D hat. Wenn ich beispielsweise weiß, dass A Augenzeuge eines Ereignisses X war, dann kann ich angesichts der verhältnismäßig hohen Zuverlässigkeit einfacher Wahrnehmungsvorgänge wohl davon ausgehen, dass A viele wahre und wenige falsche Überzeugungen über X hat, auch wenn ich selbst kein Augenzeuge war und keine Meinungen über X habe.

Dieser Ansatz hat allerdings seine Grenzen. Zum einen kann es selbst in einem einfachen Fall wie dem des Augenzeugen ungewiss sein, ob die Überzeugungsbildung tatsächlich in der vermuteten zuverlässigen Weise geschehen ist. Auch einfache Wahrnehmungsprozesse interferieren ja mitunter mit anderen, weniger zuverlässigen psychologischen Effekten (vielleicht hat A nur „gesehen, was er sehen wollte“). Zum anderen ist fraglich, ob unsere Überlegungen, selbst wenn sie für den Fall der Augenzeugenschaft mehr oder weniger gültig sein sollten, auf andere Fälle übertragen werden können. In vielen Fällen bin ich nämlich keineswegs mit der Methode vertraut, mithilfe derer eine epistemische Autorität ihre Überzeugungen gebildet hat, so dass ich weder ihre Funktionsweise noch ihre Zuverlässigkeit direkt einschätzen kann. Wenn es um justifikatorisch esoterische Aussagen geht, dürfte das keine untypische Situation sein (auf welchen genauen Methoden etwa das Wissen der Teilchenphysik beruht, dürfte Nicht-Physikern bestenfalls ansatzweise klar sein).

Eventuell hilft aber in solchen Fällen der nochmalige Verweis auf die Marktförmigkeit unseres Systems epistemischer Arbeitsteilung weiter. Wenn man Teil eines solchen Systems und darauf angewiesen ist, von anderen zuverlässige Informationen über Domänen vermittelt zu bekommen, mit denen man nicht selbst vertraut ist, dann hat man einen Anreiz, selbst ebenfalls möglichst zuverlässige Informationen bereitzustellen. Schlechte, unwahre Informationen sind zwar für den nicht mit der Domäne Vertrauten vielleicht nicht oder nicht sofort als solche erkennbar. Dennoch läuft der Anbieter schlechter Informationen ein Stück weit langfristig Gefahr, als Anbieter schlechter Informationen „enttarnt“ zu werden und eine schlechte Reputation auf dem epistemischen Markt zu bekommen.Footnote 4 Eine solche Enttarnung droht durch solche Akteure, die mit der Domäne gleichermaßen gut oder besser vertraut sind. Sie droht aber auch durch Laien: In dem Maße, in dem die Korrektheit der Information eine Voraussetzung dafür ist, dass sie für den Laien von Nutzen ist, kann der Laie diese Korrektheit unter Umständen einschätzen, sofern er die Realisierung oder Nicht-Realisierung des Nutzens einschätzen kann (beispielsweise kann ein medizinischer Laie vielleicht nicht unmittelbar die Korrektheit einer Information einschätzen, die er von seinem Arzt bekommt, aber er kann einschätzen, ob er gesund wird oder nicht). Wenn nun eine gute Reputation als zuverlässige Quelle eine wichtige Ressource auf dem epistemischen Markt ist, dann hat ein Anbieter von Informationen einen Anreiz, auch tatsächlich zuverlässige Informationen bereitzustellen. Für denjenigen, der Informationen sucht und mit unserer zweiten Teilaufgabe konfrontiert ist, besteht umgekehrt entsprechend die Möglichkeit, auf das Funktionieren dieser Anreizmechanismen zu vertrauen. Goldman (2001; 2018) hat zu Recht darauf insistiert, dass jemand zu einem D-Experten nicht allein schon dadurch wird, dass er die Reputation eines D-Experten hat, und dass es einen entsprechenden begrifflichen Unterschied zwischen einem „reputationalen“ und einem „echten“ Experten gibt. Das schließt aber nicht aus, dass es einen statistischen, einen Indikator-Zusammenhang zwischen beiden gibt. Coady (2012, 31) hat ganz recht damit, dass Reputation zumindest in vielen Bereichen recht gut anzeigt, wer ein echter Experte ist: „[R]eputation is a good indicator of who [the] experts are. We don’t usually have much difficulty identifying experts in (say) microbiology, number theory, or eighteenth-century Russian history. They are, to a large extent, the people who have a reputation for being experts in those fields.“

Wie auch schon bei der ersten Teilaufgabe stellt dieser Verweis auf den Marktcharakter des Systems epistemischer Arbeitsteilung allerdings abermals lediglich eine Teillösung dar. Ich hatte darauf hingewiesen, dass manche epistemischen Akteure gar nicht in den epistemischen Markt integriert sind, so dass die entsprechenden Anreizmechanismen nicht unbedingt greifen. Andere mögen zwar integriert sein, aber die Anreizmechanismen greifen vielleicht dennoch nicht. Beispielsweise könnten Akteure anderweitigen Mechanismen ausgesetzt sein, die dafür sorgen, dass sie falsche Überzeugungen ausbilden. Konkrete Beispiele finden sich etwa im Kontext sogenannter „agnotologischer“ Manöver (vgl. z. B. Proctor/Schiebinger 2008; Oreskes/Conway 2010): Von der Tabakindustrie finanzierte Krebsforschung oder von der Ölindustrie finanzierte Klimaforschung ist allzu oft (auch) von dem Interesse beeinflusst, falsche Vorstellungen zum Zusammenhang zwischen Rauchen und Krebs oder dem zwischen der Verwendung fossiler Brennstoffe und der Erderwärmung zu produzieren und zu verbreiten, um dadurch den entsprechenden Firmen einen finanziellen Vorteil zu verschaffen. Teilweise wirkt sich dieses Interesse so aus, dass die involvierten Forscher Informationen verbreiten, deren Korrektheit sie insgeheim bezweifeln; dies betrifft dann eher die erst im nächsten Abschnitt zu behandelnde Problematik (nämlich die Frage, wie ein Subjekt Zugriff auf die tatsächlichen Überzeugungen einer (mutmaßlichen) epistemischen Autorität bekommen kann). Teilweise wirkt es sich aber auch so aus, dass die Forscher die falschen Informationen selbst glauben, was an auf sie wirkenden kognitiven Biases liegen kann (z. B. der Tendenz, kognitive Dissonanz zu vermeiden und eine Übereinstimmung zwischen äußerem Verhalten und inneren Einstellungen herbeizuführen) oder auch an Selektionseffekten (Vertretern fragwürdiger Forschungsansätze wird durch die Industrieförderung die Möglichkeit gegeben, diese Ansätze zu propagieren und weiterzuentwickeln, während sie ohne diese Förderung diese Möglichkeit nicht hätten). In diesen Fällen haben wir es folglich mit Akteuren zu tun, die zwar viele Überzeugungen bezüglich einer Domäne haben, die aber in großer Zahl falsch sind, so dass es keine „echten“ epistemischen Autoritäten, keine „echten“ Experten sind, auch wenn sie diese Reputation vielleicht besitzen sollten.

Das führt uns zu der Schwierigkeit, wie man sich als Subjekt verhalten sollte, wenn man mit zwei (oder mehr) „reputationalen“ epistemischen Autoritäten konfrontiert ist, die konfligierende Empfehlungen geben oder gegensätzliche Informationen verbreiten. Schon bei der Augenzeugenschaft kann dieser Fall auftreten (er gehört zum gerichtlichen Alltagsgeschäft), und bei in höherem Maße esoterischen Domänen ist er eher die Regel als die Ausnahme. Wie identifiziert man die Autorität, der man vertrauen sollte? Diese Fragestellung steht im Mittelpunkt des wohl meistdiskutierten Beitrags zum Identifikationsproblem, nämlich Goldmans (2001) Aufsatz „Experts: Which Ones Should You Trust?“.

Goldman bezeichnet das Problem als „novice/2-expert problem“ und diskutiert fünf mögliche Methoden, die der „Novize“ anwenden könnte. Diese Überlegungen dürften sich unmittelbar auf epistemische Autoritäten übertragen lassen. Zwar ist jemand, der für mich eine epistemische Autorität ist, nicht unbedingt ein Experte (häufig ist er es freilich schon). Allerdings setzt die Anwendbarkeit der Methoden auch gar nicht voraus, dass es sich um einen „echten“ Experten handelt (Goldmans Fragestellung ist nicht, wie der Laie sich verhalten sollte, wenn zwei Personen, die er bereits als Experten identifiziert hat, konfligierende Überzeugungen haben, sondern wie er sich verhalten soll, wenn zwei mutmaßliche Experten (sozusagen zwei Experten-Kandidaten) konfligierende Überzeugungen vertreten).Footnote 5 Da Goldmans Überlegungen einen großen Einfluss auf die philosophische Debatte zum Identifikationsproblem gehabt haben und wir uns auch später bei der Diskussion des Identifikationsproblems in Bezug auf plurale epistemische Autoritäten ein Stück weit an seinen Methoden orientieren werden, möchte ich auf diese im Folgenden mit etwas größerer Ausführlichkeit eingehen. Ich werde jeweils zunächst die Grundidee rekonstruieren und anschließend einige Probleme und Grenzen der jeweiligen Methode aufzeigen bzw. einige weiterführende Anmerkungen zu ihr machen:

  1. 1.

    Goldmans erste Methode besteht darin, dass der Laie Argumente und Begründungen, die die konkurrierenden Experten für ihre Sichtweisen anführen, zum Ausgangspunkt für seine Einschätzung nimmt, welcher davon eine zuverlässigere epistemische Quelle ist. Ein Problem dieser Strategie ist, dass ein Laie schnell damit überfordert sein kann, die Qualität der entsprechenden Argumente und Begründungen einzuschätzen. Das gilt für solche Aussagen, die wir als justifikatorisch esoterisch bezeichnet hatten, deren Begründungen ein Laie also gar nicht zu folgen vermag. Es kann in geringerem Maße aber auch schon für Aussagen gelten, deren Begründungen ein Laie (zumindest ein Stück weit) zu folgen vermag. Denn angenommen, jeder der beiden konkurrierenden Experten liefert für seine jeweilige Behauptung eine für den Laien (ansatzweise) intelligible Begründung. Der Laie hat das Gefühl, dass er den Begründungen folgen kann, nimmt sie vielleicht als in sich stimmig und konsequent wahr, und doch resultieren sie in gegensätzlichen Schlussfolgerungen. Welche Konsequenz soll der Laie daraus ziehen? Auch wenn er bis zu einem gewissen Grad vielleicht die Stimmigkeit einer Argumentation einschätzen kann, so kann er doch die einzelnen Argumente häufig nicht auf ihre Richtigkeit hin bewerten. Auch der logische Zusammenhang der Argumente kann bei komplexen Schlussfolgerungen leicht so groß werden, dass er unüberblickbar wird.

    Goldman ist sich dieser Schwierigkeit bewusst und führt als möglichen Ausweg für den Laien etwas ins Feld, was er „indirect argumentative justification“ nennt. Dabei geht es darum, dass der Laie die dialektische Performance der Experten als Indikator dafür verwendet, ob sie richtig liegen oder nicht. Wie schnell reagieren sie in einer Debatte auf Einwände? Hat man das Gefühl, dass sie mit einem Einwand vertraut sind? Oder sind sie von ihm überfordert? Die Idee ist also, dass der Laie, auch wenn er den Argumenten und Gegenargumenten inhaltlich nicht wirklich folgen oder sie auf ihre Richtigkeit hin bewerten kann, doch von der Vermutung ausgehen kann, dass es einen Zusammenhang zwischen der dialektischen Performance eines Experten und seiner Qualität als epistemischer Quelle gibt. Auch mit dieser indirekten Strategie dürfte der Laie aber nicht allzu weit kommen. Denn das Problem ist, dass sich eine gute dialektische Performance durch rhetorische Raffinesse vortäuschen lässt, wohingegen umgekehrt schlechte dialektische Performance bestenfalls in einem schwachen Verhältnis zur Qualität des Experten als epistemische Quelle stehen dürfte.Footnote 6

  2. 2.

    Ferner kann der Laie Goldman zufolge berücksichtigen, die Meinung welches Experten in höherem Maße durch weitere Experten geteilt wird. Wenn viele Experten der Meinung sind, dass p, während nur wenige der Meinung sind, dass non-p, dann spricht das dafür, demjenigen Experten zu vertrauen, der zum ersten Lager gehört. Goldman bemüht sich, ausführlich darzulegen, dass dies allerdings nur unter der Bedingung gilt, dass die Experten in diesem Lager unabhängig voneinander zu ihrer Meinung gelangt sind. Wenn viele Individuen einem guruartigen Meinungsführer sklavisch folgen (wenn sie, wie Goldman sagt, dessen „non-discriminating reflectors“ sind), dann wiege der Konsens, von wie vielen Personen er auch getragen werde, nicht stärker als die Meinung des einen, dem alle folgen. Wenn demgegenüber mehrere Experten jeweils eigenständige und voneinander unabhängige Untersuchungen angestellt haben, dann spreche dies, sofern sie alle zum selben Ergebnis gekommen sind, sehr viel stärker für dieses Ergebnis als die einzelnen Untersuchungen für sich betrachtet.

    Dieses Kriterium Goldmans ist für unsere Überlegungen von großem Interesse, und ich werde noch sehr viel ausführlicher auf die Rolle eines Konsenses in einem Kollektiv als Wahrheitsindikator eingehen (u. a. in Abschnitt 11.3). An dieser Stelle sei zunächst lediglich in aller Kürze ein Problem mit Goldmans Argumentation in diesem Zusammenhang angesprochen. Das Problem lautet, wie Coady (2012, 43) formuliert: „[T]he existence of a nondiscriminating reflector of a person with respect to a proposition can itself be evidence in favor of that proposition“ (vgl. mit ähnlicher Stoßrichtung auch Zagzebski 2012, 70 f., sowie Lackey 2013). Wenn man sich beispielsweise die epistemische Arbeitsteilung innerhalb wissenschaftlicher Gemeinschaften anschaut (Kitchers „division of cognitive labor“, s. oben, Kap. 4, Fußnote 2), dann wird deutlich, dass Goldmans Unabhängigkeits-Forderung der Art und Weise, wie wissenschaftliches Wissen in der Regel etabliert wird, nicht adäquat Rechnung trägt. Ein Konsens in einer wissenschaftlichen Gemeinschaft kommt nämlich typischerweise nicht dadurch zustande, dass alle Mitglieder der Gemeinschaft unabhängig voneinander bestimmte Untersuchungen wiederholen – das wäre eine höchst ineffektive Form epistemischer Arbeitsteilung, die die Möglichkeit eines wissenschaftlichen Fortschritts stark einschränken würde. Vielmehr ist es so, dass die epistemische Arbeitsteilung und die Spezialisierung sich auch innerhalb der einzelnen wissenschaftlichen Disziplinen und Subdisziplinen fortsetzt. Das Spezialgebiet des einen Mathematikers kann für einen anderen Mathematiker esoterischen Charakter besitzen, und zwar in epistemischer, justifikatorischer und semantischer Hinsicht gleichermaßen. Was für wissenschaftliche Gemeinschaften aber ebenfalls charakteristisch ist, ist das Vorhandensein von Metaexpertise. Ein Mathematiker kann zwar vielleicht die Details z. B. des Beweises des Großen Fermatschen Satzes nicht im Einzelnen nachvollziehen, dennoch kann er das Wissen darüber besitzen, die Fachkollegen welcher mathematischer Subdisziplinen die entsprechenden Kompetenzen haben, die Publikationen welcher Fachjournale einschlägig sind usw. Letztendlich ist es nicht unrealistisch, dass nur eine sehr kleine Anzahl von Spezialisten den Beweis eingehend geprüft haben und zu dem Schluss gekommen sind, dass er gültig ist. Gleichwohl besteht diesbezüglich ein gesamtmathematischer Konsens, und die Beteiligung der Nicht-Spezialisten an dem Konsens ist keineswegs irrelevant für dessen epistemische Qualität. Wenn eine Vielzahl von Mathematikern ohne Spezialkenntnisse bezüglich des Fermatschen Satzes, aber mit Metaexpertise, zu der Überzeugung gelangt sind, dass jene mit Spezialkenntnissen den Beweis hinreichend geprüft haben und zu einem eindeutigen Ergebnis gekommen sind, dann kann das für den Laien zusätzliche Evidenz für die Korrektheit des Beweises sein.

  3. 3.

    Auch eine dritte Methode ist für unsere Überlegungen zu pluraler epistemischer Autorität höchst relevant. Eine naheliegende Möglichkeit für den Laien besteht nämlich natürlich darin, sich an formalen Qualifikationen zu orientieren, die die konkurrierenden (mutmaßlichen) Experten jeweils erworben haben. Das schließt etwa die Qualität ihrer akademischen Abschlüsse, ihrer eventuell gewonnenen wissenschaftlichen Preise, ihrer Publikationslisten oder der Institutionen ein, bei denen sie angestellt sind oder waren. Derartige Qualifikationen spielen eine zentrale Rolle bei dem, was ich „epistemische Reklame“ genannt hatte – man denke an die in den Büros oder Sprechzimmern der Experten hängenden Diplome, Doktorurkunden usw. oder an ihre Homepages, Annoncen oder Hinweisschilder, die regelmäßig Hinweise auf die vorhandenen Qualifikationen enthalten. Sie sollen dem Ratsuchenden signalisieren, dass er es tatsächlich mit einem Experten zu tun hat: jemandem, der sich intensiv mit der relevanten Domäne befasst und dabei viele wahre Überzeugungen erworben hat, ohne unverhältnismäßig viele falsche ausgebildet zu haben. In einer „novice/2-expert“-Situation kann der Laie nun offenbar auch auf solche Qualifikationen zurückgreifen. Ein mutmaßlicher Experte mit vielen oder höherwertigen Abschlüssen, Preisen, Veröffentlichungen oder Anstellungen bei renommierten Institutionen scheint ceteris paribus in stärkerem Maße glaubwürdig zu sein als einer, der minderwertigere bzw. weniger oder gar keine Abschlüsse etc. vorweisen kann, zumindest sofern diese für die fragliche Proposition einschlägig sind.Footnote 7

    Besonders interessant für unsere Überlegungen ist dieser Punkt deswegen, weil hier eine Art Primat pluraler epistemischer Autorität gegenüber der epistemischen Autorität von Individuen zum Vorschein kommt. Der Grund dafür lautet, dass die genannten Qualifikationen so etwas wie „geronnene Metaexpertise“ oder auch „geronnene Reputation“ darstellen. Wenn ich als Laie erfahre, dass eine Person diesen oder jenen akademischen Abschluss besitzt, dann bedeutet das, dass es zu einer (in der Regel wissenschaftlichen) Gemeinschaft gehörende Personen gab, die zu dem Urteil gekommen sind, dass die Person hinreichende Kenntnisse und Fähigkeiten erworben hat. Wenn ich erfahre, dass eine Person Artikel in diesem oder jenem akademischen Journal veröffentlicht hat, dann kann ich darauf schließen, dass die Artikel dem Peer Review durch Mitglieder der relevanten akademischen Gemeinschaft standgehalten und/oder die Redaktion überzeugt haben. Ebenso werden Preise von Mitgliedern von Gemeinschaften verliehen, Anstellungen bei Instituten werden durch Mitglieder von Gemeinschaften vorgenommen usw., so dass ich jeweils die Schlussfolgerung ziehen kann, dass die Person eine gewisse Reputation in der relevanten Gemeinschaft genießt. Wenn ich nun aber die Gemeinschaft insgesamt für nicht epistemisch vertrauenswürdig erachte, dann lässt eine gute Reputation innerhalb dieser Gemeinschaft für mich nicht den Schluss auf eine hohe epistemische Autorität des fraglichen Mitglieds tout court zu. Eine schlechte Reputation der Gemeinschaft infiziert sozusagen die Reputation ihrer Mitglieder. Wenn ein Mitglied eine gute Reputation in einer Gemeinschaft besitzt, dann hat sie für mich in dem Maße eine schlechte Reputation, in dem ich die Gemeinschaft insgesamt als nicht vertrauenswürdig einschätze. Wenn ich zum Beispiel erfahre, dass jemand eine Vielzahl von Publikationen in einem führenden kreationistischen Journal vorweisen kann, dann bewerte ich dies nicht als Evidenz für die epistemische Autorität dieser Person im Hinblick auf die Entwicklung des Leben, da ich die Gemeinschaft der Kreationisten, aus der die Zeitschrift ja ihre Gutachter rekrutiert, insgesamt nicht als epistemische Autorität dafür betrachte. Umgekehrt hält womöglich (mit weniger guten Gründen) ein Kreationist die Publikationsliste eines führenden Evolutionsbiologen für einen schlechten Indikator für dessen epistemische Autorität, da er jenen „evolutionsbiologischen Mainstream“ für irregeleitet hält, dessen Befürworter die Publikationen geprüft und für gut befunden haben.

  4. 4.

    Darüber hinaus kann ein Laie auch die nicht-epistemischen Interessen, die ein (mutmaßlicher) Experte bzw. eine (mutmaßliche) epistemische Autorität hat, sowie daraus möglicherweise resultierende Biases in seine Erwägungen einbeziehen. Auf diese Punkte und einschlägige Beispiele (etwa von der Öl- oder Tabakindustrie finanzierte Forschung) bin ich bereits eingegangen. Interessen können sich auf unterschiedliche Weise auswirken, etwa so, dass sie einen Experten, der es eigentlich besser weiß, zur Lüge oder zum Verschweigen wichtiger Fakten veranlasst (das betrifft dann weniger die Ausbildung von Überzeugungen zur thematischen Domäne, sondern hat eher Relevanz für deren Kommunikation bzw. die (im nächsten Abschnitt zu diskutierende) Frage, wie ein Laie die wirklichen Überzeugungen des Experten feststellen kann). Sie können sich aber auch auf die Überzeugungsbildung selbst auswirken und nämlich zur Ausbildung mit den Interessen konformer, aber falscher Überzeugungen führen. Daneben gibt es eine Vielfalt von Weisen, in denen sie einen verzerrenden Einfluss auf die Ausbildung oder die Kommunikation von Überzeugungen haben können, bei denen gar nicht so leicht zu sagen ist, welcher dieser beiden Aspekte in welchem Maße betroffen ist. Beispielsweise können Forscher durch bestimmte Interessen zur Fälschung von Forschungsergebnissen oder zu anderen krassen Formen wissenschaftlichen Fehlverhaltens motiviert werden, so dass sie, wenn sie mit der Verlautbarung, dies und das seien ihre Resultate, an die Öffentlichkeit treten, vielleicht nicht im engeren Sinn lügen, gleichwohl aber eine Form von Täuschung praktizieren. Ferner gibt es Effekte, die subtiler sind als die direkte Fälschung von Ergebnissen, etwa das von Wilholt (2009) als „präferenzinduzierte Einseitigkeiten“ bezeichnete Phänomen, bei dem Forscher ihre Studien auf unlautere Weise so konzipieren, dass die Wahrscheinlichkeit erhöht wird, dass dabei ein gewünschtes Resultat erzielt wird. Ob den Forschern derartige Probleme im Studiendesign immer in vollem Umfang bewusst sind, darf zumindest bezweifelt werden.

    Freilich gilt auch, dass nur weil jemand ein bestimmtes nicht-epistemisches Interesse daran hat, dass p wahr ist oder in der Gesellschaft geglaubt wird, dieser jemand nicht automatisch als Experte oder epistemische Autorität hinsichtlich p disqualifiziert ist. Weder die Korrektheit der Überzeugungsbildung noch die Aufrichtigkeit des Experten müssen dadurch zwangsläufig kompromittiert sein. Für den Laien ist also auch die Orientierung an Interessen und vermeintlichen Biases eine mit Vorsicht zu verwendende Methode. Hinzu kommt, dass die Feststellung, ob ein mutmaßlicher Experte überhaupt bestimmte nicht-epistemische Interessen hat, bzw. die Feststellung, welche dies sind, schwierig sein kann. Foley (1994, 58) bringt entsprechende Skepsis zum Ausdruck, wenn er schreibt: „[M]any people with expertise and information that we lack are people about whom we know little“. Demgegenüber meint Goldman (2001, 105) etwas optimistischer: „[I]nformation bearing on an expert’s interests is often one of the more accessible pieces of relevant information that a novice can glean about an expert“. Goldman weist im unmittelbaren Anschluss daran aber selbst auf einen weiteren Umstand hin, der die Anwendung dieser Methode für den Laien erschweren kann: Es dürfte eher selten der Fall sein, dass ein (mutmaßlicher) Experte keinerlei nicht-epistemische Interessen hat, die etwas mit seiner thematischen Domäne zu tun haben. Der Laie wird also wahrscheinlich aufseiten beider konkurrierender Experten solche Interessen finden und, will er angesichts dessen nicht überhaupt auf die Orientierung an den Interessen verzichten, nicht um eine diffizile Gewichtung und Abwägung derselben herumkommen.

  5. 5.

    Schließlich nennt Goldman die Orientierung an der Erfolgsbilanz der (mutmaßlichen) Experten als mögliche Methode für den Laien. Damit ist gemeint, dass der Laie die Überzeugungen der (mutmaßlichen) Experten direkt mit den Wahrheitswerten der fraglichen Propositionen vergleicht. Wir hatten gesehen, dass ein solcher Vergleich schwierig ist und geradezu definitionsgemäß die Kapazitäten des Laien übersteigt. Goldman macht aber deutlich, dass es Propositionen gibt, deren epistemische Zugänglichkeit für den Laien im Zeitverlauf wechselt. Dass es eine Sonnenfinsternis zu einem bestimmten zukünftigen Zeitpunkt geben wird, mag astronomisches Spezialwissen sein, das ein Experte vielleicht besitzt, während es für einen Laien esoterisch ist. Wenn der fragliche Zeitpunkt aber erst einmal gekommen ist, dann kann auch der Laie mit einfachen Mitteln feststellen, ob es die Sonnenfinsternis nun gibt oder nicht; er kann also die vorher esoterische Vorhersage des astronomischen Experten mit der Wirklichkeit vergleichen und dessen Zuverlässigkeit so einem punktuellen Test unterziehen. Ebenso lassen sich manchmal nicht-epistemische Erfolge als Evidenz für epistemische Autorität heranziehen. Medizinische Theorien zum Beispiel mögen für die meisten Patienten esoterischen Charakter haben. Ob sie aber gesund werden oder nicht, können auch medizinische Laien beurteilen, so dass ein Schluss vom Heilungserfolg oder -misserfolg auf die epistemische Qualität der Theorien, auf denen die Therapie beruhte, offenbar bis zu einem gewissen Grad möglich ist. Dieser Schluss hat freilich nur einen probabilistischen Charakter: In einigen Fällen werden Patienten gesund, ohne dass es überhaupt irgendeiner Therapie bedurft hätte; ebenso kann ein Heilungserfolg das Resultat eines Placeboeffekts gewesen sein. Da die epistemische Qualität der Theorien aber zumindest einen gewissen Einfluss auf den Erfolg von auf ihnen beruhenden Therapien hat, scheint dieser Erfolg einen entsprechenden Indiziencharakter durchaus zu besitzen.

    Auch diese Methode lässt sozusagen eine soziale Erweiterung zu. Vielleicht ist ein Laie nicht in der Lage, die individuelle Erfolgsbilanz eines Einzelexperten zu beurteilen, weil gar keine solche Erfolgsbilanz existiert oder zumindest dem Laien nicht bekannt ist. Gleichwohl könnte die Möglichkeit bestehen, die Erfolgsbilanz der Gemeinschaft, zu der der Einzelexperte gehört, heranzuziehen. Wenn ich es beispielsweise als luftfahrttechnischer Laie mit einem mir persönlich unbekannten Luftfahrtingenieur zu tun habe, der mir Informationen über seinen Fachbereich vermittelt, dann habe ich Grund, diesen Informationen Glauben zu schenken, auch wenn ich die persönliche Erfolgsbilanz des Ingenieurs nicht kenne. Aber ich weiß, dass die Gemeinschaft der Luftfahringenieure insgesamt zu eindrucksvollen Leistungen fähig ist (dem Bau von sehr sicheren und zugleich leistungsfähigen Flugzeugen, Hubschraubern usw.). Das gibt mir einen gewissen Grund, den innerhalb dieser Gemeinschaft gültigen formalen Qualifikationen zu vertrauen bzw. den einzelnen Mitgliedern, die entsprechende Qualifizierungen erworben haben (dies führt uns dann wieder zu Methode 3) (vgl. für das Luftfahringenieur-Beispiel Nguyen 2020, 2806).

Insgesamt bleibt zu diesen fünf Methoden festzuhalten, dass sich durch sie gewisse Anhaltspunkte zur Identifikation geeigneter Experten sowie zum rationalen Verhalten in „novice/2-expert“-Situationen gewinnen lassen – nicht mehr und nicht weniger. Eines der Ziele, die Goldman mit seinem Aufsatz verfolgt hat, war, Hardwigs (1985; 1991) Auffassung zu kritisieren, dass das epistemische Vertrauen eines Laien in einen Experten notwendigerweise „blind“ sein muss. Dieses Ziel dürfte man als erreicht betrachten können. Jede einzelne der Methoden hat Schwächen und Grenzen, aber zusammengenommen lassen sie sicherlich zumindest in manchen Situationen die Wahl des einen gegenüber dem anderen Experten als in recht hohem Maße gerechtfertigt erscheinen. Das dürfte insbesondere dann der Fall sein, wenn die Methoden sozusagen konvergieren und immer den einen Kandidaten als besser geeignet erscheinen lassen als den anderen. Neue Probleme tauchen dagegen auf, wenn die Anwendung der fünf Methoden widersprüchliche Ergebnisse ergibt, wenn der eine Experte also eine bessere dialektische Performance an den Tag legt, der andere dafür aber höherwertigere formale Qualifikationen vorweisen kann usw. In solchen Fällen würde eine Entscheidung, welchem Experten man vertrauen sollte, offenbar eine Gewichtung und Abwägung der einzelnen Methoden voraussetzen. Aber welches Gewicht hat welche Methode? Zudem kann die Anwendung der einzelnen Methoden jeweils mehr oder weniger klar zugunsten eines bestimmten Kandidaten ausfallen (die dialektische Performance ist nicht entweder schlechthin gut oder schlecht, sondern kann mehr oder weniger stark ausgeprägt sein; dasselbe gilt für die die Zustimmung durch weitere Experten usw.). Wenn Methode X zwar grundsätzlich als besser geeignet erscheint als Methode Y, X aber lediglich schwach für den Experten E1 spricht, während Y stark bzw. eindeutig für E2, wie soll man dann gewichten? Eine allgemeine Antwort darauf zu finden, dürfte sehr schwierig sein, sofern es überhaupt möglich ist.

2 Die Identifikation der Überzeugungen einer epistemischen Autorität bzw. die Feststellung der sonstigen wahrheitsindikativen Tatsachen

Eine Person identifiziert zu haben, die erstens hinreichend viele Überzeugungen zur relevanten thematischen Domäne hat, von denen zweitens hinreichend viele wahr sind, ist noch nicht ausreichend für ein Subjekt. Das Subjekt will ja die Überzeugungen der epistemischen Autorität als Wahrheitsindikatoren verwenden, dazu muss es aber den konkreten Inhalt dieser Überzeugungen ermitteln. Es könnte ja sein, dass wir von der Autorität EA wissen, dass sie viele wahre und wenige falsche Überzeugungen zu Propositionen in D hat, ohne dass wir eine einzige dieser Überzeugungen kennen. Ein nochmaliger Blick auf das Transferprinzip macht dies deutlich:

(Transferprinzip)

Wenn ein Subjekt S von einer epistemischen Autorität EA für Domäne D Kenntnisse bezüglich einer zu D gehörenden Propositionen p erwirbt, dann ist folgendes der Fall:

  1. (1)

    EA kennt den Wahrheitswert von p,

  2. (2)

    EAs Kenntnisse hinsichtlich p sind für S in geeigneter Weise transparent oder zugänglich,

  3. (3)

    S kannte den Wahrheitswert von p ursprünglich nicht.

Der an dieser Stelle für unsere Überlegungen relevante Teil des Transferprinzips ist Bedingung (2). Wenn p eine der fraglichen Propositionen ist, kann es sein, dass S weiß, dass EA die Wahrheit über p kennt, ohne dass es weiß, ob EA p oder non-p glaubt. Es genügt also nicht, dass EA eine wahre Überzeugung zu p besitzt, sondern diese Überzeugung muss S auch in geeigneter Weise transparent sein. Eine Möglichkeit, diese Transparenz auszubuchstabieren, könnte so aussehen:

Angenommen, EA glaubt, dass p: Dann ist EAs Überzeugung bezüglich p für S transparent genau dann, wenn S gerechtfertigt ist anzunehmen, dass EA glaubt, dass p.

Angenommen, EA glaubt, dass non-p: Dann ist EAs Überzeugung bezüglich p für S transparent genau dann, wenn S gerechtfertigt ist anzunehmen, dass EA glaubt, dass non-p.

Dieser Transparenz können verschiedene Umstände im Wege stehen: etwa eine eventuelle Neigung der Autorität zur Lüge oder mangelndes Interesse, überhaupt Fragen zu D zu beantworten (sei es aufrichtig oder unaufrichtig). Die Autorität könnte auch sozusagen außer Reichweite sein, d. h. es könnte unmöglich sein, sie zu befragen – vielleicht aufgrund einer räumlichen Distanz oder weil EA und S nicht dieselbe Sprache sprechen. Eine Autorität kann sogar so weit „außer Reichweite“ sein, dass es metaphysisch unmöglich ist, Zugang zum Inhalt ihrer Überzeugungen zu bekommen. Das kann etwa bei toten Autoritäten der Fall sein. Für eine Person, die in einer vergangenen historischen Epoche gelebt hat, kann die erste Bedingung des Transferprinzips durchaus in vielen Hinsichten erfüllt sein, beispielsweise wenn es um Propositionen geht, die eben die fragliche historische Epoche selbst betreffen (man muss dabei freilich eine Umformulierung der ersten Bedingung in die Vergangenheitsform vornehmen: Die Person besaß Kenntnisse hinsichtlich der Wahrheitswerte von diesen oder jenen Propositionen). Die Person mag viele Kenntnisse über die Epoche besessen haben – etwa über Alltagspraktiken, Sitten, Gebräuche usw. –, die heute niemandem mehr bekannt sind, auch keinem Historiker. Gleichwohl ist die Autorität „außer Reichweite“. Da sie nicht mehr lebt, ist es metaphysisch unmöglich, Zugang zu ihren Kenntnissen im Sinne der zweiten Bedingung zu erhalten.Footnote 8

Die Standardvorgehensweise zur Ermittlung der Überzeugungen anderer Personen inklusive epistemischer Autoritäten ist sicherlich die Verwendung im weiteren Sinn testimonialer Methoden, also kommunikativer Methoden, die einen intentionalen Überzeugungstransfer („intentional transfer of a belief from one agent to another, whether in the usual way via a verbal assertion made by the one agent to the other, or by some other means, such as through a note“, Pritchard 2004, 326), zum Ziel haben. In diese Kategorie fällt der persönliche Ratschlag einer Autorität genauso wie die Lektüre eines von der Autorität verfassten Buches oder eines von ihr gegebenen Interviews. Man kann die Überzeugungen einer anderen Person aber auch auf nicht-testimoniale Weise zu ermitteln versuchen. Möglicherweise sind solche Alternativmethoden den testimonialen Standardmethoden in bestimmten Hinsichten zumindest manchmal überlegen. Nicht wenigen Eltern beispielsweise, die unsicher sind, ob sie ihre Kinder impfen lassen sollen, erscheint die Information, ob ihr Kinderarzt seine eigenen Kinder impft, wertvoller als dessen testimoniale Beteuerung, dass das Impfen sicher und sinnvoll sei (vgl. etwa John 2011, 508). Die Überlegung dieser Eltern lautet offenbar in etwa wie folgt: Der Arzt würde seine Kinder nicht impfen, wenn er nicht tatsächlich der Überzeugung wäre, dass die Impfung sicher ist (im Folgenden: p). Es handelt sich hierbei um eine Sensitivitätsunterstellung ähnlich derjenigen, die wir (in Abschnitt 6.4) diskutiert hatten, nur dass es diesmal nicht um den Zusammenhang zwischen der Wahrheit der Proposition und der Überzeugung der Autorität geht, sondern um den zwischen der Überzeugung der Autorität und einem Anzeichen wie einem bestimmten Verhalten, das auf das Vorhandensein dieser Überzeugung schließen lässt. Für eine testimoniale Beteuerung, dass p, gilt dagegen nicht unbedingt, dass der Arzt sie nicht machen würde, wenn er nicht tatsächlich p glauben würde (so jedenfalls die Befürchtung der besagten Eltern). Denn eine solche Beteuerung könnte auch andere Erklärungen haben, beispielsweise ein finanzielles Interesse des Arztes.

Wir waren im Zuge unserer Auseinandersetzung mit Goldmans vierter Methode bereits auf einige Gründe zu sprechen gekommen, wieso testimoniale Akte problematische Indikatoren für die Überzeugungen der Sprecher sein können. Nicht-epistemische Interessen können nämlich sowohl die Überzeugungsbildung verzerren als auch deren Kommunikation kompromittieren. Allerdings dürfte zumindest kein Anlass bestehen für so etwas wie einen kompletten testimonialen Pessimismus, wenn man darunter die Befürchtung versteht, dass testimoniale Zeugnisse grundsätzlich unzuverlässige Anzeichen für die Überzeugungen von Sprechern einschließlich epistemischer Autoritäten sind. Ein nochmaliger Rekurs auf unsere Überlegungen zur epistemischen Arbeitsteilung sollte das deutlich machen. Grundlage dieser Arbeitsteilung ist das epistemische Eigeninteresse aller Marktteilnehmer: Jeder hat spezielle Kenntnisse, die andere vielleicht brauchen, und zugleich hat jeder selbst Bedarf an den Kenntnissen anderer. Daraus ergeben sich Anreize, sich als Person mit wahren Überzeugungen zu einer thematischen Domäne zu erkennen zu geben und anderen mit entsprechendem Bedarf anzubieten, um dabei eine positive epistemische Reputation zu erwerben. Die Reputationsgewinne ergeben sich aber erst durch Kommunikation. Das Anreizsystem erstreckt sich also auf alle Aspekte des Identifikationsproblems: die Generierung von wahren Überzeugungen, das Betreiben epistemischer Reklame und testimoniale Aufrichtigkeit. Um es nochmals klarzustellen: Das Anreizsystem kann in vielfältiger Hinsicht gestört werden, fehlgehen oder gar nicht erst greifen. Alles, was sich mit Verweis auf das System zeigen lässt, ist, dass ein umfassender Pessimismus im Hinblick auf das Identifikationsproblem unbegründet wäre, und das betrifft alle Teilaspekte des Identifikationsproblems, auch die Kommunikation bzw. Identifikation der Überzeugungen.

Wir haben uns bislang auf menschliche epistemische Autoritäten konzentriert, die Überzeugungen besitzen. Ich möchte nun zum Abschluss unserer Betrachtungen zum Identifikationsproblem noch einmal unsere Ergebnisse verallgemeinern, so dass wir sie dann (in den Kapiteln 13 und 14) auf plurale epistemische Autoritäten anwenden können. Wenn man sich auf eine menschliche epistemische Autorität stützt, dann verwendet man typischerweise ihre Überzeugungen als Wahrheitsindikatoren. Wenn man sich auf eine plurale epistemische Autorität stützt, kommen gegebenenfalls auch andere die Autorität betreffende Tatsachen infrage. Für das Subjekt ergeben sich mehrere zu bewältigende Herausforderungen. Zunächst muss es eine geeignete Autorität finden, also eine Person oder sonstige Entität, für die gilt, dass die als Wahrheitsindikatoren infrage kommenden Tatsachen tatsächlich auch mit hinreichender Zuverlässigkeit die Wahrheit der entsprechenden Propositionen anzeigen. Eine zweite Herausforderung ist, festzustellen, ob die fragliche Tatsache in Bezug auf eine bestimmte relevante Proposition tatsächlich vorliegt. Diesbezüglich können verschiedene Methoden infrage kommen, die mehr oder weniger geeignet sind, d. h. mehr oder weniger zuverlässig das Vorliegen der Tatsache anzeigen. Im Grunde bestehen diese Methoden in nichts anderem als im Feststellen weiterer Tatsachen T*, die als indikativ für den eigentlichen Wahrheitsindikator vermutet werden (etwa die Tatsache, dass die mutmaßliche Autorität p behauptet, oder die Tatsache, dass sie ein bestimmtes nicht-sprachliches Verhalten zeigt, dass darauf schließen lässt, dass sie p glaubt).

Abbildung 7.1
figure 1

Potentielle Fehlerquellen beim Verwenden von Wahrheitsindikatoren

Für das Subjekt, das sich in seiner Meinungsbildung hinsichtlich p auf eine Autorität stützt, kann demnach in zweierlei Hinsicht etwas schiefgehen (vgl. Abbildung 7.1). Die eine potentielle Fehlerquelle betrifft den Zusammenhang zwischen der tatsächlichen Wahrheit der Proposition und der als wahrheitsindikativ angenommenen Tatsache (der entsprechende Fehler ist, dass das Vorliegen der Tatsache gar nicht wirklich die Wahrheit der Proposition anzeigt). Die zweite potentielle Fehlerquelle betrifft den Zusammenhang zwischen dem Wahrheitsindikator (also der als wahrheitsindikativ vermuteten Tatsache) und der Methode zu ihrer Feststellung (der entsprechende Fehler ist, dass die Methode nicht geeignet ist oder zumindest in dem konkreten Fall nicht funktioniert: Die Anwendung der Methode ergibt, dass die Tatsache vorliegt, tatsächlich liegt sie aber nicht vor (oder umgekehrt)).