Zusammenfassung
Zahlreiche Akteure blicken besorgt auf die Verbreitung von falschen bzw. irreführenden Botschaften im Internet – darunter Verschwörungstheorien, Gerüchte und Fake News/Falschmeldungen. Um die von Fehlinformationen Betroffenen und den dadurch entstandenen Irrglauben aufzuklären, werden Richtigstellungen herausgegeben. Allerdings schöpfen diese nicht immer ihr volles Wirkungspotenzial aus, was in der Folge keine hinreichende Aufklärung bedeutet. Der vorliegende Beitrag möchte zur Wirksamkeitssteigerung von Richtigstellungen beitragen und macht dazu einen unkonventionellen Vorschlag: Richtigstellungen sollten sich dieselben psychologischen Mechanismen zunutze machen wie die Fehlinformationen, die sie richtigstellen möchten. Um diese Mechanismen zu identifizieren, extrahiere ich aus bisherigen Studien die Eigenschaften von Fehlinformationen, die nach jetzigem Forschungsstand eine Erklärung für die große Aufmerksamkeit und Einprägsamkeit von Fehlinformationen, ihren hohen perzipierten Wahrheitsgehalt und ihre rasante Verbreitung liefern. Die anschließende Gegenüberstellung mit herausgearbeiteten Charakteristika von Richtigstellungen verdeutlicht zahlreiche Unterschiede zu Fehlinformationen in Bezug auf ihre Machart, ihre Kommunikatoren bzw. Quellen und ihre Verbreitungswege. Für jeden der festgestellten Unterschiede wird abgewogen, wie man bei Richtigstellungen aus Fehlinformationen lernen kann, die Wirksamkeit zu steigern, und inwiefern dies aus normativer Sicht vertretbar wäre. Dies führt zu sechs konkreten Vorschlägen für die Gestaltung und Verbreitung von Richtigstellungen.
Abstract
The pervasiveness of misinformation online—that is, false or misleading messages presented as true—has prompted intensified efforts to correct it. By providing alternative true explanations to misunderstood phenomena, corrections seek to enable those who were misled to update their faulty mental model. In the updated model, misinformation (e.g., a false causal claim, such as “if A, then B”) is supplemented with a negation label (“false”) and the correct piece of information (“if AA, then B”). When asked to judge something related to the topic at hand, individuals holding an updated model should be able to retrieve all stored claims from memory (“if AA [not ‘if A,’ that is false], then B”). Yet, corrections do not always succeed in prompting such an update. Instead, they may fail to reach those who were misled; reach but fail to convince them (misbelief persistence); or reach and convince audiences but prove unable to promote an update of the mental model.
An inability to reach the desired outcome is not solely the function of how corrections are made and distributed. Rather, factors such as audiences’ cognitive ability and motivation also play a role. However, because these individual-level factors are outside the sphere of influence of those issuing corrections, we focus on identifying areas for improvement that relate to the correction. To this end, we suggest that corrections should use the same psychological mechanisms as the misinformation they seek to correct.
To identify the relevant psychological mechanisms, previous studies on misinformation were closely examined. We collected evidence suggesting precisely which properties of misinformation are associated with how much attention it attracts, its memorability, its perceived credibility, and the speed at which it spreads. This revealed the five following properties, where the appeal was explained with reference to the seven psychological mechanisms in parentheses: (1) negative valence (negativity bias), (2) provision of simple explanations of complex phenomena (preference for complete albeit faulty mental models, transportation), (3) use of visual “evidence” for the claims made (seeing is believing/realism heuristic/truthiness effect), (4) viral distribution in social media (illusory truth effect), and (5) compatibility with the values and norms of the audience (motivated reasoning, confirmation bias [believing is seeing]).
Although corrections deal with the same issues as the claims they seek to correct, they usually have less news value than the misinformation does. Because neutrality is held in high esteem, and rightly so, corrections are often (1) sober and complex, (2) purely text-based, (3) issued by official/expert sources, (4) distributed in highbrow channels, (5) focused on the rebuttal of the false/misleading claim rather than on telling an alternative true story, and (6) lacking references to widespread values and norms. Juxtaposing these characteristics with those of misinformation in the previous paragraph reveals considerable differences regarding message design and distribution. We provide a careful examination of which differences should be leveled out to improve the impact of corrections, as well as the extent to which and precisely how this could be accomplished. We recognize the unconventional nature of suggesting that one should learn from one’s antagonist, and we acknowledge that actors issuing corrections may have qualms about relying on a similar design, employing similar sources, and using the same distribution channels to those of the misinformation they seek to correct. In response to this concern, we clarify the scientific basis of each suggestion and offer specific examples of how each criterion can be met without jeopardizing actors’ reputations.
The following recommendations are offered: We suggest making corrections (1) more captivating by featuring people whose misbeliefs could be corrected and addressing how they felt learning that they had been misled (e.g., anger, fear, disappointment). Furthermore, we propose that (2) a narrative format and easy-to-understand language should be used whenever possible. Thus, a simple rebuttal does not suffice; misinformation should be countered via an easy story based on correct information. In addition, it seems advisable that alternative true explanations should (3) be supported with still or moving images. These can be graphics suggesting the truth value of a statement (e.g., politifact.com’s Truth-O-Meter), still/moving images showing key elements of the true information, or if available, visuals providing evidence for the correct alternative explanation. Moreover, we recommend that corrections should be (4) distributed in the same channels as the misinformation to be corrected—whether on YouTube, Instagram, or Twitter. In this way, corrections can benefit from two characteristics of the internet—the longevity of messages online (the internet never forgets) and their rapid dissemination. We also advise that (5) sources similar to those distributing misinformation (e.g., regular people, influencers) be used in addition to expert sources. This two-tier strategy should draw more attention to the correction and increase its perceived truthfulness. After all, the perceived credibility of a source does not automatically result from its expertise but also emerges from its perceived honesty, integrity, and impartiality. Non-expert sources should make corrections more relatable. Finally, we recommend that corrections (6) address values and norms and include self-affirming elements. This is because a person may reject corrections if they entail positions that are incompatible with the person’s value system. While some investigations on each of these criteria have been published, none of the studies currently available have tried to hit all these buttons. In this way, this paper defines the contours of an agenda for future research focused on increasing the impact of corrections.
1 Einleitung
Damit Bürgerinnen und Bürger politische Entscheidungen nachvollziehen und mittragen können, ist es notwendig, dass sie öffentlich diskutierte Themen, Ereignisse und ihre Interpretationsmuster verstehen sowie einordnen können (vgl. Galston 2001, S. 217) – denn demokratische Gesellschaften setzen eine informierte Öffentlichkeit voraus (vgl. Valentino et al. 2008, S. 248). Doch die Versorgung der Öffentlichkeit mit akkuraten Informationen hat sich als schwierig erwiesen, insbesondere angesichts der finanziellen und politischen Anreize, die Wahrheit zu verschleiern, die Sachlage zu verdrehen oder „alternative Fakten“ zu liefern (vgl. Tandoc et al. 2019, S. 674). Als Fehlinformationen werden jene falschen bzw. irreführenden Inhalte verstanden, die als wahr präsentiert werden – unabhängig davon, ob bei den Kommunikatoren eine TäuschungsabsichtFootnote 1 vorliegt oder nicht (vgl. Southwell et al. 2018; Tandoc et al. 2018b; Zimmermann und Kohring 2018). Das Internet – und vornehmlich Social Media – hat dazu beitragen, dass sich Fehlinformationen nicht nur schnell und leicht verbreiten, sondern sich auch schwer wieder aus dem Umlauf bringen lassen (vgl. Lewandowsky et al. 2012).
Für die Korrektur von Fehlinformationen ist es folglich relevant, dass Bürgerinnen und Bürger den Wahrheitsgehalt der erhaltenen Botschaften abwägen und erkennen können. Jedoch sind die meisten von ihnen entweder nicht in der Lage, dies zu tun, oder es fehlt die notwendige Zeit bzw. Motivation dazu (vgl. Lau und Redlawsk 2006, S. 77; Popkin 1991, S. 83). So besteht die Gefahr, dass Meinungen und Verhalten des Einzelnen – und in der Folge auch die öffentliche Meinung – sich nicht auf Fakten gründen, sondern auf falsche bzw. irreführende Inhalte (vgl. Lewandowsky et al. 2012). Dadurch entstehen falsche Vorstellungen von Themen, Akteuren und Ereignissen, die sich wahrscheinlich von denen unterscheiden, die bei wahrheitsgemäßer Information entstanden wären (vgl. Green und Donahue 2018; Southwell et al. 2018). Voraussichtlich unterscheiden sich diese Vorstellungen auch von der Wahrnehmung derjenigen, die nicht mit Fehlinformationen in Kontakt kamen bzw. von diesen nicht überzeugt wurden. Solche Entwicklungen können zu einer Aushöhlung der gemeinsamen Wissensbasis führen, die wiederum einen politischen Konsens unwahrscheinlicher, politische Polarisierung aber wahrscheinlicher werden lässt (vgl. Neuberger et al. 2019; Zimmermann und Kohring 2018).
Die letzten Jahre verzeichneten eine rege Publikationstätigkeit zur Feststellung von Informationsstörungen, die von Fehlinformationen verursacht wurden (vgl. Guo und Vargo 2020; Moran et al. 2016; Mourão und Robertson 2019; Neuberger et al. 2019). Gegenstand der Forschung waren außerdem die Diffusion von Fehlinformationen (vgl. Chua und Banerjee 2018; Ganesan und Dar-Nimrod 2019) und ihre Effekte (vgl. Hameleers und van der Meer 2020; Peter und Koch 2016; Thorson 2016). Hingegen fand die wissenschaftliche Auseinandersetzung mit Möglichkeiten zur Korrektur von Fehlinformationen wenig Beachtung (vgl. Chan et al. 2017; Walter und Tukachinsky 2020). Der vorliegende Beitrag widmet sich dieser Forschungslücke und schlägt neue Gestaltungsmöglichkeiten von Richtigstellungen vor. Als Richtigstellungen werden Botschaften bezeichnet, die beabsichtigen, Fehlinformationen richtigzustellen und hierzu lediglich faktisch korrekte Informationen verwenden. Sie können kurz und knapp erfolgen (simple rebuttal) oder aufwendig gestaltet sein (factual elaboration; vgl. Eslick et al. 2011; van der Meer und Jin 2020).
Angesichts des besonderen Reizes, den Fehlinformationen auf viele Empfängerinnen und Empfänger ausüben (vgl. Citron und Chesney 2019; Green und Donahue 2018; Marsh und Yang 2018), denke ich, dass Richtigstellungen sich dieselben psychologischen Mechanismen zunutze machen können wie die Fehlinformationen, die sie richtigstellen möchten. Die unkonventionelle Natur dieses Vorschlags ist mir bewusst, zumal die Akteure, die Fehlinformationen richtigzustellen versuchen, um Seriosität bemüht sind – seien es Journalistinnen und Journalisten, Behörden, NGOs oder Akteure aus Wissenschaft, Politik und Wirtschaft. Die Vorstellung, aus der Machart von Fehlinformationen zu lernen, dürfte bei Fakten-Checkern zunächst auf Ablehnung stoßen. Doch dieser Vorschlag ist auf wissenschaftlicher Grundlage entstanden und erfolgt anhand einer Gegenüberstellung der Schlüsseleigenschaften von Fehlinformationen und Richtigstellungen, die sich aus bisherigen empirischen Erkenntnissen ergibt. Der Schwerpunkt liegt dabei auf der Gestaltung von Fehlinformationen und Richtigstellungen, deren Kommunikatoren sowie Verbreitungswegen.
Um die psychologischen Mechanismen zu identifizieren, die sich auch Richtigstellungen zunutze machen können, ist zunächst eine Auseinandersetzung mit typischen Merkmalen von Fehlinformationen notwendig (Abschn. 2). Im darauffolgenden Abschnitt synthetisiere ich die Schlüsseleigenschaften von Richtigstellungen und verdeutliche die Gegensätze zu Fehlinformationen.Footnote 2 Für jeden der festgestellten Unterschiede erwäge ich in Abschn. 4, inwiefern die herausgearbeiteten Aspekte in Richtigstellungen aufgegriffen werden können, um ihre Wirksamkeit zu steigern, und ob dies aus normativer Sicht vertretbar wäre.
Als Grundlage für die Systematisierungsversuche in den Abschn. 2 und 3 dienten Analysen von Fehlinformationen und (journalistischen) Richtigstellungsversuchen sowie Experimentalstudien zu ihrer Wirkung. Die Erkenntnisse wurden vornehmlich in der Kommunikationswissenschaft und in der Psychologie gewonnen, sodass diese Disziplinen besondere Berücksichtigung erfahren. Angesichts der geringen Beschäftigung mit diesem Themenkomplex im deutschsprachigen Raum, wurde hier vorwiegend auf englischsprachige Literatur zurückgegriffen. Das Ziel bestand darin, ein möglichst umfassendes Bild zu den wichtigsten Kriterien aus Sicht jener Akteure zu zeichnen, die Richtigstellungsversuche unternehmen (z. B. journalistische Fakten-Checker). Fraglos kann es sich hierbei – angesichts der Dynamik, die dieses Forschungsfeld charakterisiert – aber nur um eine vorläufige Bestandsaufnahme handeln.
2 Der Reiz von Fehlinformationen
Dieser Abschnitt setzt sich mit Merkmalen von Fehlinformationen auseinander. Auf der Grundlage von Forschungserkenntnissen ziehe ich dabei Aspekte in Erwägung, welche die große Aufmerksamkeit von Fehlinformationen, ihre Einprägsamkeit, ihren perzipierten Wahrheitsgehalt und ihre rasante Verbreitung erklären können. Zusätzlich werden für jede Schlüsseleigenschaft psychologische Mechanismen thematisiert, die damit einhergehen (s. Tab. 1).
Eine erste Schlüsseleigenschaft von Fehlinformationen ist (1) ihre negative Valenz (vgl. Konkes und Lester 2017, S. 833). Fehlinformationen behandeln kontrovers diskutierte Themen und geben vor, Tatsachen zu enthüllen, die Eliten der Allgemeinheit vorenthalten wollen (vgl. Freelon und Wells 2020, S. 146; Tandoc et al. 2018a, S. 141; Vraga und Bode 2020, S. 137). Die Behauptung, dass Hillary Clinton ein Sexgeschäft für Pädophile betreibe und dafür Kinder in einem Restaurantkeller gefangen halte, verdeutlicht diese Eigenschaft von Fehlinformationen genauso wie die These, Barack Obama sei außerhalb der USA geboren und erfülle somit nicht die Voraussetzungen für die Wahl zum Präsidenten (vgl. Ammann 2016; Pham 2015). Solche Fehlinformationen verfügen über einen hohen Nachrichtenwert, der mit Verweis auf das Negativitätsbias erklärt werden kann – also auf die Tendenz, negativen Ereignissen besonders viel Aufmerksamkeit zu schenken (vgl. Taylor 1991, S. 67). Dafür gibt es einen evolutionären Grund: Die Überlebenschancen derjenigen, die ihre Umgebung stets nach Gefahren überprüft hatten, waren besonders hoch (vgl. Rozin und Royzman 2001, S. 314). Durch die Weitergabe der gewonnenen Kenntnisse an Angehörige konnten auch diese geschützt werden (vgl. Rozin und Royzman 2001, S. 314). Die Kommunikatoren der eben beispielhaft angeführten Fehlinformationen könnten folglich vorgegeben haben, die Gefahr, die von Clinton und Obama ausgeht, erkannt zu haben, und fühlten sich dadurch womöglich in der Pflicht, dieses „Wissen“ weiterzugeben.
Ein weiteres relevantes Merkmal von Fehlinformationen ist, dass sie (2) eine einfache Erklärung komplexer Phänomene bieten, indem sie zumeist auf eine vermeintliche zeitliche Abfolge von Ursache und Wirkung hinweisen (vgl. Green und Donahue 2018, S. 110; Lewandowsky et al. 2012, S. 112). Die These etwa, dass die Impfung gegen Masern, Mumps und Röteln (MMR-Impfung) Autismus bei Kindern verursache, liefert eine einfache Erklärung für eine komplexe Entwicklungsstörung (vgl. Moran et al. 2016). Wenn Fehlinformationen überzeugen, dann geschieht dies auch deshalb, weil sie in der Regel ein narratives Format verwenden (vgl. Green und Donahue 2018). Dadurch fällt es Menschen leichter, der Argumentation zu folgen. Sie tauchen in die Geschichte ein – erfahren also eine sogenannte Transportation –, was nachweislich ihre Fähigkeit senkt, das Erzählte kritisch zu hinterfragen und Gegenargumente anzubringen (vgl. Fazio et al. 2015; Green und Donahue 2018; Marsh und Yang 2018). Eine Geschichte über ein gesundes Kind, das nach einer MMR-Impfung („wenn A“) an Autismus erkrankt sein soll („dann B“), ist mitreißender als die bloße Behauptung, die MMR-Impfung würde Autismus auslösen (vgl. Dixon und Clarke 2013; Goldberg 2016). Diese vermeintliche Kausalbeziehung ist wesentlich leichter nachzuvollziehen als ein komplexes Geflecht aus mehreren Faktoren. Sofern diese „Erklärung“ zum Auftreten von Autismus akzeptiert wird, erfolgt die Eingliederung der Fehlinformation in ein mentales Modell, in dem die vermeintliche Kausalbeziehung als Ganzes abgespeichert wirdFootnote 3 („wenn A, dann B“) (vgl. Green und Donahue 2018; Swire und Ecker 2018).
Eine dritte Besonderheit von Fehlinformationen ist (3) die visuelle Beweisführung zur Untermauerung der Behauptungen (vgl. Hemsley und Snyder 2018). Manipulierte Bilder und Videos blicken deshalb auf eine lange Geschichte als Propagandawerkzeug zurückFootnote 4 (vgl. Citron und Chesney 2019, S. 148; Jowett 2008). Um das bereits genannte Beispiel aufzugreifen: Vorher-Nachher-Videos von Kindern mit Autismus werden als Beweise für den vermeintlichen Zusammenhang zwischen der MMR-Impfung und der Entwicklungsstörung präsentiert (vgl. z. B. Goldberg 2016). Solche Aufnahmen können überzeugen, weil sie wie ein Abbild der Realität wirken (Seeing is Believing, vgl. Messaris und Abraham 2001, S. 219; siehe auch benachbarte Konzepte wie die Realism Heuristic bei Frenda et al. 2013 und Sundar 2008 sowie den Truthiness Effect bei Newman und Zhang 2021). Obwohl Stand- und Bewegtbilder die Realität im gleichen Ausmaß wie Wörter konstruieren, wird ihre Echtheit nicht gleichermaßen infrage gestellt (vgl. Citron und Chesney 2019, S. 148; Hameleers et al. 2020, S. 281). Da die (geschriebene) Sprache auf eine vergleichsweise kurze Geschichte zurückblickt, fällt die Erkenntnis, dass es sich dabei um abstrakte Symbole handelt, viel leichter als bei Bildern (vgl. Grabe und Bucy 2009, S. 8). Insofern überrascht es nicht, dass Bilder die Informationsverarbeitung steuern (vgl. Dan 2018, S. 6; Van Damme und Smets 2014, S. 314) und dass bebilderte Artikel und Tweets mit Fehlinformationen für glaubwürdiger gehalten werden als rein textbasierte Stimuli (vgl. Hameleers et al. 2020, S. 281; Smelter und Calvillo 2020, S. 1).
Des Weiteren profitieren Fehlinformationen davon, dass sie sich (4) in sozialen Medien viral verbreiten. Neutrale und faktisch korrekte Inhalte erzielen nicht nur weniger Aufmerksamkeit, sondern verbreiten sich auch langsamer und schlechter als solche, die negativ und empörend sind (vgl. Brady et al. 2020, S. 746; Meffert et al. 2006, S. 27; Sommariva et al. 2018, S. 246). Dies liegt unter anderem daran, dass Menschen insbesondere jene Inhalte in sozialen Medien kommunizieren, die negativ sind und sie emotional berührt haben (vgl. Brady et al. 2020, S. 746). Zudem wirkt sich die weite Verbreitung einer Fehlinformation positiv auf ihren perzipierten Wahrheitsgehalt aus (vgl. Kim 2018, S. 4807). Schließlich lässt die bloße Wiederholung einer These den Eindruck entstehen, dass diese auf breite Zustimmung stößt (vgl. van der Linden et al. 2015). Kommt man also wiederholt mit einer fehlerhaften Behauptung in Kontakt, wirkt sie vertrauter (vgl. Berinsky 2017, S. 241; Parks und Toth 2006, S. 225). Dies ist deshalb bedeutsam, da Menschen dazu neigen, die Vertrautheit einer Botschaft – also den subjektiven Bekanntheitsgrad (familiarity) – als Heuristik für ihren Wahrheitsgehalt zu verwenden (Illusory Truth Effect; vgl. Begg et al. 1992, S. 446; Hohlfeld 2020, S. 179).
Eine letzte wichtige Schlüsseleigenschaft von Fehlinformationen stellt ihre Tendenz dar, (5) die Werte und Normen der Zielgruppe anzusprechen – wie z. B. Konservatismus, Wissenschaftsskepsis oder Selbstbestimmung (vgl. Kelley et al. 2018, S. 234; Seymour et al. 2015, S. 517). Studien belegen, dass Fehlinformationen vornehmlich von Personen aus dem sozialen Umfeld – also Freunden oder Bekannten – geteilt und verbreitet werden (vgl. DiFonzo et al. 2012, S. 1100; Linde-Arias et al. 2020, S. 1; Swire und Ecker 2018, S. 204). Somit ist die Wahrscheinlichkeit, Fehlinformationen von vertrauten Personen oder Gleichgesinnten zu erhalten, relativ hoch. Zusätzlich zeichnet sich die Tendenz ab, den Wahrheitsgehalt von Erzählungen aus dem eigenen sozialen Umfeld als besonders hoch einzustufen (vgl. Huang et al. 2015, S. 14). Diese Punkte erhalten vor dem Hintergrund sozialer Medien, in denen der Freundeskreis zumeist großzügiger gefasst wird als in der analogen Welt, eine besondere Dynamik. So wächst der Kreis derjenigen, die Fehlinformationen erhalten und vermitteln, und damit auch das Potenzial der viralen Verbreitung. Zudem neigen Menschen dazu, Behauptungen Glauben zu schenken, die ihren Normen und Werten entsprechen: So zeigte etwa Humprecht (2019, S. 1973), dass politische Ansichten eine wichtige Rolle bei der Verbreitung von Fehlinformationen spielen. Parallel dazu gibt es vielzählige empirische Belege, dass die Verarbeitung von Fehlinformationen je nach politischem Lager variiert (vgl. Arendt et al. 2019, S. 181; Lewandowsky et al. 2005, S. 106). Diese Erkenntnisse lassen sich auf die kognitive Neigung zurückführen, Passendes zu bestätigen (Confirmation Bias; vgl. Nickerson 1998), und auf die Tendenz, Informationen in eine gewünschte Richtung zu verarbeiten (Motivated Reasoning; vgl. Kunda 1990). Mehrere Studien haben die Bedeutsamkeit beider Szenarien im Zusammenhang mit Fehlinformationen bestätigt (vgl. Hameleers und van der Meer 2020, S. 227; Moravec et al. 2019, S. 1343).
3 Die Wirkungspotenziale und Charakteristika von Richtigstellungen
Das Ziel von Richtigstellungen sollte nicht darin bestehen, Fehlinformation gänzlich gegen eine korrekte Information ähnlich einem Puzzleteil im Gedächtnis auszutauschen. Sofern dennoch solche Ansprüche bestünden, wären diese als idealisierend anstatt als realistisch einzustufen. Aufgrund dessen sind bei Richtigstellungen folgende Szenarien zu berücksichtigen, die aus normativer Sicht aufsteigend nach ihrem Wirkungspotenzial berichtet werden (vgl. Ecker et al. 2011; Southwell et al. 2018; Swire und Ecker 2018):
-
1.
Im ungünstigsten Fall erreicht die Richtigstellung nicht den Personenkreis, der mit der zu korrigierenden Fehlinformation in Kontakt gekommen ist. In der Folge besteht der Irrglaube fort. Dieses Szenario tritt relativ häufig ein, da Richtigstellungen weniger Menschen erreichen als die Fehlinformation selbst (vgl. Shin et al. 2017, S. 1214).
-
2.
Außerdem kann die Richtigstellung von den Betroffenen empfangen, aber abgelehnt werden, wobei auch hier die Fehlinformation fortbesteht („Persistenz des Irrglaubens“). Dies geschieht, wenn Menschen unwillig bzw. nicht in der Lage sind, die Richtigstellung zu akzeptieren (vgl. Green und Donahue 2018; Nyhan und Reifler 2010). Einen vielfach untersuchten Abwehrmechanismus in diesem Kontext stellt der sogenannte Backfire-Effekt dar, bei dem die Richtigstellung nicht nur ihr Ziel verfehlt, sondern – aufgrund der Unvereinbarkeit mit den Werten und Normen der Rezipierenden – sogar den perzipierten Wahrheitsgehalt der zu korrigierenden Fehlinformation erhöht (vgl. z. B. Peter und Koch 2016, S. 3).
-
3.
Die Richtigstellung wird zwar empfangen, verstanden und akzeptiert. Dennoch hat die Fehlinformation einen anhaltenden Einfluss auf die Betroffenen („Glaubensecho“). In diesem Fall sind Betroffene nicht in der Lage – etwa aufgrund mangelnder kognitiver Kapazitäten –, die Fehlinformation durch die korrekte Information in ihrem mentalen Modell auszutauschen (vgl. Johnson und Seifert 1994; Lewandowsky et al. 2012, S. 123; Thorson 2016, S. 460).
-
4.
Im besten Fall wird die Richtigstellung empfangen, verstanden und akzeptiert. Anders als im vorausgehenden Szenario folgt jedoch eine erfolgreiche Eingliederung der Information in ein mentales Modell.Footnote 5 Somit kann sowohl die korrekte Information als auch die Fehlinformation und deren Verneinung im Gedächtnis verankert werden. Bei Bedarf werden all diese Einträge gemeinsam aufgerufen (vgl. Asp et al. 2012, S. 1; Hall 2012, S. 224; Marsh und Yang 2018, S. 27).
Um im nächsten Abschnitt Vorschläge für eine effektivere Gestaltung von Richtigstellungen zu liefern, ist es zudem wichtig zu verstehen, welche Charakteristika übliche Widerlegungsversuche aufweisen. Bei der Konzeption von Richtigstellungen stellt im Vergleich zu Fehlinformationen Neutralität ein hohes Gut dar. In der Praxis führt dieses Gebot zur Gestaltung nüchterner und komplexer Botschaften anstelle einer leichtverständlichen Geschichte, in welcher der Irrglaube aufgeklärt wird (vgl. Young et al. 2017). Des Weiteren sind Richtigstellungen zumeist rein textbasiert (vgl. Vivion et al. 2020; Young et al. 2017), obwohl journalistische Akteure inzwischen die Notwendigkeit erkennen, visuelle Inhalte vermehrt einzusetzen (vgl. Elizabeth und Mantzarlis 2016; flackcheck.org). Für die Verbreitung von Richtigstellungen greifen offizielle Quellen und Leitmedien in der Regel auf etablierte Kanäle zurück (vgl. Vraga und Bode 2017). Dadurch verbreiten sich Richtigstellungen schlechter als Fehlinformationen (vgl. Brady et al. 2020; Meffert et al. 2006; Shin et al. 2017; Sommariva et al. 2018). Außerdem beinhalten Richtigstellungen in der Regel keine kulturellen Bezüge bzw. identitätsstiftenden Elemente (vgl. Sommariva et al. 2018; Vivion et al. 2020).
Diese Ausführungen verdeutlichen die erheblichen Unterschiede zwischen Fehlinformationen und üblichen Richtigstellungen hinsichtlich ihrer Machart, Kommunikatoren und Verbreitungswege (s. Tab. 2).
4 Zur Leistungssteigerung von Richtigstellungen
Angesichts der Unterschiede von Fehlinformationen und üblichen Widerlegungsversuchen stellt sich nun die Frage, welche Schlüsseleigenschaften von Fehlinformationen Richtigstellungen künftig aufgreifen können, um ihre Wirksamkeit zu steigern. Dabei ist zu berücksichtigen, welche Anpassungen mit Rücksicht auf Akteure und Institutionen, die Fehlinformationen richtigstellen möchten, ethisch vertretbar sind. Schließlich könnten Richtigstellungen Abwehrreaktionen hervorrufen und die Glaubwürdigkeit der korrektiven Akteure schädigen, was sich negativ auf ihre Fähigkeit auswirkt, in der Zukunft weitere Fehlinformationen richtigzustellen.
Eine erste Implikation für die Form von Richtigstellungen ist, dass diese (1) ebenso fesselnd sein sollten wie die Fehlinformation, die sie zu widerlegen versuchen. Zwar erscheinen sensationalistische Stilmittel wegen des Glaubwürdigkeitsgebotes unangebracht – schließlich versuchen Richtigstellungen neutral und objektiv zu informieren. Es wäre aber möglich, in Richtigstellungen die Erfahrungen bereits aufgeklärter Personen aufzugreifen. Diese könnten schildern, wie sie sich gefühlt haben, als ihnen klar wurde, dass sie durch Fehlinformationen in die Irre geführt wurden. Eine solche Strategie erwies sich bei der Korrektur des Irrglaubens als effizient, Tabak ohne Zusatzstoffe sei nicht gesundheitsschädlich (vgl. Sangalang et al. 2019, S. 298). Dabei war die Richtigstellung am wirksamsten, in der Angst und Wut der Protagonistin thematisiert wurden, als sie merkte, dass sie unter einer falschen Prämisse wieder mit dem Rauchen angefangen hatte (vgl. Sangalang et al. 2019, S. 298).
Die Komplexität bestimmter Sachverhalte – z. B. der Entstehung von Autismus – erfordert, dass Richtigstellungen (2) ebenso einfach zu verstehen sind wie die Fehlinformation selbst. Wie bereits erklärt, schaffen Fehlinformationen einen Anreiz durch Geschichten, die mit ihnen in Verbindung stehen. Deshalb könnten auch bei der Formulierung von Richtigstellungen journalistische Stilmittel eingesetzt werden, sodass sie den Fehlinformationen eine möglichst leicht verständliche Geschichte mit korrekten Informationen entgegensetzen und somit eine Aktualisierung des mentalen Modells anstoßen (vgl. Cappella et al. 2015, S. 186; Green und Donahue 2018; Lewandowsky et al. 2012). Bei der Konzeption von Richtigstellungen erscheint also eine Zusammenarbeit mit journalistischen Akteuren sinnvoll.
Darüber hinaus sollten Richtigstellungen (3) die richtiggestellte Erklärung visuell unterstützen (z. B. durch Grafiken). Es wurde geschildert, dass Bilder Realität konstruieren und als visueller Beweis für eine Erklärung gelten. Insofern können Stand- und Bewegtbilder den perzipierten Wahrheitsgehalt der Kernaussage in einer Richtigstellung erhöhen und sich damit auch positiv auf die Glaubwürdigkeit der korrektiven Kommunikatoren auswirken. Die Vorzüge von Richtigstellungen, die entweder audiovisuell (vgl. Young et al. 2017) oder in Kombination von Text und Bild oder Grafik gestaltet sind (vgl. Amazeen et al. 2016; Garrett et al. 2013; Hameleers et al. 2020; Nyhan und Reifler 2010, 2019), wurden mehrfach empirisch nachgewiesen. So bestätigte sich, dass der perzipierte Wahrheitsgehalt von Fehlinformationen, die aus Text und Foto bestehen, am stärksten reduziert werden konnte, wenn Richtigstellungen das gleiche Format besaßen (vgl. Hameleers et al. 2020, S. 281). Fesselnde, verständliche und dabei visuell unterstützte Richtigstellungen dürften besonders einprägsam sein.
Weiter erscheint es sinnvoll, die Verbreitungswege der Fehlinformation zu ermitteln und Richtigstellungen (4) über die gleichen Kanäle zu kommunizieren. Aufklärung sollte dort betrieben werden, wo die Fehlinformation auftauchte – sei es auf YouTube, Instagram oder Twitter. Die schnelle Verbreitung von (Fehl‑)Informationen im Internet sowie die Tatsache, dass das Netz nie vergisst, können auch Richtigstellungen zugutekommen (vgl. Bode und Vraga 2018; Pal et al. 2019; Van Heekeren 2020). Dieses Potenzial scheint in Hinblick auf das Glaubwürdigkeitsgebot weniger bedenklich. Korrektive Akteure können schließlich von der Reichweite der betroffenen Plattformen profitieren.
Der fünfte Vorschlag betrifft die Kommunikatoren von Richtigstellungen und deren Auftreten. So erscheint es sinnvoll, dass (5) die Kommunikatoren von Richtigstellungen denen der zu korrigierenden Fehlinformation ähneln (vgl. Berinsky 2017, S. 241). Wie bereits erwähnt, werden Richtigstellungen zumeist von Behörden und Qualitätsmedien kommuniziert. Diese gelten zwar noch immer als wertvolle und relevante Informationsquellen (vgl. Bode und Vraga 2015; Jin et al. 2011; van der Meer und Jin 2020; Vraga und Bode 2017), allerdings stoßen sie möglicherweise auch auf Misstrauen – insbesondere bei Personen, die von Fehlinformationen betroffen sind. So legen empirische Befunde nahe, dass eine zusätzliche Berichtigung durch Personen aus dem sozialen Umfeld eine wichtige Rolle bei der Korrektur von Fehlinformationen spielt (vgl. Vraga und Bode 2018, S. 1337). Schließlich ergibt sich die wahrgenommene Glaubwürdigkeit einer Quelle nicht automatisch aus ihrer fachlichen Kompetenz, sondern geht auch mit wahrgenommener Ehrlichkeit, Integrität und Unbefangenheit einher (vgl. Marsh und Yang 2018; Swire und Ecker 2018). Konkret legt Reardon (2020) nahe, dass Fachleute ein Anliegen in erster Person vortragen und dabei eigene Erfahrungen thematisieren sollten. Diese Punkte machen deutlich, welche Adaptionsmöglichkeiten für offizielle korrektive Instanzen bestehen und welche Synergien sich aus der Zusammenarbeit mit anderen Kommunikatoren (z. B. Influencern) ergeben können, die näher am sozialen Umfeld der Betroffenen sind.
Schließlich ist zu berücksichtigen, dass Richtigstellungen grundsätzlich eine Gegenposition einnehmen und damit bestehende Überzeugungen infrage stellen können. In der Folge sind Abwehrreaktionen möglich, sofern die Positionen in den Richtigstellungen nicht dem Wertesystem einer Person entsprechen. Dies kann – mit Bezug auf den Backfire Effect – dazu führen, dass der Irrglaube nicht nur fortbesteht, sondern sogar verstärkt wird (vgl. Chang 2015; Lewandowsky et al. 2005, 2012; Nisbet et al. 2015; Nyhan und Reifler 2010; Pfau und Louden 1994). Wenn möglich, sollten Richtigstellungen also (6) die Werte und Normen der Betroffenen berücksichtigen. So ließ sich etwa belegen, dass konservativ eingestellte Personen von der Existenz des Klimawandels überzeugt werden konnten, sofern ihnen der wirtschaftliche Vorteil für die Atomkraft verdeutlicht wurde (vgl. Feygina et al. 2010, S. 326). Auch zeigt eine aktuelle Studie in Hinblick auf Fehlinformationen zur MMR-Impfung bei einer betroffenen Minderheit in den USA, dass deren Skepsis gegenüber der Immunisierung durch das Eingehen auf ihre Normen und Werte gemildert werden konnte (vgl. Marcus 2020). Die Berücksichtigung der Werte und Normen der Zielgruppe dürfte keinen negativen Einfluss auf die Glaubwürdigkeit des Kommunikators haben, sondern vielmehr die kommunizierten Inhalte unterstützen.
5 Fazit und Ausblick
Zahlreiche Akteure blicken besorgt auf die Verbreitung von Fehlinformationen und sehen sich in der Pflicht, diejenigen aufzuklären, die dadurch in die Irre geführt wurden. In diesem Beitrag stellte ich Überlegungen vor, wie Richtigstellungen sich am Gestaltungsrepertoire von Fehlinformationen orientieren können. Aufgezeigt wurden fünf Eigenschaften von Fehlinformationen, aus denen ich sechs konkrete Implikationen für die Gestaltung und Verbreitung von Richtigstellungen abgeleitet habe (vgl. Tab. 3). Bisherige Studien legen nahe, dass die Wirksamkeit von Richtigstellungen gesteigert werden kann, sofern die Kommunikatoren von Richtigstellungen an diesen Stellschrauben ansetzen.
Da sich Fehlinformationen kontinuierlich weiterentwickeln – wie etwa die Sorgen um die virale Verbreitung von sogenannten Deepfake-Videos verdeutlichen (vgl. Hameleers et al. 2020) –, muss die hier vorgestellte Liste von Vorschlägen kontinuierlich auf Aktualität geprüft und erweitert werden. Der vorliegende Beitrag hat den jetzigen Stand der Forschung synthetisiert und daraus Handlungsempfehlungen abgeleitet. Unsere Überlegungen müssen zunächst mithilfe von Inhaltsanalysen untermauert werden, denn diese würden sicherstellen, dass unsere Gegenüberstellung der Schlüsseleigenschaften von Fehlinformationen und Richtigstellungen aktuell bleibt. Denkbar wären etwa Inhaltsanalysen von Fehlinformationen (als solche von unabhängigen Fakten-Checkern identifiziert) und von Richtigstellungen, die ihnen entgegengesetzt wurden.
Auf der Grundlage der festgestellten Unterschiede lassen sich auch experimentelle Studien konzipieren. So könnte die Wirksamkeit von Richtigstellungen überprüft werden, die sich dieselben psychologischen Mechanismen zunutze machen wie die Fehlinformationen, die sie richtigzustellen versuchen. Um die Wahrscheinlichkeit zu erhöhen, dass solche evidenzinformierten Richtigstellungen in der Praxis Anwendung finden, erscheint eine Einbeziehung der aufklärenden Akteure und Fachleute ratsam. Aus heutiger Sicht können die obigen Gestaltungsvorschläge weitestgehend als ethisch vertretbar und erfolgversprechend gelten. Um zu klären, ob dieser Eindruck tatsächlich stimmt, sind empirische Studien nötig. Ethische Aspekte müssten etwa im Rahmen von Experteninterviews mit journalistischen Fakten-Checkern und Anbietern von Digital Literacy-Schulungen ermittelt werden. Das vermehrte Auftreten von lockeren, jedoch inhaltlich soliden öffentlich-rechtlichen Angeboten wie „maiLab“ und „Possoch klärt“ deutet darauf hin, dass Fakten-Checker Berührungsängste mit alternativen Formaten abbauen. Die Reichweite solcher Videos übersteigt bei weitem jene der textbasierten, nüchternen Pendants, und dies obwohl (oder vielleicht gerade weil) sie von Quellen stammen, die vertraut sind. So hat etwa „maiLab“ 1,2 Mio. YouTube-Abonnenten, und einzelne Videos werden von bis zu 6,5 Mio. Menschen angeschaut. Tatsächliche Wirkungen können jedoch nur experimentell nachgewiesen werden, und hier herrscht nach wie vor, vor allem im deutschsprachigen Raum, eine große Forschungslücke. Ergebnisse wie die von Radechovsky et al. (2019) geben jedoch Anlass zu vorsichtigem Optimismus, dass es möglich ist, die Wirksamkeit von Richtigstellungen zu steigern.
Notes
Bei der wissentlichen Gestaltung bzw. Verbreitung von Fehlinformation – wenn der Kommunikator einer Botschaft also weiß, dass diese falsch bzw. irreführend ist und sie dennoch als wahr präsentiert – handelt es sich um Desinformation; wird hingegen eine falsche bzw. irreführende Botschaft irrtümlich für wahr gehalten und ohne Täuschungsabsicht verbreitet, sprechen bisherige Publikationen zumeist von Fehlinformation (vgl. Habermas 1981; Southwell et al. 2018). Trotz dieser Unterscheidung wird „Fehlinformation“ zum Teil aber als Überbegriff für falsche bzw. irreführende Inhalte unabhängig von der Täuschungsabsicht genutzt. Im weiteren Verlauf dieses Beitrags steht der Ausdruck Fehlinformation als Überbegriff, um allgemein falsche bzw. irreführende Inhalte zu bezeichnen – losgelöst von der Diskussion um eine Täuschungsabsicht.
An dieser Stelle ist folgender Hinweis wichtig: Die zusammengetragenen Schlüsselmerkmale von Fehlinformationen bzw. Richtigstellungen eignen sich nicht für die Bestimmung des Wahrheitsgehalts einer Behauptung bzw. zur Identifikation von Richtigstellungen. Das Ziel des vorliegenden Beitrags besteht also keinesfalls darin, Schlüsselmerkmale zu identifizieren, die eine gründliche Prüfung des Wahrheitsgehalts einer Behauptung ersetzen sollen. Solche Einordnungen benötigen ausführliche Recherchen, wie etwa jene von journalistischen Fakten-Checkern.
Darum berücksichtigen Hameleers et al. (2020) in ihrer Typologie zu Fehlinformationen explizit eine visuelle Komponente. Sie unterschieden zwischen (a) der Paarung realer Bilder mit irreführenden Texten (Dekontextualisierung); (b) dem Zuschneiden von Bildern, um bestimmte Aspekte von Themen zielgerichtet hervorzuheben (Reframing); (c) dem Manipulieren von Bildern, um eine andere Realität darzustellen (Bildbearbeitung); (d) dem Herstellen von Inhalten durch das Koppeln manipulierter Bilder mit manipuliertem Text (multimodale Bearbeitung).
Da Richtigstellungen fehlerbehaftete Teile eines mentalen Modells thematisieren – etwa eine Kausalbeziehung („wenn A, dann B“) –, schaffen sie zunächst eine Lücke in diesem mentalen Modell. Deshalb ist es wichtig, dass Richtigstellungen korrekte Erklärungen für das Auftreten einer unerwünschten Entwicklung liefern („wenn AA, dann B“) (vgl. Swire und Ecker 2018). Denn Menschen möchten nicht über unvollständige Modelle verfügen, weshalb sie lieber weiter an falschen Behauptungen festhalten („wenn A, dann B“), als gar keine Erklärung für einen bestimmten Sachverhalt zu haben („wenn ???, dann B“) (vgl. Ecker et al. 2015). Soll etwa die Vorstellung, dass die MMR-Impfung („wenn A“) Autismus verursacht („dann B“), richtiggestellt werden, ist eine plausible alternative Erklärung entgegenzusetzen – zum Beispiel, dass ein komplexes Zusammenspiel genetischer und umweltbezogener Faktoren („wenn AA“) für die Entwicklungsstörung verantwortlich ist („dann B“). Dieses Vorgehen erhöht die Wahrscheinlichkeit, dass der Irrglaube („wenn A, dann B“) als falsch etikettiert und um die korrekte Information im mentalen Modell ergänzt wird („wenn AA [nicht, wenn A′], dann B“).
Literatur
Amazeen, M. A., Thorson, E., Muddiman, A., & Graves, L. (2016). Correcting political and consumer misperceptions: the effectiveness and effects of rating scale versus contextual correction formats. Journalism & Mass Communication Quarterly, 95, 28–48.
Ammann, B. (2016). Verschwörungstheorien in Endlosschlaufe. Neue Zürcher Zeitung. www.nzz.ch/international/amerika/folgenreiche-fake-news-in-den-usa-verschwoerungstheorien-in-endlosschlaufe-ld.133292 (Erstellt: 7. Dez. 2016). Zugegriffen: 17.04.2021
Arendt, F., Haim, M., & Beck, J. (2019). Fake News, Warnhinweise und perzipierter Wahrheitsgehalt: Zur unterschiedlichen Anfälligkeit für Falschmeldungen in Abhängigkeit von der politischen Orientierung. Publizistik, 64, 181–204.
Asp, E., Manzel, K., Koestner, B., Cole, C. A., Denburg, N. L., & Tranel, D. (2012). A neuropsychological test of belief and doubt. Frontiers in neuroscience, 6, 1–9.
Begg, I. M., Anas, A., & Farinacci, S. (1992). Dissociation of processes in belief: Source recollection, statement familiarity, and the illusion of truth. Journal of Experimental Psychology: General, 121, 446–458.
Berinsky, A. J. (2017). Rumors and health care reform: Experiments in political misinformation. British Journal of Political Science, 47, 241–262.
Bode, L., & Vraga, E. K. (2015). In related news, that was wrong: the correction of misinformation through related stories functionality in social media. Journal of Communication, 65, 619–638.
Bode, L., & Vraga, E. K. (2018). See something, say something: correction of global health misinformation on social media. Health Communication, 33, 1131–1140.
Brady, W. J., Gantman, A. P., & Van Bavel, J. J. (2020). Attentional capture helps explain why moral and emotional content go viral. Journal of Experimental Psychology: General, 149, 746–756.
Cappella, J. N., Maloney, E., Ophir, Y., & Brennan, E. (2015). Interventions to correct misinformation about tobacco products. Tobacco Regulatory Science, 2, 186–197.
Chan, M. S., Jones, C. R., Hall Jamieson, K., & Albarracín, D. (2017). Debunking: a meta-analysis of the psychological efficacy of messages countering misinformation. Psychological Science, 28, 1531–1546.
Chang, C. (2015). Motivated processing: How people perceive news covering novel or contradictory health research findings. Science Communication, 37, 602–634.
Chua, A. Y. K., & Banerjee, S. (2018). Intentions to trust and share online health rumors: an experiment with medical professionals. Computers in Human Behavior, 87, 1–9.
Citron, D. K., & Chesney, R. (2019). Deep fakes: a looming challenge for privacy, democracy, and national security. scholarship.law.bu.edu/cgi/viewcontent.cgi?article=1640&context=faculty_scholarship. Zugegriffen: 17.04.2021
Dan, V. (2018). Integrative framing analysis: Framing health through words and visuals. New York: Routledge.
DiFonzo, N., Robinson, N., Suls, J., & Rini, C. (2012). Rumors about cancer: content, sources, coping, transmission, and belief. Journal of Health Communication, 17, 1099–1115.
Dixon, G. N., & Clarke, C. E. (2013). Heightening uncertainty around certain science: Media coverage, false balance, and the autism-vaccine controversy. Science Communication, 35, 358–382.
Ecker, U. K. H., Lewandowsky, S., Cheung, C. S. C., & Maybery, M. T. (2015). He did it! She did it! No, she did not! Multiple causal explanations and the continued influence of misinformation. Journal of Memory and Language, 85, 101–115.
Elizabeth, J., & Mantzarlis, A. (2016). The week in fact-checking: The fact is, fact-checking can get better. American Press Institute. www.americanpressinstitute.org/factchecking-project/week-fact-checking-fact-fact-checking-can-better/. Zugegriffen: 17.04.2021
Eslick, A. N., Fazio, L. K., & Marsh, E. J. (2011). Ironic effects of drawing attention to story errors. Memory, 19, 184–191.
Fazio, L. K., Dolan, P. O., & Marsh, E. J. (2015). Learning misinformation from fictional sources: Understanding the contributions of transportation and item-specific processing. Memory, 23, 167–177.
Feygina, I., Jost, J. T., & Goldsmith, R. E. (2010). system justification, the denial of global warming, and the possibility of “system-sanctioned change”. Personality and Social Psychology Bulletin, 36, 326–338.
Freelon, D., & Wells, C. (2020). Disinformation as political communication. Political Communication, 37, 145–156.
Frenda, S. J., Knowles, E. D., Saletan, W., & Loftus, E. F. (2013). False memories of fabricated political events. Journal of Experimental Social Psychology, 49, 280–286.
Galston, W. A. (2001). Political knowledge, political engagement, and civic education. Annual Review of Political Science, 4, 217–234.
Ganesan, A., & Dar-Nimrod, I. (2019). Experimental examination of social transmission of health information using an online platform. Health Communication, 36, 392–400.
Garrett, R. K., Nisbet, E. C., & Lynch, E. K. (2013). Undermining the corrective effects of media-based political fact checking? The role of contextual cues and naïve theory. Journal of Communication, 63, 617–637.
Goldberg, C. (2016). Vaxxed | my son became autistic after his MMR vaccine. www.youtube.com/watch?v=deEeJT7WFsA. Zugegriffen: 17.04.2021
Grabe, M. E., & Bucy, E. P. (2009). Image bite politics: news and the visual framing of elections. Oxford: Oxford University Press.
Green, M. C., & Donahue, J. K. (2018). The effects of false information in news stories. In B. G. Southwell, E. A. Thorson & L. Sheble (Hrsg.), Misinformation and mass audiences (S. 109–123). Austin: University of Texas Press.
Guo, L., & Vargo, C. (2020). “Fake News” and emerging online media ecosystem: an integrated intermedia agenda-setting analysis of the 2016 U.S. Presidential Election. Communication Research, 47, 178–200.
Habermas, J. (1981). Theorie des kommunikativen Handelns. Frankfurt am Main: Suhrkamp.
Hall, S. (2012). The spectacle of the ‘Other. In S. Hall (Hrsg.), Representation: Cultural representations and signifying practices (S. 223–209). London: SAGE.
Hamby, A., Ecker, U., & Brinberg, D. (2020). How stories in memory perpetuate the continued influence of false information. Journal of Consumer Psychology, 30, 240–259.
Hameleers, M., & van der Meer, T. G. L. A. (2020). Misinformation and polarization in a high-choice media environment: how effective are political fact-checkers? Communication Research, 47, 227–250.
Hameleers, M., Powell, T. E., Van Der Meer, T. G. L. A., & Bos, L. (2020). A picture paints a thousand lies? The effects and mechanisms of multimodal disinformation and rebuttals disseminated via social media. Political Communication, 37, 281–301.
Hemsley, J., & Snyder, J. (2018). Dimensions of visual misinformation in the emerging media landscape. In B. G. Southwell, E. A. Thorson & L. Sheble (Hrsg.), Misinformation and mass audiences (S. 91–106). Austin: University of Texas Press.
Hohlfeld, R. (2020). Wahr oder falsch? Eine empirische Untersuchung zur Wahrnehmung von „Fake News“ und echten Nachrichten in der politischen Kommunikation. In R. Hohlfeld, M. Harnischmacher, E. Heinke, L. Lehner & M. Sengl (Hrsg.), Fake News und Desinformation: Herausforderungen für die vernetzte Gesellschaft und die empirische Forschung (S. 179–202). Baden-Baden: Nomos.
Huang, Y. L., Starbird, K., Orand, M., Stanek, S. A., & Pedersen, H. T. (2015). Connected through crisis: Emotional proximity and the spread of misinformation online. CSCW, 14–18, 969–980.
Humprecht, E. (2019). Where ‘fake news’ flourishes: a comparison across four western democracies. Information, Communication & Society, 22, 1973–1988.
Jin, Y., Liu, B. F., & Austin, L. L. (2011). Examining the role of social media in effective crisis management: the effects of crisis origin, information form, and source on publics’ crisis responses. Communication Research, 41, 74–94.
Johnson, H. M., & Seifert, C. M. (1994). Sources of the continued influence effect: when misinformation in memory affects later inferences. Journal of Experimental Psychology, 20, 1420–1436.
Jowett, G. (2008). Propaganda, visual communication of. In W. Donsbach (Hrsg.), The International Encyclopedia of Communication. https://doi.org/10.1002/9781405186407.wbiecp110.
Kelley, D. E., Noar, S. M., & Seidenberg, A. B. (2018). Understanding misinformation in the pro-tanning communication environment: a content analysis. American Journal of Health Education, 49, 234–245.
Kim, J. W. (2018). Rumor has it: the effects of virality metrics on rumor believability and transmission on Twitter. New Media & Society, 20, 4807–4825.
Konkes, C., & Lester, L. (2017). Incomplete knowledge, rumour and truth seeking. Journalism Studies, 18, 826–844.
Kunda, Z. (1990). The case for motivated reasoning. Psychological Bulletin, 108, 480–498.
Lau, R. R., & Redlawsk, D. P. (2006). How voters decide: information processing during election campaigns. New York: Cambridge University Press.
Lewandowsky, S., Ecker, U. K. H., Seifert, C. M., Schwarz, N., & Cook, J. (2012). Misinformation and its correction: continued influence and successful debiasing. Psychological Science in the Public Interest, 13, 106–131.
Lewandowsky, S., Stritzke, W. G. K., Oberauer, K., & Morales, M. (2005). Memory for fact, fiction, and misinformation: the Iraq War 2003. Psychological Science, 16, 190–195.
Linde-Arias, A. R., Roura, M., & Siqueira, E. (2020). Solidarity, vulnerability and mistrust: How context, information and government affect the lives of women in times of Zika. BMC Infectious Diseases, 20, 1–12.
Marcus, B. (2020). A nursing approach to the largest measles outbreak in recent U.S. history: Lessons learned battling homegrown vaccine hesitancy. Online Journal of Issues in Nursing, 25, 1–19.
Marsh, E. J., & Yang, B. W. (2018). Believing things that are not true. A cognitive science perspective on misinformation. In B. G. Southwell, E. A. Thorson & L. Sheble (Hrsg.), Missinformation and mass audiences (S. 15–34). Austin: University of Texas at Austin.
Meffert, M. F., Chung, S., Joiner, A. J., Waks, L., & Garst, J. (2006). The effects of negativity and motivated information processing during a political campaign. Journal of Communication, 56, 27–51.
Messaris, P., & Abraham, L. (2001). The role of images in framing news stories. In S. D. Reese, O. H. Gandy & A. E. Grant (Hrsg.), Framing public life: perspectives on media and our understanding of the social world (S. 215–226). Mahwah: Lawrence Erlbaum.
Moran, M. B., Lucas, M., Everhart, K., Morgan, A., & Prickett, E. (2016). What makes anti-vaccine websites persuasive? A content analysis of techniques used by anti-vaccine websites to engender anti-vaccine sentiment. Journal of Communication in Healthcare, 9, 151–163.
Moravec, P. L., Minas, R. K., & Dennis, A. R. (2019). Fake news on social media: People believe what they want to believe when it makes no sense at all. MIS Quarterly, 43, 1343–1360.
Mourão, R. R., & Robertson, C. T. (2019). Fake news as discursive integration: an analysis of sites that publish false, misleading, hyperpartisan and sensational information. Journalism Studies, 20, 2077–2095.
Neuberger, C., Bartsch, A., Reinemann, C., Fröhlich, R., Hanitzsch, T., & Schindler, J. (2019). Der digitale Wandel der Wissensordnung. Theorierahmen für die Analyse von Wahrheit, Wissen und Rationalität in der öffentlichen Kommunikation. Medien & Kommunikationswissenschaft, 67, 167–186.
Newman, E., & Zhang, L. (2021). Truthiness. In R. Greifeneder, M. Jaffe, E. Newman & N. Schwarz (Hrsg.), The psychology of fake news. Accepting, sharing, and correcting misinformation (S. 90–114). New York: Routledge.
Nickerson, R. S. (1998). Confirmation bias: a ubiquitous phenomenon in many guises. Review of General Psychology, 2, 175–220.
Nisbet, E. C., Cooper, K. E., & Garrett, R. K. (2015). The partisan brain: how dissonant science messages lead conservatives and liberals to (dis)trust science. The Annals of the American Academy of Political and Social Science, 658, 36–66.
Nyhan, B., & Reifler, J. (2010). When corrections fail: the persistence of political misperceptions. Political Behavior, 32, 303–330.
Nyhan, B., & Reifler, J. (2019). The roles of information deficits and identity threat in the prevalence of misperceptions. Journal of Elections, Public Opinion and Parties, 29, 222–244.
Pal, A., Chua, A. Y. K., & Hoe-Lian Goh, D. (2019). Debunking rumors on social media: the use of denials. Computers in Human Behavior, 96, 110–122.
Parks, C. M., & Toth, J. P. (2006). Fluency, familiarity, aging, and the illusion of truth. Aging, Neuropsychology, and Cognition, 13, 225–253.
Peter, C., & Koch, T. (2016). When debunking scientific myths fails (and when it does not). Science Communication, 38, 3–25.
Pfau, M., & Louden, A. (1994). Effectiveness of adwatch formats in deflecting political attack ads. Communication Research, 21, 325–341.
Pham, V. N. (2015). Our foreign President Barack Obama: the racial logics of birther discourses. Journal of International & Intercultural Communication, 8, 86–107.
Popkin, S. L. (1991). The reasoning voter: communication and persuasion in presidential campaigns. Chicago: University of Chicago Press.
Radechovsky, J., Berger, P., & Wolling, J. (2019). Nothing’s gonna change my world—Or do journalistic clarifications help against rumors? SCM Studies in Communication and Media,, 8, 497–522.
Reardon, S. (2020). Adding a personal backstory could boost your scientific credibility with the public. Nature. https://doi.org/10.1038/d41586-020-00857-0.
Rozin, P., & Royzman, E. B. (2001). Negativity bias, negativity dominance, and contagion. Personality and Social Psychology Review, 5, 296–320.
Sangalang, A., Ophir, Y., & Cappella, J. N. (2019). The potential for narrative correctives to combat misinformation. Journal of Communication, 69, 298–319.
Seymour, B., Getman, R., Saraf, A., Zhang, L. H., & Kalenderian, E. (2015). When advocacy obscures accuracy online: Digital pandemics of public health misinformation through an antifluoride case study. American Journal of Public Health, 105, 517–523.
Shin, J., Jian, L., Driscoll, K., & Bar, F. (2017). Political rumoring on twitter during the 2012 US presidential election: rumor diffusion and correction. New Media & Society, 19, 1214–1235.
Smelter, T. J., & Calvillo, D. P. (2020). Pictures and repeated exposure increase perceived accuracy of news headlines. Applied Cognitive Psychology. https://doi.org/10.1002/acp.3684.
Sommariva, S., Vamos, C., Mantzarlis, A., Đào, L. U.-L., & Tyson, M. D. (2018). Spreading the (fake) news: Exploring health messages on social media and the implications for health professionals using a case study. American Journal of Health Education, 49, 246–255.
Southwell, B. G., Thorson, E. A., & Sheble, L. (2018). Introduction: Misinformation among mass audiences as a focus for inquiry. In B. G. Southwell, E. A. Thorson & L. Sheble (Hrsg.), Misinformation and mass audiences (S. 1–11). Austin: University of Texas Press.
Sundar, S. (2008). The MAIN model: a heuristic approach to understanding technology effects on credibility. In M. Metzger & A. Flanagin (Hrsg.), Digital media, youth, and credibility (S. 73–100). Cambridge, MA: MIT Press.
Swire, B., & Ecker, U. K. H. (2018). Misinformation and its correction: Cognitive mechanisms and recommendations for mass communication. In B. G. Southwell, E. A. Thorson & L. Sheble (Hrsg.), Misinformation and mass audiences (S. 195–211). Austin: University of Texas Press.
Tandoc, E. C., Jenkins, J., & Craft, S. (2019). Fake news as a critical incident in journalism. Journalism Practice, 13, 673–689.
Tandoc, E. C., Lim, Z. W., & Ling, R. (2018a). Defining “fake news”. a typology of scholarly definitions. Digital Journalism, 6, 137–153.
Tandoc, E. C., Ling, R., Westlund, O., Duffy, A., Goh, D., & Wei, Z. L. (2018b). Audiences’ acts of authentication in the age of fake news: a conceptual framework. New Media & Society, 20, 2745–2763.
Taylor, S. E. (1991). Asymmetrical effects of positive and negative events: the mobilization-minimization hypothesis. Psychological Bulletin, 110, 67–85.
Thorson, E. (2016). Belief echoes: the persistent effects of corrected misinformation. Political Communication, 33, 460–480.
Valentino, N. A., Hutchings, V. L., Banks, A. J., & Davis, A. K. (2008). Is a worried citizen a good citizen? Emotions, political information seeking, and learning via the Internet. Political Psychology, 29, 247–273.
Van Damme, I., & Smets, K. (2014). The power of emotion versus the power of suggestion: memory for emotional events in the misinformation paradigm. Emotion, 14, 310–320.
Van der Linden, S. L., Clarke, C. E., & Maibach, E. W. (2015). Highlighting consensus among medical scientists increases public support for vaccines: evidence from a randomized experiment. BMC Public Health, 15, 1207.
Van der Meer, T. G. L. A., & Jin, Y. (2020). Seeking formula for misinformation treatment in public health crises: the effects of corrective information type and source. Health Communication, 35, 560–575.
Van Heekeren, M. (2020). The curative effect of social media on fake news: a historical re-evaluation. Journalism Studies, 21, 306–318.
Vivion, M., Hennequin, C., Verger, P., & Dubé, E. (2020). Supporting informed decision-making about vaccination: an analysis of two official websites. Public Health, 178, 112–119.
Vraga, E. K., & Bode, L. (2017). Using expert sources to correct health misinformation in social media. Science Communication, 39, 621–645.
Vraga, E. K., & Bode, L. (2018). I do not believe you: how providing a source corrects health misperceptions across social media platforms. Information, Communication & Society, 21, 1337–1353.
Vraga, E. K., & Bode, L. (2020). Defining misinformation and understanding its bounded nature: using expertise and evidence for describing misinformation. Political Communication, 37, 136–144.
Walter, N., & Tukachinsky, R. (2020). A meta-analytic examination of the continued influence of misinformation in the face of correction: how powerful is it, why does it happen, and how to stop it? Communication Research, 47, 155–177.
Young, D. G., Jamieson, K. H., Poulsen, S., & Goldring, A. (2017). Fact-checking effectiveness as a function of format and tone: evaluating FactCheck.org and FlackCheck.org. Journalism & Mass Communication Quarterly, 95, 49–75.
Zimmermann, F., & Kohring, M. (2018). „Fake News“ als aktuelle Desinformation. Systematische Bestimmung eines heterogenen Begriffs. Medien & Kommunikationswissenschaft, 66, 526–541.
Funding
Open Access funding enabled and organized by Projekt DEAL.
Author information
Authors and Affiliations
Ethics declarations
Interessenkonflikt
Dieses Manuskript ist unabhängig von den Lehrtätigkeiten der Autorin entstanden.
Rights and permissions
Open Access Dieser Artikel wird unter der Creative Commons Namensnennung 4.0 International Lizenz veröffentlicht, welche die Nutzung, Vervielfältigung, Bearbeitung, Verbreitung und Wiedergabe in jeglichem Medium und Format erlaubt, sofern Sie den/die ursprünglichen Autor(en) und die Quelle ordnungsgemäß nennen, einen Link zur Creative Commons Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden.
Die in diesem Artikel enthaltenen Bilder und sonstiges Drittmaterial unterliegen ebenfalls der genannten Creative Commons Lizenz, sofern sich aus der Abbildungslegende nichts anderes ergibt. Sofern das betreffende Material nicht unter der genannten Creative Commons Lizenz steht und die betreffende Handlung nicht nach gesetzlichen Vorschriften erlaubt ist, ist für die oben aufgeführten Weiterverwendungen des Materials die Einwilligung des jeweiligen Rechteinhabers einzuholen.
Weitere Details zur Lizenz entnehmen Sie bitte der Lizenzinformation auf http://creativecommons.org/licenses/by/4.0/deed.de.
About this article
Cite this article
Dan, V. Von Fehlinformationen lernen. Publizistik 66, 277–294 (2021). https://doi.org/10.1007/s11616-021-00667-y
Received:
Accepted:
Published:
Issue Date:
DOI: https://doi.org/10.1007/s11616-021-00667-y
Schlüsselwörter
- Richtigstellung
- Aufklärung
- Faktencheck
- Fehlinformation
- Desinformation
- Fake News
Keywords
- Correction
- Debunking
- Fact-checking
- Misinformation
- Disinformation
- Fake news