Einleitung

Eigentlich müssten die meisten Leser:innen zum Zeitpunkt der Lektüre dieses Artikels bereits tot sein – der Ballermann-Sänger Michael Wendler hat schließlich seinen über 140.000 Followern auf dem sozialen Messenger-Dienst Telegram bereits im August 2021 prophezeit: „!!LETZTE WARNUNG!! DR. COLDWELL SICHER: IM SEPTEMBER SIND ALLE GEIMPFTEN TOT“Footnote 1. Auch noch nach dem September 2021 hatte derselbe Sänger wenig Hoffnung für die vielen Menschen, die sich mehrfach gegen COVID-19 impfen ließen: „!!JEDER COVID-19 GEIMPFTE WIRD INNERHALB VON 24 MONATEN STERBEN!!“Footnote 2. Zur Beruhigung: Zum Zeitpunkt der Einreichung dieses Artikels (mehr als 24 Monaten nach dem letzten Post) waren beide Autoren dieses Artikels sowohl mehrfach gegen COVID-19 geimpft als auch noch am Leben.

Spaß und Häme beiseite, was diese Posts allerdings exemplarisch zeigen, ist, dass gesundheitliche Falsch- und Desinformation in sozialen Medien eine sehr große Reichweite erzielen können. Europaweite Umfragen [1] haben gezeigt, dass mehr als ein Drittel der Nutzer:innen von Social Media davon berichten, häufig bis täglich mit Falschinformationen konfrontiert zu sein. Sowohl Falschinformation (möglicherweise unbeabsichtigt falsch wiedergegebene oder inkorrekte Information) als auch Desinformation (intentional weitergegebene wissentlich falsche Information) zu gesundheitlichen Themen in sozialen Medien können verheerende Folgen für die populationsbezogene Gesundheit haben, insbesondere wenn durch die fehlerhaften Informationen Vertrauen in empfohlene und evidenzbasierte Maßnahmen wie Impfungen unterminiert oder wie im Fall der COVID-19-Pandemie Verhaltensempfehlungen wie das Tragen von Masken nicht mehr befolgt werden [2].

In diesem Artikel werden wir daher das Ausmaß von gesundheitlichen Falschinformationen in digitalen sozialen Medien untersuchen und anhand einer systematischen Betrachtung von Einflussgrößen auf das Glauben und die Weiterleitung von Falschinformationen Perspektiven für Interventionsmaßnahmen aufzeigen, um diesem aktuellen und relevanten Public-health-Problem [3] zu begegnen.

Verbreitung von Falsch- und Desinformation

Das „International Fact-Checking Network“ (IFCN) der US-amerikanischen Journalistenschule „Poynter Institute“ hat im Kontext der COVID-19-Pandemie über 17.000 unterschiedliche Falschinformationen in den sozialen Medien dokumentiert [4], die in unzähligen weiteren Einzelnachrichten verbreitet oder geteilt wurden. Problematisch ist, dass sich Falschinformationen typischerweise schneller verbreiten als korrekte Information [5] und dann innerhalb eng verbundener sozialer Netzwerke um besonders prominente Accounts vielfach geteilt werden [6]. So ergeben sich, ähnlich wie bei Krankheitserregern, Szenarien, bei denen eine Falschmeldung exponentielle Verbreitung erreichen kann – daher auch die Analogie einer „Infodemie“ [7].

Analysen der bekanntesten Social-Media-Plattformen wie Twitter, Facebook oder Instagram zeigen, dass alle das Potenzial haben, eine exponentielle Verbreitung zu fördern – einige jedoch weit mehr als andere. Auf Twitter (heute: „X“) wurden beispielsweise laut einer Studie aus 2018 Falschinformationen etwa zu 70 % wahrscheinlicher geteilt als korrekte Informationen, und korrekte Informationen brauchten bis zu 6‑mal länger, um 1500 Menschen zu erreichen [5]. Das Potenzial für eine Infodemie hängt also stark von den Plattformen [3], aber auch vom Verhalten der Nutzer:innen ab. Normalerweise machen Falsch- und Desinformation nur einen kleinen Anteil des Informationsangebots auf Social Media aus, allerdings konsumieren und verbreiten einige wenige und sehr spezifische Gruppen den Großteil der Falschinformation – hier wird nicht nur von „Supersharern“, sondern zunehmend auch von „Superconsumern“ gesprochen [8]. Solche Cluster von Nutzer:innen können sich zunehmend polarisieren und dadurch die Verbreitung von Falschinformationen beschleunigen und mögliche Korrekturen erschweren [9].

Für den Konsum von Falschinformationen (bzw. den Glauben daran) und das Teilen von Falschinformationen gibt es möglicherweise unterschiedliche Einflussfaktoren. Im Folgenden betrachten wir deshalb beide Prozesse getrennt voneinander und ordnen die Einflussgrößen in einem sozialökologischen Modell mit unterschiedlichen hierarchisch angeordneten sozialen und umweltbezogenen Ebenen an [10].

Glauben an Falsch- und Desinformationen: Einflussfaktoren

Insbesondere im Kontext der COVID-19-Pandemie wurde zunehmend an Einflussgrößen geforscht, die erklären können, warum und wie Personen Falsch- und Desinformationen in sozialen Medien Glauben schenken und welche Interventionsmöglichkeiten sich daraus ableiten lassen. Wir ordnen diese Einflussgrößen auf 3 Ebenen an (individuell, sozial und situativ-kontextbezogen; Abb. 1), was vor allem pragmatischen Überlegungen geschuldet ist – die Ebenen ließen sich sicherlich auch feiner unterteilen.

Abb. 1
figure 1

Determinanten des Glaubens an Falsch- und Desinformation (Quelle: eigene Abbildung)

Individuelle Einflussfaktoren.

Eine zentrale Annahme ist, dass Nutzer:innen Falsch- und Desinformationen schlicht aufgrund mangelnden Wissens, geringer Bildung, fehlender Kompetenz, zwischen vertrauenswürdigen und irreführenden Informationen zu unterscheiden, oder wegen erschwertem Zugang zu vertrauenswürdigen Informationen Glauben schenken [11]. So geht beispielsweise geringe Gesundheitskompetenz damit einher, dass Menschen Falschinformationen eher nicht als solche erkennen [12]. Ähnliche Befunde zeigen sich für andere Kompetenzbereiche, wie beispielsweise digitale (Gesundheits‑)Kompetenzen [13], Medienkompetenzen und naturwissenschaftliche Bildung [14]. Weil solche digitalen und Medienkompetenzen auch nach dem Alter ungleich verteilt sind, fällt es teilweise älteren Menschen schwerer, Falschinformationen zu identifizieren [15].

Neben individuellen Kompetenzen sind aber auch motivationale Faktoren relevant. Menschen glauben beispielsweise Falschinformationen eher, wenn diese mit bereits bestehenden Überzeugungen übereinstimmen [16]. Wenn solche Überzeugungen beinhalten, dass die Welt von mächtigen Personengruppen mit böswilligen Absichten im Verborgenen gelenkt wird, spricht man von Verschwörungsmentalität („conspiracy mindset“; [17]). Eine solche Überzeugung kann, insbesondere wenn der eigene Einfluss auf den Lauf der Dinge als gering eingeschätzt wird und die Informationen dem wissenschaftlichen Konsens widersprechen, dazu beitragen, dass zur Überzeugung passende Falschinformationen geglaubt werden. Nutzer:innen, die davon überzeugt sind, dass sie wichtige Ereignisse ohne eigene Suche mitbekommen (engl. „News-will-find-me-thinking“ [18]) oder stark intuitions- oder auch emotionsgeleitet über den Wahrheitsgehalt von Nachrichten entscheiden, sind ebenfalls eher anfällig für Fehlschlüsse [19]. Im Gegensatz dazu kann ein kritisch-reflektierender und prüfender kognitiver Stil (engl. „need for cognition“ [20]) dazu beitragen, vertrauenswürdige Informationen und den aktuellen wissenschaftlichen Konsens zu identifizieren [21, 22].

Allerdings kann auch eine gründlichere Beschäftigung (tiefere Verarbeitung – „deliberation“) mit Inhalten von Falschinformationen den Glauben an diese Inhalte verstärken. Dies gilt insbesondere für Verschwörungsinhalte, wenn diese mit bestehenden Einstellungen oder Ideologien der Nutzer:innen übereinstimmen. In einer Reihe von Experimenten konnten Bago et al. [23] zeigen, dass eine Intervention zur Förderung analytischen Denkens vor allem dazu führte, dass die Teilnehmer:innen neue Informationen in Einklang mit vorher bestehenden Einstellungen interpretierten: Teilnehmer:innen mit höherer Verschwörungsmentalität interpretierten neue Inhalte im Einklang mit bestehenden Verschwörungstheorien, Teilnehmer:innen mit niedriger Verschwörungsmentalität interpretierten neue Informationen im Widerspruch zu bestehenden Verschwörungstheorien.

Soziale Einflussfaktoren.

Insbesondere wenn sich Menschen in informationsreichen Umgebungen wie sozialen Netzwerken bewegen, kommen Heuristiken (verkürzte Entscheidungsregeln) zum Einsatz [24]. Eine zentrale Rolle können dabei soziale Informationen wie die Glaubwürdigkeit der Informationsquelle spielen [25]. Wenig überraschend werden Informationen von Personen, die als glaubwürdig eingeschätzt werden, eher für richtig gehalten. Das gilt insbesondere auch für Nachrichten aus offiziellen Quellen, wo mehr Vertrauen in die Institutionen auch mehr Vertrauen in die Informationen bedingen kann [26]. Darüber hinaus erhöht soziales Feedback die Vertrauenswürdigkeit von Informationen – mehr Likes können also auch offensichtliche Falschinformationen vertrauenswürdiger machen [27].

Situative und kontextuelle Einflussfaktoren.

Weiter können situativ variable Faktoren innerhalb der Person und in den kontextuellen Rahmenbedingungen von Nachrichten entscheidend dafür sein, ob die Falschinformationen geglaubt werden. Insbesondere haben die durch eine Nachricht angesprochenen Emotionen einen Einfluss darauf, ob Falschinformationen erkannt werden [28]. Der momentane Affekt der Nutzer:innen kann sich auch auf den Glauben an Falschinformationen auswirken: Wer bei einer Entscheidungsaufgabe stärkeren Affekt empfindet (negativ oder positiv), glaubt eher falsche Informationen. Und die Anweisung, sich bei der Einschätzung auf die eigenen Emotionen zu verlassen, erhöhte in einer Studie noch zusätzlich den Glauben an falsche Überschriften [29].

Daneben haben auch situative Merkmale aus dem Kontext der Falschinformationen wie die Wiederholung von Nachrichten einen Einfluss. Wird beispielsweise eine Überschrift wiederholt angezeigt, neigen Nutzer:innen eher dazu, diese auch zu glauben (engl. „illusory truth effect“ [30]), solange sich die Information auch nur entfernt plausibel anhört [31].

Teilen von Falsch- und Desinformationen: Einflussfaktoren

Auch wenn es plausibel scheint, dass Falschinformationen, als solche erkannt, weniger wahrscheinlich weitergeleitet werden, zeigen aktuelle Arbeiten, dass es für das Teilen oder Weiterleiten eines Posts weniger entscheidend ist, ob der Inhalt als korrekt oder falsch erkannt wird, als anzunehmen wäre [14]: In dieser Studie von Pennycook und Kollegen schätzten die Teilnehmer:innen Überschriften, die dem wissenschaftlichen Konsens entsprachen, tatsächlich auch häufiger als richtig ein als frei erfundene Überschriften. Allerdings hatte diese Einschätzung fast gar keinen Einfluss auf ihre Absicht, die Nachrichten zu teilen, unabhängig davon, ob es gesundheitliche oder politische Informationen waren [14]. Dieses Missverhältnis zwischen der inhaltlichen Bewertung und der Absicht zu teilen deutet darauf hin, dass viele Teilnehmer:innen anscheinend bereit waren, Inhalte zu teilen, die sie selbst nicht als vollständig zutreffend beurteilt hatten. Daher betrachten wir im Folgenden die Faktoren, die das Teilen beeinflussen und ordnen diese ebenfalls den Ebenen innerhalb eines sozialökologischen Modells zu (Abb. 2).

Abb. 2
figure 2

Determinanten des Teilens von Falschinformationen (Quelle: eigene Abbildung)

Individuelle Einflussfaktoren.

Wissen – oder vor allem fehlendes Wissen – hat einen Einfluss auf das Weiterleiten von Falschinformationen. Personen mit geringerem gesundheitlichen Vorwissen teilten Falschinformationen eher als Personen mit mehr Vorwissen [32]. Ein besseres Verständnis von wissenschaftlichen Abläufen führte eher dazu, dass weniger Falschinformationen geteilt wurden [33]. Auch bessere Gesundheits- und digitale Kompetenzen sind damit assoziiert, dass Menschen weniger Falschinformationen teilen [34]. Neben diesem Wissen bedingen auch Faktoren aus Theorien des Gesundheitsverhaltens wie Risikowahrnehmung das Teilen von Falschinformationen – allerdings in Abhängigkeit von Fachwissen: Während gut informierte Teilnehmer:innen mit höherer Risikowahrnehmung eher weniger Falschinformationen teilten, teilten schlechter informierte eher mehr Falschinformationen, wenn sie gesundheitliche Risiken wahrnahmen [35].

Soziale Einflussfaktoren.

Das Teilen von Information in sozialen Medien hat allerdings auch zentrale soziale Funktionen. So kann das Bedürfnis, Status [36], Gruppenzugehörigkeit [37] oder soziale Identität [38] zu signalisieren, dazu führen, dass Falschinformationen geteilt werden. Dabei scheint die Übereinstimmung mit persönlichen Werten und Ansichten viel stärkeren Einfluss auf das Teilen als auf das Glauben von Falschinformationen auszuüben. So zeigen politisch eher konservativ orientierte Nutzende eine insgesamt geringere Tendenz, Informationen zu teilen, sie neigen jedoch dazu, viel eher irreführende als zutreffende Informationen zu teilen [14]. Soziale Hinweisreize (z. B. Likes aus dem eigenen sozialen Netzwerk) können das Verhalten, Inhalte zu teilen, zusätzlich verstärken. Analog können aber soziale Informationen, dass im eigenen Netzwerk bestimmte Informationen nicht geteilt oder „gelikt“ werden, auch dazu führen, dass weniger Falschinformationen geteilt werden [39]. Darüber hinaus können eigentlich positive soziale Motive wie der Wunsch, andere in seinem sozialen Netzwerk auf mögliche Risiken hinzuweisen, dazu führen, dass mehr Falschinformationen verbreitet werden. Zusammenfassend lässt sich feststellen, dass soziale Einflussgrößen vermutlich einen größeren Einfluss auf das Teilen von Falschinformationen haben als individuelle Einflussgrößen und sich daher auch eher als Interventionsziele anbieten.

Situative und kontextuelle Einflussfaktoren.

Allerdings lässt sich auch unter Einbezug von individuellen und sozialen Einflussgrößen das Teilen von Falsch- und Desinformationen nicht vollständig erklären [21]. Deswegen kann es hilfreich sein, auch hier situative und kontextbezogene Merkmale der Social-Media-Plattformen zu betrachten.

Zum Geschäftsmodell der Plattformen gehört die Maximierung der Zeit, die Nutzer:innen auf der Plattform verbringen, und entsprechend die Maximierung ihrer dortigen Aktivitäten (Likes, Reposts oder allgemeines „user engagement“), um so mehr gezielte Werbung zeigen zu können. Die informationsreiche Umgebung kann, wie oben erwähnt, dazu führen, dass Nutzer:innen ihr Verhalten auf den Plattformen hauptsächlich auf Heuristiken aufbauen und sich weniger intensiv mit den eigentlichen Inhalten von Posts beschäftigen.

Dies zeigt sich beispielsweise, wenn Studienteilnehmer:innen, die sich von der hohen Informationsmenge (engl. „cognitive overload“) überfordert fühlen, auch eher bereit sind Falschinformationen zu teilen [40]. In Experimenten konnte gezeigt werden, dass bereits kurz eingeblendete Nachfragen, ob die Nutzer:innen die Information als richtig einschätzen, dazu führen konnten, dass sich die Nutzer:innen intensiver mit der Nachricht auseinandersetzen. Der veränderte Aufmerksamkeitsfokus führte dazu, dass die Informationen seltener geteilt wurden [14].

Interventionsansätze: Besseres Erkennen von Falschinformationen und weniger Teilen

Analog zu der Anordnung der Einflussgrößen auf hierarchischen Ebenen können auch Interventionen auf individuelle, soziale und kontextuelle Ansatzpunkte abzielen.

Individuelle Ebene.

Interventionen auf individueller Ebene können das Wissen und die Kompetenzen von Nutzer:innen in den sozialen Medien verbessern, um so die Identifikation von Falsch- und Desinformation zu erleichtern. Solche Interventionen knüpfen an die oben erwähnte Defizithypothese an und sollen dazu führen, dass Nutzer:innen die notwendigen Kompetenzen erwerben, wahre von falschen Informationen zu trennen und so weniger Falschinformationen weiterzuleiten. Dieser kompetenzorientierte Ansatz entstand vor allem aus der Erkenntnis, dass eine Richtigstellung von Falschinformationen im Nachhinein (sog. Debunking) mit einer Reihe von Schwierigkeiten verbunden und nur in sehr begrenztem Rahmen effektiv ist [41].

Präventive Ansätze zur Bekämpfung von Falschinformationen werden häufig als Prebunking (vorgreifendes Debunking) bezeichnet. Das prominenteste Beispiel solchen Prebunkings sind Interventionen, die sich einer Impfanalogie bedienen (engl. Inoculation). Dabei sollen die Nutzenden durch die Exposition gegenüber eher „schwachen“ Falschinformationen auf die spätere Konfrontation mit tatsächlich irreführenden Inhalten vorbereitet werden [42]. Wichtig dabei ist, dass die Nutzenden den irreführenden Beiträgen nicht einfach ausgesetzt werden, sondern diesen jeweils ein Hinweis auf nun folgende Falschinformationen und eine differenzierte Gegendarstellung vorangehen. Neben dieser eher passiven Art der inhaltlichen Auseinandersetzung [43] unterstützen aktive Immunisierungsinterventionen die Nutzenden dabei, eigene Gegenargumente auszuformulieren [44].

Während bei der Entwicklung der Immunisierungsinterventionen zunächst vor allem auf sehr spezifische und konkrete Fälle von Falschinformationen eingegangen wurde (z. B. auf die Falschinformation, dass das Medikament Ivermectin bei der Behandlung von COVID-19 große Erfolge erzielt habe), werden aktuell eher Interventionen entwickelt, die typische Charakteristika der Formulierung, Darstellung und Argumentation von Falschinformationen beschreiben. So sollen die Nutzenden befähigt werden, typische Muster zu erkennen, die dann auf irreführende Inhalte zu verschiedenen Themen übertragen werden können. Diese Art der strategieorientierten Immunisierungsintervention kann vor allem dann hilfreich sein, wenn neue und noch unbekannte Inhalte auftauchen. Sind die angesprochenen Themen und genutzten Argumentationsstränge der Falschinformationen bereits bekannt, können eher inhaltlich orientierte Interventionen stärkere Effekte vorweisen. Zwar haben Metaanalysen [45] zuletzt positive Effekte von Immunisierungsinterventionen bestätigt, allerdings bleibt bisher unklar, ob diese Effekte aus einer grundlegend skeptischen Haltung gegenüber allen Informationen entstehen oder spezifisch für irreführende Inhalte zu interpretieren sind.

Soziale Ebene.

Interventionen auf sozialer Ebene zielen vor allem darauf ab, durch die Veränderung von sozialen Prozessen das Teilen von Falschinformationen zu beeinflussen. So konnte in einer Interventionsstudie [39] gezeigt werden, dass durch Veränderungen in den sozialen Rückmeldungen Veränderungen im Teilen verursacht wurden. Statt Likes und Shares wurde angezeigt, wie viele Mitglieder des eigenen Netzwerks (Followers) oder des gesamten sozialen Netzwerks eine Falschinformation zwar gesehen, aber nicht gelikt oder weitergeleitet hatten. Wenn Falschinformationen mit der Information versehen wurden, dass sie nur von wenigen Mitgliedern des eigenen Netzwerks geteilt wurden, sank die Wahrscheinlichkeit des Teilens deutlich. Dieser Effekt ist möglicherweise durch Veränderungen in sozialen Normen bedingt, d. h., die Nutzer:innen nahmen es als weniger angebracht wahr, solche Inhalte zu teilen.

Situative und kontextuelle Ebene: Regulation sozialer Netzwerke.

Auch wenn in Deutschland seit 2018 das Netzwerkdurchsetzungsgesetz die Betreiber von sozialen Medien verpflichtet, vor allem Anfeindungen und Beleidigungen (Hate Speech) innerhalb von 24 h zu entfernen, ist die Durchführung kontrovers diskutiert worden. Auf Ebene der Europäischen Union (EU) gilt seit 2022 der Digital Services Act, der zum einen vorsieht, dass Plattformbetreiber regelmäßig Bericht darüber erstatten, inwiefern Maßnahmen zur Vermeidung von illegalen Inhalten und Falschinformationen durchgeführt wurden,Footnote 3 zum anderen aber auch erlaubt, dass im Kontext von Krisen das „European Board for Digital Services“ von Betreibern verlangen kann, bestimmte Inhalte zu filtern und inhaltliche Moderation durchzuführen [46].

Im Rahmen der aktuellen Berichterstattung fällt vor allem auf, dass seit der Übernahme von Twitter (jetzt „X“) durch Elon Musk und der damit einhergehenden Entsperrung von vielen Accounts, die zuvor durch Desinformation und Hate Speech aufgefallen waren, wieder deutlich mehr Desinformation veröffentlicht wird. Auch der anfangs erwähnte Ballermann-Sänger durfte seinen Account wieder eröffnen. Vor allem die Veränderungen auf dieser Plattform zeigen, wie wichtig ernst gemeinte Regulation und inhaltliche Moderation zur Vermeidung von Falsch- und Desinformation im Netz sind.

Offene Fragen zu sozialer Ungleichheit und individuellen Unterschieden

Soziale Ungleichheit.

Ein besonders relevanter, aber oft nicht mitberücksichtigter Aspekt in der Forschung zu gesundheitsbezogenen Falschinformationen im Netz und deren Implikationen sind soziale Ungleichheiten in der Exposition und in der Verteilung von Ressourcen zur Unterscheidung zwischen falschen und korrekten Informationen [47]. Soziale Unterschiede in Grundlagen- und Anwendungswissen zu Gesundheitsthemen haben erwiesenermaßen einen Einfluss darauf, wie Menschen mit Gesundheitsinformationen umgehen – die „Knowledge Gap Hypothesis“ [48] sagt beispielsweise aus, dass Menschen mit höheren Bildungsabschlüssen und mehr gesundheitsbezogenem Grundlagenwissen weniger Probleme damit haben, wahre von falschen Informationen zu unterscheiden (was insbesondere in globalen Notfalllagen wie einer Pandemie wichtig ist; [49]), und zudem schlüssige Empfehlungen eher als Menschen mit niedrigen Bildungsabschlüssen befolgen. Gleichzeitig zeigt eine Reihe von Untersuchungen während der COVID-19-Pandemie, dass Menschen mit geringeren Bildungsabschlüssen sich mehr oder sogar exklusiv auf soziale Medien als Quelle für Nachrichten und Gesundheitsinformationen verlassen und damit auch anfälliger dafür sind, Falsch- und Desinformation ausgesetzt zu werden.

Während der Pandemie haben sich auch Muster gezeigt, wonach Menschen in sozialen Medien Informationen vor allem von solchen Quellen und Persönlichkeiten bezogen und weiterleiteten, die ihnen im Hinblick auf demografische Merkmale und politische Ausrichtung ähnlich waren [50]. So zeigten sich beispielsweise in Großbritannien Unterschiede in der Impfbereitschaft bei Frauen aus ethnischen Minderheiten im Vergleich zur Allgemeinbevölkerung [51]. Grund dafür war, dass diese Frauen Gesundheitsinformationen aus Kanälen sozialer Netzwerke bezogen, in denen mehr Falschinformationen über mögliche Auswirkungen der COVID-19-Schutzimpfung auf die Fruchtbarkeit zirkulierten. Aus dieser Studie war aber auch ersichtlich, dass Frauen, die Quellen von Gesundheitsinformationen außerhalb sozialer Netzwerke vertrauten, eine deutlich höhere Impfbereitschaft zeigten. Gleichzeitig ist es wichtig zu betonen, dass neben der unterschiedlichen Exposition gegenüber Falschinformationen auch Diskriminierungserfahrungen im Gesundheitssystem und ein damit verbundenes geringeres Vertrauen in Informationen der entsprechenden Institutionen eine Rolle spielen können [52].

Fact-checking, also die Überprüfung, ob Informationen in sozialen Netzwerken korrekt sind, läuft oft über KI-basierte Systeme ab. Erste Simulationsstudien zeigen, dass die Resultate von Fact-checking Nutzer:innen aus benachteiligten Bevölkerungsgruppen weniger zugutekommen, insbesondere wenn Falschinformationen in seltener benutzten Sprachen oder in anderen Formaten erst später oder gar nicht überprüft werden [53].

Individuelle Unterschiede.

Bisher ist unklar, ob die Anfälligkeit für Falschinformationen eine generelle individuelle Tendenz darstellt oder kontext- und themenabhängig auftritt. Es ist anzunehmen, dass bei Nutzer:innen, die politische Falschinformationen glauben, eine generelle individuelle Tendenz besteht, gleichzeitig auch gesundheitsbezogene Falschinformationen zu glauben und zu teilen. Dies wird beispielsweise durch Befunde gestützt, die bei Personen mit einer Verschwörungsmentalität eine größere generelle Bereitschaft zum Teilen von Falschinformationen zeigen [17]. Ob und welche als falsch erkannte Informationen geteilt werden, kann aber auch, wie oben erwähnt, davon abhängen, inwiefern diese Informationen mit eigenen Überzeugungen übereinstimmen. [16]. Ein besseres Verständnis dieser Zusammenhänge könnte die Entwicklung und Erprobung von Interventionen verbessern und effizienter machen. So könnten generelle Kompetenzen zentrales Interventionsziel sein und gleichzeitig in Abhängigkeit von individuellen Merkmalen zusätzlich soziale und kontextuelle Ansatzpunkte adressiert werden.

Schlussfolgerungen

Falsch- und Desinformation in sozialen Medien sind ein relevantes Problem. Insbesondere im Kontext der COVID-19-Pandemie hat das Thema zunehmend wissenschaftliche und mediale Aufmerksamkeit bekommen. Im Zuge dieser zunehmenden Aufmerksamkeit wurde eine Reihe von Interventionsansätzen vorgestellt, die an verschiedenen individuellen, sozialen und kontextuellen Punkten ansetzen [22].

Es handelt sich aber um ein komplexes Problem mit Einflussgrößen auf Ebene der Person, des sozialen Umfelds, der Situation und des regulativen Kontexts. In welchem Maße Menschen aufgrund von individuellen Unterschieden, Lebenslagen und Ressourcen oder wegen situativer und kontextabhängiger Faktoren für Falschinformationen anfällig sind, ist noch nicht abschließend geklärt. Die teilweise noch sehr disparate Literatur dazu, wie wir Falschinformationen und Desinformationen in sozialen Medien verarbeiten, interpretieren und womöglich auch weiterleiten, lässt sich vermutlich noch nicht in einem integrierten Modell von maladaptivem Engagement mit Falschinformationen zusammenfassen. Es gibt aber sicherlich kein Allheilmittel gegen Falsch- und Desinformation in digitalen sozialen Medien und wir werden komplexe Interventionen entwickeln müssen, die verschiedene Einflussgrößen kombinieren.