Advertisement

Technikkommunikation, Risikobewertung und Risikokommunikation

  • Marc-Denis WeitzeEmail author
  • Ortwin Renn
Living reference work entry

Latest version View entry history

Zusammenfassung

Der Bau von Infrastruktur, wie Kraftwerken oder Windrädern, sowie die Anwendung wenig erprobter Technologien stehen in der öffentlichen Diskussion. Neuere Ansätze der Wissenschafts- und Technikkommunikation zielen daher auf Transparenz bezüglich möglicher Auswirkungen von Technologien, auf den Dialog und schließlich auf die Mitwirkung in gesellschaftlich relevanten technologiepolitischen Fragen. Vertrauen und die Zuversicht in die Sinnhaftigkeit wissenschaftlich-technischen Wandels resultieren demzufolge aus dem Dialog von Wissenschaft und Gesellschaft.

Schlüsselwörter

Wissenschaftskommunikation Technikkommunikation Dialog Technikfolgenabschätzung Technikzukünfte Risikokommunikation Risikobewertung Medien Verständlichkeit 

1 Einleitung: Technik und Gesellschaft

1.1 Ausgangspunkte der Wissenschafts- und Technikkommunikation

Ob Fracking, Gentechnik oder Infrastrukturprojekte – kontroverse Diskussionen zu technologischen und wissenschaftlichen Themen gibt es in nahezu allen Bereichen von Wissenschaft und Technik. Während in der Vergangenheit die Bewertung neuer Technologien weitgehend den Fachexperten und den wirtschaftlichen Entscheidungsträgern überlassen wurde, wird die Diskussion über Chancen und Risiken heute von immer mehr gesellschaftlichen Gruppen geführt – insbesondere dann, wenn es um Wertvorstellungen etwa zu Fragen der Umwelt- und Lebensqualität oder um ethische Fragen geht (Weitze und Heckl 2016).

Der Optimismus, der bis in die 1960er-Jahre verbreitet und mit dem jeder wissenschaftlich-technische Fortschritt noch begrüßt wurde, war kurzlebig: Das 1962 erschienene Buch Silent Spring von Rachel Carson, der 1972 vom Club of Rome veröffentlichte Bericht Die Grenzen des Wachstums sowie das grundlegende Werk von Erich Fromm Haben oder Sein bewegten die Öffentlichkeit und können als Ausgangspunkte der weltweiten Umweltbewegung gesehen werden. Auf der anderen Seite haben Chemieunfälle und weitere Technikkatastrophen bis hin zur weltweit live übertragenen Explosion der US-Raumfähre Challenger im Jahr 1986 immer wieder die Schattenseiten von Wissenschaft und Technik ins Bewusstsein der Öffentlichkeit gerückt.

Spätestens seit den 1970er-Jahren hätten die immer stärker beschleunigten Entwicklungen in der Wissenschaft und eine Sensibilisierung der Öffentlichkeit für die damit verbundenen Gefahren zu einer Entfremdung geführt. Und das war – mit Blick auf die Tatsache, dass Forschung zum großen Teil aus öffentlichen Geldern finanziert wird – auch ein politisches Problem. Aber nicht nur die finanzielle Förderung durch die Öffentlichkeit und ein davon ableitbares Mitspracherecht, sondern auch die Gewinnung von ausreichend Forschernachwuchs sind abhängig von einem produktiven Verhältnis von Wissenschaft und Öffentlichkeit. Schließlich ist wissenschaftliches Wissen für jedermann alltagsrelevant und Teil der modernen Kultur. 1985 nahm die Diskussion um „Public Understanding of Science“ (PUS) ihren Anfang als Titel des Berichts eines von der Royal Society eingesetzten Komitees (Royal Society 1985). Dieser Bericht einer Gruppe um den einflussreichen Biologen Walter Bodmer machte klar, dass die britischen Wissenschaftler zu wenig Kontakt mit der Öffentlichkeit pflegten.

1.2 Vom Defizit zum Dialog

Wenige Jahre später wurde PUS zwar von vielen unterstützt, aber es blieb unklar, was es genau bedeutet. Aus heutiger Sicht lassen sich die Aktivitäten am besten mit dem Defizitmodell beschreiben: Die Wissenschaft definiert den Stand des Wissens. Dieses Wissen wird in vereinfachter und kondensierter Form an die Öffentlichkeit weitergegeben. Die bleibt passiv – und soll die Neue Technologie dank der Aufklärung über die „wahren“ Folgen akzeptieren. Kommunikation setzte also erst ein, nachdem eine Technologie entwickelt worden war. Hochglanzbroschüren sollten Bewunderung hervorrufen und für Zustimmung sorgen. Das Defizitmodell beherrschte lange Zeit das Denken und war Leitschnur u. a. für die PUS-Programme in Großbritannien in den Jahren nach dem Bodmer Report. Wissenschaftler sahen ihre Aufgabe zunächst darin, die Öffentlichkeit (vorwiegend über die Medien) zu informieren, etwa welche Vorteile „Neue Technologien“ haben.

Dabei hatten empirische Befunde auf ein viel komplexeres Verhältnis von Wissenschaft, Technik und Öffentlichkeit hingewiesen. „Mehr wissenschaftliches Wissen sichert keinesfalls immer Unterstützung für die Wissenschaft; es kann auch Skepsis und Unsicherheit hervorbringen“ (Felt 2000, S. 20). Und man weiß, nicht zuletzt nach der Diskussion um Kernenergie und Grüne Gentechnik: Mehr (popularisiertes) Wissen führt keineswegs zu mehr Akzeptanz. Vertrauensverluste lassen sich nicht durch Information ausgleichen.

Dialog ist die angemessene Art der Kommunikation – insbesondere, wenn es um Themen geht, die mit Unsicherheiten und Risiken behaftet sind und die Öffentlichkeit direkt betreffen. Relevantes Wissen findet sich auch außerhalb der Wissenschaft (siehe Kasten). Dialog bedeutet Verständigung in beide Richtungen, ermöglicht den Austausch von Meinungen und Sichtweisen und damit eine sachgerechte und ausgewogene Kommunikation. Ein frühes Beispiel hierzu sind Konsensuskonferenzen, die ihren Ausgang Mitte der 1980er-Jahre in Dänemark genommen und sich in vielen Ländern – insbesondere zu Themen der Grünen und Roten Gentechnik – verbreitet haben (Joss 2003). Jeweils rund 20 Bürger, die nach Kriterien demografischer Repräsentativität ausgewählt wurden, holen Informationen zu einem Thema ein, identifizieren Schlüsselthemen, hören Experten an, beraten und verfassen den Schlussbericht, der schließlich der Öffentlichkeit, Medien und Politik präsentiert wird.

Zwischen Expertenwissen und sozial robustem Wissen

Für die sozialwissenschaftliche Technikforschung steht längst fest, dass sich handlungs- und entscheidungsrelevantes Wissen auch außerhalb der Wissenschaft findet. Grenzen des Fachwissens wurden unter anderem in biomedizinischer Forschung, in der Agrarpolitik und in Umweltdebatten deutlich. Vor allem ist neben dem systematischen Wissen der Wissenschaften auch das Erfahrungswissen der Entwickler und Nutzer von besonderer Bedeutung. Bei der Entwicklung und Verbreitung von Technologien übernehmen Nutzer durch die aktive Aneignung (etwa die Integration in die Alltagspraxis) eine wichtige Rolle für den Erfolg von Innovationen. Nutzer können – zumal bei Technologien, die in ihren Alltag hineinwirken – auch bei der Gestaltung und Verbesserung Neuer Technologien mitwirken.

Eine grundsätzliche Aufgeschlossenheit gegenüber technischen Innovationen, die etwa durch Dialogformate gestärkt werden kann, ist eine Grundvoraussetzung für eine sich wandelnde und innovative Gesellschaft. Die Studien der Wissenschaftsforschung und Technikfolgenabschätzung heben ebenso wie die Erfahrungsberichte aus Politik und von NGOs die Bedeutung der frühen Einbindung der Öffentlichkeit heraus, wenn es um die Gestaltung von Wissenschaftspolitik oder Technologien geht. Argumente für die Etablierung solcher Dialogformate sind u. a. (acatech 2011):
  • Angesichts immer weiter voranschreitender gesellschaftlicher Differenzierung und der Dissoziation von Erfahrungswelten, verschärft durch beschleunigte Wissensproduktion und darauf basierenden technischen Entwicklungen, tut es not, die verschiedenen Wissensformen (hier aus Wissenschaft, Wirtschaft und Gesellschaft) zusammenzubringen.

  • Angesichts des immer stärkeren Einflusses Neuer Technologien in der Gesellschaft sind für Entscheidungen, die mit Innovationen verbunden sind, neben dem Fachwissen der Experten auch Wertvorstellungen, Zukunftsvisionen und Wünsche der Bürger relevant.

  • Grundsätzliche Aufgeschlossenheit gegenüber technischen Innovationen („Technikakzeptanz“), die durch solche Dialogformate gestärkt werden kann, ist wesentlicher Bestandteil wirtschaftlicher Kalkulation, um neue Produkte, Anlagen und Dienstleistungen hervorzubringen, Problemlösungen anbieten zu können und damit letztendlich zur Modernisierungs- und Wettbewerbsfähigkeit des Standorts Deutschland beizutragen.

War es bisher ausreichend, „verlässliches Wissen“ zu produzieren, das von anderen Wissenschaftlern als gültig angesehen wird, lässt sich nun eine Erweiterung hin zu „sozial robustem Wissen“ (Nowotny et al. 2001) feststellen: Dieses kennzeichnet den Prozess der Kontextualisierung und weist drei Merkmale auf: Es handelt sich um valides Wissen nicht nur im Labor, sondern auch im praktischen Vollzug im wirtschaftlichen und sozialen Kontext. Es werden zur Gewinnung sozial robusten Wissens verschiedene Experten und ggf. auch Laien einbezogen. Die Gesellschaft ist am Entstehungsprozess dieses Wissens beteiligt. Zudem kommt eine Vielzahl von Perspektiven und Techniken zum Einsatz, sodass dieses Wissen umfassender die Pluralität von Werten und Präferenzen abbilden kann.

1.3 Rolle der Medien

Für den Informationsaustausch zwischen Wissenschaft und Technik auf der einen und der Öffentlichkeit auf der anderen Seite spielen seit Jahrzehnten die klassischen Medien (Presse, Rundfunk und Fernsehen) und seit einigen Jahren zunehmend die social media eine wichtige Rolle. Insbesondere das Fernsehen ist dabei für viele noch immer die Hauptinformationsquelle (Wissenschaft im Dialog 2018).

Dass die Medien kein Spiegel der Welt sind, sondern nach bestimmten Regeln und Konventionen Signale aus Umwelt und Kommunikation selektieren und verarbeiten, die nicht immer mit denen von Wissenschaft und Technik übereinstimmen, ist allgemein bekannt: So tritt bei den Medien neben das innerwissenschaftliche Wahrheitskriterium die Medienwirksamkeit. Wichtige Nachrichtenwerte im Journalismus sind Aktualität, Prominenz, Emotionalität, Nähe und Unterhaltsamkeit. Dagegen setzt die Wissenschaft u. a. auf Neuigkeit, Genauigkeit, Überprüfbarkeit. Wenn die Medienberichterstattung vor allem ereignisorientiert ist, sind wissenschaftliche „Durchbrüche“, sensationelle Ergebnisse, Nobelpreise, aber auch aktuelle gesellschaftliche Debatten Anlässe für eine ausgedehnte Berichterstattung. Kontinuierliche Entwicklungen in der Wissenschaft und Blicke hinter die Kulissen werden dagegen eher selten thematisiert.

Zudem lassen sich zwei grundsätzliche Rollenverständnisse der Medien gegenüber Wissenschaft und Technik unterscheiden: Nach dem einen Verständnis sind sie Sprachrohr von Wissenschaft und Technik, liefern verständliche Darstellungen bzw. „Übersetzungen“ der Ergebnisse (nach diesem Verständnis: Leistungen) aus den Wissenschaften an die Öffentlichkeit, möchten auch Faszination von Wissenschaft und Technik vermitteln. Nach dem anderen Verständnis hinterfragen sie wissenschaftliche Resultate kritisch, bringen sie mit anderen Meinungen zusammen, kontrollieren sogar mögliche Missstände im Wissenschaftsbetrieb oder bei technischen Entwicklungen.

1.4 Information, Dialog, Partizipation: Eine große Vielfalt an Formaten

Wie man Bürger in die Diskussion um die Gestaltung von Innovationen einbezieht, ist bis heute ein Experimentierfeld. Hinsichtlich des Dialogcharakters lassen sich verschiedene Typen von Formaten der Wissenschaftskommunikation identifizieren, die spezifische Stärken und Schwächen aufweisen. Der Übergang von „Information“ (im Sinne eines allgemeinen und öffentlichen Zugangs zu Information sowie der Informationsvermittlung an spezifische Gruppen) zu „Dialog“ (bei dem der Informationsaustausch in beide Richtungen erfolgt und Reaktionen der betroffenen Kommunikationspartner systematisch gesammelt und für die weitere Planung berücksichtigt werden) und „Partizipation“ (bei der alle Beteiligten gemeinsam nach Lösungen suchen und Empfehlungen an die Entscheidungsträger – beispielsweise in der Politik – artikulieren) bildet dabei ein Kontinuum.

Ein Forschungsprojekt „Wissenschaft debattieren!“ (Universität Stuttgart und Wissenschaft im Dialog), das verschiedene Dialogformate hinsichtlich ihrer Wirkweise, Reichweite und Zielerreichung analysiert hat, kam zu folgenden Erkenntnissen (Wissenschaft im Dialog 2011): Verfahren, die auf Dialog und Mitgestaltung von Teilnehmenden setzen, steigern Sachwissen, Urteilsfähigkeit sowie Interesse an wissenschaftlichen Fragen. Einstellungen bzw. subjektive Wahrnehmungen von Teilnehmenden, zum Beispiel in Bezug auf Wissenschaftler und Wissenschaft, wurden durch die Teilnahme an Dialogveranstaltungen positiv beeinflusst. Der Austausch mit Wissenschaftlern unterstützt die Verständigung und das Verständnis beider Seiten. Dialog kann hier eine urteilsunterstützende Kommunikation fördern.

2 Technikfolgenabschätzung und Technikzukünfte

Der Einsatz von Technik, Technologie oder Neuen Technologien ist – anders als etwa Naturgewalten – ein Willensakt. Und an kaum einem anderen Gegenstand entzündet sich der Streit um die Folgen menschlichen Handelns intensiver als an der Frage, ob und in welcher Form eine Technik in Produktion, Konsum oder Infrastruktur eingesetzt werden soll. Charakteristisch für Diskussionen um den Einsatz von Technik sind die folgenden drei Merkmale:
  • Ambivalenz,

  • Komplexität und

  • Unsicherheit.

Es liegt in der Natur der Sache, dass jede Technik ambivalente Seiten ausweist. Messer kann man zum Trennen von Nahrungsmitteln, aber auch zur Verletzung von Mitmenschen einsetzen. Das gilt erst recht für komplexe Technologien wie Gentechnik oder Nanotechnik. Mit Ambivalenz klug umzugehen bedeutet, dass Techniken weder ungefragt entwickelt und eingesetzt werden dürfen, noch dass wir jede Technik verbannen müssen, bei der negative Auswirkungen möglich sind. Eine solche Abwägung wird erschwert durch die Komplexität der Ursache-Wirkungs-Beziehungen. Hinzu kommt Unsicherheit, die sich durch Messfehler, Kontextabhängigkeiten, Nichtwissen und Unbestimmtheit von funktionalen oder kausalen Beziehungsmustern ergibt.

Gleichzeitig muss aber auch bedacht werden, dass Technikfolgen nicht nur negative Begleiterscheinungen hervorrufen, sondern neben ihrem direkten Nutzen auch indirekte Wohlfahrtsgewinne für die Gesellschaft etwa zur Verbesserung von Gesundheit, Mobilität, Wohlstand und Komfort mit sich bringen. Die positiven Folgen sollten die negativen sicherlich überlagern – doch wie die einzelnen Folgen zu bewerten sind, ist nicht wissenschaftlich bestimmbar, sondern setzt eine bewusste Wertung nach kollektiver Wünschbarkeit voraus. Da die Frage, was für die Gesellschaft wünschbar ist, in einer wertepluralen Gesellschaft nicht eindeutig zu beantworten ist, ergeben sich zwangsläufig Kontroversen über die Entwicklung und den Einsatz von Technik (Grunwald 2010). Technikfolgenabschätzung muss sich dabei mit zwei Fragen befassen: Welche Folgen sind mit welcher Wahrscheinlichkeit und Urteilssicherheit mit dem weiteren Einsatz verbunden? Und: Wie wünschbar sind diese Folgen, wenn man die Werte und Präferenzen der von dem Einsatz der Technik betroffenen Personen zugrunde legt?

Vor allem wenn um die Frage der Wünschbarkeit der Technikfolgen und um die Entscheidung für oder gegen eine Technologie geht, gibt es keine Eindeutigkeit, sondern es braucht eine Kultur der Abwägung: Diese umfasst einerseits die Erfassung der zu erwartenden Folgen eines Technikeinsatzes auf der Grundlage eines wissenschaftlichen Instrumentariums und andererseits die Beurteilung von Handlungsoptionen, also dem Einsatz oder Nichteinsatz einer Technik, auf der Basis von Kriterien, die nicht aus der Wissenschaft abzuleiten sind, sondern die in einem politischen Prozess durch die Gesellschaft identifiziert und entwickelt werden. Technikfolgenabschätzung kann zwar weder die Ambivalenz der Technik auflösen noch die zwingende Unsicherheit und Komplexität außer Kraft setzen, aber sie kann helfen, die Dimensionen und die Tragweite unseres Handelns wie unseres Unterlassens zu verdeutlichen.

2.1 Frühzeitige Einbindung: Aber wann?

Wann sollen die Folgen einer einzusetzenden Technik diskutiert werden? Möglichst früh, sollte man meinen, aber hier ergibt sich ein Dilemma, das nach dem britischen Technikforscher David Collingridge benannt ist: Solange eine Technologie noch nicht ausreichend entwickelt und weit verbreitet ist, können ihre Wirkungen nicht leicht vorhergesehen werden. Je weiter entwickelt sie jedoch ist, umso schwieriger werden deren Kontrolle und Gestaltung (Abb. 1).
Abb. 1

Das Dilemma der gegenläufigen Entwicklung von Gestaltungsmöglichkeiten und Wissen zu einer Technologie in deren Entwicklungsprozess (nach Collingridge 1982, S. 19)

Aus diesem Dilemma ergeben sich einige Fragen: Wie kann man das Urteilsvermögen der von einem Technikanwendung betroffenen Bevölkerung so verbessern, dass die faktischen Implikationen der verschiedenen Handlungsalternativen verstanden werden können und die Wünschbarkeit dieser Folgen rational abgewogen werden kann? Wie kann man ein Thema in einem frühen Forschungsstadium relevant und interessant machen für Bürger, die einerseits mitreden sollen, andererseits dafür wenig Zeit aufwenden wollen? Um diese beiden Fragen konstruktiv anzugehen, könnten zunächst auf der Basis einzelner Forschungsansätze verschiedene „Technikzukünfte“ entwickelt werden, also Vorstellungen zukünftiger gesellschaftlicher Wirklichkeiten in Kombination mit dem wissenschaftlich-technischen Fortschritt (Grunwald 2012). Technikzukünfte sind dabei keine Prognosen, sondern sollen vielmehr – auf Grundlage transparenter Voraussetzungen und Annahmen – eine Basis zur Diskussion darstellen, in welche Richtung die (Forschungs-)Reise gehen soll, was also letztlich Ziel der Forschung und technischen Entwicklung ist.

Tatsächlich spielen Zukunftsvorstellungen eine entscheidende Rolle in gesellschaftlichen Technikdebatten: Sie werden in unterschiedlichen Formen, etwa als Vorhersagen, Szenarien oder Visionen, zum Ausdruck gebracht. Teils werden sie von Wissenschaftlern entworfen, etwa als modellbasierte Szenarien, teils handelt es sich um künstlerische Entwürfe, wie literarische oder filmische Produkte der Science-Fiction, teils sind es Erwartungen oder Befürchtungen, die über Massenmedien Teil der öffentlichen Kommunikation werden.

Insbesondere bringen Vorstellungen über die zukünftige Entwicklung von Technik und Gesellschaft – kurz Technikzukünfte – Ansichten darüber zum Ausdruck, welche zukünftige gesellschaftliche und technologische Realität für möglich, mehr oder weniger wahrscheinlich, gewünscht oder unerwünscht gehalten wird. Von daher verbinden Zukünfte die beiden Komponenten der Technikfolgenabschätzung: Der möglichst faktisch genauen Erfassung der Folgen der jeweiligen Handlungsoptionen und der Bewertung dieser Folgen nach Kriterien der gesellschaftlichen Wünschbarkeit. Solche Technikzukünfte vereinen unterschiedliche Formen von Wissen, beinhalten Annahmen und normative Setzungen. Dabei haben sich die Erwartungen an Zukunftsvorausschau in den letzten Jahrzehnten grundlegend verändert. Heute ist das Denken in Alternativen, in Optionen mit Entscheidungspunkten und Verzweigungen vorherrschend. Der Plural „Technikzukünfte“ ist daher Programm.

Technikzukünfte mischen Wissen, Zukunftsvisionen und Werte. Wissenschaftliche und technische Fakten sind darin verwoben mit Erfahrungen und Präferenzen. Sie können umstritten und Schauplatz gesellschaftlicher Kontroversen sein. Sie motivieren – explizit oder implizit – Forscher, leiten die Bestimmung der Forschungsthemen an und sind mithin zentraler Bestandteil von Entscheidungen über Technik sowie Grundlage von gesellschaftlichen Chancen- und Risikodebatten.

Das Denken in Zukünften formt also die Grundlage für einen partizipativen Ansatz der Technikgestaltung. Um eine konkrete Mitgestaltung zu ermöglichen, sind hier Dialogformate mit allen Gruppen der Bevölkerung sinnvoll, um Sachverhalte zu klären und unterschiedliche Handlungsoptionen zu interpretieren vor dem Hintergrund pluraler Präferenzen und Werte.

3 Einstellungen und Rezeption

Welche Meinungen, Positionen oder Einstellungen gibt es über Wissenschaft und Technik, wie entstehen diese und wie wirken sie sich auf die Aufnahme von Information aus?

3.1 Einstellungen zu Wissenschaft und Technik

Wünsche, Hoffnungen, Befürchtungen, Erwartungen an die Zukunft, aber auch Zustimmung oder Ablehnung von Technologien können durch Umfragen indirekt erfasst werden. Das „Eurobarometer“ basiert auf in regelmäßigen Abständen von der Europäischen Kommission in Auftrag gegebene öffentliche Meinungsumfragen in den Ländern der EU. Diese versuchen u. a., Einstellungen der Bevölkerung zu Wissenschaft und Technik zu erfassen. Dabei zeigen sich teilweise über Jahren hinweg stabile Befunde, aber auch im Zeitablauf sich verstärkende oder abschwächende Trends, sowie viele überraschende Befunde, die nicht einfach interpretiert werden können. Mit überwiegender Mehrheit stimmen die Europäer zu, dass durch Wissenschaft und Technik mehr Möglichkeiten für kommende Generationen geschaffen werden (EU 75 %, Deutschland 80 %; siehe EC 2013, S. 84 f.). Drei Viertel der Bevölkerung halten den Einfluss von Wissenschaft und Technik auf die Gesellschaft insgesamt für positiv (sowohl EU als auch Deutschland; siehe EC 2013, S. 51 f.).

Aufschlussreich ist, wie differenziert einzelne Technologien betrachtet werden. So wird die generelle Haltung gegenüber verschiedenen Technologien abgefragt: „Sagen Sie mir bitte für jeden Bereich, ob Sie meinen, a) dass er Ihr Leben in den nächsten 20 Jahren verbessern wird, b) keine Auswirkungen haben wird oder c) ihr Leben verschlechtern wird?“ Eine überwiegend optimistische Einschätzung ist hinsichtlich Sonnen- und Windenergie sowie der Informationstechnologie seit 1991 generell hoch. Für Biotechnologie und Gentechnik liegt der Index deutlich darunter; er sank in den 1990er-Jahren stark, stieg dann bis 2005 wieder an. Für 2010 sank der Index wieder ein wenig; der Anteil der Optimisten blieb dabei gleich, aber es gab einen höheren Anteil an Pessimisten (Gaskell et al. 2010, S. 18 f.).

3.2 Rezeption und Beurteilung von Technik

Bereits vorhandene Einstellungen in der Bevölkerung, Spezifika der individuellen und kollektiven Rezeption sowie Informationsverarbeitung sind Randbedingungen der Wissenschaftskommunikation, die für eine adressatengerechte Kommunikation zu berücksichtigen sind. Im Folgenden werden einige Beispiele hierfür gegeben. Als Hintergrund ist hier durchweg zu berücksichtigen, dass das Hauptmotiv der Rezeption wissenschaftlicher Inhalte durch Nicht-wissenschaftler nicht der Erwerb von Wissen ist, sondern die Suche nach Lösungen und Orientierungen für Alltagsprobleme. Insbesondere sollte man sich von der Vorstellung verabschieden, dass Laien bereit wären, sich durch Unmengen an Informationen zu arbeiten, um am Ende nach einer intensiven Abwägung aller Fakten und Werte zum besten Schluss zu kommen. Vielmehr sind die meisten Individuen zunächst einmal „kognitive Geizhälse“, die möglichst effizient zu Entscheidungen kommen wollen und müssen – zumindest bei Themen und in Situationen, bei denen es keinen konkreten Anreiz zum genaueren Nachsehen und Nachdenken gibt.

Wissenschaftliche Informationen werden von Laien in Abhängigkeit von ihren jeweiligen Motiven ausgewählt und verarbeitet. Grundlegend ist dabei die Vermeidung von kognitiver Dissonanz. Alle Informationen, die der eigenen Einstellung widersprechen, werden als weniger wahr, als weniger relevant und als weniger glaubwürdig eingestuft. So wird der Einfluss von Einstellungen auf die Informationsverarbeitung unter anderem durch Überlappung bestimmt („message congruency effect“): Demnach ruft eine zur persönlichen Einstellung kongruente Botschaft größeres Vertrauen hervor als eine nichtkongruente Botschaft. Information, die nicht zu den eigenen Einstellungen kongruent ist, wird dann eher angenommen, wenn sie von Experten verschiedener Ausrichtungen beziehungsweise Werthaltungen – gegebenenfalls von verschiedenen Seiten bei einer Kontroverse – vertreten wird („pluralistic advocacy“; siehe Kahan et al. 2011). Pointiert könnte man feststellen, dass Informationen nur dann wirken, wenn sie bestehende Überzeugungen nicht in Frage stellen. Eine Rezeptionsstudie zu Zeitungsartikeln über Gentechnik etwa zeigte, dass der Artikel, der am positivsten über Gentechnik berichtete, die negativsten Bewertungen bei Lesern mit negativen Voreinstellungen zur Gentechnik hatte.

Werte und Einstellungen können die Wahrnehmung deutlich beeinflussen. In einer Studie, die den Einfluss der politischen Orientierung und der Religiosität auf Einstellungen zur embryonalen Stammzellenforschung untersuchte, konnte gezeigt werden, dass die Informationsverarbeitung stark durch Werte geprägt ist. „Die Ergebnisse zeigen, dass größere Religiosität und eine konservative politische Einstellung mit einer Ablehnung von Stammzellenforschung einhergehen, während kein direkter Einfluss des Wissens zu diesem Thema nachgewiesen werden konnte“ (zit. nach Bromme und Kienhues 2014, S. 74).

Kognitive Konflikte führen keineswegs notwendig zu einer Veränderung von Wissensstrukturen oder Einstellungen aufseiten der Rezipienten: So ist die Aufteilung von Wissensbeständen in „Alltägliches“ und „Wissenschaftliches“ eine Bedingung dafür, dass bestehende Konzepte innerhalb des „Alltäglichen“ nicht angegriffen werden, wenn sich Neuigkeiten bei „Wissenschaftlichem“ ergeben. Erwartungswidrige Beobachtungen lassen sich auch schlicht ignorieren oder aber im Sinne der bislang bestehenden Überzeugungen uminterpretieren. Störende Gefühle kognitiver Dissonanz, die etwa zwischen Einstellungen und neuen Informationen auftreten können, werden oftmals in einer Weise ausgeräumt, die die Einstellungen unverändert lässt.

Schließlich lässt sich zeigen, dass Einstellungen zu einer Neuen Technologie von anderen Technologien übernommen werden, die man für vergleichbar hält. Sie wird „verankert“ in vertrauten Bereichen: Obwohl die meisten noch nie etwas von Synthetischer Biologie gehört haben, werden sie dieses neue Feld möglicherweise mit Gentechnik oder Nanotechnologie in Verbindung bringen (Kronberger et al. 2012, S. 176).

Die regelmäßige Analyse „TechnikRadar“ der Deutschen Akademie der Technikwissenschaften und der Körber-Stiftung liefert zahlreiche Belege dafür, dass die Menschen weniger ihre Urteile mit vermuteten Auswirkungen begründen, sondern mit ihren grundlegenden Wertmaßstäben (acatech, Körber-Stiftung 2018). Nicht Technik „an sich“ steht im Zentrum des Interesses, sondern ihre soziale Einbettung – die mit ihr verbundenen Ziele ebenso wie die Wünschbarkeit der vermuteten gesellschaftlichen Folgen und Nebenfolgen des Technikeinsatzes. Ob Technik zum Fluch oder Segen gereicht, hängt so gesehen weniger von ihren technischen Eigenschaften als vielmehr von den Bedingungen ihres Einsatzes ab.

4 Technikakzeptanz

Es gibt verschiedene Definitionen und Konzeptualisierungen von Akzeptanz in der sozialwissenschaftlichen Literatur. Für die Technikakzeptanz ist vor allem das dreistufige Modell von Renn (2013) angemessen, wonach Akzeptanz in drei Stufen der Zustimmung aufteilbar ist: (i) Toleranz; (ii) positive Einstellung und (iii) aktives Engagement (oder auch Involvement genannt).
  • Toleranz: In diesem Fall nehmen die Menschen die geplanten Anwendungen der Technik einfach hin, auch wenn sie damit nicht einverstanden sind. Diese Toleranz kann daraus entstehen, dass man das Thema als nicht signifikant genug einschätzt, um sich damit auseinanderzusetzen oder dass man glaubt/weiß, selber nicht davon betroffen zu sein. Ein weiterer Grund für Toleranz kann eine geringe Selbstwirksamkeitsüberzeugung in Bezug auf einen möglichen Protest sein: Man glaubt demnach, ohnehin nichts bewirken zu können. Trotz der eigentlich negativen Einstellung zur Maßnahme, kommt es hier also nicht zu einer aktiven Protestreaktion oder einer öffentlich wirksamen Akzeptanzverweigerung.

  • Positive Einstellung: Eine positive Einstellung zu einer Maßnahme bedeutet, dass Menschen die Maßnahme für richtig halten und einer Implementierung zustimmen. Diese positive Einstellung kann drei Komponenten haben: Eine emotionale Komponente, d. h. gute Gefühle in Bezug auf die Maßnahme; eine kognitive Komponente, d. h. gute Gründe oder Argumente für die Richtigkeit der Maßnahme; sowie eine Verhaltenskomponente, d. h. die Absicht sich im Falle der Implementierung auch an die Maßnahme zu halten (z. B. sich eine Solaranlage auf das eigene Dach zu setzen).

  • Aktives Engagement: Diese Form von Akzeptanz geht über die positive Einstellung hinaus. Hier beteiligen sich die Menschen aktiv an der Ausgestaltung oder Umsetzung einer Maßnahme. Sie versuchen auch andere Menschen von der Richtigkeit der Maßnahme zu überzeugen, z. B. in dem sie Unterschriften sammeln oder im Freundes- und Bekanntenkreis viel über die Vorzüge der zu erwartenden Veränderungen sprechen (etwa bei einer Bürger-Genossenschaft für einen Windpark). Eine weitere Form der Unterstützung ist die Mitarbeit an der lokalspezifischen Ausgestaltung einer Maßnahme, z. B. bei der Planung neuer Fuß- und Radwege im Quartier. Darüber hinaus kann sich aktives Engagement auch in Form einer aktiven Beteiligung an der Umsetzung einer Maßnahme zeigen, z. B. bei sog. Citizen Science Programmen im Bereich der angewandten ökologischen Forschung.

Tatsächlich ist es zur Diskussion von Akzeptanzfragen angebracht, Technik in Kategorien wie den folgenden zu differenzieren (vgl. acatech 2011, S. 11 f., daraus im Folgenden zitiert):
  • Produkt- und Alltagstechnik: Hier „gibt es in Deutschland keine Akzeptanzkrise. Es gibt kaum ein Land, das so üppig mit technischen Geräten im Haushalt ausgestattet ist wie die Bundesrepublik Deutschland“.

  • Technik am Arbeitsplatz: „Akzeptanz bedeutet in diesem Kontext nicht den Kauf, sondern vielmehr die aktive und dabei zwanglose Nutzung der Technik durch die Beschäftigten in einem Unternehmen.“

  • Externe Technik: Hier geht es um „Technik als ‚Nachbar‘: Darunter fallen das Chemiewerk, die Müllverbrennungsanlage, das Kernkraftwerk, die Mobilfunkantenne, der Flughafen und das Gentechniklabor.“ Ambivalente bis skeptische Haltungen bzw. Misstrauen entwickeln sich dabei insbesondere gegenüber „Technologien mit besonderem Gefährdungspotenzial oder einem ideellen Bezug zur Veränderung natürlicher Lebensbedingungen“ (z. B. Grüne Gentechnik), wogegen anders geurteilt wird, wenn der „konkrete Mehrwert für den Einzelnen bzw. die individuelle Risiko-Nutzen-Abwägung der Bürger“ greifbar ist.

Darüber hinaus variieren die Einstellungen hinsichtlich verschiedener Anwendungsfelder einzelner Technologien. Für die Beurteilung und Akzeptanz einzelner Techniken stellen sich zwei psychologische Faktoren als besonders wichtig heraus: Ein Nutzen für den Einzelnen führt zu einer positiveren Beurteilung, ebenso eine Einschätzung, dass auftretende Risiken individuell oder kollektiv gut beherrscht sind. Großtechnologien, denen einerseits ein Gefährdungspotenzial für den Einzelnen – und zwar ohne großen eigenen Handlungsspielraum – beigemessen wird und andererseits allenfalls ein abstrakter Nutzen, schneiden deshalb eher schlecht ab (siehe auch acatech 2011, S. 18). Je nach Technik und Anwendungsfeld werden bisweilen auch andere Kriterien relevant, wie z. B. Sozialverträglichkeit, Umweltverträglichkeit, ethische Unbedenklichkeit oder die politische Legitimierung im Sinne einer rechtzeitigen und direkten Bürgerbeteiligung.

Zusammenfassend lassen sich vier Bedingungen der Akzeptanz benennen, die hier zu berücksichtigen sind:
  • Orientierung und Einsicht: Liegt eine Einsicht in die Sinnhaftigkeit des jeweiligen Technikeinsatzes vor und steht man hinter den mit diesem Einsatz angestrebten Zielen und Mitteln, dann ist eher mit Akzeptanz zu rechen.

  • Selbstwirksamkeit: Hat man den Eindruck, dass die eigenen Handlungsmöglichkeiten durch die Technikanwendung eingeschränkt werden, ist bei den meisten Bürgerinnen und Bürgern Skepsis angesagt. Zu den Errungenschaften der pluralen Gesellschaftsformation gehört die Schaffung und der Erhalt von Freiheitsräumen, in denen man souverän agieren darf, so lange man niemand anderen an seiner oder ihrer Entfaltung störe.

  • Positive Nutzen-Risiko-Bilanz: Akzeptanz ist umso eher zu erwarten, je mehr die geplanten Konsequenzen des geplanten Technikeinsatzes einem selbst oder den Gruppen und Individuen zugutekommen, die man besonders schätzt. Ohne Informationen über den Nutzen kann man auch schwer die Wünschbarkeit der zur Entscheidung stehenden Optionen beurteilen (acatech 2011). Zur Erfahrung eines Nutzens für einen selbst bzw. andere, die man wertschätzt, gehört auch die Wahrnehmung eines geringen oder zumindest akzeptablen Risikos. Dabei sind die Risikoabschätzungen vieler Experten und die Risikowahrnehmungen der Laien oft wenig kongruent.

  • Identität: Je mehr man sich mit einer Technikanwendung auch emotional identifizieren kann, desto größer ist die Akzeptanzbereitschaft. Im Rahmen von technologiepolitischen Entscheidungen, vor allem im Bereich Infrastruktur und Siedlungsplanung, sind also die Informationen von Bedeutung, die den Anwohnern helfen, den Stellenwert der Entscheidung für die weitere Entwicklung des eigenen Umfeldes zu erfassen und die Passgenauigkeit des geplanten Vorhabens in den vertrauten Lebenskontext zu beurteilen. Auf die Energiewende übertragen heißt das, dass die Maßnahmen zur Infrastruktur, etwa neue Überlandleitungen oder eine Windkraftanlagen, als Elemente des eigenen Lebensumfeldes auch emotional anerkannt werden müssen. Dies geschieht um so eher, je mehr diese Anlage von lokalen Genossenschaften, möglichst mit Eigentumsrechten der Anwohner betrieben wird.

Umfragen können messen, welche Technologie und Risiken für die Mehrheit der Bevölkerung akzeptabel sind oder wie differenziert das Meinungsbild einzelner Gruppen erscheint. Die Eurobarometer-Erhebungen zeigen seit vielen Jahren eine grundsätzlich positive und optimistische Einstellung der Europäer zu Wissenschaft und Technik. Die Deutschen sind jedoch skeptisch, wenn es darum geht, mit Technik für eine bessere Zukunft zu sorgen: Nur ein Viertel (24,6 %) ist der Ansicht, dass Technik mehr Probleme löst, als sie schafft. Und dass Technik bei zentralen Herausforderungen der Menschheit wie Hunger, Armut und Klimawandel helfen wird, erwartet nur ein Drittel (32,9 %) (acatech, Körber-Stiftung 2018, S. 15), vgl. Abb. 2.
Abb. 2

Technik als Problemlöser? Die Deutschen sind skeptisch. (Quelle: TechnikRadar 2018 (acatech, Körber-Stiftung 2018))

In einer Zusammenschau der Ergebnisse der empirischen Akzeptanzforschung lässt sich feststellen (vgl. acatech 2011, S. 13 f.; acatech, Körber-Stiftung 2018, S. 81), dass es keine generelle Technikfeindlichkeit in Deutschland gibt. Akzeptanzprobleme treten allerdings im Zusammenhang mit externen Techniken auf (Energie, Mobilität, Abfall, Gentechnik). Die generelle Einstellung der Bevölkerung zur Technik ist durch Ambivalenz geprägt und dabei weitgehend auf reale oder vermutete Umweltprobleme bezogen, bei einzelnen Techniken auch auf Gesundheitsauswirkungen und den Schutz der Privatsphäre. Bei der Ambivalenz in der Bewertung der Technik handelt es sich im Übrigen um ein internationales Phänomen, das auch vermeintlich „technikfreundliche“ Nationen wie USA oder Japan betrifft.

5 Risikokommunikation und -bewertung

Die beiden konstitutiven Merkmale von Risiko sind die erwarteten Konsequenzen einer Handlung oder eines Ereignisses und die Unsicherheit ihres Eintreffens. Inwieweit diese Konsequenzen positiv oder negativ beurteilt werden, ist dabei eine Frage der subjektiven Bewertung. Aus diesem Grunde haben eine Reihe von Ökonomen und Soziologen vorgeschlagen, Risiken neutral als Möglichkeit von ungewissen Folgen eines Ereignisses oder einer Handlung zu definieren, ohne Bezug darauf, ob die Konsequenzen positiv oder negativ zu beurteilen sind (IRGC 2016, S. 2). Ein engerer Risikobegriff wiederum beschränkt sich auf ungewisse Konsequenzen von Ereignissen oder Handlungen, die direkt oder indirekt zu Beeinträchtigungen von Sicherheit, Lebens- und Gesundheitsrisiken sowie Beeinträchtigungen der natürlichen Umwelt beitragen. Allerdings können diese Konsequenzen wiederum Auslöser für weitere wirtschaftliche, soziale, politische und psychische Risiken werden, die die OECD als „systemische“ Risiken bezeichnet (OECD 2003).

Risiko erweist sich in den verschiedenen Disziplinen als ein ausgesprochen vielfältiger Begriff. Die Berechnung von Risiken als Funktion von Eintrittswahrscheinlichkeiten bzw. relativen Häufigkeiten und dem dazu korrespondierenden Schadensumfang gehört ohne Zweifel in die Domäne der Naturwissenschaften, Medizin und angewandten Mathematik sowie deren Anwendung in Sicherheitstechnik und Versicherungswesen. Die Reaktionen der Menschen auf riskante Situationen sind wiederum zentraler Untersuchungsgegenstand der Psychologie, Anthropologie und der Sozialwissenschaften. Wie Organisationen, Steuerungssysteme und ganze Gesellschaften Risiken regeln und institutionelle Verfahren der Regulierung ausbilden, wird von den Disziplinen der Politikwissenschaft, der Rechtskunde und der Soziologie näher analysiert. Um zu entscheiden, welche Maßnahmen zur Risikoreduktion angebracht und effizient sind, geben die Wirtschaftswissenschaften normative Anleitung. Die Umsetzung der Maßnahmen in aktive Sicherheitssysteme setzt wiederum Kenntnisse der Ingenieurwissenschaften, der Ergonomie und der Organisationslehre voraus.

5.1 Risiken aus technisch-naturwissenschaftlicher und psychologischer Sicht

Im Folgenden werden zum einen die Grundlagen der naturwissenschaftlich-technischen Risikoanalyse beschrieben, zum anderen sozialwissenschaftliche und psychologische Ansätze zur Risikowahrnehmung (Aven und Renn 2010: 21 ff.) erläutert. Aus der Gegenüberstellung dieser Ansätze wird das Konfliktpotenzial deutlich, das sich ergeben kann, wenn Risiken gesamtgesellschaftlich reguliert werden sollen – und auch für die Vermittlung von basalem Wissen über Risiko weist diese Gegenüberstellung auf eine Herausforderung hin, die später noch ausführlicher behandelt wird. Die Perspektive der technischen Risikoexperten ist dabei nur eine, wenn auch gut begründete Form, wie Menschen unsichere Ereignisse und Folgen von Ereignissen antizipieren und bewerten.

Ein prominenter Ansatz zur Analyse der Mechanismen der Risikowahrnehmung ist das psychometrische Paradigma. Kennzeichnend für diesen Ansatz ist die Verbindung von technisch-physischen Aspekten von Risiko mit sozial-psychologischen Aspekten. Besonders wichtig für die Beurteilung von Risiken sind Eigenschaften von Risiken wie Natürlichkeit, maximales Katastrophenpotenzial oder Plausibilität der Eintrittswahrscheinlichkeit eines Schadens. Dazu kommen Merkmale der riskanten Situation wie Freiwilligkeit, persönliche Kontrolle über das Ausmaß der Risiken oder Gewöhnung an Risiken. Diese Aspekte werden alle unter dem Begriff der qualitativen Risikomerkmale zusammengefasst (Renn 2008, S. 109). Sie haben oft größeren Einfluss auf die wahrgenommene Höhe des Risikos als das Produkt von Eintrittswahrscheinlichkeit und Schadensausmaß. Damit erklärt sich auch ein Großteil der Diskrepanz zwischen der Experteneinschätzung eines Risikos und der Bewertung durch Laien.

5.2 Grundlagen der Risikobewertung

Risikobewertung ist in der Moderne weniger ein Produkt von individueller Erfahrung und persönlicher Evidenz, sondern ein Resultat von sozialer Kommunikation. Beispielsweise können Lebensmittelzusätze in unserer Nahrung nicht mit den natürlichen Sinnen erfasst und erfahren werden, sondern die Existenz von Zusätzen in unserer Nahrung muss durch Kommunikation vermittelt werden. Dabei spielen die Medien als Informationstransmitter eine prominente Rolle. Gleichzeitig werden aber in heutigen Gesellschaften sehr viel mehr Informationen bereitgestellt und übermittelt, als vom Einzelnen verarbeitet werden können. Die Herausforderung besteht heute also weniger in der Aufnahme, als in der Selektion von Informationen. Dabei kommen uns einige kognitionspsychologische Prozesse zur Hilfe (siehe Kasten).

Eigenschaften von Risiken

So werden von Akteuren oft semantische Bilder verwendet, um Risiken zu klassifizieren. Diese Bilder reduzieren die Komplexität des Gegenstandes zu Gunsten einer Einschätzung des Risikos aufgrund einiger herausgehobener Eigenschaften (Renn 2008, S. 110 ff.). Folgende semantische Muster sind für die Risikowahrnehmung und -bewertung von besonderer Bedeutung:
  • Risiko als Bedrohung: Die Vorstellung, das Ereignis könne zu jedem beliebigen Zeitpunkt die entsprechende Bevölkerung treffen, erzeugt das Gefühl von Bedrohung und Machtlosigkeit. Das Ausmaß des wahrgenommenen Risikos ist hier eine Funktion von drei Faktoren: Der Zufälligkeit des Ereignisses, des erwarteten maximalen Schadensausmaßes und der Zeitspanne zur Schadensabwehr. Ein prominentes Beispiel ist hier die Kernenergie, auf die diese drei Merkmale in besonderem Maße im Falle eines schweren Unfalls zutreffen.

  • Risiko als Schicksalsschlag: Natürliche Katastrophen werden meist als unabwendbare Ereignisse angesehen, die zwar verheerende Auswirkungen nach sich ziehen, die aber als „Launen der Natur“ oder als „Ratschluss Gottes“ (in vielen Fällen auch als mythologische Strafe Gottes für kollektiv sündiges Verhalten) angesehen werden und damit dem menschlichen Zugriff entzogen sind.

  • Risiko als Herausforderung der eigenen Kräfte: In diesem Risikoverständnis gehen Menschen Risiken ein, um ihre eigenen Kräfte herauszufordern und den Triumph eines gewonnenen Kampfes gegen Naturkräfte oder andere Risikofaktoren auszukosten. Sich über Natur oder Mitkonkurrenten hinwegzusetzen und durch eigenes Verhalten selbst geschaffene Gefahrenlagen zu meistern, ist der wesentliche Ansporn zum Mitmachen.

  • Risiko als Glücksspiel: Wird das Zufallsprinzip als Bestandteil des Risikos anerkannt, dann ist die Wahrnehmung von stochastischer Verteilung von Auszahlungen dem technisch-wissenschaftlichen Risikokonzept am nächsten. Nur wird dieses Konzept bei der Wahrnehmung und Bewertung technischer Risiken so gut wie nie angewandt.

  • Risiko als Frühindikator für Gefahren: Nach diesem Risikoverständnis helfen wissenschaftliche Studien, schleichende Gefahren frühzeitig zu entdecken und Kausalbeziehungen zwischen Aktivitäten bzw. Ereignissen und deren latenten Wirkungen aufzudecken. Beispiele für diese Verwendung des Risikobegriffs findet man bei der kognitiven Bewältigung von geringen Strahlendosen, Lebensmittelzusätzen, chemischen Pflanzenschutzmitteln oder genetischen Manipulationen von Pflanzen und Tieren.

Im folgenden Abschnitt wird dargelegt, wie unterschiedliche Wahrnehmungsprozesse die Kommunikation beeinflussen bzw. beeinflussen sollten. Es gibt beim Umgang mit vielfältigen Risiken in einer pluralistischen Gesellschaft mit unterschiedlichen Wahrnehmungen nicht den einen Königsweg der Kommunikation – dies ist auch der Grund, warum die meisten PR-Konzepte in diesen Situationen scheitern. Kommunikation muss geplant und vorbereitet sein, um dann im Krisenfall gezielt eingesetzt zu werden, um gezielt alle Adressaten für eine bestimmte Krise zu erreichen. Auch hier zeigen sich die Anforderungen an die bestehenden Bildungsangebote augenscheinlich: Es kann nicht das Ziel sein, alle Risikomanager zu Kommunikationsexperten auszubilden. Vielmehr sollte es das Ziel sein, alle Risikomanager dafür zu sensibilisieren, dass Kommunikation von dafür ausgebildeten Kommunikationsexperten geleistet werden muss.

5.3 Funktionen und Formen der Risikokommunikation

Risikokommunikation kann definiert werden als Austausch von Informationen und Meinungen zwischen Individuen, Gruppen und Institutionen. Die Kommunikation betrifft Informationen zu den Risiken selbst, aber auch zu Meinungen, Bedenken oder Reaktionen mit Bezug auf Risiken, zu rechtlichen Aspekten und institutionellen Arrangements. Wenn man nun davon ausgeht, dass Risikokommunikation den Zweck hat, Informationen zu übermitteln, dann muss man sich genauer ansehen, welche Intentionen und Ziele mit einer solchen Risikokommunikation verbunden sind. Es können, basierend auf den jeweiligen Zielen einer kommunizierenden Institution, insbesondere vier unterschiedliche Ziele gefunden werden (Renn 2008):
  1. 1.

    Aufklärung: Ziel hierbei ist es, dass die Empfänger der Botschaft den Inhalt der Botschaft verstehen und somit ihr Wissen über ein bestimmtes Risiko erweitern;

     
  2. 2.

    Vertrauensbildung: Ziel hierbei ist es, das Vertrauen des Empfängers in den Sender (und somit meist in das Risikomanagement) zu schaffen bzw. zu erhöhen (siehe hierzu auch den nächsten Abschnitt);

     
  3. 3.

    Verhaltensänderung: Ziel hierbei ist es, die Rezipienten von Verhaltensänderungen zu überzeugen bzw. diese zu initiieren. Zum Beispiel: Absage an gesundheitsschädliches Verhalten (z. B. Rauchen), Aufforderung, in einem bestimmten Fall ein Gebiet zu verlassen.

     
  4. 4.

    Konfliktlösung: Ziel hierbei ist es, die kommunikativen Bedingungen für den Einbezug von relevanten Stakeholdern sowie unter bestimmten Umständen auch der Öffentlichkeit zu schaffen. Konfliktlösung bezieht sich dabei einerseits auf bereits aufgetretene Konflikte, die es zu lösen gilt. Andererseits geht es aber auch darum, zukünftige mögliche Konflikte bereits zu bearbeiten. Dieser Gedanke wird im Konzept der Resilienz später wieder aufgenommen.

     
Innerhalb dieser Zielkategorien von Risikokommunikation können verschiedene Formen der Risikokommunikation eingesetzt werden. Diese unterscheiden sich in der Tiefe und der Reziprozität der Kommunikation (Renn 2008):
  • Dokumentationen: Die Dokumentation dient in erster Linie der Herstellung von Transparenz, d. h. es geht vor allem darum zu zeigen, dass der Öffentlichkeit keine Informationen vorenthalten werden. Inwiefern die veröffentlichten Informationen von der gesamten Öffentlichkeit direkt verstanden werden, ist dabei nur die zweite Priorität.

  • Information: Im Gegensatz zur Dokumentation geht es bei der Information nicht nur darum, relevante Informationen bereitzustellen, sondern auch darum, dass die Öffentlichkeit in die Lage versetzt wird, diese Informationen verstehen zu können.

  • Dialog: Ein Dialog bezieht sich immer auf einen gegenseitigen Austausch, also eine zwei-Wege-Kommunikation bzw. ein zwei-Wege-Lernen. Der Dialog wird durch den Austausch von Argumenten, Erfahrungen, Impressionen oder auch Urteilen gekennzeichnet.

  • Partizipation/gemeinsame Entscheidungsfindung: Vermehrt möchte die Öffentlichkeit in pluralistischen Gesellschaften in die konkrete Entscheidungsfindung und -gestaltung einbezogen werden, zumindest wenn die Entscheidung sie persönlich betrifft. Eine persönliche Betroffenheit kann dabei sein, dass negative Folgen einer Entscheidung auf einzelnen Akteuren lasten, z. B. eine erhöhte Umweltbelastung in einer bestimmten Region durch eine Entscheidung zur Industrieansiedlung. Genauso kommt es jedoch vor, dass die persönliche Betroffenheit durch die Verletzung von bestimmten Werten oder Wertvorstellungen empfunden wird, auch ohne dass ein materieller Schaden für den Einzelnen eintritt. Durch die Einbeziehung der objektiv oder subjektiv Betroffenen können mögliche Konflikte frühzeitig behandelt und gelöst werden. Zudem kann die Entscheidungsumsetzung durch den Einbezug von Alltags- und Erfahrungswissen verbessert werden.

Um die unterschiedlichen Bedürfnisse der vielfältigen gesellschaftlichen Akteure mit einer effektiven Risikokommunikation zu begleiten, müssen alle vier Kommunikationsarten parallel zueinander verfolgt werden. Dabei können die Kommunikationsarten auch den Kommunikationszwecken zugeordnet werden: Information und Dialog eignen sich gut für das Ziel der Aufklärung, zur Vertrauensbildung eigenen sich die Dokumentation und der Dialog sowie, sofern Konflikte virulent sind, die Partizipation, für die Risikoreduzierung wiederum eignen sich Dialog und Information, und die Partizipation für die Konfliktlösung.

5.4 Bildung von Vertrauen

Vertrauen ist im Zusammenhang mit der Risikokommunikation eine entscheidende Variable. Insbesondere, da die meisten Risiken heute nicht mit den eigenen Sinnen wahrgenommen werden können, müssen die Rezipienten denjenigen, die über diese Risiken kommunizieren, vertrauen. Auch die Kontrolle über Risiken muss in den meisten Fällen abgegeben werden an Dritte, und auch hier spielt Vertrauen in deren Funktionserfüllung eine tragende Rolle. Anstelle der eigenen direkten Erfahrung mit einem Risiko tritt die Kommunikation mit Risikoexpertinnen und -experten, die quasi zu Sensoren für Gefährdungen werden. Wenn sie diese Rolle als Frühwarnsystem einnehmen, müssen sie vertrauenswürdig sein. Vertrauen und die Glaubwürdigkeit von Risikokommunikation bzw. ihrer Akteure spielt also eine herausragende Rolle. Das Vertrauen in die Akteure des Risikomanagements kann in vielen Fällen sogar eine negative Risikowahrnehmung ausgleichen. Dies bedeutet aber auch im Umkehrschluss, dass Misstrauen in die Akteure erhebliche negative Folgen für den individuellen Umgang bzw. für die individuellen Verhaltensintentionen haben kann. Institutionelles Vertrauen ist dabei ein generalisiertes Urteil, ob die wahrgenommene Leistung (Performanz) einer Institution den subjektiven bzw. gesellschaftlichen Erwartungen von unterschiedlichen Akteuren entspricht; dazu gehören die wahrgenommene Kompetenz, die Art der Kommunikation mit Stakeholdern, den Medien, der Öffentlichkeit und Experten (vgl. Renn 2008, S. 223).

Die Dimensionen von Vertrauen wurden in einer Vielzahl von Studien empirisch und theoretisch analysiert. In einer systematischen Zusammenstellung der in der Literatur vorgeschlagenen Dimensionen haben Renn und Levine (1991) sechs Dimensionen extrahiert, Renn hat dem noch eine siebte Dimension hinzugefügt (Renn 2008), vgl. Tab. 1.
Tab. 1

Komponenten des Vertrauens (Renn 2008)

Komponente

Beschreibung

Wahrgenommene Kompetenz

Ausmaß der technischen Expertise im Bezug zum institutionellen Mandat

Objektivität

Keine wahrgenommenen einseitigen Informationen oder einseitige Performanz

Fairness

Anerkennung und angemessene Repräsentation aller relevanten Standpunkte

Konsistenz

Vorhersagbarkeit der Argumente sowie des Verhaltens basierend auf Erfahrungen in der Vergangenheit bzw. voriger Kommunikation

Aufrichtigkeit

Ehrlichkeit und Offenheit, Transparenz

Empathie

Verständnis und Solidarität mit potenziell vom Risiko Betroffenen

Integrität

Wahrnehmung des „guten Willens“ hinsichtlich der Performanz und der Kommunikation

Obgleich Vertrauen auf allen sieben Komponenten beruht, kann ein Mangel in einer Dimension in bestimmten Fällen durch eine andere Dimension ausgeglichen werden. Ein Mangel an wahrgenommener Kompetenz kann z. B. durch die Anerkenntnis des guten Willens kompensiert werden. Konsistenz ist nicht notwendigerweise eine Komponente von Vertrauen die immer vorhanden sein muss, jedoch ist eine wiederholte mangelnde Konsistenz in der Kommunikation dem Vertrauen abträglich. Wenn eine Organisation eine hohe wahrgenommene Kompetenz innehat, ist Empathie für das Vertrauen weniger wichtig; wenn die Kompetenz jedoch als nur gering eingeschätzt wird, kann die wahrgenommen Empathie den entscheidenden Unterschied für das Vertrauen ausmachen.

Wenn sich die Botschaftsempfänger mit dem Kommunikator identifizieren können sowie seine Erfahrungen oder Überzeugungen teilen, desto stärker kann auch Vertrauen in ihn entwickelt werden. Dabei ist es wichtig, dass der Kommunikator nicht die Rolle eines anonymen Sprechers annimmt, sondern dass er – besonders im Krisenfall – Mitgefühl und Empathie ausdrücken kann. Bevor die Rezipienten in einer Krisensituation wissen wollen, was der Sprecher über die Krise weiß, wollen sie wissen, ob er ihre Angst versteht. Ein distanzierter Sprecher kann inhaltlich korrekte und hilfreiche Informationen geben, allerdings wird das Vertrauen in diese Informationen gering sein. Dieser Zusammenhang zwischen gezeigter Empathie und Vertrauen in die Informationen ist insbesondere dann wichtig, wenn die Rezipienten dazu motiviert werden sollen, eine bestimmte Handlung zu tun oder zu unterlassen (z. B. eine bestimmte Gegend im Katastrophenfall zu verlassen).

5.5 Risiko in gesellschaftlicher Perspektive: Integrative Risikogovernance

Risiken stellen Gesellschaften vor Konfliktsituationen. Meistens geht es dabei um drei Konflikttypen:
  • Epistemischer Konflikt: Wie hoch ist das Risiko und welche Maßnahmen wären erfolgversprechend, um dieses Risiko zu verringern?

  • Distributiver Konflikt: Welche Verteilungswirkungen gehen von dem Risiko aus? Wer hat den Nutzen und wer trägt die Risiken? Sind Dritte betroffen? Können diejenigen, die den Nutzen haben, diejenigen, die das Risiko tragen, angemessen kompensieren? Lässt sich das Risiko versichern?

  • Normativer Konflikt: Ist das Risiko gesellschaftlich akzeptabel? Wie sicher ist sicher genug? Wer darf das bestimmen? Wie können wir hier zu einer kollektiv verbindlichen Entscheidung kommen?

In pluralistischen Gesellschaften gibt es auf diese Fragen nicht eine, sondern viele Antworten, und alle Antworten beanspruchen für sich, Richtschnur für alle zu sein. So kommt es zu Konflikten, die sich in der Regel nicht von alleine auflösen, sondern eine explizite Behandlung erfordern.

Um diese Herausforderungen in ihrer Komplexität und Vielschichtigkeit zu bewältigen, braucht es einen umfassenden Ansatz. Dieser muss einen Spagat leisten: Einerseits müssen alle notwendigen Wissensgrundlagen und gesellschaftlichen Erfordernisse einbezogen werden, andererseits muss ein solcher Ansatz gleichzeitig praktikabel, politisch umsetzbar und sozial akzeptabel sein.

Der International Risk Governance Council (IRGC) hat 2005 ein Modell entwickelt, das einen integrativen Ansatz bei der Regulierung von Risiken aufzeigen will (IRGC 2005). Der IRGC-Ansatz beschreitet einen strukturierten Weg, wie die generischen Elemente Risikoabschätzung (risk assessment), Risikomanagement und Risikokommunikation mit der gleichen Bedeutung behandelt werden können, wie die Analyse gesellschaftlicher Bedenken und die Laienrisikowahrnehmung. Die Integration des gesellschaftlichen Kontextes betrifft aber nicht nur unterschiedliche Risikowahrnehmungen in unterschiedlichen Gruppen. Zusätzlich muss der gesamtgesellschaftliche, politische und regulatorische Rahmen in einen integrativen Prozess der Risiko Governance einbezogen werden. Diese Integration von technischen und gesellschaftlichen Perspektiven auf das Risiko hat das Potenzial, gesellschaftliche Konflikte durch Transparenz und Offenheit sowie durch eine partizipative Teilhabe der Betroffenen zu bewältigen, vgl. Abb. 3.
Abb. 3

Vier Phasen der Risk Governance -und die Kommunikation mit allen Stakeholdern als zentrale Querdimension (nach IRGC 2005)

Das Wissen über ein Risiko systematisch zu kategorisieren, ist ein zentraler Baustein des IRGC-Ansatzes (Renn et al. 2011). Sofern die kausalen Zusammenhänge zwischen Ursache und Wirkung eines Risikos eindeutig und unbestritten sind, spricht man von einem simplen Risiko. Ein Beispiel hierfür ist der Zusammenhang zwischen Zigarettenkonsum und einer erhöhten Krebsgefahr. Oftmals hat man es bei der Risikoabschätzung jedoch auch mit einer sehr komplexen Ursache-Wirkungskette zu tun. Der Zusammenbruch der Finanzmärkte beispielsweise zeigt sich als komplexes Zusammenspiel verschiedener materieller und psychologischer Faktoren. Diese sind aufgrund von intervenierenden Variablen schwer zu modellieren. In der Klassifikation des IRGC werden diese Risiken als ‚komplexe Risiken‘ gekennzeichnet (IRGC 2005). In anderen Fällen, beispielsweise bei den Auswirkungen der Nanotechnologie, zeigt sich zusätzlich das Problem, dass man manche Auswirkungen (noch) nicht kennt, sondern nur ahnen kann – man weiß nicht, was man nicht weiß. Nichtwissen bezieht sich jedoch auch auf die Möglichkeit von zufälligen Ereignissen oder Messfehlern im Zusammenhang mit einem bestimmten Risiko. Diese Risiken sind nach der IRGC-Klassifikation somit als unsichere Risiken zu bezeichnen (IRGC 2005). Als dritte Kategorie werden Risiken angesprochen, die durch Ambiguität gekennzeichnet sind. Hier treten die im vorigen Kapitel angesprochenen Differenzen zwischen unterschiedlichen Wertsystemen und Überzeugungen zu Tage. Ob man beispielsweise therapeutisches Klonen akzeptabel findet, ist weniger von den vermuteten Nebenwirkungen abhängig als von der grundlegenden Wertentscheidung, ob Embryonen ein eigenes Existenzrecht unabhängig von ihrem instrumentellen Nutzen zugesprochen wird. Unabhängig vom tatsächlichen Risiko kann beispielsweise eine Technologie abgelehnt werden, wenn sie nicht mit ethischen oder weltanschaulichen Überzeugungen übereinstimmt.

5.6 Risikopartizipation: Drei Konfliktebenen bei systemischen Risiken

Obwohl die Debatte über systemische Risiken im Einzelnen eine Vielzahl von konkreten Risiken umfasst, stößt man in der Debatte um diese Risiken immer wieder auf drei besondere Eigenschaften. Sie sind erstens hochkomplex hinsichtlich der ihnen zu Grunde liegenden wissenschaftlichen Zusammenhänge. Zweitens ist die Datenbasis, die zur Erstellung einer kausalanalytischen Ursache-Wirkungskette führen könnte, unsicher oder es besteht Ungewissheit über Interdependenzeffekte. Drittens berühren systemische Risiken nicht nur naturwissenschaftliche Problemfelder, sondern werfen auch moralisch-ethische Fragestellungen auf. Sie führen also zu interpretativer und normativer Ambiguität.

Die Kombination und Vernetzung von Komplexität, Unsicherheit und Ambiguität – typische Merkmale von systemischen Risiken – erschweren ein effektives und faires Risikomanagement im Rahmen privatwirtschaftlicher Planung und staatlicher Regulierung durch demokratisch legitimierte Behörden. Zudem lässt sich Ambiguität nicht durch Sachwissen auflösen. Erstens erfährt ein wissenschaftlicher Sachverhalt erst durch seine gesellschaftliche Bedeutung die Aufwertung zum bearbeitungswürdigen „Problem“. Selbst ein strittiger Sachverhalt erhält somit nur qua normativer Evaluation seinen (politischen) Stellenwert. Zweitens müssen abstrakte wissenschaftliche Systematisierungen hinsichtlich ihrer konkreten Anwendbarkeit – vor Ort – spezifiziert werden. Drittens geraten selbst Experten bei hochkomplexen Problemstellungen an die Grenzen ihrer Disziplin und es verbleiben große Unsicherheitsspielräume, die nur wertend beurteilt werden können.

Es ist wichtig, dass Risikomanager und regulierende Behörden am Anfang des Risikokommunikationsprogramms eine Einschätzung über die zu erwartende Intensität nach den drei Kategorien Komplexität, Unsicherheit und Ambiguität vornehmen und dementsprechend die eigene Ressourcenplanung konzipierten. Gleichermaßen gilt diese Reihenfolge auch als Anzeiger für die zu erwartende Dauer des öffentlichen Dialogs, denn Risiken mit einem hohen Unsicherheitsfaktor und großen Potenzial an Kontroversen können nur dann zufriedenstellend bearbeitet werden, wenn die verantwortlichen Risikomanager und Regulatoren entschlossen sind, die Debatte so lange weiterzuführen, wie es den Bedürfnissen der Öffentlichkeit entspricht. Für die parallele Bewältigung aller drei Problemfelder ist in jedem Falle eine diskursgestützte Kooperation zwischen Experten, Interessengruppen und betroffenen Bürgerinnen und Bürgern unabdingbar.

6 Fazit

Technische Innovationen und neue Technikanwendungen können nur dann auf gesellschaftliche Akzeptanz stoßen, wenn gesellschaftliche Strukturen, Entscheidungsprozesse und Entwicklungen von Anfang an mitgedacht werden. Um diese gesellschaftlichen Wandlungsprozesse ausreichend zu berücksichtigen, bedarf es der frühzeitigen Kommunikation mit möglichen betroffenen Individuen und Gruppen und bei kontroversen Techniken mit systemischen Risiko- und Nutzenprofil der aktiven Einbindung der Bevölkerung bei der Diffusion der entsprechenden Techniken. Denn nur wenn Bürgerinnen und Bürger von Beginn an in Entscheidungsfindung und Planung einbezogen werden, kann es gelingen, den technischen Wandel als gesamtgesellschaftliche Aufgabe wahrzunehmen und erfolgreich umzusetzen.

Das gilt vor allem für noch unbekannte Technikfelder, die in der Bevölkerung noch wenig Resonanz besitzen – etwa die Nanotechnologie, die Synthetische Biologie oder auch die Künstliche Intelligenz. Dort ist die Nutzenerfahrung noch wenig ausgeprägt, während man sich die möglichen Risiken plastisch ausmalen kann. Dazu kommen noch Verteilungskonflikte. Wenn die überwiegende Mehrheit den Eindruck erhält, die neue Technologie begünstige nur einen Teil der Gesellschaft (etwa die Wohlhabenden oder die digital Gebildeten), während andere das Risiko zu tragen hätten, ist mit besonders hoher Skepsis zu rechnen. Wenn dazu noch das Gefühl kommt, dass mit der neuen Technologie die eigene Souveränität eingeengt würde oder man ihr emotional als Fremdkörper gegenübersteht, ist die Ablehnung fast schon vorprogrammiert. Um so wichtiger ist es deshalb, gleich von Anbeginn der Einführung Neuer Technologien ein intensives Kommunikations- und Beteiligungsprogramm mir den Betroffenen ins Leben zu rufen.

Von entscheidender Bedeutung ist dabei, die Akzeptanzkriterien der positiven Nutzen-Risiko-Bilanz einschließlich der mit der jeweiligen Technologie assoziierten Auswirkungen auf eine faire Verteilung von Belastungen und Nutzengewinnen, der Einsicht in die Sinnhaftigkeit der jeweiligen Technologie, den Zugewinn an Selbstwirksamkeit und der emotionalen Identifikationsmöglichkeit proaktiv zu beachten und sowohl in die Ausgestaltung der Technikdesigns wie auch in die Kommunikation über diese Maßnahmen zu beherzigen. Nur eine bewusste Hinwendung zu den Akzeptanzkriterien kann den technischen Wandel im Rahmen einer nachhaltigen und sozialverträglichen Entwicklung sicherstellen.

Literatur

  1. acatech (Hrsg) (2011) Akzeptanz von Technik und Infrastrukturen. acatech POSITION Nr. 9. Springer, HeidelbergGoogle Scholar
  2. acatech, Körber-Stiftung (Hrsg) (2018) TechnikRadar 2018. Was die Deutschen über Technik denken. München/HamburgGoogle Scholar
  3. Aven T, Renn O (2010) Risk management and governance. Concepts, guidelines and applications. Springer, HeidelbergGoogle Scholar
  4. Bromme R, Kienhues D (2014) Wissenschaftsverständnis und Wissenschaftskommunikation. In: Seidel T, Krapp A (Hrsg) Pädagogische Psychologie, 6. Aufl. Beltz, Weinheim, S 55–81Google Scholar
  5. Collingridge D (1982) The social control of technology. Pinter, LondonGoogle Scholar
  6. EC – European Commission (Hrsg) (2013) Responsible Research and Innovation (RRI), Science and Technology. Special Eurobarometer 401Google Scholar
  7. Felt U (2000) Why should the public „understand“ science? In: Dierkes M, von Grote C (Hrsg) Between understanding and trust. The public, science and technology. Harwoord Academic Publishers, Amsterdam, S 7–38Google Scholar
  8. Gaskell G et al (2010) Europeans and biotechnology in 2010: winds of change? A report to the European Commission’s Directorate-General for Research on the Eurobarometer 73.1 on Biotechnology. Europäische Kommission, BrüsselGoogle Scholar
  9. Grunwald A (2010) Technikfolgenabschätzung – Eine Einführung. Springer, BerlinCrossRefGoogle Scholar
  10. Grunwald A (2012) Technikzukünfte als Medium von Zukunftsdebatten, Karlsruher Studien Technik und Gesellschaft 6. Springer, BerlinGoogle Scholar
  11. IRGC, International Risk Governance Council (2005) White paper on risk governance. Towards an integrative approach. Author: O. Renn with Annexes by P. Graham. International Risk Governance Council, GenevaGoogle Scholar
  12. IRGC, International Risk Governance Council (2016) The IRGC Risk Governance framework in revision. IRGC, LausanneGoogle Scholar
  13. Joss S (2003) Zwischen Politikberatung und Öffentlichkeitsdiskurs – Erfahrungen mit Bürgerkonferenzen in Europa. In: Schicktanz S, Naumann J (Hrsg) Bürgerkonferenz Streitfall Gendiagnostik. Ein Modellprojekt der Bürgerbeteiligung am bioethischen Diskurs. Opladen, S. 15–35Google Scholar
  14. Kahan D et al (2011) Cultural cognition of scientific consensus. Journal of Risk Research 14:147–174CrossRefGoogle Scholar
  15. Könneker C (2012) Wissenschaft kommunizieren. Wiley-VCH, WeinheimGoogle Scholar
  16. Kronberger N, Holtz P, Wagner W (2012) Consequences of media information uptake and deliberation: focus groups’ symbolic coping with synthetic biology. Public Understanding of Science 21(2):174–187CrossRefGoogle Scholar
  17. Nowotny H, Scott P, Gibbons M (2001) Rethinking science. Knowledge in an age of uncertainty. Polity, CambridgeGoogle Scholar
  18. OECD (2003) Emerging systemic risks. Final report to the OECD futures project. OECD Press, ParisGoogle Scholar
  19. Renn O (2008) Risk Governance: coping with Uncertainty in a complex world. Earthscan, LondonCrossRefGoogle Scholar
  20. Renn O (2013) Bürgerbeteiligung bei öffentlichen Vorhaben. Aktueller Forschungsstand und Folgerungen für die praktische Umsetzung. UVP-Report 27(1,2):38–44Google Scholar
  21. Renn O, Levine D (1991) Trust and credibility in risk communication. In: Kasperson, Roger E, Stallen Pieter J (eds) Communicating Risk to the Public, pp. 51–81. Dodrecht: KluwerGoogle Scholar
  22. Renn O et al (2011) Coping with complexity, uncertainty and ambiguity in risk governance: a synthesis. AMBIO 40(2):231–246CrossRefGoogle Scholar
  23. Royal Society (1985) The public understanding of science. Report of a royal society ad hoc group. Royal Society, LondonGoogle Scholar
  24. Schneider W (2001) Deutsch für Profis: Wege zu gutem Stil. Goldmann, MünchenGoogle Scholar
  25. Schulz von Thun F (1981) Miteinander reden 1: Störungen und Klärungen. Rowohlt, ReinbekGoogle Scholar
  26. Weitze MD, Heckl WM (2016) Wissenschaftskommunikation: Schlüsselideen, Akteure, Fallbeispiele. Springer Spektrum, Berlin/HeidelbergCrossRefGoogle Scholar
  27. Wissenschaft im Dialog (Hrsg) (2011) Abschlussbericht Forschungsprojekt „Wissenschaft debattieren!“. BerlinGoogle Scholar
  28. Wissenschaft im Dialog (Hrsg) (2018) Wissenschaftsbarometer 2018. Berlin. https://www.wissenschaft-im-dialog.de/projekte/wissenschaftsbarometer/wissenschaftsbarometer-2018/

Copyright information

© Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2019

Authors and Affiliations

  1. 1.Institute for Advanced Sustainability Studies e.V.PotsdamDeutschland
  2. 2.acatechMünchenDeutschland

Section editors and affiliations

  • Manfred Hennecke
    • 1
  1. 1.Bundesanstalt für Materialforschung und -prüfung (im Ruhestand)BerlinDeutschland

Personalised recommendations