Einführung

In der Alltagssprache versteht man unter einer Krise zumeist ein seltenes Ereignis. Es reicht beispielhaft von einer Naturkatastrophe über einen Börsenkrach bis hin zum Ausbruch eines Krieges. Obschon Krisen plötzlich aufzutreten scheinen, bahnen sich Krisen zumeist über einen längeren Zeitraum an. Demzufolge stammt die Überraschung einer Krise hauptsächlich daher, dass Frühindikatoren nicht beachtet bzw. falsch gedeutet wurden. In der empirischen Krisenfrüherkennung geht es darum, Frühindikatoren zu identifizieren, die in einen kausalen Zusammenhang mit einer Krise gebracht werden können, also Faktoren zu identifizieren, die einer Krise vorausgehen [1]. Der vorliegende Beitrag lehnt sich exemplarisch an die Vorhersage von gewaltsamen Konflikten an. Diese Art von Krise unterscheidet sich von der klassischen Vorhersage von Naturkatastrophen, da nicht direkt messbare sozialwissenschaftliche Erklärungen im Mittelpunkt stehen [2]. Darüber hinaus kann es aber eine starke Wechselwirkung zwischen sozialen und natürlichen Krisen geben. Ein Beispiel dafür ist der Klimawandel. Es ist davon auszugehen, dass der Klimawandel zu noch mehr und noch stärkeren Naturkatastrophen führen wird. Zudem werden große Landstriche durch Austrocknung oder Überschwemmungen unbewohnbar werden. Dies kann wiederum zu verschiedenen sozialen Verwerfungen führen, wie zum Beispiel der Zunahme von Flüchtlingsbewegungen, die dann langfristig gewaltsame Konflikte verursachen können [3]. Dieses Beispiel zeigt die Notwendigkeit, dass Natur- und Sozialwissenschaften zur Problemlösung verknüpft werden müssen. Selbst wenn das Eintreten einer Krise häufig nicht verhindert werden kann, lassen sich zumindest negative Auswirkungen abmildern [4]. Die frühzeitige Antizipation einer Krise erhöht hierzu den Handlungsspielraum. Je früher kritische Entwicklungen abgesehen werden können, desto früher können Entscheidungsträger auf eine sich abzeichnende Krise reagieren [1]. Die Informatik attestiert, die nötigen Informationen zu gewinnen und aufzubereiten. Damit hat sie einen entscheidenden Anteil daran, Entscheidungswissen für eine Krisenfrüherkennung zu generieren.

Die heute zu beobachtende Digitalisierung geht mit einer immer größeren Datenmenge einher. Zum einen stammen diese aus Quellen, die früher so nicht vorhanden waren, wie den Social Media, oder es handelt sich um Daten, die heute in wesentlich größerem Umfang vorhanden und zudem leichter zugänglich sind, wie etwa Satellitenbilder. Diese sogenannten Big Data bringen neue Möglichkeiten, aber auch neue Herausforderungen mit sich [5]. Mehr Daten bedeuten dabei nicht zwangsläufig, auch bessere Entscheidungen treffen zu können. Dies gilt insbesondere vor dem Hintergrund einer empirischen Krisenfrüherkennung. Dabei spielt die IT-Unterstützung im Analyseprozess eine entscheidende Rolle, die den Menschen aber nicht ersetzen soll und kann [6]. Die Informatik hilft bei der Sammlung von Daten, aber auch bei deren Verarbeitung durch künstliche Intelligenz sowie der grafischen Darstellung von Zusammenhängen. Zur Datenerfassung gehört auch die Frage, wie Daten aus verschiedenen Datenquellen in einer Art und Form zusammengeführt werden können, die eine sinnvolle Datenanalyse erst ermöglicht. Um die Rolle der Informatik bei der Krisenfrüherkennung zu verdeutlichen, dient der Intelligence-Zyklus, wie er von Nachrichtendiensten verwendet wird, als Orientierung (siehe Abb. 1).

Abb. 1
figure 1

Der Intelligence-Zyklus

Damit der Intelligence-Zyklus sinnvoll angewendet werden kann, braucht es eine enge Verzahnung mit IT-Systemen [7]. Der Zyklus verdeutlicht darüber hinaus, auf welche Weise IT-Systeme bei den Phasen der Krisenfrüherkennung unterstützen können. Gegenüber der zyklischen Darstellung des Intelligence-Zyklus gibt es mitunter Kritik. Diese besteht darin, dass der Prozess der Informationsverarbeitung zu stark vereinfacht sowie die Wechselwirkungen der unterschiedlichen Prozessschritte nicht abgebildet werden [8, 9]. Aus Gründen der Einfachheit verwenden wir den Intelligence-Zyklus dennoch in seiner grundlegendsten Form.

Der Beitrag ist wie folgt gegliedert. Im folgenden Abschnitt erläutern wir zunächst die aktuellen Herangehensweisen und Herausforderungen bei der Krisenfrüherkennung. Anschließend zeigen wir basierend auf dem Intelligence-Zyklus, welche Rolle die Informatik in der jeweiligen Phase einnimmt. Im abschließenden Abschnitt fassen wir die Erkenntnisse des Beitrags in einem Fazit zusammen.

Krisenfrüherkennung

Das wohl erste erwähnte System zur Vorhersage unheilvoller Ereignisse war das Orakel von Delphi [10]. Der antiken Erzählung nach war es von geringem Nutzen. In der heutigen Zeit nehmen Experten die zentrale Rolle bei der Vorhersage zukünftiger Trends und Krisen ein [11]. Unter einem Experten wird zumeist jemand verstanden, der über ein bestimmtes Fachgebiet und dessen Entwicklung eine langjährige Erfahrung nachweisen kann. Insbesondere das kontextbezogene Wissen von Experten, das nur schwer zu operationalisieren ist, ist für die Vorhersage von Krisen vorteilhaft. Allerdings unterliegt die menschliche Vorhersage durch Experten vielfältigen Verzerrungen [12]. Die Professionalisierung und insbesondere die Verbesserung von Vorhersagen gingen einher mit dem zunehmenden Einsatz wissenschaftlicher Methoden [13]. Beispielsweise erzielte die Medizin durch Experimente und Doppelblindstudien große Erfolge bei der Vorhersage der Wirksamkeit von Medikamenten. Ein wichtiger Schritt bei der Krisenvorhersage war das Aufkommen der Spieltheorie [14]. Spieltheoretische Ansätze tendieren jedoch dazu, sozialwissenschaftliche Phänomene zu stark zu vereinfachen, um diese mathematisch abbilden zu können [15]. Quantitative Methoden der Krisenfrüherkennung haben gemeinsam, dass diese von der Datenqualität abhängen [16]. Eine qualitative Methode, die für die Vorhersage von Krisen und den Umgang mit diesen verwendet wird, ist das sogenannte Wargaming [17]. Dieses greift im Wesentlichen auf das schwer zu erfassende Wissen und Verhalten von Menschen zurück.

Soziale Phänomene sind nicht direkt messbar und müssen daher operationalisiert werden [18]. Borghoff et al. [19] beschreiben in diesem Zusammenhang ein latentes Variablenmodell für die Konfliktforschung. Messungen müssen dabei zuverlässig und valide sein, um genaue Vorhersagen zu ermöglichen [20]. In der Vergangenheit dienten vor allem Strukturdaten wie Bruttoinlandsprodukt, Bevölkerungsgröße, Durchschnittsalter und geografische Merkmale als Frühindikatoren für die Krisenvorhersagen [21]. Modelle, die auf diesen Daten beruhten, waren aber wenig leistungsstark. Der neue Einsatz von Technologien beinhaltet das Versprechen, dass Krisenfrüherkennung durch das Aufkommen von Massen- und Echtzeitdaten verbessert werden wird [1]. Die Bedeutung von Echtzeitdaten spielt bei der Krisenfrüherkennung dabei eine immer entscheidendere Rolle [22]. So können beispielsweise Satellitenbilder verwendet werden, um jeden Ort auf der Erde zu beobachten [23]. Bewegungsmuster von Menschen können mit Hilfe von Mobiltelefonen nachverfolgt werden. Sobald über Ereignisse in sozialen Medien berichtet wird, können diese ebenfalls erfasst und passend zugeordnet werden.

Diese Entwicklung bringt jedoch neue Herausforderungen mit sich, insbesondere im Umgang mit unstrukturierten Daten [24]. Es gibt keine quantitative Methode für alle Anwendungsfälle, vielmehr wird die Auswahl je nach Art der Daten und dem Ziel der Vorhersage getroffen [25]. Quantitative Methoden, die heute überwiegend in der Krisenfrüherkennung eingesetzt werden, sind neuronale Netze und die logistische Regression [4, 26]. Dabei weisen neuronale Netze im Allgemeinen die besten Vorhersagefähigkeiten auf und werden regelmäßig für die Krisenfrüherkennung eingesetzt. Sie haben jedoch den Nachteil, dass sie nur begrenzte Informationen zur Bedeutung der einzelnen Einflussfaktoren, die zu den Krisen führen, liefern [27]. Aus diesem Grund ist die logistische Regression nach wie vor der wichtigste Ansatz in der Forschung zur Krisenfrüherkennung. Den Ansätzen ist jedoch gemeinsam, dass sie ein Ereignis aus einer bestimmten Anzahl von Einflussfaktoren vorhersagen. Darüber hinaus ist bei der Darstellung der Ergebnisse zu beachten, dass deren Visualisierung die Interpretation durch einen Menschen beeinflusst [28]. Das menschliche Entscheidungsverhalten ist gerade im Umgang mit Wahrscheinlichkeiten häufig verzerrt [12]. Dies soll ein strukturiertes Vorgehen entlang des Intelligence-Zyklus verbessern.

Intelligence-Zyklus

Ziel des Intelligence-Zyklus ist es, aus Daten über mehrere Phasen Informationen und schließlich Entscheidungswissen zu generieren, das unter anderem dabei helfen soll, zukünftige Entwicklungen und Ereignisse vorherzusehen. Abb. 2 hebt die Phasen hervor, in denen der Informatik eine wesentliche Bedeutung zufällt.

Abb. 2
figure 2

Von Daten über Informationen zu Intelligence/Entscheidungswissen

Die nachfolgenden Ausführungen zum Intelligence-Zyklus orientieren sich an den Ausführungen von Clark [29].

Phase 1: Planung und Ausrichtung

In der Phase der Planung und Ausrichtung legt ein Entscheidungsträger zunächst den zu untersuchenden Gegenstand fest. Dabei werden häufig auch konkrete Hypothesen formuliert, die es zu überprüfen gilt. Ziel der Überprüfung der Hypothesen ist es, eine Grundlage für informierte Entscheidungen zu schaffen, mit der eine Handlung oder Entscheidung nachvollziehbar begründet werden kann. Vor dem Hintergrund der Krisenfrüherkennung von gewaltsamen Konflikten könnte die Frage lauten, wie hoch das Risiko eines Bürgerkriegs in einem Land ist oder die Gefahr eines terroristischen Angriffs. Dabei muss angemerkt werden, dass die zum Einsatz kommenden Modelle den politischen Willen häufig nicht ausreichend berücksichtigen bzw. an dessen Bedarf vorbeigehen. Dies wiederum führt dazu, dass die angebotenen Analysen vom politischen Entscheidungsträger nicht ausreichend berücksichtigt werden. Bereits in der Phase der Planung und Ausrichtung entscheidet sich, welche menschlichen Quellen und vor allem welche verteilten Datenbestände zur Beantwortung des Informationsbedarfs geeignet erscheinen.

Phase 2: Sammlung

In der Phase der Sammlung geht es um die Datenerhebung. Es geht hierbei noch nicht um eine konkrete Sortierung oder Aufbereitung der Daten.Footnote 1 Die Schwierigkeit, auf die man trifft, ist hierbei das Nichtvorhandensein einer einheitlichen Abfragesprache nebst Semantik für die gewählten Selektoren.Footnote 2 Man ist vielmehr auf das Föderieren von Datenbanken und anderer zumindest semistrukturierter Repositorien sowie das Durchforsten kontinuierlicher Datenströme mithilfe sogenannter Wrapper angewiesen [30]. Hierfür wurde von Andreoli et al. ein theoretisches Modell vorgestellt, das es ermöglicht, die Inhalte heterogener, frei zugänglicher Datenbanken zu kombinieren [31]. Das Ergebnis war eine Föderation von quasihomogenen Datenquellen mit einer standardisierten, durchsuchbaren Abfrageoberfläche, ohne dass man auf die Datenquellenlogik Einfluss nehmen musste. Darauf aufbauend haben Borghoff und Schlichter [32] einen Prototyp mitentwickelt, der später von Xerox unter dem Namen AskOnce vermarktet und 2004 von Documentum übernommen wurde. Im Kontext der Krisenfrüherkennung werden in der Regel georeferenzierte Ergebnisse benötigt. Bei der sogenannten Georeferenzierung werden den Ergebnissen von Selektorfilterungen oder -abfragen Ortskoordinaten zugeordnet. Dies kann automatisiert, z. B. durch die Verwendung präziser GPS-Informationen bei Bilddaten, oder aber manuell in mühsamer Handarbeit erfolgen. Madadikhaljan und Schmitt [33] zeigen am Beispiel der Früherkennung von Waldbränden, wie die Georeferenzierung von Satellitenbildern, die mit ungenauen Navigationssystemen aufgenommen wurden, durch IT-gestützte Nachbearbeitung verbessert werden kann. Die dauerhafte und systematische Sammlung von Daten bildet die Grundlage, um abweichende Entwicklungen zu identifizieren, die dann in eine Krise münden können.

Phase 3: Verarbeitung – Datenfusion und Informationsverarbeitung

In der Phase der Verarbeitung werden die gesammelten Daten aufbereitet, sortiert und zu Informationen verdichtet. Schlüsselwörter dienen beispielweise als minimale Zusammenfassung, um den Hauptinhalt eines Textes schnell zu erfassen. Dies erfordert in der Regel große Datensammlungen, einen Lernprozess oder den Zugriff auf große Mengen von Referenzdaten. Bohne et al. [34] verwenden für ihren Algorithmus zur Extraktion von Schlüsselwörtern das Helmholtz-Prinzip [35], das sprach- und kontextunabhängig auf eine Vielzahl von Dokumenten angewendet werden kann. Dieses Prinzip besagt vereinfacht, dass Schlüsselwörter als große Abweichungen von zufälligen Wörtern im Text auftreten. Neben solchen einfachen Verfahren zur Schlagwortextraktion werden heute zunehmend KI-basierte Verfahren zur Übersetzung [36] und (echten) Zusammenfassung von Texten [37] sowie zur automatischen Bilderkennung [38] innerhalb der gesammelten Daten eingesetzt. Gerade beim letzten Aspekt spielt der KI-Ansatz des Deep Residual Learning eine zentrale Rolle [39]. Entscheidend für Krisenfrüherkennung ist hierbei, dass lose Daten in sinnvolle Zusammenhänge während der Phase der Verarbeitung gebracht werden. Dazu dient die Bildung von Kategorien, die explorativ oder durch Fachwissen generiert werden. Bei der Entwicklung solcher Systeme bedarf es der engen Zusammenarbeit der Informatik mit den jeweiligen (Intelligence‑)Experten, was die Transdisziplinarität abermals unterstreicht.

Phase 4: Analyse und Produktion – Wissensgenerierung

In der Phase Analyse und Produktion werden die aufbereiteten Informationen an den Analysten übergeben, der diese entsprechend seiner Expertise in einen entsprechenden Kontext bringt. Auch hier hilft vielfach ein KI-Werkzeug. Dieses Vorgehen führt mittels unterschiedlicher Analysemethoden zu einem sogenannten Intelligence-Produkt mit Entscheidungswissen. Das konkrete Produkt hängt von der Aufgabenstellung bzw. den Interessen der Organisation, der jeweiligen Institution und des jeweiligen Bedarfsträgers ab. In der einschlägigen Literatur wird dieser zumeist rechnergestützte Prozess auch Knowledge Engineering genannt [40]. Zhu et al. [41] stecken in einem Übersichtsbeitrag das Gebiet des Knowledge Engineering von seinen Anfängen bis heute ab. Es hat seine Anfänge in den 1960er-Jahren, als Expertensysteme und semantische Netze die Szene beherrschten. Ende der 1990er-Jahre kamen mit Ontologien und dem Semantic Web marktreife Verfahren auf [42], die nicht unerheblich zur heutigen Big-Data-Ära führten. Die aktuelle Forschung widmet sich hierbei den sogenannten Knowledge GraphsFootnote 3 [43] bzw. den Cognitive Graphs [44]. Bei der Krisenfrüherkennung geht es bei einer Graf-Darstellung vor allem auch darum, dass nicht allein das Risiko vom Auftritt eines Ereignisses aufgezeigt wird, sondern vor allem, welche Faktoren dafür entscheidend sind. Dazu bedarf es IT-Werkzeugen, die die menschliche Interpretationsfähigkeit unterstützen. Sikos und Philp [45] liefern hierfür einen Überblick über Ansätze zur Erfassung der Datenprovenienz, zeigen ihre Verwendung in einer Cybersicherheitsdomäne (die bekanntermaßen auf Datenprovenienz angewiesen ist) und bieten einen quantitativen Vergleich aus verschiedenen Interpretationsperspektiven.

Phase 5: Verteilung und Feedback

In dieser Phase wird das erzeugte Intelligence-Produkt mit seinem Entscheidungswissen dem Entscheidungsträger im gewünschten Umfang und in der angemessenen Form zur Verfügung gestellt. Dabei entscheidet dieser, inwieweit das ursprünglich definierte Untersuchungsinteresse bzw. seine Fragestellung ausreichend beantwortet wurde. Dabei kann im Rahmen der Krisenfrüherkennung ein weiterer Aspekt eintreten: Es können weitere Rückmeldungen eingeholt worden sein, die in den optionalen erneuten Durchlauf des Intelligence-Zyklus münden können, der dann wiederum mit der Phase der nun verfeinerten, mit Feedback angereicherten Planung und Ausrichtung beginnt. Die für Phase 2 (Sammlung) verwendeten Selektoren werden entsprechend angepasst und die zu durchsuchenden Datenbanken bzw. Datenströme entsprechend eingeschränkt oder erweitert.

Fazit

Im Beitrag setzten wir die Informationsgewinnung/-beschaffung und die anschließende Wissensgenerierung mit dem Lagebild zur Krisenfrüherkennung in Beziehung. Hierbei werden beispielsweise Informationen von menschlichen Quellen ebenso wie Daten aus dem Internet gesammelt, kombiniert, in Beziehung gesetzt und den Analysten (oder zunehmend auch einer künstlichen Intelligenz) zur Generierung von Entscheidungswissen vorgelegt. Dieses Wissen zusammen mit dem Wissen über die Datenprovenienz, die eine Einschätzung der Glaubwürdigkeit, der Vollständigkeit und der Präzision der zugrunde liegenden Informationen erlaubt, wird dann zur Früherkennung und Gegensteuerung einer Krise herangezogen.

In Abb. 3 werden die zentralen Phasen des Intelligence-Zyklus mit der vorgestellten inhaltlichen Betrachtung der Informatik, die zur Krisenfrüherkennung beitragen, zusammengefasst dargestellt. Wir erkennen, dass in drei von fünf Phasen des Intelligence-Zyklus die Informatik eine wichtige und zunehmend entscheidende Rolle übernehmen muss und wird. Dies ist vor allem den Big Data und den verbesserten Fähigkeiten der künstlichen Intelligenz geschuldet.

Abb. 3
figure 3

Generierung von Entscheidungswissen im Rahmen der Krisenfrüherkennung