Zusammenfassung
In einer sich schnell verändernden Welt, die durch hyperkomplexe Systeme gekennzeichnet ist, reichen Insellösungen einzelner wissenschaftlicher Fachbereiche nicht mehr aus. Daher sind transdisziplinäre Forschungsansätze vonnöten, wobei die Informatik in einer datengetriebenen Welt eine zentrale Rolle einnimmt. Anhand des Beispiels der Krisenfrüherkennung, hier insbesondere der Vorhersage von gewaltsamen Konflikten, wird die praktische Verknüpfung verschiedener wissenschaftlicher Fachbereiche mit der Informatik skizziert. Der Intelligence-Zyklus der Nachrichtendienste dient als übergreifendes Konzept der Informationsverarbeitung, welches veranschaulicht, wie aus Daten Informationen und schließlich Intelligence – also Entscheidungswissen – generiert werden können. Entscheidungswissen beruht auf validierten Zusammenhängen, die dann zu Handlungsempfehlungen führen. Im vorliegenden Beitrag wird argumentiert, dass die Informatik nicht allein technisch verstanden werden darf, im Sinne der Datengenerierung, -speicherung, -verarbeitung und -darstellung, sondern auch in Bezug zum abzubildenden Gegenstand gesehen werden muss.
Avoid common mistakes on your manuscript.
Einführung
In der Alltagssprache versteht man unter einer Krise zumeist ein seltenes Ereignis. Es reicht beispielhaft von einer Naturkatastrophe über einen Börsenkrach bis hin zum Ausbruch eines Krieges. Obschon Krisen plötzlich aufzutreten scheinen, bahnen sich Krisen zumeist über einen längeren Zeitraum an. Demzufolge stammt die Überraschung einer Krise hauptsächlich daher, dass Frühindikatoren nicht beachtet bzw. falsch gedeutet wurden. In der empirischen Krisenfrüherkennung geht es darum, Frühindikatoren zu identifizieren, die in einen kausalen Zusammenhang mit einer Krise gebracht werden können, also Faktoren zu identifizieren, die einer Krise vorausgehen [1]. Der vorliegende Beitrag lehnt sich exemplarisch an die Vorhersage von gewaltsamen Konflikten an. Diese Art von Krise unterscheidet sich von der klassischen Vorhersage von Naturkatastrophen, da nicht direkt messbare sozialwissenschaftliche Erklärungen im Mittelpunkt stehen [2]. Darüber hinaus kann es aber eine starke Wechselwirkung zwischen sozialen und natürlichen Krisen geben. Ein Beispiel dafür ist der Klimawandel. Es ist davon auszugehen, dass der Klimawandel zu noch mehr und noch stärkeren Naturkatastrophen führen wird. Zudem werden große Landstriche durch Austrocknung oder Überschwemmungen unbewohnbar werden. Dies kann wiederum zu verschiedenen sozialen Verwerfungen führen, wie zum Beispiel der Zunahme von Flüchtlingsbewegungen, die dann langfristig gewaltsame Konflikte verursachen können [3]. Dieses Beispiel zeigt die Notwendigkeit, dass Natur- und Sozialwissenschaften zur Problemlösung verknüpft werden müssen. Selbst wenn das Eintreten einer Krise häufig nicht verhindert werden kann, lassen sich zumindest negative Auswirkungen abmildern [4]. Die frühzeitige Antizipation einer Krise erhöht hierzu den Handlungsspielraum. Je früher kritische Entwicklungen abgesehen werden können, desto früher können Entscheidungsträger auf eine sich abzeichnende Krise reagieren [1]. Die Informatik attestiert, die nötigen Informationen zu gewinnen und aufzubereiten. Damit hat sie einen entscheidenden Anteil daran, Entscheidungswissen für eine Krisenfrüherkennung zu generieren.
Die heute zu beobachtende Digitalisierung geht mit einer immer größeren Datenmenge einher. Zum einen stammen diese aus Quellen, die früher so nicht vorhanden waren, wie den Social Media, oder es handelt sich um Daten, die heute in wesentlich größerem Umfang vorhanden und zudem leichter zugänglich sind, wie etwa Satellitenbilder. Diese sogenannten Big Data bringen neue Möglichkeiten, aber auch neue Herausforderungen mit sich [5]. Mehr Daten bedeuten dabei nicht zwangsläufig, auch bessere Entscheidungen treffen zu können. Dies gilt insbesondere vor dem Hintergrund einer empirischen Krisenfrüherkennung. Dabei spielt die IT-Unterstützung im Analyseprozess eine entscheidende Rolle, die den Menschen aber nicht ersetzen soll und kann [6]. Die Informatik hilft bei der Sammlung von Daten, aber auch bei deren Verarbeitung durch künstliche Intelligenz sowie der grafischen Darstellung von Zusammenhängen. Zur Datenerfassung gehört auch die Frage, wie Daten aus verschiedenen Datenquellen in einer Art und Form zusammengeführt werden können, die eine sinnvolle Datenanalyse erst ermöglicht. Um die Rolle der Informatik bei der Krisenfrüherkennung zu verdeutlichen, dient der Intelligence-Zyklus, wie er von Nachrichtendiensten verwendet wird, als Orientierung (siehe Abb. 1).
Damit der Intelligence-Zyklus sinnvoll angewendet werden kann, braucht es eine enge Verzahnung mit IT-Systemen [7]. Der Zyklus verdeutlicht darüber hinaus, auf welche Weise IT-Systeme bei den Phasen der Krisenfrüherkennung unterstützen können. Gegenüber der zyklischen Darstellung des Intelligence-Zyklus gibt es mitunter Kritik. Diese besteht darin, dass der Prozess der Informationsverarbeitung zu stark vereinfacht sowie die Wechselwirkungen der unterschiedlichen Prozessschritte nicht abgebildet werden [8, 9]. Aus Gründen der Einfachheit verwenden wir den Intelligence-Zyklus dennoch in seiner grundlegendsten Form.
Der Beitrag ist wie folgt gegliedert. Im folgenden Abschnitt erläutern wir zunächst die aktuellen Herangehensweisen und Herausforderungen bei der Krisenfrüherkennung. Anschließend zeigen wir basierend auf dem Intelligence-Zyklus, welche Rolle die Informatik in der jeweiligen Phase einnimmt. Im abschließenden Abschnitt fassen wir die Erkenntnisse des Beitrags in einem Fazit zusammen.
Krisenfrüherkennung
Das wohl erste erwähnte System zur Vorhersage unheilvoller Ereignisse war das Orakel von Delphi [10]. Der antiken Erzählung nach war es von geringem Nutzen. In der heutigen Zeit nehmen Experten die zentrale Rolle bei der Vorhersage zukünftiger Trends und Krisen ein [11]. Unter einem Experten wird zumeist jemand verstanden, der über ein bestimmtes Fachgebiet und dessen Entwicklung eine langjährige Erfahrung nachweisen kann. Insbesondere das kontextbezogene Wissen von Experten, das nur schwer zu operationalisieren ist, ist für die Vorhersage von Krisen vorteilhaft. Allerdings unterliegt die menschliche Vorhersage durch Experten vielfältigen Verzerrungen [12]. Die Professionalisierung und insbesondere die Verbesserung von Vorhersagen gingen einher mit dem zunehmenden Einsatz wissenschaftlicher Methoden [13]. Beispielsweise erzielte die Medizin durch Experimente und Doppelblindstudien große Erfolge bei der Vorhersage der Wirksamkeit von Medikamenten. Ein wichtiger Schritt bei der Krisenvorhersage war das Aufkommen der Spieltheorie [14]. Spieltheoretische Ansätze tendieren jedoch dazu, sozialwissenschaftliche Phänomene zu stark zu vereinfachen, um diese mathematisch abbilden zu können [15]. Quantitative Methoden der Krisenfrüherkennung haben gemeinsam, dass diese von der Datenqualität abhängen [16]. Eine qualitative Methode, die für die Vorhersage von Krisen und den Umgang mit diesen verwendet wird, ist das sogenannte Wargaming [17]. Dieses greift im Wesentlichen auf das schwer zu erfassende Wissen und Verhalten von Menschen zurück.
Soziale Phänomene sind nicht direkt messbar und müssen daher operationalisiert werden [18]. Borghoff et al. [19] beschreiben in diesem Zusammenhang ein latentes Variablenmodell für die Konfliktforschung. Messungen müssen dabei zuverlässig und valide sein, um genaue Vorhersagen zu ermöglichen [20]. In der Vergangenheit dienten vor allem Strukturdaten wie Bruttoinlandsprodukt, Bevölkerungsgröße, Durchschnittsalter und geografische Merkmale als Frühindikatoren für die Krisenvorhersagen [21]. Modelle, die auf diesen Daten beruhten, waren aber wenig leistungsstark. Der neue Einsatz von Technologien beinhaltet das Versprechen, dass Krisenfrüherkennung durch das Aufkommen von Massen- und Echtzeitdaten verbessert werden wird [1]. Die Bedeutung von Echtzeitdaten spielt bei der Krisenfrüherkennung dabei eine immer entscheidendere Rolle [22]. So können beispielsweise Satellitenbilder verwendet werden, um jeden Ort auf der Erde zu beobachten [23]. Bewegungsmuster von Menschen können mit Hilfe von Mobiltelefonen nachverfolgt werden. Sobald über Ereignisse in sozialen Medien berichtet wird, können diese ebenfalls erfasst und passend zugeordnet werden.
Diese Entwicklung bringt jedoch neue Herausforderungen mit sich, insbesondere im Umgang mit unstrukturierten Daten [24]. Es gibt keine quantitative Methode für alle Anwendungsfälle, vielmehr wird die Auswahl je nach Art der Daten und dem Ziel der Vorhersage getroffen [25]. Quantitative Methoden, die heute überwiegend in der Krisenfrüherkennung eingesetzt werden, sind neuronale Netze und die logistische Regression [4, 26]. Dabei weisen neuronale Netze im Allgemeinen die besten Vorhersagefähigkeiten auf und werden regelmäßig für die Krisenfrüherkennung eingesetzt. Sie haben jedoch den Nachteil, dass sie nur begrenzte Informationen zur Bedeutung der einzelnen Einflussfaktoren, die zu den Krisen führen, liefern [27]. Aus diesem Grund ist die logistische Regression nach wie vor der wichtigste Ansatz in der Forschung zur Krisenfrüherkennung. Den Ansätzen ist jedoch gemeinsam, dass sie ein Ereignis aus einer bestimmten Anzahl von Einflussfaktoren vorhersagen. Darüber hinaus ist bei der Darstellung der Ergebnisse zu beachten, dass deren Visualisierung die Interpretation durch einen Menschen beeinflusst [28]. Das menschliche Entscheidungsverhalten ist gerade im Umgang mit Wahrscheinlichkeiten häufig verzerrt [12]. Dies soll ein strukturiertes Vorgehen entlang des Intelligence-Zyklus verbessern.
Intelligence-Zyklus
Ziel des Intelligence-Zyklus ist es, aus Daten über mehrere Phasen Informationen und schließlich Entscheidungswissen zu generieren, das unter anderem dabei helfen soll, zukünftige Entwicklungen und Ereignisse vorherzusehen. Abb. 2 hebt die Phasen hervor, in denen der Informatik eine wesentliche Bedeutung zufällt.
Die nachfolgenden Ausführungen zum Intelligence-Zyklus orientieren sich an den Ausführungen von Clark [29].
Phase 1: Planung und Ausrichtung
In der Phase der Planung und Ausrichtung legt ein Entscheidungsträger zunächst den zu untersuchenden Gegenstand fest. Dabei werden häufig auch konkrete Hypothesen formuliert, die es zu überprüfen gilt. Ziel der Überprüfung der Hypothesen ist es, eine Grundlage für informierte Entscheidungen zu schaffen, mit der eine Handlung oder Entscheidung nachvollziehbar begründet werden kann. Vor dem Hintergrund der Krisenfrüherkennung von gewaltsamen Konflikten könnte die Frage lauten, wie hoch das Risiko eines Bürgerkriegs in einem Land ist oder die Gefahr eines terroristischen Angriffs. Dabei muss angemerkt werden, dass die zum Einsatz kommenden Modelle den politischen Willen häufig nicht ausreichend berücksichtigen bzw. an dessen Bedarf vorbeigehen. Dies wiederum führt dazu, dass die angebotenen Analysen vom politischen Entscheidungsträger nicht ausreichend berücksichtigt werden. Bereits in der Phase der Planung und Ausrichtung entscheidet sich, welche menschlichen Quellen und vor allem welche verteilten Datenbestände zur Beantwortung des Informationsbedarfs geeignet erscheinen.
Phase 2: Sammlung
In der Phase der Sammlung geht es um die Datenerhebung. Es geht hierbei noch nicht um eine konkrete Sortierung oder Aufbereitung der Daten.Footnote 1 Die Schwierigkeit, auf die man trifft, ist hierbei das Nichtvorhandensein einer einheitlichen Abfragesprache nebst Semantik für die gewählten Selektoren.Footnote 2 Man ist vielmehr auf das Föderieren von Datenbanken und anderer zumindest semistrukturierter Repositorien sowie das Durchforsten kontinuierlicher Datenströme mithilfe sogenannter Wrapper angewiesen [30]. Hierfür wurde von Andreoli et al. ein theoretisches Modell vorgestellt, das es ermöglicht, die Inhalte heterogener, frei zugänglicher Datenbanken zu kombinieren [31]. Das Ergebnis war eine Föderation von quasihomogenen Datenquellen mit einer standardisierten, durchsuchbaren Abfrageoberfläche, ohne dass man auf die Datenquellenlogik Einfluss nehmen musste. Darauf aufbauend haben Borghoff und Schlichter [32] einen Prototyp mitentwickelt, der später von Xerox unter dem Namen AskOnce vermarktet und 2004 von Documentum übernommen wurde. Im Kontext der Krisenfrüherkennung werden in der Regel georeferenzierte Ergebnisse benötigt. Bei der sogenannten Georeferenzierung werden den Ergebnissen von Selektorfilterungen oder -abfragen Ortskoordinaten zugeordnet. Dies kann automatisiert, z. B. durch die Verwendung präziser GPS-Informationen bei Bilddaten, oder aber manuell in mühsamer Handarbeit erfolgen. Madadikhaljan und Schmitt [33] zeigen am Beispiel der Früherkennung von Waldbränden, wie die Georeferenzierung von Satellitenbildern, die mit ungenauen Navigationssystemen aufgenommen wurden, durch IT-gestützte Nachbearbeitung verbessert werden kann. Die dauerhafte und systematische Sammlung von Daten bildet die Grundlage, um abweichende Entwicklungen zu identifizieren, die dann in eine Krise münden können.
Phase 3: Verarbeitung – Datenfusion und Informationsverarbeitung
In der Phase der Verarbeitung werden die gesammelten Daten aufbereitet, sortiert und zu Informationen verdichtet. Schlüsselwörter dienen beispielweise als minimale Zusammenfassung, um den Hauptinhalt eines Textes schnell zu erfassen. Dies erfordert in der Regel große Datensammlungen, einen Lernprozess oder den Zugriff auf große Mengen von Referenzdaten. Bohne et al. [34] verwenden für ihren Algorithmus zur Extraktion von Schlüsselwörtern das Helmholtz-Prinzip [35], das sprach- und kontextunabhängig auf eine Vielzahl von Dokumenten angewendet werden kann. Dieses Prinzip besagt vereinfacht, dass Schlüsselwörter als große Abweichungen von zufälligen Wörtern im Text auftreten. Neben solchen einfachen Verfahren zur Schlagwortextraktion werden heute zunehmend KI-basierte Verfahren zur Übersetzung [36] und (echten) Zusammenfassung von Texten [37] sowie zur automatischen Bilderkennung [38] innerhalb der gesammelten Daten eingesetzt. Gerade beim letzten Aspekt spielt der KI-Ansatz des Deep Residual Learning eine zentrale Rolle [39]. Entscheidend für Krisenfrüherkennung ist hierbei, dass lose Daten in sinnvolle Zusammenhänge während der Phase der Verarbeitung gebracht werden. Dazu dient die Bildung von Kategorien, die explorativ oder durch Fachwissen generiert werden. Bei der Entwicklung solcher Systeme bedarf es der engen Zusammenarbeit der Informatik mit den jeweiligen (Intelligence‑)Experten, was die Transdisziplinarität abermals unterstreicht.
Phase 4: Analyse und Produktion – Wissensgenerierung
In der Phase Analyse und Produktion werden die aufbereiteten Informationen an den Analysten übergeben, der diese entsprechend seiner Expertise in einen entsprechenden Kontext bringt. Auch hier hilft vielfach ein KI-Werkzeug. Dieses Vorgehen führt mittels unterschiedlicher Analysemethoden zu einem sogenannten Intelligence-Produkt mit Entscheidungswissen. Das konkrete Produkt hängt von der Aufgabenstellung bzw. den Interessen der Organisation, der jeweiligen Institution und des jeweiligen Bedarfsträgers ab. In der einschlägigen Literatur wird dieser zumeist rechnergestützte Prozess auch Knowledge Engineering genannt [40]. Zhu et al. [41] stecken in einem Übersichtsbeitrag das Gebiet des Knowledge Engineering von seinen Anfängen bis heute ab. Es hat seine Anfänge in den 1960er-Jahren, als Expertensysteme und semantische Netze die Szene beherrschten. Ende der 1990er-Jahre kamen mit Ontologien und dem Semantic Web marktreife Verfahren auf [42], die nicht unerheblich zur heutigen Big-Data-Ära führten. Die aktuelle Forschung widmet sich hierbei den sogenannten Knowledge GraphsFootnote 3 [43] bzw. den Cognitive Graphs [44]. Bei der Krisenfrüherkennung geht es bei einer Graf-Darstellung vor allem auch darum, dass nicht allein das Risiko vom Auftritt eines Ereignisses aufgezeigt wird, sondern vor allem, welche Faktoren dafür entscheidend sind. Dazu bedarf es IT-Werkzeugen, die die menschliche Interpretationsfähigkeit unterstützen. Sikos und Philp [45] liefern hierfür einen Überblick über Ansätze zur Erfassung der Datenprovenienz, zeigen ihre Verwendung in einer Cybersicherheitsdomäne (die bekanntermaßen auf Datenprovenienz angewiesen ist) und bieten einen quantitativen Vergleich aus verschiedenen Interpretationsperspektiven.
Phase 5: Verteilung und Feedback
In dieser Phase wird das erzeugte Intelligence-Produkt mit seinem Entscheidungswissen dem Entscheidungsträger im gewünschten Umfang und in der angemessenen Form zur Verfügung gestellt. Dabei entscheidet dieser, inwieweit das ursprünglich definierte Untersuchungsinteresse bzw. seine Fragestellung ausreichend beantwortet wurde. Dabei kann im Rahmen der Krisenfrüherkennung ein weiterer Aspekt eintreten: Es können weitere Rückmeldungen eingeholt worden sein, die in den optionalen erneuten Durchlauf des Intelligence-Zyklus münden können, der dann wiederum mit der Phase der nun verfeinerten, mit Feedback angereicherten Planung und Ausrichtung beginnt. Die für Phase 2 (Sammlung) verwendeten Selektoren werden entsprechend angepasst und die zu durchsuchenden Datenbanken bzw. Datenströme entsprechend eingeschränkt oder erweitert.
Fazit
Im Beitrag setzten wir die Informationsgewinnung/-beschaffung und die anschließende Wissensgenerierung mit dem Lagebild zur Krisenfrüherkennung in Beziehung. Hierbei werden beispielsweise Informationen von menschlichen Quellen ebenso wie Daten aus dem Internet gesammelt, kombiniert, in Beziehung gesetzt und den Analysten (oder zunehmend auch einer künstlichen Intelligenz) zur Generierung von Entscheidungswissen vorgelegt. Dieses Wissen zusammen mit dem Wissen über die Datenprovenienz, die eine Einschätzung der Glaubwürdigkeit, der Vollständigkeit und der Präzision der zugrunde liegenden Informationen erlaubt, wird dann zur Früherkennung und Gegensteuerung einer Krise herangezogen.
In Abb. 3 werden die zentralen Phasen des Intelligence-Zyklus mit der vorgestellten inhaltlichen Betrachtung der Informatik, die zur Krisenfrüherkennung beitragen, zusammengefasst dargestellt. Wir erkennen, dass in drei von fünf Phasen des Intelligence-Zyklus die Informatik eine wichtige und zunehmend entscheidende Rolle übernehmen muss und wird. Dies ist vor allem den Big Data und den verbesserten Fähigkeiten der künstlichen Intelligenz geschuldet.
Notes
Im Bereich der Krisenfrüherkennung existieren Datenbanken, wie beispielsweise Armed Conflict Location and Event Data (ACLED) oder Global Terrorism Database (GTD). Diese halten relevante georeferenzierte Ereignisse fest, die in Bezug zu gewaltsamen Konflikten stehen.
Ein Selektor ist ein definiertes Suchmerkmal, das Nachrichtendienste verwenden, um relevante Informationen u. a. aus Datenströmen/Datenbanken herauszufiltern oder abzurufen. Im einfachsten Fall besteht ein Selektor aus einer simplen Attribut-Werte-Paare-Relation oder einem sogenannten Signed Feature Constraint wie in Andreoli et al. [30].
Literatur
Cederman L‑E, Weidmann NB (2017) Predicting armed conflict: Time to adjust our expectations? Science 355:474–476
Silver N (2012) The signal and the noise: Why so many predictions fail—but some don’t. Penguin, New York
Von Uexkull N, Buhaug H (2021) Security implications of climate change: A decade of scientific progress. J Peace Res 58(1):3–17
O’Brien SP (2010) Crisis early warning and decision support: Contemporary approaches and thoughts on future research. Int Stud Rev 12(1):87–104
Katz B (2020) The intelligence edge. CSIS Briefs (Center for Strategic and International Studies)
Mellers BA, McCoy JP, Lu L, Tetlock PE (2023) Human and algorithmic predictions in geopolitical forecasting: Quantifying uncertainty in hard-to-quantify domains. Perspect Psychol Sci. https://doi.org/10.1177/17456916231185339
Gartin JW (2019) The future of analysis. Stud Intell 63(2):1–5
Jensen CJ III, McElreath DH, Graves M (2023) Introduction to intelligence studies, 3. Aufl. Routledge, New York, USA
Lowenthal MM (2022) Intelligence: From secrets to policy. USA: CQ Press—SAGE Publications, California
Taleb N (2005) The black swan: Why don’t we learn that we don’t learn. Random House, New York
Tetlock P, Gardner D (2015) Superforecasting: The art and science of prediction. Random House, New York
Kahneman D (2011) Thinking, fast and slow. Farrar, Straus and Giroux, New York
Meehl PE (1954) Clinical versus statistical prediction. University of Minnesota Press, Minneapolis
Von Neumann J, Morgenstern O (1944) Theory of games and economic behavior. Princeton University Press, Princeton
Slantchev BL (2017) On the proper use of game-theoretic models in conflict studies. Peace Econ Peace Sci Public Policy 23(4):1–14
Jäger, K. (2016). Not a new gold standard: Even big data cannot predict the future. Critical Review, 28(3-4), 335–355.
Nitzl C, Landsiedel J, Borghoff UM (2023) Lernen aus den Erfahrungen von militärischen Wargames. Wirtsch Inform Manag. https://doi.org/10.1365/s35764-023-00494-y
Hair JF, Howard M, Nitzl C (2020) Assessing measurement model quality in PLS-SEM using confirmatory composite analysis. J Bus Res 109:101–110
Borghoff UM, Matthews S, Prüßing H, Schäfer CT, Stuke O (2019) A latent variable model in conflict research. In International Conference on Computer Aided Systems Theory. Springer, S 36–43
Chadefaux, T. (2017). Conflict forecasting and its limits. Data Science, 1(1-2), 7–17.
Trinn C, Wencker T (2021) Integrating the quantitative research on the onset and incidence of violent intrastate conflicts. Int Stud Rev 23(1):115–139
Panic B (2020) Data for Peacebuilding and Prevention Ecosystem Mapping: The State of Play and the Path to Creating a Community of Practice. NYU Center on International Cooperation, New York
Van Wyk J‑A (2019) Pixels, politics and peace: The forensic use of sattelite imagery. J African Foreign Aff 6(2):31–50
Trivedi A, Keator K, Scholtens M, Haigood B, Dodhia R, Ferres JL et al (2020) How to handle armed conflict data in a real-world scenario? Philos Technol: 1–13
Gräßler I, Thiele H, Scholle P (2020) Assessing the future: Methods and criteria. In International Design Conference Bd. 1. Cambridge University Press, S 569–576
Schrodt PA (2014) Seven deadly sins of contemporary quantitative political analysis. J Peace Res 51(2):287–300
Shmueli G (2010) To explain or to predict? Stat Sci 25(3):289–310
Hegre, H., Metternich, N. W., Nygård, H. M., & Wucherpfennig, J. (2017). Introduction: Forecasting in peace research. Journal of Peace Research, 54(2), 113–124.
Clark RM (2014) Intelligence collection. USA: CQ Press—SAGE Publications, California
Chidlovskii B, Borghoff UM, Chevalier P‑Y (1997) Towards sophisticated wrapping of web-based information repositories. In Proc. 5th RIAO Conference, S 123–135
Andreoli J‑M, Borghoff UM, Pareschi R (1994) Constraint-based knowledge brokers. In Proc. 1st Int. Symp. on Parallel Symbolic Computation. PASCO, Bd. 94. World Scientific, Hagenberg/Linz, Austria, S 1–11
Borghoff UM, Schlichter JH (1996) On combining the knowledge of heterogeneous information repositories. J Univers Comput Sci 2(7):515–532
Madadikhaljan, M., & Schmitt, M. Georeferencing thermal satellite images based on land cover information extraction. In IGARSS 2023–2023 IEEE International Geoscience and Remote Sensing Symposium, 2023 (pp. 6362–6365): IEEE
Bohne T, Rönnau S, Borghoff UM (2011) Efficient keyword extraction for meaningful document perception. In Proceedings of the 11th ACM Symposium on Document Engineering, S 185–194
Balinsky AA, Balinsky HY, Simske SJ (2010) On Helmholtz’s principle for documents processing. In Proceedings of the 10th ACM Symposium on Document Engineering, S 283–286
Stahlberg F (2020) Neural machine translation: A review. J Artif Intell Res 69:343–418
Nazari, N., & Mahdavi, M. A. (2019). A survey on automatic text summarization. Journal of AI and Data Mining, 7(1), 121–135.
Shafiq M, Gu Z (2022) Deep residual learning for image recognition: A survey. Applied. Sciences 12(18):8972
He K, Zhang X, Ren S, Sun J (2016) Deep residual learning for image recognition. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR), S 770–778
Smith P (1996) An introduction to knowledge engineering. Van Nostrand Reinhold Company
Zhu D, Yin H, Xu Y, Wu J, Zhang B, Cheng Y et al (2023) A survey of advanced information fusion system: From model-driven to knowledge-enabled. Data Sci Eng 8:85–97
Ding L, Kolari P, Ding Z, Avancha S (2007) Using ontologies in the semantic web: A survey. In: Sharman R, Kishore R, Ramesh R (Hrsg) Integrated Series in Information Systems). Ontologies: A Handbook of Principles, Concepts and Applications in Information Systems, Bd. 14. Springer, Boston, MA., S 79–113
Singhal A (2012) Introducing the knowledge graph: things, not strings. Official (google blog)
Peer M, Brunec IK, Newcombe NS, Epstein RA (2021) Structuring knowledge with cognitive maps and cognitive graphs. Trends Cogn Sci 25(1):37–54
Sikos LF, Philp D (2020) Provenance-aware knowledge representation: A survey of data models and contextualized knowledge graphs. Data Sci Eng 5:293–316
Funding
Open Access funding enabled and organized by Projekt DEAL.
Author information
Authors and Affiliations
Corresponding author
Additional information
Hinweis des Verlags
Der Verlag bleibt in Hinblick auf geografische Zuordnungen und Gebietsbezeichnungen in veröffentlichten Karten und Institutsadressen neutral.
Rights and permissions
Open Access Dieser Artikel wird unter der Creative Commons Namensnennung 4.0 International Lizenz veröffentlicht, welche die Nutzung, Vervielfältigung, Bearbeitung, Verbreitung und Wiedergabe in jeglichem Medium und Format erlaubt, sofern Sie den/die ursprünglichen Autor(en) und die Quelle ordnungsgemäß nennen, einen Link zur Creative Commons Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden.
Die in diesem Artikel enthaltenen Bilder und sonstiges Drittmaterial unterliegen ebenfalls der genannten Creative Commons Lizenz, sofern sich aus der Abbildungslegende nichts anderes ergibt. Sofern das betreffende Material nicht unter der genannten Creative Commons Lizenz steht und die betreffende Handlung nicht nach gesetzlichen Vorschriften erlaubt ist, ist für die oben aufgeführten Weiterverwendungen des Materials die Einwilligung des jeweiligen Rechteinhabers einzuholen.
Weitere Details zur Lizenz entnehmen Sie bitte der Lizenzinformation auf http://creativecommons.org/licenses/by/4.0/deed.de.
About this article
Cite this article
Borghoff, U.M., Nitzl, C. Die Informatik und die Krise. Informatik Spektrum (2024). https://doi.org/10.1007/s00287-024-01567-x
Accepted:
Published:
DOI: https://doi.org/10.1007/s00287-024-01567-x