1 Einführung

„Nur wer die Vergangenheit kennt, kann die Gegenwart verstehen und die Zukunft gestalten.“ August Bebel

Vor dem Hintergrund dieses Zitats kann erklärt werden, warum die vierte industrielle Revolution, oder kurz Industrie 4.0, nicht den erwarteten Effekt auf die deutsche oder europäische Wirtschaft hat. Ein Grund könnte nämlich sein, dass wir die dritte industrielle Revolution noch gar nicht erreicht haben und mit Industrie 4.0 den Stein zu weit werfen. Gestützt wird diese Hypothese durch die Arbeiten von Jeremy Rifkin (2011), einem US-amerikanischem Ökonom, der unter anderem die Bundesregierung unter Angela Merkel als auch die Europäische Union mehrfach beraten hat. Seiner Forschung nach lässt sich leicht erklären, wie Daten zum neuem Öl werden und den Weg zur nächsten industriellen Revolutionsstufe ebnen (Rifkin 2014). Hierfür müssen jedoch zunächst die Revolutionsstufen der Vergangenheit verstanden werden. Im vorliegenden Beitrag wird erklärt, warum viele Digitalisierungsansätze scheitern, wie dennoch erfolgreiche Digitalisierungsprojekte realisiert werden können und wie die Zukunft der Digitalisierung aussehen kann. Der Beitrag stützt sich dabei auf Ergebnisse aus dem Projekt SPAICER-skalierbare adaptive Produktionssysteme durch KI-basierte Resilienzoptimierung (SPAICER 2020) aus dem KI-Innovationswettbewerb des Bundesministeriums für Wirtschaft und Klimaschutz (BMWK).

2 Warum Industrie 4.0 meistens scheitert?

Rifkins Analyse nach kann nur dann von einer industriellen Revolution gesprochen werden, wenn drei diskrete Mechanismen bzw. Treiber für Veränderung gleichzeitig konvergieren (Rifkin 2011, 2014). Um diese Ereignisse auf die aktuelle Zeitgeschichte und die Vision von Industrie 4.0 zu übertragen, müssen zunächst die Äquivalente in der ersten und zweiten industriellen Revolution verstanden werden.

2.1 Treiber der ersten industriellen Revolution

Unumstritten ist, dass die entscheidende Weiterentwicklung der Dampfmaschine von James Watt die erste industrielle Revolution auslöste. Weniger bekannt und verstanden ist, warum die Dampfmaschine überhaupt eine revolutionäre Auswirkung hatte und welche Mechanismen bzw. Treiber zugrunde lagen.

Zunächst mechanisierte die Dampfmaschine die klassische Arbeit der Handwerkenden. Während Handwerkende zuvor sowohl die Antriebsenergie, zum Beispiel mit den Füßen durch Treten, als auch die Arbeitsenergie, beispielweise durch Formen mit den Händen, aufbringen mussten, mechanisierte die Dampfmaschine vor allem die Primärenergieform, also die Antriebsenergie. Innerhalb der Dampfmaschine wurde durch die Verbrennung von Holz und später Kohle Wasser verdampft. Mit dem entstandenen Dampf wurde der mechanische Kolben in eine kontinuierliche Rotationsbewegung versetzt. Durch diese war es dem Handwerkenden möglich, sich fast anstrengungsfrei auf das Wesentliche seiner Arbeit zu konzentrieren, nämlich die Formgebung bzw. Wertschöpfung.

Später gelang es, dieses einfache Prinzip auch auf andere Bereiche der Gesellschaft zu übertragen. So wurden mit Dampfmaschinen manuelle Buchpressen mechanisiert und erstmalig das Massen-Print-Medium erfunden. Mit mechanisierten Buchpressen konnten Tageszeitungen produziert werden, welche die Wirtschaft und Gesellschaft erstmals befähigten, innerhalb kürzester Zeit ihre Geschäfte zu organisieren und sich über Mitbewerbende sowie Kundinnen und Kunden zu informieren. Was bisher nur im bilateralen Kontakt möglich war, konnte nun im großen Stil erreicht werden.

Das Prinzip der Dampfmaschine revolutionierte das Leben der Gesellschaft in verschiedenen Sektoren, wie zum Beispiel die Dampflokomotive. Mittels Holz und Kohle wurde erstmals die Massenbeförderungen über weite Inlandsstrecken auf Schienen ermöglicht, die höhere Losgrößen und Ressourcenvolumen jenseits der Möglichkeiten von Pferd und Kutsche verwirklichten. Durch diese Form der Logistik wurden wirtschaftliche Güter im großen Stil produziert, kommuniziert und transportiert.

Zusammenfassend lässt sich sagen: Nach Rifkin (2011) kann dann von einer industriellen Revolution gesprochen werden, wenn genau drei Bedingungen erfüllt sind: „In einem bestimmten Moment der Zeitgeschichte tauchen drei entscheidende Technologien auf und konvergieren, um das zu schaffen, was wir in der Technik eine Allzwecktechnologie nennen, die eine Infrastruktur bildet, die die Art und Weise, wie wir wirtschaftliche Aktivitäten

  • organisieren,

  • betreiben und

  • entlang der Wertschöpfungskette bewegen können,

grundlegend verändert.

Und diese drei Technologien sind:

  • neue Kommunikationstechnologien, um die wirtschaftlichen Aktivitäten effizienter zu steuern,

  • neue Energiequellen, um die wirtschaftlichen Aktivitäten effizienter zu betreiben, und

neue Arten der Mobilität bzw. der Transportlogistik, um die wirtschaftlichen Aktivitäten effizienter zu bewegen.“

In der ersten industriellen Revolution hat die Dampfmaschine also nicht nur eine effizientere Energieform bereitgestellt, sondern auch die Mobilität (Dampflok) als auch die Kommunikation (Zeitung) verändert.

2.2 Treiber der zweiten industriellen Revolution

Vor dem Hintergrund des Rifkin’schen Ordnungsrahmens lassen sich für die zweite industrielle Revolution leicht die zugrunde liegenden Mechanismen identifizieren. Durch die Entdeckung der elektrischen Leitfähigkeit bzw. des Blitzableiters durch Benjamin Franklin war das Zeitalter der elektrischen Kommunikation eingeleitet. Durch den Telegrafen wurde es erstmalig ermöglicht, über weite Distanzen zu kommunizieren. Während die Zeitung bis dahin relativ allgemein und regional gehalten war, konnte durch den Telegrafen eine persönliche einseitige Kommunikation über Städte und Staaten hinausgeführt werden. Später war es mit der Erfindung des Telefons dann erstmals möglich, in Echtzeit bilaterale Gespräche zu führen. Es war der Gesellschaft und Wirtschaft damit möglich, über größere Distanzen hinweg in Echtzeit Geschäftsaktivitäten abzusprechen und Entscheidungen direkt zu treffen. Die Erfindung des Telefons gilt als eine der wertvollsten der Menschheit, da ihr Einfluss mit nur wenigen anderen Erfindungen gleichzusetzen ist. Das Telefon war somit die wichtigste Kommunikationstechnologie in der zweiten industriellen Revolution.

Als Energiequelle setzte sich Öl gegenüber Kohle und Holz durch. Vorteile des Rohstoffs Öl waren vor allem die umfangreichen Verwertungspotenziale sowie die vielfachen Verwendungsmöglichkeiten. In der heutigen Zeit sind fast alle verfügbaren Güter in der ein oder anderen Weise mit Öl und dessen Derivaten angereichert: Von der Zahncreme über Duschgels, Handys, Laptops, Personenkraftfahrzeuge, Betriebsstoffe usw.

Während die Einsatzmöglichkeiten von Öl vielfältig sind, erzielte seine Nutzung den größten Mehrwert für die Mobilität. Die Erfindung des Otto- sowie des Dieselmotors verbesserte die Leistungsfähigkeit mechanischer Systeme signifikant. Es waren aber nicht die Motoren selbst, die sich auf die Gesellschaft auswirkten, sondern die durch Henry Ford erstmals erschwinglich und in großer Zahl hergestellten Automobile. Mit der Fließbandfertigung revolutionierte Ford die industrielle Fertigung. Der eigentliche revolutionäre Effekt auf die Gesellschaft resultierte jedoch aus der nun möglichen Tür-zu-Tür-Logistik bzw. der dezentralen Mobilität. Während Züge, Flugzeuge und Schiffe zwar größere Volumina pro Fahrt bewältigen konnten, war deren Nutzung jedoch vom Abfahrts- und Ankunftsort abhängig. Durch die Tür-zu-Tür-Logistik konnten logistische Prozesse dagegen flexibler und individueller geplant und umgesetzt werden. Da sich die Motorenindustrie nicht nur auf Automobile, sondern auch auf Schiffe, Lkw und Züge übertragen ließ, entstand rund um den Verbrennungsmotor und die Energiequelle Öl ein weltweites Ökosystem, das unsere Zeitgeschichte bis in die Gegenwart prägt.

2.3 Treiber der dritten industriellen Revolution

Um die dritte industrielle Revolution zu benennen und zu analysieren, müssen zunächst die drei Kerntechnologien aus den Bereichen Kommunikationstechnologie, Energiequelle und Mobilität identifiziert werden. An der Stelle scheiterte aber auch Rifkin (2011), da sich, verglichen mit der zweiten industriellen Revolution, nicht wirklich viel verändert hat. Im Bereich der Mobilität hängen Gesellschaft und Wirtschaft immer noch im großen Stile von der Verbrennungstechnologie und somit von Öl- und Kohleressourcen als Energiequelle ab. Zwar gibt es vereinzelte Vorstöße, erneuerbare Energien und damit neue Mobilitätskonzepte zu etablieren, wie zum Beispiel durch die Firma Tesla. Diese imitieren jedoch nur den Status quo der zweiten industriellen Revolution und verändern nicht grundlegend die Art und Weise, wie die Wirtschaft und Gesellschaft angetrieben, bewegt und verwaltet wird. Das Internet als Kommunikationstechnologie hat hierbei noch den größten Einfluss auf die Zeitgeschichte. E-Mail, Voice-over-IP-Telefonie, Online-Datenbanken/-Portale oder Messenger-Dienste steigern die Effektivität der Kommunikation und Informationsbeschaffung, insbesondere über Zeitzonen und Kontinente hinweg. Aber auch sie imitieren nur bestehende Formen und verändern nicht radikal die Art und Weise, wie Absprachen und Geschäfte getätigt werden. Deshalb kam Rifkin zu dem Entschluss, dass die dritte Revolution noch gar nicht abgeschlossen ist und somit auch die vierte industrielle Revolution noch gar nicht begonnen haben kann. Wie geht es jetzt weiter?

3 Wie Industrie 4.0 gelingen kann?

Die Digitalisierung ist der Schlüssel für die dritte industrielle Revolution. Während im deutschsprachigen Raum für die digitale Transformation in der Regel nur der eine Begriff der Digitalisierung benutzt wird, unterscheiden andere Länder in Digitization, Digitalization und Digital Transformation.

  • Digitization bezieht sich ihrem Wesen nach auf die Umwandlung von Informationen wie Signalen, Bildern oder Tönen in eine digitale Form (eine Folge von Einsen und Nullen), die von Computern gespeichert, verarbeitet und übertragen werden kann. Hierzu zählt zum Beispiel auch die digitale Automatisierungstechnik, welche analoge, industrielle Prozesse nun digital überwachen oder steuern lässt. Aus der Digitization heraus ergibt sich zwangsläufig aber noch kein digitales Geschäftsmodell.

  • Digitalization ist die Nutzung digitaler Technologien, um ein Geschäftsmodell zu verändern und neue Umsatz- und Wertschöpfungsmöglichkeiten zu schaffen; es ist der Prozess des Übergangs zu einem digitalen Unternehmen. Anschauliche Beispiele sind Downloadportale für Musik- und Filmdateien. Während die Wandlung von einer Audiokassette oder Videokassette in eine digitale CD oder DVD dem Vorgang Digitization zuzuschreiben ist, sind digitale, downloadbare Musikstücke und Filme ein skalierbares digitales Geschäftsmodell. Einmal digitalisiert, lassen sich digitale Musik- und Filmstücke beliebig oft konsumieren.

  • Digital Transformation beschreibt die Idee, eine Technologie nicht nur zu nutzen, um einen bestehenden Service in digitaler Form zu replizieren, sondern um diesen Service an ein neues Werteversprechen zu knüpfen bzw. in ein neues Geschäftsmodell zu überführen. Verdeutlicht wird dieses Ziel erneut am Beispiel der Musik- und Filmindustrie. Egal ob analoge Kassette, digitale CD oder downloadbare Musikdatei, das Werteversprechen der Anbietenden bleibt bis dato immer dasselbe: Die Kundschaft erhält im Gegenzug zu einer einmaligen Bezahlung eine Wertsache (engl. commodity), einen Gegenstand, den er besitzen kann. Unternehmen wie Spotify und Netflix haben dieses Wertversprechen für Musik und Film revolutioniert, indem sie den Kundinnen und Kunden nicht mehr zusichern, dass sie eine Sache im Anschluss an eine Transaktion besitzen, sondern diese nutzen dürfen, solange sie dafür bezahlen. Der große Unterschied zu früher ist, dass die Kundschaft von Spotify und Netflix augenblicklich Zugang zur weltgrößten Musik- und Filmsammlung bekommt, ohne dabei alle Werke der Welt kaufen zu müssen. Ermöglicht wird dies durch eine digitale Plattformökonomie, in der an zentraler Stelle replizierbare Produkte und Services der ganzen Welt angeboten werden können. In der Plattformökonomie werden Anbietende und Nachfragende von Produkten und Dienstleistungen auf einer digitalen Plattform organisiert und Angebot und Nachfrage zusammengebracht. Charakteristisch sind geringe Transaktionskosten, transparente Preise und über ausgewählte Managementfunktionen kontrollierte Qualität. Durch sogenannte grenzkostenfreie Werteversprechen ergeben sich besondere Netzwerk- und Skalierungseffekte, welche produktbezogene Geschäftsmodelle ausstechen.

  • Als Grenzkosten werden in der Betriebswirtschaft jene Kosten verstanden, die zur Herstellung einer weiteren realen Einheit zwangsläufig anfallen. Verglichen mit den Kosten der ersten hergestellten Einheit nehmen Grenzkosten infolge von Lern-, Automatisierungs- und Synergieeffekten in der Regel ab. Dieser Abnahmewirkung war jahrzehntelang die Triebfeder der Massenproduktion. Die hergestellten Güter wurden infolge der äußerst hohen Produktionsmenge günstiger und für die Gesellschaft erschwinglicher. Grenzkosten können aber nicht beliebig klein werden. Aufgrund natürlicher Restriktionen erfordert die Massenproduktion immer wieder neue Investitionen, wie zum Beispiel in zusätzliche Mitarbeitende, neue Produktionsanlagen und weitere Standorte, sodass Grenzkosten gegen einen bestimmten Wert (die Grenze) konvergieren.

Die Digitalisierung hingegen ermöglicht nun vollkommen neue Geschäftsmodelle durch vollkommen neue Werteversprechen. Im Digitalen lassen sich einmal erzeugte Produkte näherungsweise grenzkostenfrei reproduzieren. Während in den 70er-Jahren die Vervielfältigung einer Schallplatte mit aufwändigen Herstellungsprozessen und Lieferzeiten verbunden war, können digitale Musikdateien durch einen einfachen Kopiervorgang einer beliebig großen Kundenmenge zur Verfügung gestellten werden. Es sind also jene Geschäftsmodelle zukunftsfähig, welche grenzkostenfreie Margen für die Betreibenden und nutzungsbezogene Werteversprechen für die Konsumierenden ermöglichen. Rohstoff dieser Geschäftsmodelle sind Daten.

Ergänzend lässt sich festhalten: Echte Produkte skalieren nicht grenzkostenfrei. Selbst die Massenfertigung wird immer zeitlich wie finanziell gegen eine Grenze konvergieren, die sich nicht mehr unterbieten lässt. Digitale Produkte hingegen skalieren näherungsweise grenzkostenfrei. So können zum Beispiel Apps wie Angry Birds eine fast unendliche Zielgruppe in Echtzeit zum selben Preis bedienen. Digitale Plattformen übernehmen dabei das Matchmaking aus Angebot und Nachfrage und ermöglichen, dass Kundinnen und Kunden jederzeit on demand digitale Produkte und Services konsumieren können. Basiert der Konsum auf einer wiederkehrenden (zum Beispiel monatlichen) Gebühr, so spricht man von Subskriptionsmodellen.

3.1 Subskriptionsmodelle

Die Gegenwart im Hinblick auf den Wettbewerb um digitale Geschäftsmodelle ist für europäische Industrien ernüchternd. Während die industrielle Stärke Europas vor allem der ersten und zweiten industriellen Revolution zu verdanken ist, zeigt Abb. 3.1, wie diese Märkte und Länder mit ihren in der zweiten Revolution entwickelten Geschäftsmodellen und Produkten über den Verlauf der letzten 30 Jahre an wirtschaftlicher Relevanz verloren haben und wie sich diese Entwicklung fortsetzen könnte.

Abb. 3.1
figure 1

Veränderung der ökonomischen Verhältnisse. (Quelle: Eigene Darstellung nach Buchholz (2020))

Einzig die USA, gefühlt alleiniger Gewinner der auf Öl und Mobilität basierten industriellen Revolution und Pionier digitaler Geschäftsmodelle, kann weiterhin den zweiten Platz behaupten. Insbesondere Länder aus dem asiatischen Kontinent holen mit digitalen Produkten und Services massiv auf und verdrängen die ehemaligen Platzhirsche in der Weltwirtschaft. Der zugrunde liegende Mechanismus ist leicht ersichtlich: Diese Länder profitieren mit ihren großen Bevölkerungszahlen in besonderer Weise von grenzkostenfreien Plattformen, die eine millionenfache Zielgruppe schnell bedienen können.

3.2 Nutzungsbasierte Geschäftsmodelle

Die führenden Plattformgeschäftsmodelle basieren meist auf einem Subskriptionsmodell. Unter einem Subskriptionsmodell wird dabei ein Geschäftsmodell verstanden, das einer beliebig großen Zielgruppe eine kontinuierliche oder wiederkehrende Leistung verspricht, zum Beispiel den Zugang zu Spotify oder Netflix, vgl. Abb. 3.2 (s. Kap. 4 Abschn. 3 f). Im Gegenzug bekommt das betreibende Unternehmen eine periodische oder nutzungsbasierte Zahlung. Periodische Abo-Modelle mit monatlicher Kündigungsfrist haben sich gegenüber pay-per-use- bzw. on-demand-Modellen durchgesetzt, da die Endkundinnen und Endkunden Einfachheit und Planbarkeit mehr schätzen als eine detaillierte Abrechnung. Durch zusätzliche Services, siehe Abb. 3.2, können Kundinnen und Kunden durch immer wieder neue Aktionen und begleitende Werteversprechen gebunden werden.

Abb. 3.2
figure 2

Merkmale eines Subskriptionsmodells nach Osterwalder. (Eigene Darstellung)

Die große Herausforderung für industrielle Unternehmerinnen und Unternehmer besteht nun darin, die über Jahrzehnte etablierten produktbezogenen Geschäftsmodelle in ein nutzungsbasiertes Modell zu überführen. An dieser Stelle scheitern die meisten, da sie unter Digitalisierung doch nur ein weiteres Dashboard („yet another dashboard“) als Ergänzung eines Produkts verstehen. Für die Zielgruppe ändert sich aber nichts in der Zusammenarbeit.

Beispiele nutzungsbasierter Geschäftsmodelle werden im Werkzeugmaschinenbau bereits erprobt. Werkzeugmaschinen und Produktionsanlagen sind hochkomplexe Ingenieurserzeugnisse, welche mehrere Tonnen wiegen und mehrere Millionen Euro kosten. Der hohe Investitionsanteil steht einer hohen Marktdurchdringung im Wege. Klassisch wurde dieses Problem mit Finanzkauf, Miete (Nutzungsvertrag) oder Leasing (Zeitvertrag) begegnet. Das wiederkehrende Problem daran war jedoch, dass eine dritte Organisation, eine Bank oder ein Intermediär, mitverdiente und somit der gesamte Preis teurer wurde. Außerdem waren dies keine nutzungsbezogenen, sondern produktbezogene Finanzierungsmodelle, weil es letztlich immer darum ging, eine physische Sache unabhängig von der Nutzung zu besitzen. Bei nutzungsbezogenen Geschäftsmodellen geht es aber nicht um den Besitz, sondern um die Abrechnung in Abhängigkeit der Nutzung einer Sache. Beispielsweise eignet sich bei Werkzeugmaschinen die verwendete Spindeldrehzahl pro Minute, bei Stanzautomaten die verwendete Hubzahl pro Minute und bei Filteranlagen der verwendete Volumeneingangsstrom pro Minute als datengestütztes Referenzmaß zur genauen Abrechnung. In Abhängigkeit des mit der Spindeldrehzahl, der Hubzahl oder des Volumenstroms eingehenden (nichtlinearen) Verschleißbilds der Anlage lassen sich zwei bis drei (nichtlineare) Preisklassen definieren, die für die Verrechnung des Betriebs der Anlage verwendet werden können. Produziert ein Stanzunternehmen infolge einer weltweiten Pandemie nur wenig oder nichts, zahlt es auch nur wenig oder auch gar nicht. Produziert es in sehr konjunkturstarken Phasen häufig im Grenzbereich der Maschine, zahlt das Unternehmen dagegen nicht nur häufiger, sondern auch mehr, da die Wahrscheinlichkeit eines Ausfalls für den Anlagenbetreibenden zunimmt. In der monatlichen Gebühr sind auch ungeplante Wartungs- und Reparatureinsätze vor Ort einzukalkulieren. Letztere lassen sich aber präzise modellieren und voraussagen, sofern Daten der betriebenen Anlagen zur Verfügung stehen.

Daten sind also das neue Öl für die nächste industrielle Revolutionsstufe, auch wenn der Vergleich in der Definition des Verbrauchs etwas hinkt. Während eine zusätzliche Einheit Öl nicht grenzkostenfrei hergestellt werden konnte, lassen sich Daten beliebig skalieren und reproduzieren. Sie eignen sich daher nicht nur als Treibstoff für Geschäftsmodelle, Algorithmen und Services, sondern auch als Ressource für exponentiell skalierende digitale Wirtschaftsgüter. Digitale Orte und Plattformen, auf denen digitale Wirtschaftsgüter wie Daten und Services zur Verfügung gestellt werden, sind Datenmarktplätze oder auch GAIA-X-konforme Datenräume,Footnote 1 mit denen alle Datenproduzierenden zu Betreibenden eigener skalierbarer, digitaler Geschäftsmodelle werden können (s. Kap. 9).

4 Datenmarktplätze – die digitalen Plattformen der Zukunft

Ein Datenmarktplatz ist durch eine digitale Plattform charakterisiert, die den sektoren-/branchenübergreifenden Handel und Tausch von Rohdaten, verarbeiteten Daten, auf Daten basierenden KI-Analysemodellen und datenzentrierte Dienstleistungen (beispielsweise Visualisierungen) ermöglicht (Trauth et al. 2020a; s. auch Abschn. 4.2.1). Ein solcher Marktplatz bietet Unternehmen ohne eigene personengebundene KI-Expertise Zugang zu IoT-Services und einer ausreichend großen Datengrundlage für eigene KI-Analysen sowie effektiv trainierte Analysemodelle. Der Datenmarktplatz vereint somit simultan digitale Nachfrage und digitales Angebot an einem Ort. Die Funktion des Treuhänders wird ebenfalls von der Plattform übernommen und kann dabei als Intermediär zwischen den einzelnen Teilnehmenden – Datenbereitstellenden und -nutzenden – im Netzwerk beschrieben werden, vgl. Abb. 3.3. Durch Auswahl einer geeigneten technischen Infrastruktur wird die Unabhängigkeit und Neutralität des Intermediärs bei Transaktionen gewährleistet (s. Abschn. 3.4.1).

Abb. 3.3
figure 3

Funktion eines Datenmarktplatzes als Intermediär zwischen Netzwerkteilnehmenden. (Eigene Darstellung)

Ein offener und leicht zugänglicher Datenmarktplatz stellt die Interoperabilität und Portabilität von IoT-Daten/-Services innerhalb einzelner Branchen sowie über deren Grenzen hinweg ohne Abwanderung des Wissens sicher. Im Gegenteil: Infolge des lückenlosen und nachvollziehbaren Austauschs und der kooperativen Nutzung von Daten mit heterogenen Eigentumsrechten innerhalb der vernetzten Teilnehmenden wird ein Wissensfluss ermöglicht, dessen Verwertung in einem unbekannten Wachstum und unbekannter Innovation aller Beteiligten münden kann.

Infrastrukturell betrachtet sollten Datenmarktplätze für maximale Datensicherheit GAIA-X-konform aufgesetzt werden, auch wenn die Initiative aufgrund ihrer Neuartigkeit noch in den Kinderschuhen steckt (Trauth et al. 2021). Eine GAIA-X-Konformität schafft digitale Souveränität, Unabhängigkeit und Sicherheit gemäß der Datenschutzverordnung (DSGVO). Für den Datenmarktplatz ist eine Dezentralität und Förderung der semantischen Integration und Vernetzung von Daten gemäß GAIA-X für einen souveränen und selbstbestimmten Daten- und Servicehandel unabdingbar.

Neben der Funktion als Treuhänder und der Bereitstellung der Infrastruktur muss die Plattform Funktionen zur Bestimmung der Qualität, Herkunft und des Grades der Veredelung der Daten sowie eine Vielzahl von Schnittstellen zur Integration diverser Datenquellen bereitstellen. Anreizmechanismen dienen der Wahrung definierter Qualitätsstandards und sorgen für ein balanciertes Verhältnis aus Datenbereitstellung und -nutzung. Ein Marktplatz, an dem 90 Prozent der Stakeholder nur partizipieren, um Daten zu beziehen ohne eigene Daten einzubringen, kann dagegen nicht florieren und trägt nicht dazu bei, das Misstrauen bezüglich einer möglichen Offenbarung von Wettbewerbsvorteilen zu minimieren. Hierbei werden unter anderem geeignet erscheinende Preismodelle (Preisfindungsmechanismen, Preispolitik, Preisdifferenzierung, Preisbündelung und weitere) analysiert und vom Marktplatzbetreibenden hinsichtlich Akzeptanz bei den Marktplatzteilnehmenden evaluiert. Neben monetären Anreizen sind Rating-Systeme ein bewährtes Mittel, um eine kritische Masse an Marktplatzteilnehmenden zu erzeugen sowie Daten und Services hoher Qualität anzubieten (Trauth et al. 2020b). Bezogen auf die Qualität ermöglicht ein Rating-System gemäß den objektiven FAIR-Datenprinzipien die Klassifikation von Anbietenden nach definierten Qualitätskriterien. Daten werden durch die FAIR-Prinzipien auffindbar (Findable), zugänglich (Accessible), interoperabel (Interoperable) und wiederverwendbar (Re-usable). Weitere Aspekte zur Bewertung der Qualität von Daten sind nachvollziehbare Verantwortlichkeiten für Daten, die Zuverlässigkeit, mit welcher eine Datenquelle neue Daten produziert, eine transparente Versionierung der Daten und die korrekte semantische Einbettung von Daten in einen größeren Kontext. IoT-Services und KI-Modelle sollten die zur Erstellung genutzten Datensets ausweisen.

Für Unternehmen, die sich für eine Teilnahme an einem Datenmarktplatz interessieren, stellt sich die zentrale Frage nach der Souveränität gehandelter Daten. Ein zentraler Aspekt der Bereitschaft, IoT-Daten und -Services zu teilen, ist das Vertrauen in die Mechanismen eines sicheren Datenhandels, die vor dem Verlust von Know-how und Wettbewerbsvorteilen schützen. Dieser Herausforderung kann durch die Auswahl einer vernetzten Infrastruktur begegnet werden, die den grenzüberschreitenden IoT-Daten/-Servicehandel ermöglicht sowie Datensouveränität und -verfügbarkeit garantiert. Klassische zentralistische Modelle, die von einer einzigen Entität verwaltet werden, stoßen dagegen auf Ablehnung durch mangelndes Vertrauen (Pennekamp et al. 2019). Daten verlassen bei Angebot das interne Unternehmensnetzwerk und werden dem Plattformbetreibenden zur Verfügung gestellt. Es besteht potenziell die Gefahr, dass das plattformbetreibende Unternehmen Daten ohne das Wissen oder Einverständnis der Datenanbietenden analysiert und/oder weiterverkauft (s. Historie von Meta [Facebook] oder Google).

Einen Lösungsansatz für diese Problematik eines zentralistischen Ansatzes der Datenverwaltung bietet die Kombination von dezentralen Edge-basierten Systemen zur Datenspeicherung und Distributed-Ledger-basierten Systemen zur dezentralen Datenverwaltung.

4.1 Speicherung der Daten und Verwaltung im Netzwerk

Edge-basierte Datenspeicherungs- und Verwaltungsansätze sind unabdingbar, um erhobene Daten lokal im Unternehmensnetzwerk vorzuhalten. Das lokale Speichern ermöglicht den Unternehmen, eigenständig für die Sicherheit der Daten zu sorgen und verringert die Netzwerklast, da nur Daten über Netzwerkgrenzen ausgetauscht werden, die explizit angefragt werden. Sensible Daten verlassen somit erst dann das interne Netz, wenn das Unternehmen explizit zustimmt, zum Beispiel nach erfolgter Bezahlung durch die Nutzenden. Die Garantie für eine Datensouveränität (Kontrolle über die eigenen Daten sowie deren Erhebung, Speicherung und Verarbeitung) liefert die Dezentralität des Speichersystems. Die Bereitstellung, Wartung und Weiterentwicklung des Edge-basierten Speichersystems übernimmt das plattformbetreibende Unternehmen. Der Datenmarktplatz verfügt lediglich über Datenbeschreibungen (Metadaten) und hat zu keiner Zeit Zugriff auf Rohdaten. Somit werden nur zuvor festgelegte Metainformationen zur Beschreibung des Datensatzes zentral in einem föderierten Cloud-Katalog (zentrale Anlaufstelle, um Daten zu finden, auszuwerten und zu verstehen, wer die Daten nutzt) gespeichert, um Teilnehmenden der Plattform die Suche nach geeigneten Datensätzen zu ermöglichen, nicht aber den Zugriff auf die IoT-Daten selbst. Edge-basierte Systeme werden in zahlreichen Industriebereichen bereits produktiv eingesetzt, jedoch mit zentraler Verwaltung. Die Verantwortung für Speicher- und Zugriffsressourcen ist von einer Entität (Plattformbetreiber) abhängig und kann somit nicht auf alle Netzwerkteilnehmenden verteilt werden. An dieser Stelle schaffen Distributed-Ledger-Technologien (DLT) die notwendige Verwaltungs-hoheit.

Distributed-Ledger-Technologien sind durch Manipulationssicherheit und geografische Datendistribution charakterisiert (Trauth et al. 2020a). Sie gewähren via Dezentralität und digitaler Identität die Integrität aller IoT-Datenpunkte im Datenmarktplatz. Der marktplatzeigene Token bietet ein medienbruchfreies Bezahlinstrument. Zusätzlich ermöglichen Distributed-Ledger-Technologien die Automatisierung von Tausch-, Handels- und Service-Vorgängen mittels Smart Contracts in Echtzeit. Die Transaktionen des Marktplatzes sind für alle Teilnehmenden transparent und nachvollziehbar. Zur Wahrung der Integrität und Authentizität der Daten nutzen DLT die zwei Sicherheitsmechanismen Hashing, eine kryptografische Signatur, und asymmetrische Verschlüsselung. Die Sicherheitsmechanismen sorgen für Transparenz bei simultaner Privatsphäre.

Nach erfolgreichem Bezahlvorgang für einen Datensatz zwischen zwei Parteien des DLT-gestützten Datenmarktplatzes wird ein Peer-to-Peer-Vorgang unter Wahrung der Datensouveränität initiiert. Neben der Rückverfolgbarkeit und Transparenz der Transaktion trägt der Konsensmechanismus zur Vertrauensbildung bei. Dieser erfordert die Einigkeit des Netzwerks hinsichtlich der bevorstehenden Datentransaktion, um zu gewährleisten, dass keine Aktion durch einzelne Teilnehmende des Netzwerks durchgeführt werden kann. Die betreibende Organisation des Datenmarktplatzes verwaltet und hostet den Ledger demzufolge nicht alleine, sodass eine Manipulation/ein Zugreifen ihrerseits ebenfalls nicht unbemerkt bleiben würde (vgl. Abb. 3.4).

Abb. 3.4
figure 4

Sicherer Datenaustausch durch DLT im Rahmen einer Daten-Allianz. (Eigene Darstellung)

Bei der Auswahl der zugrunde liegenden DLT sind deren individuelle Eigenschaften in Bezug auf die Eigenheiten des Anwendungsfalls und die Nachhaltigkeit des Datenmarktplatzes zu berücksichtigen. Eine hohe Skalierbarkeit und Transaktionsgeschwindigkeit sind insbesondere im Anwendungsbereich des Internet of Production (IoP) von großer Bedeutung und können von der IOTA-Tangle-Technologie besonders gut gewährleistet werden (Mayer et al. 2021). Im Kontext der ökologischen Nachhaltigkeit ist bei der Wahl einer geeigneten DLT auch deren Ökobilanz zu berücksichtigen. Die Bitcoin-Blockchain wurde jüngst infolge des sogenannten Mining-Prozesses und der resultierenden hohen Rechenleistung und Energieverbräuche zum Betrieb der Hardware als sehr ressourcenintensiv klassifiziert. Der jährliche Energieverbrauch des Mining-Prozesses betrug im Jahr 2018 73,1 TWh und entspricht ca. 452 kg CO2 (Born 2018). Bei der IOTA-Tangle-Technologie beispielsweise entfällt das Mining und die Rechenoperationen werden mittels ternärer Zustände schneller gelöst, woraus eine höhere Energieeffizienz und deutlich geringe Emissionen resultieren. Während für eine Bitcoin-Transaktion ca. 44,1 kg CO2 emittiert werden, sind es bei IOTA lediglich 7 ∙ 10−7 kg (Jara 2021).

4.2 Von der Datenmonetarisierung zur Datenökonomie

Der Datenmarktplatz ermöglicht durch den Zugang zu IoT-Daten und -Services und deren Monetarisierung ein innovatives digitales Ökosystem zur Förderung der digitalen Wirtschaft. Aus der Verwertung der verfügbaren, jedoch aktuell innerhalb der Unternehmen in Silos vorherrschenden Datenbasis entwickelt sich eine Datenökonomie, in der Daten als digitale Ware fungieren. Unternehmen, Organisationen und Einzelpersonen können einfacher und schneller neue digitale Produkte, Geschäftsmodelle und Dienstleistungen kreieren und anbieten. Die Monetarisierung der IoT-Daten und -Services ist dabei nicht auf den direkten Tausch von digitalen Daten reduziert, sondern bezieht sich ebenfalls auf die monetäre Verwertung eines Datums.

Das digitale Ökosystem auf einem Datenmarktplatz ist maximal anpassungsfähig, skalierbar und selbstorganisiert. Unabhängig von der Branche und des Verwendungszwecks der IoT-Daten und -Services spielen Effekte des Wettbewerbs und die Zusammenarbeit verschiedener Akteure innerhalb des Ökosystems die zentrale Rolle und führen zu einer florierenden, autonomen Ökonomie. Die relevanten Bausteine für eine Monetarisierung von Daten können durch unternehmensübergreifende Wertschöpfung von verschiedenen Partnerinnen und Partnern mit speziellem Know-how übernommen werden. Sobald Daten als Ressource gekauft, veredelt und weiterverkauft werden können, kann sich ein Netzwerk aus Entitäten entwickeln, welche automatisiert Daten auswerten und in monetäre Mehrwerte für andere Unternehmen übersetzen und somit neue Wertschöpfungsströme für sich und andere erschließen. Der Datenanbietende fokussiert sich rein auf das Erheben der IoT-Daten seiner Prozesse und bereitet diese minimal auf. Anschließend werden die Rohdaten mit dem vorgesehenen Kontext verbunden und ggf. in syntaxbasierte Modelle eingebettet. Mithilfe von Tags zur Charakterisierung der preisgegebenen Datensätze oder kleinerer, unkritischer ggf. synthetischer Ausschnitte werden den potenziellen Nutzenden Einblicke in die Art der Daten gegeben. Neben dem Verkauf physischer Produkte wie Werkzeugmaschinen können im Maschinenbau durch die Monetarisierung von Daten neue Erlösströme generiert werden. Datennutzende können hinsichtlich ihrer Hauptexpertise in Anbietende von Datenservices und Anwendende klassifiziert werden. Erstere sichten die verfügbaren Daten und können entweder getrieben durch eigene Innovationsideen Daten einkaufen und verknüpfen oder konkrete Bedarfe bereits identifizierter Kundinnen und Kunden lösen. Das Geschäftsmodell orientiert sich am Verkauf datenbasierter Dienstleistungen. Die Datensätze selbst oder die von den Anbietenden von Datenservices entwickelten KI-Modelle können von den Anwendenden nun erworben und in die eigene Produktion zur kosten- und nachhaltigkeitsorientierten Optimierung der Wertschöpfung integriert werden. Die plattformbetreibende Organisation profitiert von einem Datenmarktplatz infolge der Bereitstellung der technischen Infrastruktur, welche die Anforderungen an Datensicherheit, -integrität und -souveränität wahrt. Sie ist durch die Ausübung der Treuhänderfunktion gekennzeichnet, welche die Sicherheit von Transaktionen und Daten sowie der Datenintegrität garantiert. Treiber der monetären Erfolge und kritischer Faktor für die Entstehung von Innovation ist die stetige Erweiterung des Netzwerks durch neue Stakeholder sowie deren Bereitschaft, IoT-Daten und -services zu teilen.

4.3 Neue Wertschöpfung und Preisfindung

Aus der Monetarisierung von Daten als Wirtschaftsgut ergeben sich für Unternehmen neue Optionen zur Gestaltung von Investments und Geschäftsmodellen. Die neu akquirierten Erlöse durch den Verkauf von IoT-Daten können beispielsweise in passende Sensorik zur digitalen Abbildung des Produktionsprozesses reinvestiert werden. Die Produkt- und Prozessqualität wird dadurch weiterhin gesteigert und die erhobenen Daten können erneut verkauft werden, sodass sich die Kosten der Sensoren nicht nur über die Zeit amortisieren, sondern Profite erwirtschaftet werden können. Die Investition in wertvolle IoT-Daten und -Services sowie die eigene Bereitstellung von Datensätzen und Modellen kann einmalig, periodisch oder nutzungsbezogen als As-a-Service-Modell erfolgen. Unabhängig vom Geschäftsmodell muss jedoch vorab ein fairer Preis für datengetriebene Produkte definiert werden (Rix et al. 2020). In einem voll entwickelten Ökosystem ergeben sich nach einiger Zeit automatisch Mechanismen, welche die Preise für bestimmte Daten nach Qualitätsmaßstäben und Aussagekraft der Daten festlegen. Es existieren jedoch bereits heute Ansätze, um den Preis vor oder nach dem Handel von Daten bzw. ohne vorangestellte Analyse des Werts des Datensets zu bestimmen. In der Praxis wird zwischen Ansätzen und Modellen aus dem Bereich der Mikroökonomie (wert-, kosten-, wettbewerbsorientierte Preisfindung) und der Spieltheorie zur Preisbildung von Produkten unterschieden (Liang et al. 2018). Für das Asset Datum konnte sich bisher kein einziger Ansatz für die Realisierung eines Datenmarktplatzes manifestieren (zu Möglichkeiten der Preisbildung s. Kap. 5).

Es gibt jedoch auch Ansätze, einen Datenmarktplatz ohne eine Analyse und Anwendung von Preisen und Preisbildungsmechanismen zu implementieren. Der Vorteil ist der entfallende Aufwand einer vorangestellten Definition der Kosten oder des Werts eines Datensatzes.

So existiert zu Beginn des aufzubauenden Ökosystems eines Datenmarktplatzes zum Beispiel die Möglichkeit, die Daten nachträglich zu bepreisen. Exklusiv für das Szenario der Entwicklung eines IoT-Services wird ein Datensatz erst nach der Verarbeitung in einem KI-Modell proportional zum Modellumsatz bepreist, ohne dass ein geeigneter Preismechanismus vorab gründlich getestet werden muss. Zu Beginn stellen die Datenanbietenden kostenfrei unternehmensinterne Datensätze bereit. Datennutzende können nun diese Datensätze erwerben und zum Beispiel ein Machine Learning-Modell zur Vorhersage von Qualitätsmerkmalen erstellen, um ein definiertes Problem der Kundinnen und Kunden zu lösen. Im Anschluss kann das erstellte Modell gegen (monetäre) Anreize zur Nutzung freigegeben werden. Die Beteiligung der ursprünglichen Datenanbietenden erfolgt prozentual am geschaffenen Mehrwert des Modells. Bringt das entwickelte Modell operative Vorteile für die Datenanbietenden selbst, können sie das Modell (ggf. zu vergünstigten Konditionen) selbst kaufen oder nutzen (vgl. Abb. 3.5). Ein solches Szenario würde es einerseits datenbereitstellenden Unternehmen erlauben, Mehrwert aus den eigenen Daten zu generieren, ohne ein hohes Ex-ante-Investitionsrisiko in KI-Know-how einzugehen. Andererseits entstünde eine Situation, in welcher Datennutzenden eine Vielzahl von Datensätzen zur Verfügung stünde, um eine innovative Kombination verschiedener Datensätze umzusetzen und auf dieser Basis neue IoT-Services zu entwickeln. Gelingt es hingegen nicht, produktreife Modelle auf Basis der angebotenen Daten zu erarbeiten, entstehen neben den verursachten Lohnkosten für Data Scientists keine weiteren Kosten für die Nutzung der Daten.

Abb. 3.5
figure 5

Daten- und Informationsfluss in einer Daten-Allianz. (Eigene Darstellung)

Der Aufwand, den Preis eines ausgewählten Datensatzes vor dem Eigentumsübergang zu ermitteln, wird durch diese Option zwar umgangen, jedoch wird die Ausnutzung der Kaufbereitschaft vieler Kundinnen und Kunden durch den geringen psychologischen Grad des Eigentums konterkariert. Diese Eigenschaft beeinflusst den wahrgenommenen Wert zum Zeitpunkt des Kaufs einer Ware und trägt dazu bei, dass digitale Assets wie Daten eine geringere Wertkonnotation haben als physische Güter, die man anfassen, manipulieren und bewegen kann. Eine Preisfindung im Vorfeld mit einer geeigneten Methode aus den verfügbaren Preisfindungsmechanismen zur Ermittlung des Wertes wird daher empfohlen.

4.4 Anwendungsszenarien von Datenmarktplätzen

Ein Datenmarktplatz ermöglicht neue Ansätze für die Erfassung und Steuerung der Nachhaltigkeit eines gesamten Unternehmens. Die große IoT-Datenbasis bietet potenziell einen vollständigen ökologischen Fußabdruck sämtlicher Lieferketten auf Basis eines Life Cycle Assessments (LCA), einer Methode zur produktspezifischen Messung der ökologischen Nachhaltigkeit. Dies gewinnt im Kontext des Pariser Klimaabkommens und des am 25. Juni 2021 erlassenen Lieferkettensorgfaltspflichtengesetzes (LkSG) zur Wahrung ausgewählter Umweltstandards zunehmend an Bedeutung. Alle Partizipierenden einer Lieferkette besäßen im Falle eines Lieferengpasses einen fälschungssicheren, datenbasierten Beweis für die Einhaltung sämtlicher Produktionsstandards sowie eine Verifikation der Herkunft von Rohstoffen oder Produkten, die einen bestimmten CO2-Fußabdruck garantiert. Darauf aufbauend könnte die ab dem Jahr 2021 in Kraft tretende CO2-Steuer automatisiert an den Staat entrichtet werden. Neben der Abwicklung der Steuer kann auf Basis der Informationen der LCA auch der von der Bundesregierung initiierte CO2-Zertifikatshandel manipulationsgeschützt realisiert werden.

Zusätzlich bietet ein Datenmarktplatz mit den beschriebenen Charakteristika den echtzeitfähigen Zugang zum vollumfänglichen Potenzial von IoT-Daten und -Services und somit zur Steigerung der Produktivität und Rationalisierung der Prozessabläufe. Mithilfe von KI können bislang verborgene Kausalitäten und Korrelationen identifiziert und über Unternehmensgrenzen hinweg zur Effizienzsteigerung nutzbar gemacht werden. Die datengetriebenen und effizienzbezogenen Knowledge-Spillover-Effekte können durch die Nutzung von KI zur Schaffung von Innovationen und zur Optimierung bestehender Prozesse genutzt werden. Geteilte Wartungszeitpunkte oder Maschinenausfälle erhöhen die Effizienz und reduzieren die Emissionen ohne den Verlust von Know-how. KI-basierte IoT-Services zur Prädiktion von Verschleiß reduzieren den Ausschuss der Datennutzenden und bieten gleichzeitig neue Erlösströme für die Datenbereitstellenden.

Dennoch besteht die Gefahr, dass sich die Effekte gesteigerter Effizienz durch Smart Services, Nutzung des Datenmarktplatzes und deren Energiebedarfe in ihrer Ökobilanz nivellieren. Eine Kontrolle zwischen eingespartem und erzeugtem CO2 ist daher ratsam. Ein mögliches Tool wäre die Incentivierung der Nutzung der Datenmonetarisierung mittels eines Öko(-Bilanz)-Rating-Systems als Teil des LCA. Ein solches System enthält alle nachhaltigkeitsbezogenen Kenngrößen eines IoT-Services wie beispielsweise den Energiebedarf des Services, seiner Erstellung inklusive der verwendeten Daten als auch das ökologische Einsatzpotenzial. Zum Beispiel hat die Entwicklung eines energiesparenden Systems zur Verschleißprädiktion durch die Anwendungsmöglichkeit in einer nachhaltigen Produktion einen positiven Effekt auf das Öko-Rating der zum Training verwendeten Daten. Durch die Entwicklung des Services steigt auch allgemein der (monetäre) Wert der verwendeten Daten. Trotz des Bezugs beider Ratings auf die Daten und ihre Verwendung in Services ist die Trennung der Rating-Systeme sinnvoll, da Services mit einem hohen finanziellen Potenzial nicht zwangsläufig für ökologische Effizienzsteigerung verwendet werden. Andere Daten können auch eine hervorragende Qualität aufweisen, ohne bereits für entsprechende Systeme verwendet worden zu sein. Marktteilnehmende können somit besonders auf die Nachhaltigkeitsoptimierung achten und dies ebenfalls an ihre Kundinnen und Kunden weitergeben.

5 Zusammenfassung

Jeremy Rifkin (2011) hat am Beispiel der ersten und zweiten industriellen Revolution herausgearbeitet, dass für eine echte Revolution die Konvergenz von drei Technologien erforderlich ist, die es wirtschaftlichen Akteuren erlauben, die Aktivitäten besser steuern, antreiben und bewegen zu können. Voraussetzung hierfür sind deutliche Technologiesprünge in der Kommunikationstechnologie, der Energiequelle und der Mobilität. Bezogen auf Industrie 4.0 hat sich, verglichen mit der zweiten industriellen Revolution, noch zu wenig getan. Es ist aber bereits heute absehbar, dass Daten und digitale Services das Potenzial haben, als Rohstoff nicht nur neue Energiekonzepte, sondern auch neue Mobilitätskonzepte zu ermöglichen. Die als Monetarisierung von Daten als Wirtschaftsgut bezeichnete Vision hat zum Ziel grenzkostenfreie digitale Produkte und Services zu designen, welche jeden Datenproduzierenden automatisch zum Technologieführer machen.

In diesem Beitrag wurde ausgehend von den vier Haupthemmnissen einer Monetarisierung von Daten als Wirtschaftsgut ausgearbeitet, wie die Datenmonetarisierung einen Beitrag zur Erhöhung der Effizienz in Unternehmen leisten kann. Die vier Haupthemmnisse sind

  1. 1.

    fehlende Unternehmensstrategien zur Datenakquise,

  2. 2.

    die mangelnde Verfügbarkeit von KI-Know-how,

  3. 3.

    fehlende dezentrale Plattformen, die einen automatisierten und spezifischen Austausch von Daten erlauben und

  4. 4.

    die Unklarheit über den Wert von Daten und der Verlust an Know-how ohne adäquate monetäre Entlohnung durch das Teilen von Daten.

Um das Potenzial einer Monetarisierung von Daten als Wirtschaftsgut zur Steigerung der ökologischen Effizienz zu bergen, müssen (technologische) Lösungen entwickelt werden, die diesen Hemmnissen begegnen. Kern der in diesem Beitrag diskutierten Lösungen ist zum einen die dezentrale Speicherung und Verwaltung von Daten auf einem Datenmarktplatz, sodass keine zentrale Entität die Souveränität über die Daten oder das Netzwerk besitzt. Zum anderen können durch Beteiligungsmodelle die Ex-ante-Investitionshürden im Bereich der Datenanalyse negiert werden. Damit werden Unternehmen Anreize zur Beteiligung an einem Ökosystem zur Datenmonetarisierung gesetzt und die Nutzung datengetriebener KI-Services zur Steigerung der Effizienz ermöglicht. Dies ist auch im Kontext der Ökologie von besonderer Bedeutung, da die Steigerung der Effizienz eine von drei zentralen Strategien zur Optimierung der ökologischen Nachhaltigkeit ist. So bewirkt die Verwendung einer Distributed-Ledger-Technologie wie der IOTA-Tangle-Technologie beim Gestalten der Architektur dieses Ökosystems eine Steigerung der Energieeffizienz. Die Vermeidung von Mining-Prozessen, wie sie in einer Bitcoin Blockchain benötigt werden, ermöglicht eine insgesamt positive Ökobilanz des Datenmonetarisierungssystems mit Potenzial einer langfristigen Nachhaltigkeitssteigerung für alle Teilnehmenden.