Entscheidungen, die auf Grundlage von Daten getroffen werden, können immer nur so gut sein, wie die zu Grunde liegenden Daten und die darauf angewandten Transformationen und Berechnungen. In vielen Bereichen, insbesondere bei sicherheitskritischen Anwendungen oder Anwendungen im Gesundheitsbereich scheuen sich potenzielle Nutzende, datenbasierte Lösungen einzusetzen: Sie haben kein ausreichendes Vertrauen in digitale Lösungen.

Im folgenden Buchteil werden Lösungsansätze vorgestellt, um die Qualität datenbasierter Dienste und Produkte sicherzustellen sowie nachzuweisen und so Vertrauen in diese Angebote zu stärken. Die Themenkomplexe der erklärbaren Künstlichen Intelligenz (Explainable AI) und der Zertifizierung von KI wurden bewusst ausgeklammert, da sie durch besondere Herausforderungen charakterisiert sind, die den Umfang einer eigenen Abhandlung erfordern.

Der Beitrag Unternehmensdaten – Informationen aus gewachsenen, komplexen Systemen herausarbeiten von Philipp Schlunder und Fabian Temme nimmt sich der wichtigen und schwierigen Herausforderung an, eine funktionierende Datenpipeline mit aussagekräftigen Daten bei Unternehmen aufzusetzen, die den digitalen Wandel noch nicht vollständig vollzogen haben. Die Autoren berichten aus ihrer Berufserfahrung als KI-Dienstleister und als Mitarbeitende der Forschungsprojekte DaPro sowie IIP-Ecosphere. Sie thematisieren insbesondere das organisatorische Vorgehen bei Datenwertschöpfungsprojekten sowie die Interaktion mit (KMU-)Kunden. Der Beitrag bietet konkrete, praxisnahe Lösungsansätze für Herausforderungen bei der Umsetzung von Datenwertschöpfungsprojekten, die über das hinaus gehen, was technische Leitfäden abzudecken vermögen.

Der Beitrag Datenqualitätssicherung entlang der Datenwertschöpfungskette im Industriekontext von Jochen Saßmannshausen und Philipp Marcel Schäfer stellt eine Auswahl von in der Entwicklung begriffenen technischen Ansätzen des Forschungsprojekts GEMIMEG-II vor, die die Zuverlässigkeit von Datentechnologien in einem Industrie-4.0-Kontext sicherstellen sollen: Digitalisierung der Sensorkalibrierung, sicheres Identitätsmanagement bei der Orchestrierung verteilter Verarbeitungsschritte und Digital Ledger Technologien (DLT) für die verteilte Datenhaltung.

Der Beitrag Nationale und internationale Standardisierung und Zertifizierung von Datendiensten von Axel Mangelsdorf, Stephanie Demirci und Tarek Besold stellt den Normungs- und Regulierungsrahmen sowie die wichtigsten Normungsaktivitäten für Datentechnologien vor. In dem Beitrag wird zudem dargelegt, wie, wann und warum erforderliche oder freiwillige Zertifizierungen der Akzeptanzschaffung dienen. Anhand des Beispiels eines im Rahmen des Förderprojekts Telemed5000 entwickelten datenbasierten Medizinprodukts wird beschrieben, wie die Zertifizierung im Produktlebenszyklus mitberücksichtigt werden kann.

Die drei Beiträge repräsentieren somit unterschiedliche, komplementäre Ansätze, Vertrauen in Daten und datenbasierte Dienste und Produkte sicherzustellen.