Peter Gluchowski (Hrsg.)

Data Governance

ISBN: 978-3-86490-755‑5, dpunkt.verlag, Heidelberg 2020, 252 S., 59,90 €

Dieser Sammelband mit insgesamt 13 Beiträgen von 18 Autor*innen bietet einen umfassenden Überblick über die Grundlagen und Konzepte der Data Governance sowie einen guten Einblick in deren praktische Umsetzung und Anwendung. Damit kommt dieses Buch zur richtigen Zeit. Denn Daten gelten, wie der Herausgeber in seinem Vorwort zutreffend schreibt, als wesentlicher Faktor des modernen, digital getriebenen Wirtschaftsgeschehens. Zu Recht wird vielfach von Daten auch als dem 4. Produktionsfaktor oder dem „Öl der Digitalisierung“ gesprochen, um zum Ausdruck zu bringen, wie wichtig es ist, alle in den Geschäfts- und Produktionsprozessen benötigten Daten mit besonderem Fokus auf zentrale Qualitätsmerkmale wie etwa Korrektheit, Vollständigkeit und Aktualität bereitstellen zu können. Entsprechend berechtigt sind Forderungen nach einer wirkungsvollen Data Governance. Der Begriff ist in seiner Mehrdimensionalität allerdings nicht leicht zu fassen.

Um den zentralen Aspekten einer Data Governance gerecht zu werden, empfiehlt es sich daher, sie aus unterschiedlichen Blickwinkeln zu betrachten. Für eine bessere Struktur ist der Sammelband deshalb in drei Teile gegliedert.

Der erste Teil befasst sich in fünf Beiträgen mit den Grundlagen der Data Governance. Schon hier bestätigt sich die zentrale Rolle der Data Governance in der Digitalisierung, genauer der Datenwirtschaft (Data Economy), deren reibungsloses Funktionieren für die Digitalisierung eine immer größere Bedeutung einnimmt, und wie wichtig Data Governance gerade auch in zunehmend komplexen BI-Landschaften ist. Gleich im ersten Beitrag werden das Data-Governance-Framework und seine einzelnen Elemente für die weitere Orientierung umfassend diskutiert. Der zweite Beitrag adressiert die Relevanz und den Wertbeitrag der Data Governance anhand zentraler Ziele, die teilweise bereits aus der Datenqualitätsdiskussion bekannt sind, wie etwa Transparenz, Integrität, Verfügbarkeit, Schutz und Sicherheit. Aber auch der – nicht erst jetzt bedeutsame, häufig „verdrängte“ – Punkt der Monetarisierung wird angesprochen. Welche Rollen für eine gute Data Governance notwendig sind, zeigt ein weiterer Abschnitt des Beitrags – zentral ist hier die Frage der Eigentümerschaft und Verantwortung (Ownership) sowie des „Kümmerns“ (Steward, Custodian). Selbstverständlich gibt es auch in dieser Governance-Teildisziplin die Rolle des „Directors“, der die Gesamtverantwortung für alle Data-Governance-Aktivitäten und -Entscheidungen in einer der obersten Leitungsebenen im Organigramm übernimmt. Wer bereits Erfahrungen im IT-Governance-Umfeld besitzt, wird sich auch hier leicht zurechtfinden können. Prozesse und Strukturen sind analog ausgestaltet – ja müssen so ausgestaltet sein, denn Data Governance ist immer Teil der IT-Governance und darf dazu kein Widerspruch sein. Dass der Reifegrad einer Data Governance bereits hier angesprochen und kritisch diskutiert wird (am Beispiel des Modells GARP der ARMA International), zeigt, wie zentral dieses Thema im betrieblichen Alltag ist (Abschn. 4.4.) und dass es hierfür noch viel zu tun gibt. Sehr positiv ist auch die Aufnahme des Aspekts „Datenethik“ in den Grundlagenteil – gewinnt man doch heute leicht den Eindruck, als nutzten zahlreiche Unternehmen die ihnen anvertrauten Daten, insbesondere Kundendaten und andere sensible Daten, erstaunlich leichtfertig und unreflektiert – nicht nur mit Blick auf die oben angesprochene Monetarisierung. Dass ein Unternehmen im Sinne der Verantwortung für das ihm Anvertraute nicht alles ausschöpfen sollte, was durch Gesetze und andere Vorgaben nicht ausdrücklich verboten ist, fällt genau unter solche Überlegungen zum ethischen Umgang mit Daten. Vertrauen und die sich daraus ergebenden Teilaspekte sind, das kann als eine wichtige Botschaft des Beitrags verstanden werden, ein ganz zentraler Bestandteil einer funktionierenden „datengetriebenen“ (geläufiges Synonym: „data driven“) Wirtschaft.

Im zweiten Teil werden Konzepte, Lösungen und Tool-Kategorien in ebenfalls fünf Beiträgen vorgestellt, darunter die Diskussion der „ewigen“ Frage guter Stammdaten, die praxisnahe Beleuchtung des Datenkatalogs als Fundament jeder Data-Governance-Initiative und die Beschreibung einer Harmonisierung von Data-Warehouse- und Data-Lake-Architekturen. Besonders interessant ist das Kapitel über DataOps, das den DevOps-Ansatz weiterdenkt und entsprechend adaptiert. DataOps muss daher ebenso wie ein Data-Governance-Framework als weiteres wichtiges Element für ein Unternehmen gelten, dessen Geschäftsmodelle wesentlich von guten Daten abhängen.

Der dritte Teil rundet mit drei Beiträgen aus der konkreten Anwendung den Sammelband ab. Besonders positiv: Auch der prüferische Aspekt wird in einem Beitrag aufgegriffen, ein Element, das in Veröffentlichungen viel zu selten Eingang findet. Gerade in Bereichen, in denen besonders viele sensible Daten verarbeitet werden (hier am Beispiel von Finanzinstituten, denkbar wären aber beispielsweise auch Gesundheitseinrichtungen) ist eine neutrale, risikoorientierte Prüfung ein Muss, um unerwünschte Entwicklungen frühzeitig erkennen oder gar vorausschauend vermeiden zu können.

Der Beitrag zu Problemfeldern in der Umsetzung von BI-Initiativen und den daraus gezogenen Schlüssen (Lessons Learned) zeigt sehr anschaulich und leicht lesbar typische Aspekte im Datenkontext auf, die sicherlich alle nur zu gut kennen, die in entsprechenden Projekten und Initiativen Verantwortung getragen haben oder noch tragen. Möglicherweise unbeabsichtigt aber überaus gelungen wird in diesem Teil auch das sich immer schneller drehende Karussell der neuen Schlagwörter entlarvend dargestellt. Das Beispiel „Data Tiering“ und „hot, warm und cold data“ veranschaulicht das beispielhaft: Je wichtiger Daten für den jeweiligen Prozess sind und je häufiger sie benötigt werden (Klassifikation und Priorisierung), desto schneller muss das Speichermedium sein, auf dem sie abgelegt sind. Dass also einmal jährlich benötigte Daten nicht vorrangig in einem kostenintensiven In-Memory-Speicher abgelegt werden sollten, erscheint auch ohne neuen Begriff dafür konsequent.

Als Fazit lässt sich festhalten: Mitunter gerät die „gute alte BI-Lösung“ in Verruf, weil sie – natürlich – historisch wächst und häufig auch ohne ganzheitliches Konzept für den Umgang mit Daten gestartet ist. Das kann tatsächlich zu Unzufriedenheit führen, sowohl auf betreuender, als auch auf nutzender Seite. Neue Konzepte, wie etwa der Data Lake, versprechen Abhilfe, doch bei genauem Hinsehen stellen sich hier sehr ähnliche, wenn nicht sogar noch viel komplexere Fragen. Zu ihrer Beantwortung ist Data Governance ein zentrales Konzept. Es hat seine Berechtigung überall dort, wo mit Daten gearbeitet wird, ganz unabhängig davon, ob die Lösung eher „historisch gewachsen“ oder vollständig neu konzipiert worden ist. Die Modernisierung bestehender Lösungen ist sicherlich vielfach verdienstvoll, aber gute Data Governance ist nicht nur eine Frage des richtigen Technik-Einsatzes, sondern, und das wird die Praxiserfahrung bestätigen, vor allem eine Sache der richtigen Einstellung zu diesem Thema („Mindset“). Nur wer den Ende-zu-Ende-Gedanken und die damit verbundene Verantwortung für die Daten und alle mit ihnen arbeitenden Beteiligten verstanden und akzeptiert hat, ist in der Lage, Data Governance erfolgreich zu etablieren. Und genau dabei hilft dieses Buch, unter anderem, indem es Strukturen und Themen systematisch vorstellt, Vorgehensweisen beschreibt und Best Practices enthält und damit den Blick schärft für die Fragestellungen und die sich daraus ergebenden Konsequenzen. Damit ist es für alle vom Herausgeber angesprochenen Zielgruppen in der Praxis, die sich mit Daten beschäftigen, eine gute Empfehlung, ganz besonders aber auch für alle Studierenden der (Wirtschafts‑)Informatik, denn für dieses zentrale Thema kann gar nicht früh genug sensibilisiert werden, damit später in der Praxis typische Fehler von Beginn an vermieden und die in guten Daten steckenden Potentiale für eine bessere Wettbewerbsfähigkeit umfassender, schneller und zielorientierter ausgeschöpft werden können.