Data-to-Value Konzepte und wie man sie erfolgreich umsetzt

Link teilen:

Daten sind wertlos – bis man ihnen Wert verschafft. Wie das funktioniert zeigen Data-to-Value Konzepte.

In der digital vernetzten Welt gelten Daten als wertvoller Rohstoff und Wirtschaftsgut. Sie fallen in großer Menge als Nebenprodukt digitalen Prozessen, Kommunikation und Wertschöpfungsketten in Unternehmen an. Doch im Gegensatz zu üblichen Marktwerten, wie Immobilien oder physischen Gütern, besitzen Daten keinen inhärenten Wert.

Erfolgreiche Unternehmen entfalten mit „Data-to-value“-Konzepten und Strategien bereits heute das monetäre Potential ihrer Daten und verschaffen sich zahlreiche Vorteile. Gleichzeitig wächst der Abstand zu „late Followern“, die vor einer ganzen Reihe von Fragestellungen stehen: Welche Handlungsbereiche müssen betrachtet werden? Was ist Datengesundheit“ und warum ist sie essenziell für erfolgreiche Konzepte? Wie baue ich das nötige Wissen bei meinen Mitarbeiter:innen auf?

Wann sind Daten wertvoll?

Für das Jahr 2025 prognostiziert der Statistikdienst „Statista“ [Sta18]

ein jährliches, weltweit generiertes Datenvolumen von insgesamt 175 Zettabyte. Das sind 175 Milliarden Terabyte, was in etwa der Datenmenge von 5,4 Millionen Jahren Film in Blue-Ray-Qualität entspräche. Der Großteil dieser Daten liegt dabei heterogen bzw. unstrukturiert vor und durchläuft einen gewissen Lebenszyklus: Von der Erzeugung über die Verarbeitung und Veröffentlichung bis hin zur Archivierung. Die Wahrscheinlichkeit, dass diese Daten unangetastet auf unterschiedlichsten Speichermedien verwaisen und damit wertlos bleiben, ist äußerst groß.

Denn das monetäre Potential wird erst freigeschaltet, wenn die jeweiligen Rohdaten aufbereitet und angereichert werden, um sie anschließend zu visualisieren und in den jeweiligen Kontext zu setzen. Sparen die Unternehmenstätigkeiten, die aus der Analyse abgeleitet werden, Geld oder sorgen für zusätzlichen Umsatz/Gewinn, so gewinnen die Daten zusätzlichen Wert.

Die gewonnenen Vorteile erstrecken sich gleich über mehrere Ebenen – das „Daten-Ökosystem“ selbst, digitale Unternehmensprozesse, das Mitarbeiterverhalten und die interne sowie externe Monetarisierung.

Grafik: Vorteile der Analyse von Unternehmensdaten für Data-to-Value
Abbildung 1: Vorteile der Analyse von Unternehmensdaten

Unternehmen, die diese Vorteile identifiziert und entsprechende Maßnahmen strategisch implementiert haben, profitieren in der Regel zunächst durch eine höhere Transparenz, den Rückgewinn der Übersicht über die vorhandene Datenlandschaft und eine Steigerung der Mitarbeiter-effizienz. Für den langfristigen Erfolg sind jedoch strategische Maßnahmen vonnöten, die auf ein gemeinsam vereinbartes Zielbild einzahlen, welches konkrete Maßnahmen in den einzelnen Handlungsbereichen zu einer realisierbaren Roadmap vereint.

Nur gesunde Daten sind gute Daten

Durch unstrukturierte Transformationsprojekte und eine historisch gewachsene Basis an Systemen und Technologien laufen zahlreiche Unternehmen Gefahr, ihre eigene Datenbasis negativ zu beeinträchtigen. Denn obwohl laut einer Studie 64 % der befragten Führungskräfte täglich mit Daten arbeiten, vertrauen lediglich 40 % darauf, dass die Daten vertrauenswürdig und damit verwertbar sind [Tal21].  Ein entscheidender Faktor für die Ausschöpfung des inne liegenden Potentials ist die Beachtung und Pflege der sogenannten „Datengesundheit“. Dabei reicht es jedoch nicht aus, den rechtlichen und regulatorischen Anforderungen, wie beispielsweise der DSGVO zu entsprechen. Per Definition ist der optimale Zustand von Daten über drei Attribute zu erreichen:

  1. Gültigkeit der Daten– die vorliegenden Daten sind frei von Messfehlern,Datenverunreinigungen und transportieren die gewünschte Information.
  2. Vollständigkeit der Daten– die erhobenen Daten enthalten alle Informationen, zu deren Transport sie erhoben wurden.
  3. Eignung für die Datenanalyse– Unter Bezugnahme auf die Punkte 1 und 2 müssen Daten geeignet sein, also gültig, vollständig, rechtlich/regulatorisch sauber, um mehrwerthaltig analysiert zu werden.

Vereinfacht ließe sich also sagen, dass gesunde Daten diejenigen sind, die mit den richtigen Informationen zur richtigen Zeit beim richtigen Menschen im richtigen Kontext vorliegen. Dabei genügen die Daten gleichermaßen allen regulatorischen und rechtlichen Voraussetzungen, so dass deren Nutzung ohne eine Zustandsprüfung möglich ist. Die Vorteile einer solchen Behandlung sind vielfältig und schaffen die Basis für Automatisierung, die Einführung von künstlicher Intelligenz oder maschinellem Lernen.

Doch um von Beginn an „gesunde Daten“ zu erhalten, ist ein strukturiertes Vorgehen notwendig, welches ganzheitlich von Beginn an diejenigen Faktoren bedenkt, die eine langfristig erfolgreiche Einführung von „Data-to-value“-Maßnahmen ermöglicht.

Der Weg zu Advanced Analytics

Erfahrungsgemäß verläuft ein nachhaltiges Projekt zum Thema „Data-to-value“ oder „Advanced Data Analytics in drei Phasen ab: Dem initialen Scoping, also dem Aufbau eines Datenzielbildes, dem kontinuierlichen Lernen zur Verfestigung gewonnenen Wissens und Könnens, sowie die Umsetzung von erarbeiteten Use-Cases und Initiativen.

Aus den Grundsätzen „Individualität“ und „Ganzheitlichkeit“ dient das Datenzielbild der Beantwortung initialer Fragen, wie beispielsweise „Wo stehen wir heute und welche Handlungsfelder müssen wir betrachten?“ „Welche Voraussetzungen sind dafür nötig?“ „Wie identifiziere ich Daten in meinem Unternehmen, die monetäres Potential aufweisen?“

Auf Basis von Stakeholder- und Kundeninterviews werden in einem ersten Schritt die Bedarfe und Anliegen der Nutzer:innen identifiziert und mithilfe humanzentrischer Methoden, wie zum Beispiel Design-Thinking“, als Fundament für den Umgang des Datenzielbildes erhoben. Im zweiten Schritt werden Datenquellen erfasst und Anwendungsfälle im Unternehmen herausgearbeitet, um diese nach Dringlichkeit und Wichtigkeit aufzuschlüsseln. Aus diesen beidenKomponenten wird eine Visualisierung der Datenlandschaft herausgearbeitet undan eine Ausarbeitung des Zielzustandes gekoppelt. Sie dient als Grundlage für die Roadmap zur Umsetzung des Zielbildes (siehe Abbildung 02), der Berücksichtigung von Abhängigkeiten und Schätzung der Aufwände.

Grafik: Beispielhaftes Datenzielbild, visualisiert für Daten-Services
Abbildung 02: Beispielhaftes Datenzielbild, visualisiert für Daten-Services

Für den notwendigen Aufbau von Wissen und den zugehörigen Fähigkeiten im Umgang mit Daten und deren Analyse ist es essenziell, den Vorgang des Vergessens durch regelmäßiges Wiederholen des Lernstoffes abzumindern. Über Methoden, wie dem  „Reinforced Learning“, und in 1:1 Coachings anhand realer Uses Cases, lernen Mitarbeiter:innen Ihres Unternehmens die erlangten Erkenntnissen im Alltag anzuwenden. Als Formate bieten sich hierfür regelmäßige Hackathons an, die beispielsweise mithilfe von Übungsaufgaben eine messbare Kontinuität beim Wissensaufbau und der Verfestigung erzeugen. Nur so ist sichergestellt, dass die „gesunden Daten“ auch korrekt interpretiert und fachlich korrekt weiterverarbeitet oder analysiert werden.

Mit dem Data-Lake zu Data-to-Value

Um in gesammelte Daten eine Ordnung zu bringen, diese anschließend zu analysieren und hieraus unternehmerische, monetär relevante Entscheidungen abzuleiten, bedarf es also eines hohen Schulungsgrades. Doch wie bereitet man Daten so auf, dass man die gewünschten Informationen erhält? Die Grundlage bietet ein sogenannter Data-Lake als System zur Speicherung unterschiedlichster Daten im Rohformat. Die Technologie ermöglicht es, strukturierte Daten aus Datenbanken, CSV-, XML- oder JSON-Dateien, genauso wie unstrukturierte Daten aus E-Mails, Dokumenten, Bildern, Audiodateien etc. in einem einzigen Speicher zu verwalten. Data-Lakes sind in der Lage, sämtliche anfallende Unternehmensdaten in gigantischer Größe zu verarbeiten.

Um trotz der verschiedenen Datenquellen und -formate die Bildung von Silos zu vermeiden und relevante Daten miteinander zu verknüpfen, setzt sich seit einigen Jahren das Architekturkonzept Data Fabric durch. Dabei werden mit verschiedenen Cloud-Diensten die Verbindungen von internen oder externen Datenquellen miteinander verwoben und harmonisiert. Dies ist vor allem im Hinblick auf den Parallelbetrieb von (Hybrid-) Cloud- und On-Premises-Umgebungen von Vorteil. Anbieter wie zum Beispiel Microsoft ermöglichen mit dem Enterprise Data Warehouse skalierbare Datenspeicherlösungen, die zahlreiche Zusatzdienste zur Strukturierung, Analyse und Weiterverarbeitung direkt mitliefern (siehe Abbildung 3).

Sie erlauben es, die Datenanalyse als One-Stop-Shop zu implementieren und vorhandene sowie anfallende Datensätze interpretierbar und damit nutzbar zu machen. Business-Intelligence-Tools, wie zum Beispiel Microsoft Power BI oder integrierte KI-Plattformen, ermöglichen es anschließend, die Daten zu visualisieren, zu den richtigen Rezipient:innen zu transportieren oder auf Basis künstlicher Intelligenz weiterführende Entscheidungen zu treffen.

Grafik: Beispielarchitektur des Microsoft Enterprise Data Warehouse.
Abbildung 3: Beispielarchitektur des Microsoft Enterprise Data Warehouse. (Quelle: Microsoft)

Mit den richtigen Daten zu richtigen Entscheidungen

Als logische Weiterführung der Data-Lake-Konzepte bietet die Data Fabric eine umfassende Datenbasis zur Ableitung von Schritten zur Optimierung unternehmerischer Prozesse, einer Umsatzsteigerung oder der Anpassung vorhandener Zulieferketten. Sind die richtigen Fragestellungen und Perspektiven mit Unterstützung eines Datenzielbildes erarbeitet, das nötige Wissen zum Umgang mit Daten im Unternehmen verankert und eine Data Fabric als flexible Grundlage geschaffen, erweisen sich die Anwendungsfälle und -bereiche als vielschichtig.

Unternehmensinterne Optimierungen wie die Auswertung von Recruiting Prozessen durch Process Mining, Auswertungen von Marketingkampagnen oder die Einführung von Controlling-Maßnahmen über automatisierte Reportings bieten zahllose Ansatzpunkte für positive Verhaltensänderungen von Mitarbeiter:innen zur Steigerung der operativen Exzellenz.

Auch extern lassen sich die erhobenen Daten monetarisieren: Vom direkten Verkauf der erhobenen Analysedaten über das Angebot datenbasierter Optimierungen auf Basis der eigenen Erkenntnisse bis hin zu datengetriebenen Geschäftsmodellen, speziell im eCommerce sind die Beispielfälle nahezu endlos.

Quellen:

[Tal21] https://info.talend.com/rs/347-IAT-677/images/DH_Survey_report.pdf
[Sta18] https://de.statista.com/statistik/daten/studie/267974/umfrage/prognose-zum-weltweit-generierten-datenvolumen/

Der Artikel “Data-to-Value-Konzepte und wie man sie erfolgreich umsetzt” erschien zuerst als Gastbeitrag bei computerweekly.de 

Aktuelle News & Events

Unsere aktuellen Infos für Sie:

Jetzt Kontakt aufnehmen

=

Jetzt Kontakt aufnehmen

=

Jetzt Kontakt aufnehmen

=

Zum Newsletter anmelden


Newsletter


Kontakt

=