datenwertschöpfung und qualität von daten - bvdw.org · „data economy describes the...
TRANSCRIPT
Der besondere Dank für die Entstehung dieser Publikation gilt den beteiligten Expertinnen und Experten:
MARKUS BREUERnugg.ad GmbH
CAROLIN GREIFMedia Impact GmbH & Co.KG
JÖRG KLEKAMPADITION technologies AG
SVEN LIPPERTIP Deutschland GmbH
SWETLANA MEIERAxel Springer SE
STEFAN MIESartegic AG
DANIEL RIEBERadsquare GmbH
THOMAS SCHAUFDeutsche Telekom AG
VOLKER STÜMPFLENMediengruppe RTL Deutschland GmbH
MELANIE VOGELBACHERQ division GmbH
TOBIAS WEGMANNprexma
4 INHALT
INHALT
WAS IST DATA ECONOMY – BEGRIFFE, DEFINITIONEN UND MARKTUMFELD 3
Definition Data Economy 4
Data Economy 4
DATEN-WERTSCHÖPFUNG 7
Vertikale Datenverarbeitung: Vom Datum zur Information 7
Horizontale Daten-Wertschöpfungskette: Von der bloßen Information zum wertvollen Gut 8
Wertbemessung von Daten 11
Faktoren, die den Wert bestimmen 11
QUALITÄT & WERT VON DATEN: WIE DIE WERTSCHÖPFUNG FUNKTIONIERT 15
BEISPIELHAFTE BEWERTUNG EINES DATENSATZES
FÜR DIE BESTIMMUNG DER WERTSCHÖPFUNG 17
ZUSAMMENFASSUNG 21
AUTOREN 22
BUNDESVERBAND DIGITALE WIRTSCHAFT (BVDW) E.V. 36
FOKUSGRUPPE MOBILE IM BVDW 37
IMPRESSUM 38
5WAS IST DATA ECONOMY – BEGRIFFE, DEFINITIONEN UND MARKTUMFELD
WAS IST DATA ECONOMY – BEGRIFFE, DEFINITIONEN UND MARKTUMFELD
Die Verwendung von Daten hat bei einer Reihe von teils neuen Geschäftsfeldern in den letzten Jahren ra-
pide an Bedeutung zugenommen. Dieser Bedeutungsanstieg schlägt sich auch in dem zunehmend genutzten
Schlagwort von „Daten, die das neue Öl seien“ nieder. Dies ist jedoch insofern missverständlich, als es
zunächst die Eigenart von Daten als unkörperlichem Wirtschaftsgut mit allen seinen Vor- und Nachteilen
übersieht. Darüber hinaus ist das eigentliche „Gut i. S. eines Handelswertes“ der Data Economy nicht das
Datum, sondern es sind Informationen, die aus der verknüpften Auswertung von einzelnen Daten abgelei-
tet werden. Diese Unterscheidungen sind essentiell für die Betrachtung der ökonomischen Zusammenhän-
ge in der Data Economy und für die kontroverse Diskussion um den Wert von und auch ein vermeintliches
Eigentumsrecht an Daten.
Das vorliegende Papier beschreibt insbesondere den zweiten Aspekt, die Wandlung von Daten zu Infor-
mationen. Wir beginnen mit der Vorstellung der „Informationspyramide“, die aufzeigt, wie (Roh-)Daten
die Ableitung von Informationen ermöglichen und wie auf diesen wiederum Wissen und Erkenntnisse
aufbauen. Tatsächlich sind Daten an sich – so wie Rohöl – für die meisten wirtschaftlichen Verwertungs-
zwecke nahezu nutzlos. Für die entsprechenden Geschäftsmodelle sind tatsächlich Informationen oder
gar Erkenntnisse notwendig, die erst in den späteren Stufen der Wertschöpfungskette aus der rohen
Datenmasse entstehen.
Diese Wertschöpfungskette der Data Economy wird im darauffolgenden Abschnitt vorgestellt. Sie be-
steht aus fünf Stufen: (1) Datengewinnung und (2) -aufbereitung, (3) Informationsgewinnung, (4) -bereit-
stellung und schließlich die (5) Informationsnutzung. Im Zuge dieser fünf Stufen wird auch beschrieben,
wie aus Rohdaten wertvolle Informationen entstehen.
In allen Geschäftsmodellen spielt die Sicherstellung einer hohen Qualität der verwendeten Daten – und
damit der abgeleiteten Information eine große Rolle. Diese Aufgabe obliegt dem Bereich des Informa-
tionsmanagements, welches auf Grundlage von Datenbasis, Datenbanken und Datenbankmanagement-
systemen Rahmenbedingungen und Regeln für Daten bestimmt. Nachvollziehbarkeit und Einhaltung der
jeweiligen Verarbeitungsregeln einerseits sowie eine hohe Datenqualität (z.B. Aktualität und Art der
Nutzeridentifikation) andererseits sind hier unerlässliche Hygienefaktoren , die für die spätere Ermitt-
lung der Datenwerte eine entscheidende Rolle spielen.
Den Wert objektiv zu ermitteln, ist eine keinesfalls triviale Aufgabe. Mit diesem Thema beschäftigt sich
der letzte Abschnitt dieses Papiers. Hier wird unter anderem an Fallbeispielen erläutert, wie sich dem
objektiven Wert einer Information zumindest angenähert werden kann. Der inhaltlichen Auseinander-
setzung mit den oben skizzierten Parametern vorgreifend, sind die wichtigsten Erkenntnisse zur Data
Economy folgende:
1. Nicht Daten, sondern erst die entlang der wertschöpfenden Struktur abgeleiteten Informationen
haben einen messbaren Wert.
2. Algorithmen sind ein wesentlicher Bestandteil der Data Economy. Diese leiten als Analyse-Instanz
Informationen aus Daten ab und schaffen erst den Wert der Daten für eine Institution und die
Data Economy als Ganzes.
3. Der Wert der Daten lässt sich mittels einer Stufenkalkulation und den verbundenen Datenmengen
bestimmen. Auf Basis der erhaltenen Grenzkosten lassen sich Gewinn und Wertschöpfung ermitteln.
6
4. Dieser Wert einer datenbasierten Information kann aus zwei Perspektiven betrachtet werden (die zu
unterschiedlichen Ergebnissen kommen):
a. Der spezifische Wertbeitrag als maximaler Grenznutzen dieser Information im Rahmen eines
konkreten Geschäftsmodellsb.
b. Der Marktwert, der sich über die Preisfindung in einem auf Angebot und Nachfrage basierenden,
hinreichend liquiden Markt ergibt
5. In beiden Fällen und unabhängig vom spezifischen Wert im Kontext eines Geschäftsmodells bestim-
men Qualität, Liquidität und Exklusivität den Wert von Informationen.
DEFINITION DATA ECONOMY
„Data Economy describes the monetization of information created by data in an own business model.”
Im Kern beschäftigt sich die Data Economy mit der Monetarisierung von Informationen auf Basis gewon-
nener Daten, welche mit einem Algorithmus zu werthaltigen Informationen transformiert und anschlie-
ßend auf Basis der betriebswirtschaftlichen Funktionen zugänglich gemacht werden. Data Economy kann
als eigenes Business-Modell betrieben werden oder unterstützt, verändert oder ersetzt bestehende
Wertschöpfungsmodelle durch eine zunehmende Digitalisierung.
DATA ECONOMY
Mit der Zunahme der Menge erfasster Daten gewinnen Daten im Kontext unternehmerischer Entschei-
dungen eine immer größere Bedeutung. Dies schlägt sich auch in der gewachsenen Aufmerksamkeit für
Schlagwörter wie Big Data, Datenvolumen und SaaS-Plattformen nieder. Sie geben ein Beispiel dafür,
wie sich der Markt beim Thema Daten gewandelt hat und sich in Zukunft weiterentwickeln wird. Die
hier benannten Teilgebiete stehen dafür exemplarisch und können um andere Teilgebiete, in denen es
im Wesen um die Transformation von Daten zu Informationen geht, ergänzt werden. All diese Bereiche
verfolgen im Kern ein Ziel: Daten zusammenzutragen und aus diesen Wissen für das eigene Geschäfts-
modell zu entwickeln. Die Zusammenstellung, Wandlung von Daten zu Informationen und die Nutzung
der neuen Information lässt sich als ein Teil der Data Economy bezeichnen.
Die Data Economy bildet die daraus entstehende Wertschöpfungskette ab. Erst durch die Organisation
der Wertschöpfung wird es möglich, Werte von Daten und den wirklichen Wertebeitrag in einem Un-
ternehmen zu bestimmen.
Big Data
Besonders am Umsatz mit Big-Data-Lösungen lässt sich hervorragend erkennen, in welchen Dimensi-
onen sich der Markt gewandelt hat. Allein von 2011 bis 2016 ist der Umsatz weltweit von 3,4 Milliarden
Euro auf 15,7 Milliarden Euro1 gestiegen. Bis 2026 wird der Umsatz auf bis zu 92,2 Milliarden US Dollar2
anwachsen. Das belegen auch Umfragen zur Nutzung von Big Data. Lediglich 1 Prozent der Unterneh-
men in Deutschland hat sich noch nicht mit dem Thema Big Data auseinandergesetzt. Im Gegensatz
dazu haben 35 Prozent der Unternehmen Big-Data-Lösungen bereits im Einsatz und weitere 24 Prozent
planen, diese zukünftig zu nutzen.3 Für 51 Prozent der befragten Unternehmen gehörte Big Data zu den
wichtigsten IT-Trends 2016.4 In den nächsten Jahren zählt Big Data damit zu den wichtigsten technolo-
1 Exper ton, 2016, Big Data Vendor Benchmark 2 Wikibon, 2015, Big Data Vendor Revenue and Market Forecast 3 KPMG, 2016, Big Data Repor t 4 Bitkom, 2016, Branchenbarometer 1.Halbjahr
„Data Economy describes
the monetization of
information created by
data in an own business
model.”
WAS IST DATA ECONOMY – BEGRIFFE, DEFINITIONEN UND MARKTUMFELD
7
gischen Trends.5 Die Anbieter mit den weltweit größten Marktanteilen für Lösungen im Big-Data-Bereich
sind IBM, SAP und Oracle.6 Fast jedes Unternehmen analysiert Daten, jedoch nutzen nur 13 Prozent 7
eine fortgeschrittene Analyse von Daten unterschiedlicher Herkunft und Struktur. Vor allem deskrip-
tive (48 Prozent) und vorausschauende Analysen (39 Prozent) werden von Unternehmen genutzt.8 Für
Entscheidungsprozesse sammelten und analysierten Unternehmen 2016 vor allem Unternehmensdaten,
Kundendaten und systemisch erstellte Daten.9 Auch im Bereich des Internet of Things (IOT) gibt es
neues Potenzial, wenn es um Analysemöglichkeiten geht: Denn obwohl sich nur 43,5 Prozent der Un-
ternehmen aktiv mit dem Thema auseinandersetzen, wird innerhalb der ersten fünf Jahre bereits eine
Umsatzsteigerung von bis zu 20 Prozent erwartet.10
Datenvolumen
Zu 56 Prozent sind Videos und zu 27 Prozent sind Tauschbörsen für das Datenvolumen verantwortlich,
Websites und Daten machen lediglich 15 Prozent aus.11 2005 betrug das Volumen der jährlich gene-
rierten Datenmenge weltweit 130 Exabyte und bis 2020 liegt die Prognose bei 40.026 Exabyte.12 Zurzeit
liegt der Wert noch bei ca. 9.000 Exabyte13, was laut den Prognosen eine Vervierfachung der Datenmen-
ge innerhalb von 4 Jahren bedeutet. Auch in der durchschnittlichen Betrachtung der genutzten monat-
lichen Datenmengen eines Mobilfunkanschlusses in Deutschland ist die Zunahme deutlich zu erkennen:
Betrug das Datenvolumen 2012 noch 114 Megabyte pro Smartphone und Monat, liegt es 2016 schon bei
durchschnittlich 510 Megabyte.14
Datenverarbeitungsgeschwindigkeit
Datenverarbeitung umfasst das Erfassen, Übermitteln, Ordnen und Umformen von Daten.15 Dies ge-
schieht zur Informationsgewinnung und meist durch Unterstützung von Technik, z. B. mithilfe von
Computern. Die Geschwindigkeit wird dabei immer wichtiger und stellt einen entscheidenden Wett-
bewerbsvorteil dar. Außerdem bildet die Datenverarbeitungsgeschwindigkeit die Grundlage für Real-Ti-
me-Optionen und KI-Systeme. Nicht nur die Verarbeitung wird immer schneller, sondern auch der Um-
satz der Branche schießt immer weiter in die Höhe. Lag er 2009 noch bei 887 Mio. Euro16 , so wird er
bis 2020 auf 2565 Mio. Euro17 prognostiziert. Die Rechenleistung des leistungsstärksten Supercomputers
liegt 2017 bei 93014,6 TeraFLOPS, FLOPS18 steht dabei für Floating Point Operations Per Second und
bezeichnen die Anzahl der ausführbaren Rechenoperationen pro Sekunde.
Entwicklung SaaS-Plattformen
Auch an Software-as-a-Service-Plattformen lässt sich die Entwicklung im Markt nachvollziehen. Die
Dienstleitungsbranche hat in den letzten Jahren eine der stärksten Entwicklungen durchlebt – so auch
im Software-Bereich. Von Collaboration, Back-up und Archivierung über CRM- und ERP-Systeme bis hin
zu Human Resources und Supply-Chain-Management19 bieten die Dienstleister sämtliche Optionen an.
Dieser Vielfalt entspricht auch der Umsatz. Weltweit wurden 2010 10,75 Milliarden US Dollar generiert,
5 EHI Retail Institute, 2015, Technologische Trends im Handel6 Wikibon, 2015, Big Data Vendor Revenue and Market Forecast 7 KPMG, 2016, Big Data Repor t8 KPMG, 2016, Big Data Repor t 9 KPMG, 2016, Big Data Repor t 10 SAS, 2016, Wettbewerbsfaktor Analytics im Internet der Dinge 11 Cisco Systems, 2016, Cisco Visual Networking Index: Global Mobile Data Traffic Forecast Update 12 IDC, 2012, The Digital Universe in 2020: Big Data, Bigger Digital Shadows, and Biggest Growth in the Far East13 Sopra Steria Consulting, 2016, Potenzialanalyse Data Science14 VATM und Dialog Consult, 2015, 17. TK-Marktanalyse Deutschland15 Gabler Wir tschaftslexikon, 2017 16 Statista, Eurostat, 201717 Statista, Eurostat, 20118 Top500.org, 2017 19 PWC, 2010, Cloud Computing. Navigation in der Wolke
WAS IST DATA ECONOMY – BEGRIFFE, DEFINITIONEN UND MARKTUMFELD
Von Zeichen zu Wissen
Quelle: 2012 Raffael Herrmann; www.derwir tschaftsinformatiker.de
SYNTAX
einzelne Zeichen werden mittelsSyntax zu einer Aussage angeordnet.
Zeichen
Wissen
Informationen
Daten
PRAGMATIK / VERNETZUNG
Informationen werden mit Erfahrungen verknüpft und ergeben somit Wissen.
SEMANTIK
Aussagen / Daten wird eine Bedeutung zugewiesen.
8
2016 waren es schon 37,7 Milliarden US Dollar.20 Als größte zukünftige Herausforderung wird von 72
Prozent der befragten Unternehmen vor allem gesehen, Kunden von der Datensicherheit zu überzeu-
gen. Weitere 61 Prozent messen der Herausforderung, die kritische Nutzermasse zu erreichen, eine
weitere große Bedeutung zu.21 Software-as-a-Service nimmt im Marktvolumen von Cloud Services den
größten Platz ein. Mit 4511 Millionen Euro22, die 2016 in Deutschland umgesetzt wurden, hebt sich das
Segment weit von PaaS, IaaS und Network ab. Weltweit entwickelt sich der Umsatz mit Cloud-Com-
puting-Diensten stetig weiter nach oben. 2009 lag er bei 58,6 Milliarden US-Dollar, 2016 bei 203,9
Milliarden US-Dollar23. Mit dieser Zunahme steigt auch das Bedürfnis nach Sicherheit, bis 2019 wird
der Umsatz mit Cloud Security auf 8,71 Milliarden US Dollar24 gestiegen sein. Allgemein wird Cloud
Computing von 54 Prozent25 der befragten Unternehmen in Deutschland genutzt, 44 Prozent26 stehen
dem Thema aufgeschlossen und interessiert gegenüber. Cloud-Provider sollten in Zukunft besonders auf
die Integrationsfähigkeit von Lösungen achten, denn das ist Kunden bei der Auswahl besonders wich-
tig.27 SaaS-Plattformen dienen in der Data Economy als Tools (Werkzeuge), welche zu einer besseren
Daten-Informationskapitalisierung führen oder Prozesse für die Monetarisierung der vorliegenden und
gewonnenen Informationen verbessern (z. B. zentrale Datensicht, Automatisierung von Prozessen hin-
sichtlich der Ausprägungen von Informationen etc.).
DATEN-WERTSCHÖPFUNG
VERTIKALE DATENVERARBEITUNG: VOM DATUM ZUR INFORMATION
20 Gar tner, 2016, Forecast Analysis: Public Cloud Services, Worldwide, 4Q15 Update21 Fraunhofer IAO, 2010, Geschäftsmodelle im Internet der Dienste22 Exper ton, 2016, Cloud Vendor Benchmark23 Gar tner, 2016, Forecast Analysis: Public Cloud Services, Worldwide, 4Q15 Update24 MarketsandMarkets, 2014, Cloud Security Market Repor t25 KPMG; Bitkom, 2016 Cloud Monitor 26 KPMG; Bitkom, 2016 Cloud Monitor27 KPMG; Bitkom, 2016 Cloud Monitor
DATEN-WERTSCHÖPFUNG
9
Die Data Economy beschäftigt sich mit der Organisation von Daten zu Informationen und hat wesent-
liche Schnittmengen mit dem Informationsmanagement (IM). IM steht für die Gesamtheit aller strate-
gischen Verfahren und die Abstraktion in die operativen Möglichkeiten, mit denen der Produktionsfaktor
Information betrieblich genutzt werden kann. Um zu einer Information zu gelangen, ist es notwendig,
sich mit den Begriffen Daten und Information auseinanderzusetzen. In der heutigen Diskussion werden
Daten und Information oftmals vermischt oder gar pauschal gleichgesetzt. Daten sind Grundlage der
Informationsgewinnung und der Wandlungsprozess von Daten zu Information ist ein elementarer Be-
standteil der Wertschöpfung innerhalb der Data Economy.
In der Unternehmensstrategie beschäftigt sich das IM mit der Art und Weise, wie Informationen, be-
ginnend mit den Rohdaten, erfasst, verarbeitet, gespeichert, bereitgestellt werden und als wichtige Res-
source in vorhandene und neue Anwendungen einfließen können. Das IM beschreibt im Wesentlichen,
welche Informationen in welche Arbeitsabläufe einfließen und stellt diese Informationen im Wertschöp-
fungsprozess bereit. Ebenfalls ist das Informationsmanagement für die im Kontext bezogene Vollständig-
keit und die Qualität der Daten und Informationen verantwortlich. Um zu verdeutlichen, woraus eine
Information besteht, soll die Wissenspyramide (s. Abbildung) zur Darstellung dienen.
Im Kern bestehen Daten aus Zeichen, welche binär oder alphanumerisch vorliegen können. Daten lie-
fern ohne einen Kontext noch keine Information. Es ist möglich, Daten zu sammeln und diese zu ar-
chivieren, doch ohne einen konkreten Kontext liefern Daten zunächst kein neues Wissen i. S. einer
Information. 28Wurde ein Kontext definiert, können Daten zu Informationen transformiert werden und
erlauben dem Menschen oder der Maschine Wissen zu generieren. Dieser Prozess wird meist mithilfe
eines Algorithmus getätigt. Dieses Wissen fließt dann im Informationsmanagementprozess in die kon-
textbezogene Wertschöpfung ein.
Um aus Daten eine Information abzubilden, ist es notwendig, sich analytisch, logisch und systematisch
mit Daten zu beschäftigen. Die erste Beschäftigung mit Daten auf dem Weg zu einer Information nennt
sich Modeling, es handelt sich dabei um die Erstellung eines Modells. In dieser Phase setzt sich ein Da-
tenbankexperte, ein Programmierer oder ein Analyst mit den vorliegenden Daten auseinander, um einen
Weg zu finden, die gewünschten Informationen für eine verbesserte Ausgangslage zu erhalten. Bei einer
dauerhaft geplanten Nutzung liegt es nahe, dass dieser Prozess automatisiert wird. Ab diesem Zeitpunkt
spricht man gegenwärtig vom Erstellen eines Algorithmus, welcher voll automatisiert auf Basis eines
in der Struktur gleichbleibenden Datenmodells aus sich ständig verändernden Daten Informationen
hervorbringt.
HORIZONTALE DATEN-WERTSCHÖPFUNGSKETTE: VON DER BLOSSEN INFORMATION ZUM WERTVOLLEN GUT
Beschäftigte sich das vorherige Kapitel mit dem vertikalen Transformationsprozess eines Datums zu
einer Information, umfasst dieses Kapitel die horizontale Transformation. Hier wird dargestellt, wie man
von einem Datum zu einem messbaren Wert gelangt.
28 Information: Derjenige Anteil einer Nachricht, der für den Empfänger einen Wert besitzt. Durch Informationen werden beim Wir tschaftssubjekt bestehende Wahrscheinlichkeitsur teile bez. entscheidungsrelevanter Daten oder Ereignisse veränder t.
DATEN-WERTSCHÖPFUNG
Vereinfachte Darstellung des Wertschöpfungsprozesses der Data Economy
Informationsnutzung
Informationsbereitstellung
Informationsgewinnung
Datenaufbereitung
Datengewinnung
10
Die Wertschöpfungskette der Data Economy
Vereinfacht lässt sich der Wertschöpfungsprozess in fünf Teile untergliedern: Datengewinnung, Datenauf-
bereitung, Informationsgewinnung, Informationsbereitstellung und Informationsnutzung.
1. Datengewinnung
Hier werden die Rohdaten gemessen oder anderweitig erhoben und an ein üblicherweise server-ba-
siertes System geschickt.
2. Datenaufbereitung
In dieser Stufe werden die Rohdaten für die weitere Verarbeitung aufbereitet. Sie werden zum Beispiel
bereinigt und um Metadaten (zum Beispiel Quelle, Klasse/Typ, Zeitpunkt der Erfassung etc.) angereichert.
3. Informationsgewinnung
Nach der ersten Aufbereitung findet die Informationsgewinnung, quasi die „Raffinierung“ oder „Ver-
edelung“ der Daten statt. Durch Analyse, intelligente Zusammenführung von Einzeldaten, Bildung und
Anwendung von statistischen Modellen, Extrapolation etc. werden aus losen Daten wertvolle Informa-
tionen generiert. Eine weitere und etwas ausgeprägtere Form der Information kann dann zu Wissen
oder Erkenntnissen führen. Da dies nur eine weitere Anwendung von Raffinierungsschritten beschreibt,
werden diese Prozesse insgesamt in einer Stufe zusammengefasst.
4. Informationsbereitstellung
Um Nutzen aus den gewonnenen Informationen ziehen zu können, müssen diese technisch in einem
System bereitgestellt werden. Dies geschieht, indem die neue Information mit allen notwendigen Attri-
buten als ein Datensatz gespeichert wird.
5. Informationsnutzung
Am Ende der Wertschöpfung werden die Informationen genutzt; u. a. für das eigentliche Produkt, welches
in der industriellen Herstellung, dem Handel oder Service bestehen kann, wie auch für Inhalte oder deren
Bewertung durch Empfehlungen, Marktforschung und andere Analysen. Das gewünschte Endergebnis der
Nutzung hängt vom Geschäftsmodell ab. In dieser Stufe fallen die von außerhalb kommenden Erlöse an.
Zugleich entstehen durch die Informationen neue Daten, die ggfs. wieder in Stufe 1 bzw. 2 zurückfließen.
DATEN-WERTSCHÖPFUNG
11
Erlöse können intern und extern erwirtschaftet werden. Interne Erlöse auf Basis der Data Economy ent-
stehen, indem die gewonnene Information einen strategischen oder taktischen Informationsvorsprung
oder -vorteil gegenüber den Wettbewerbern bietet. Externe Erlösmodelle sehen vor, die neu gewon-
nene Information entweder gegen eine Gebühr zu veräußern oder sie auf Basis eines Dienstes kosten-
pflichtig bereitzustellen. Eine Sonderform der Kapitalisierung ist bei der externen Monetarisierung die
werbefinanzierte Vermarktung.
DIE WERTSCHÖPFUNGSSTUFEN IM DETAIL
Im Folgenden wollen wir die einzelnen Wertschöpfungsstufen etwas detaillierter vorstel-
len. Da die digitale Welt vielfältig und einer ständigen Entwicklung unterworfen ist, kann keine,
die tatsächlichen Gegebenheiten beschreibende, vollumfängliche Prozessbeschreibung erfolgen.
Datengewinnung
Als „Datengewinnung“ bezeichnen wir alle Prozesse, über die Daten innerhalb eines Unternehmens in
den Wertschöpfungsprozesse eingehen. Diese Daten kommen aus den unterschiedlichsten Quellen und
gelangen auf unterschiedlichen Wegen in die Wertschöpfungskette der Data Economy.
Exkurs: Datenquellen
Es gibt eine Vielzahl von Datenquellen. Datenquellen können Webseiten, Kassensysteme, Sensoren oder
andere Gateways zur Wandlung einer Aktion in ein digitales Datum sein. Die Anzahl von Sensoren im
öffentlichen wie auch im privaten Raum (z. B. Smart TV), ist in den letzten Jahren erheblich gestiegen.
Weiterhin steigt die Anzahl von digitalen Plattformen und Angeboten, welche nicht nur das Ergebnis
von Datenverarbeitungsprozessen darstellen, sondern selbst wieder Datenquellen für andere Prozesse
darstellen.
Datenaufbereitung
Nach der Datengewinnung ist es empfehlenswert, die Daten aufzubereiten. Dieser Arbeitsschritt kann
unterschiedliche Facetten haben. Es kann bspw. sein, dass Daten in dem angelieferten Dateiformat nicht
maschinell bearbeitbar sind. Es muss dann zunächst eine Lösung gefunden werden, wie Daten systema-
tisch, automatisiert und logisch erfasst sowie verarbeitet werden können. Liegen die Daten bearbeitbar
vor, können mehrere nächste Arbeitsschritte folgen, welche auf die Qualität und schließlich den Wert
der vorliegenden Daten einzahlen. Die Verarbeitungsprozesse zur Vorbereitung der Datenbearbeitung
lassen sich in Bereinigung, Anreicherung und Standardisierung (Taxonomie) untergliedern.
Informationsgewinnung
Der Informationsgewinnung wird die größte Aufmerksamkeit gewidmet. In dieser Phase beschäftigt sich
ein Entwickler, Datenbankexperte oder Analyst mit der Bildung eines mathematischen Modells oder der
Bildung eines logischen Ablaufprozesses. Dies ist der Kern der Data Economy, da an dieser Stelle Daten
auf Basis des eigenen Geschäftsmodells zu denjenigen Informationen gewandelt werden die für die
individuelle Wertschöpfung und damit eingehende Monetarisierung notwendig sind. Wurde ein Modell
oder Prozess gefunden, beginnt die Modellierung des Modells in einen Algorithmus oder das Erstellen
eines logischen Prozessablaufs. Der Algorithmus oder Prozess dient dazu, den gewünschten Output
an Informationen dauerhaft und ohne weitere manuelle Einzelschritte zu erhalten. Ist die Information
generiert, ist es für eine weitere wertschöpfende Verarbeitung notwendig, diese bereitzustellen (siehe
Informationsbereitstellung).
DATEN-WERTSCHÖPFUNG
12
Dieser Prozessschritt der Informationsgewinnung stellt den Kern der datenbasierten unternehmerischen
Wertschöpfung dar. Nur wer eigenes Know-how in der eigenen Daten- und Informationsinfrastruktur
generiert, behält die Kontrolle über die Wertschöpfung. Trifft man bei der Wahl des Datenbankmodells
eine falsche Entscheidung oder begrenzt sich von Beginn an auf ein zugehöriges Leistungsangebot, bei-
spielsweise eine Datenbank mit einem geschlossenen Ökosystem, erhält das Unternehmen nie die Mög-
lichkeit, besser als der Marktführer zu werden, der ggf. eigene Lösungen entwickelt. Diese Entscheidung
zu treffen, hängt eng mit der Unternehmensstrategie zusammen, d. h. ob sie auf Marktführerschaft oder
reine Marktteilnahme ausgerichtet ist und wie weit das Bewusstsein für die Entwicklung der eigenen
Data Economy ausgeprägt ist.
Informationsbereitstellung
Bei der Informationsbereitstellung werden die neu gewonnenen Informationen gespeichert. Ab dem
Punkt der Speicherung kann die Nutzung dieser Information angegangen werden.
Informationsnutzung
Eine Informationsnutzung erfolgt, indem die neue Information abgerufen wird. Der Abruf kann in
mehrfacher Hinsicht erfolgen, entweder in der Verarbeitung in einem Produktionssystem, der Darstel-
lung auf einer Webseite, innerhalb einer App, auf dem Bildschirm oder als Druck. Ebenfalls kann die
Information auch als neuer Datensatz bereitgestellt werden und dient dann als Auslöser für weitere
Prozesse. Zum Beispiel lässt sich ab dieser Stelle der Wertschöpfungsprozess auf Basis eines ande-
ren oder erweiterten Wertschöpfungsansatzes von vorn beginnen. Die Informationsnutzung findet
entweder zwischen Maschine zu Maschine, Maschine zu Mensch, Mensch zu Maschine oder Mensch zu
Mensch statt.
WERTBEMESSUNG VON DATEN
Grundsätzlich kann der Begriff „Wert“ (im kaufmännischen Sinne) bei einer Information zwei Bedeu-
tungen haben:
1.Der unternehmensspezifische Wert
im Kontext eines konkreten Geschäftsmodells und einer Datenstrategie, je nach verfolgtem Ge-
schäftsziel und der jeweiligen Rolle der Daten und der Informationsgewinnung. Relevante Fragestel-
lungen dabei sind:
Welche zusätzlichen Erlöse können erzielt werden?
Welche Kosten können vermieden/reduziert werden?
2. Der Marktwert
als der „Preis“, der sich in einem System von Angebot und Nachfrage – einem Markt – für eine be-
stimmte Information herausbildet.
Zu beachten ist, dass beide Werte weit auseinanderklaffen können. Der unternehmensspezifische Wert
einer Information kann deutlich über oder unter dem Marktwert liegen.
Diese Betrachtung macht deutlich, dass ein isolierter „objektiver Wert“ von Daten so gut wie nicht
ermittelt werden kann. Wert erhalten erst die aus den Daten gewonnenen Informationen – und das nur
im Kontext eines spezifischen Wertschöpfungsprozesses. Im folgenden Kapitel werden marktgängige
Methoden zur Wertbestimmung von Daten aufgezeigt.
DATEN-WERTSCHÖPFUNG
Reifemodell Data Economy
Unternehmensspezifischer Wert
Monitoring
Optimierung und
Marktdifferenzierung
User Value
Business Value
Marktwert
Wachstum und Disruption
durch neue Erlösquellen
Monetarisierung
Market Value
1 3
24
13
FAKTOREN, DIE DEN WERT BESTIMMEN
Die Wertbemessung von Daten wird maßgeblich von zwei Faktoren beeinflusst, der Datenstrategie
eines Unternehmens und dem Grad der Nutzeridentifikation. Zunächst folgt eine Betrachtung der „Da-
tenstrategie eines Unternehmens“, bevor der Faktor „Profilidentifikation“ beschrieben wird.
Datenstrategie eines Unternehmens
Ein Unternehmen kann als primäres Geschäftsziel die Sammlung, Verarbeitung und Bereitstellung verar-
beiteter Informationen am Markt verfolgen. Diese Unternehmen bieten zum Beispiel auf Informations-
marktplätzen Informationspakete anderen Unternehmen an. Dabei kann die Bereitstellung als Verkauf,
Lizenz oder Beratergeschäft abgewickelt werden.
Andere Unternehmen, wie in der klassischen Industrie üblich, nutzen gesammelte Informationen und
die daraus gewonnenen Erkenntnisse als Instrument für die Optimierung der bestehenden Wertschöp-
fungskette, zur Effizienzsteigerung oder Kostenoptimierung. Eine scharfe Trennung nach diesen beiden
Formen ist allerdings nicht möglich. Grund dafür ist, dass durch die Digitalisierung immer mehr Un-
ternehmen aus der klassischen Industrie die Chancen der Data Economy nutzen und vorliegende Da-
ten selbst verarbeiten und am Markt anbieten oder selbst Informationsmarktplätze aufbauen und der
Verwendung von Informationen auch innerhalb der eigenen Produktionsketten, z. B. zur Optimierung,
gewachsene Bedeutung zukommt. Ebenfalls zu beachten ist, dass eine Information nur bedingt ein Ver-
brauchsgut ist und mehrmals verwendet werden kann, um daraus Absatz zu generieren.
Die Datenstrategie eines Unternehmens muss daher als Reifemodell gesehen werden, welches nach den
folgenden vier Entwicklungsstufen differenziert wird:
1. Monitoring
2. Optimierung und Marktdifferenzierung
3. Wachstum und Disruption durch neue Erlösquellen
4. Monetarisierung
DATEN-WERTSCHÖPFUNG
14
Die Einordnung des eigenen Unternehmens in die Datenstrategie liefert die nötige Grundlage dafür um
festzustellen, ob ein unternehmensspezifischer Wert oder der Marktwert bestimmt wird.
Monitoring
Primäres Ziel ist die Nutzung von Daten zur Identifizierung von Potenzialen zur Effizienzsteigerung
sowie zur Kosten- und Risikoreduzierung operativer Geschäftsprozesse.
Damit geht zunächst die Modernisierung der IT-Infrastruktur und Aufrüstung mit Technologie einher,
welche es gestattet, sowohl eine hohe Anzahl von Datensätzen und Rechenoperationen zu erbringen
leisten als auch die Bereitstellung der Daten oder neuen Informationen in einem eigens definierten
Zeithorizont zu ermöglichen.
Eine standardisierte Unterteilung eines Zeithorizonts für die Verwertung von Informationen gibt es
nicht, vielmehr lässt sich diese nur in Longtime, Neartime und Realtime unterteilen, wobei jedes Un-
ternehmen seine eigene zeitliche Definition vornimmt. Zum Beispiel: CRM-Daten (Stunden-Minuten),
Campaign-Data (Minuten), Live-Data (60–15 Sekunden), Behavioral Data (15–1 Sekunde) und Contextu-
al Data (Millisekunden). Nur die Klassen Behavioral und Contextual Data entsprechen im engeren Sinne
der Realtime-Verarbeitung, alles andere wird als Neartime bzw. Longtime bezeichnet.
Aus der Konsolidierung und Aufarbeitung von Daten innerhalb der eigenen IT-Infrastruktur zur Überwa-
chung der Geschäftsprozesse lassen sich drei wesentliche Kernfunktionen für die eigene Data Economy
herauslesen:
• Aufdecken möglicher Prozessschwächen und Service-Probleme
• Vergleichbarkeit von Performance-Daten zwischen Perioden, Kampagnen, Industrien
• Hinweise für Brand-Entwicklung, Kundenzufriedenheit, Produkt-Performance, Finanzdaten
Optimierung und Marktdifferenzierung
Ziel ist es, durch besseres Verständnis von Nutzern und deren Konsumverhalten das bestehende Markt-
angebot zu optimieren und zu erweitern bzw. auf Basis gewonnener Informationen einen Marktvorteil
gegenüber Mitbewerbern zu schaffen. Gegenwärtig steht vor allem die Optimierung bestehender oder
die Bildung neuer Erlösquellen im Vordergrund.
Für viele Industrien heißt es, zunächst das bessere Verständnis über den Nutzer zu erlangen. Dies be-
dingt die Aggregation und Analyse aller relevanten Daten rund um den Nutzer, sowohl innerhalb als
auch außerhalb des eigenen Unternehmens. Durch eine tiefgreifende Nutzeranalyse und Verhaltens-
modellierung können Unternehmen innovative und relevante Service-Angebote sowie personalisierte
Empfehlungen anbieten, die Nutzer wirklich interessieren.
Darüber kann die automatische Verarbeitung von Daten (Analytics-Integration) zur Optimierung des
Tagesgeschäfts in folgenden Bereichen führen:
• Allokation von Marketingausgaben
• Ressourcenplanung basierend auf generierten Informationen aus dem Tagesgeschäft
• Vertrieb und Inventaroptimierung gekoppelt mit lokalen demografischen
Wetter- und Event-Informationen
• Preisbestimmung basierend auf Kaufmustern, Inventarniveau und Produktinteresse,
ermittelt aus sozialen Netzwerken
• Algorithmisches Trading im Finanzsektor
DATEN-WERTSCHÖPFUNG
Wachstum und Erlösquellen
Durch die wachsende Anzahl an neuen Informationsquellen sind bestehende Erlösmodelle gefährdet.
Diese Bedrohung wird zum Anlass genommen, neue Erlösquellen zu suchen und mittels datengetrie-
bener Systeme, die als Informationslieferant (Treiber) dienen, neuen Absatz zu schaffen.
Durch die Sammlung und Verarbeitung von Daten können neue Produkte und Erlösquellen entstehen,
zum Beispiel durch
• die Schaffung von neuen Produkten durch Integration von Informationen (Analytics),
• die Entwicklung von Plattformen und Eco-Systemen,
• die Entwicklung von Services.
Monetarisierung (Datenmarktplatz)
Ziel ist es, die vorhandenen Daten durch Verarbeitung zu Informationen als primäres Produkt des Un-
ternehmens zu wandeln und am Markt zu monetarisieren.
GRAD DER NUTZERIDENTIFIKATION
Am Beispiel eines marketinggetriebenen Data-Economy-Geschäftsmodells ist der Faktor „Grad der
Nutzeridentifikation“ ein maßgeblicher Faktor für die Bestimmung des Wertes. Gerade im Online-Mar-
keting entscheidet die Trefferquote einer bestimmten Zielgruppe über den Erfolg der Kampagne. Diese
Tatsache bestimmt den Trend, „registrierungsbasierten Daten“ einen höheren Wert zuzusprechen als
„anonymen Daten“. Mit dem Grad der Nutzeridentifikation wachsen die Spielräume für mögliche Ein-
satzszenarien und damit der Wert der Daten. Gleichzeitig steigen jedoch die gesetzlichen Bestimmungen
und damit die Einschränkung des Handlungsraums.
Handlungsraum Daten und Einwilligung
AnonymeDaten
Pseudonyme Daten„Inferred“
Pseudonyme Daten„Declared“
Registrierungs- basierte Daten
1
2
3
4
Mögliche Einsatzszenarien
Gesetzlicher Spielraum
Wer
t vo
n D
aten
15DATEN-WERTSCHÖPFUNG
Werthaltigkeit von Informationen
Marktwert
Wachstum und Disruptiondurch neue Erlösquellen
Monetarisierung
• Anonym: Diverse Quellen
• Pseudonym: First-Party Daten 1,
Second-Party Daten1
• Registrierungsdaten: CRM 2
Business Value
3
4
1
2
Unternehmensspezifischer Wert
Monitoring
Optimierung undMarktdifferenzierung
• Anonym: Data Warehouse
• Pseudonym: First-Party Daten
• Registrierungsbasierte Daten: CRM, Auftragsmgm. System
User Value
Business Value
Daten- strategie
Quelle
Formel zur
Wertbe-messung
1) Online Nutzerdaten ohne Opt-Out 2) Online Nutzerdaten mit Werbe-Opt-in
16
Der Grad der Nutzeridentifikation kann wie folgt differenziert werden:
1 Anonyme Daten
Anonyme Daten können nicht mehr einer Person zugeordnet werden und sind damit für gewisse Arten von
Analysen und Erkenntnissen ungeeignet. Als Beispiel lassen sich Verkehrsdatenmessungen vornehmen, um
über Bewegungsströme eine valide Aussage zu treffen, doch wer sich dort wann und wie bewegt hat, lässt
sich auf der Basis nicht bestimmen. Der Personenbezug geht durch den Verarbeitungsprozess verschiedener
Datensätze und Aggregation verloren. Typischerweise können aus anonymen Daten Tendenzen abgeleitet
werden oder Grundregeln, z. B. Warenabverkauf an Wochentagen etc., Produktbeliebtheit etc.
2 & 3 Pseudonyme Daten
Bei einer Pseudonymisierung wird ein eindeutiges Identifikationsmerkmal durch einen Hash (zufällige und
für das vorliegende Identifikationsmerkmal immer identische Zeichenfolge) ersetzt, um die Identifizierung ei-
ner Person zu erschweren. Als Beispiel können Unternehmen benannt werden, welche „Registrierungsdaten
erheben“, den eindeutigen Identifier (z. B.: E-Mail-Adresse) pseudonymisieren und diese Daten zu Marktfor-
schungszwecken an Dritte vermarkten. Pseudonyme Daten im Marketingkontext umfassen Informationen
wie Interessen, Kaufabsichten, „Intent“ sowie allgemeines Surfverhalten. Im Kontext von eHealth lassen sich
pseudonyme Daten beispielsweise nutzen, um verbesserte Behandlungsmethoden in der Krebsforschung auf
Basis von Daten zu finden.
4 Registrierungsbasierte Daten
In einem Marketingkontext sind unter personenbezogenen Registrierungsdaten Nutzerinformationen wie
Alter, Geschlecht oder E-Mail-Adresse gemeint. Diese Daten umfassen soziodemografische Informationen
eines Nutzers und werden in den meisten Fällen im Rahmen einer Registrierung erfasst. Ob und für welche
Maßnahmen diese Daten verwendet werden können, hängt von dem erfassten Opt-in (Einwilligung) des
Nutzers ab.
In diesem Fall ist insbesondere die Verknüpfung zum gesamten Online-Verhalten des Nutzers, Offline-In-
formationen aus dem CRM sowie die Cross-Device-Verknüpfung ausschlaggebend für die hohe Bewertung.
DATEN-WERTSCHÖPFUNG
15 Dimensionen Informationsqualität; Quelle DGIQ, 2007.
Quelle: DGIQ IQ-Definition – 2007
17
QUALITÄT & WERT VON DATEN: WIE DIE WERTSCHÖPFUNG FUNKTIONIERT
Jeder Mensch will die richtige Entscheidung treffen. Das kann er nur, wenn er die richtigen Informationen
in der richtigen Qualität hat. Eine hohe Datenqualität ist Grundvoraussetzung für funktionierende be-
triebliche Abläufe. Deshalb gibt es das Informationsqualitätsmanagement (IQ-Management), welches als
elementarer Baustein in Systemintegrationsprozessen fungiert. Die Bewertung von Informationsqualität
ist die Voraussetzung für Ressourcenentscheidungen und Zielfestlegungen.
Aufgabe des Informationsmanagements ist es, die Hygienefaktoren zu definieren und sicherzustellen. Als
Hygienefaktoren lassen sich bei einer Wertbestimmung die Faktoren der Datenqualität, der Aktualität
und auch der Nutzeridentifikation bestimmen. Datenqualität beschreibt die Korrektheit, die Relevanz
und die Verlässlichkeit von Daten, abhängig vom Zweck, die die Daten in einem bestimmten Zusammen-
hang erfüllen sollen.
Informationsqualität ist der Grad, in dem Merkmale eines Datenproduktes Anforderungen genügen.
Anforderungen basieren dabei auf der jeweiligen Entscheidungssituation und den Zielen.
Basierend auf einem Konzept aus dem Jahre 1996 von Wang und Strong29, lassen sich Merkmale zur Da-
tenqualität in 15 Dimensionen und vier Kategorien unterteilen: System, Inhalt, Darstellung und Nutzung.
Diese lassen sich weiter untergliedern in:
1. Zugänglichkeit (accessibility): Daten sind zugänglich, wenn sie anhand einfacher Verfahren und auf
direktem Weg für den Anwender abrufbar sind.
2. Angemessener Umfang (appropriate amount of data): Daten haben einen angemessenen Umfang, wenn
die Menge der verfügbaren Daten den gestellten Anforderungen genügt.
29 Richard Y. Wang und Diane M. Strong, Beyond Accuracy: What Data Quality Means to Data Consumers, Journal of Manage-ment Information Systems, Vol. 12, No. 4 (Frühjahr, 1996), S. 5-33.
QUALITÄT & WERT VON DATEN
18
3. Hohes Ansehen (reputation): Daten sind hoch angesehen, wenn die Datenquelle, das Transportmedi-
um und das verarbeitende System im Ruf einer hohen Vertrauenswürdigkeit und Kompetenz stehen.
4. Glaubwürdigkeit (believability): Daten sind glaubwürdig, wenn Zertifikate einen hohen Qualitätsstandard
aufweisen oder die Informationsgewinnung und Verbreitung mit hohem Aufwand betrieben werden.
5. Vollständigkeit (completeness): Daten sind vollständig, wenn sie nicht fehlen und zu den festgelegten
Zeitpunkten in den jeweiligen Prozessschritten zur Verfügung stehen.
6. Übersichtlichkeit (concise representation): Daten sind übersichtlich, wenn genau die benötigten Infor-
mationen in einem passenden und leicht fassbaren Format dargestellt sind.
7. Einheitliche Darstellung (consistent representation): Daten sind einheitlich dargestellt, wenn sie fort-
laufend auf dieselbe Art und Weise abgebildet werden.
8. Bearbeitbarkeit (ease of manipulation): Daten sind leicht bearbeitbar, wenn sie leicht zu ändern und
für unterschiedliche Zwecke zu verwenden sind.
9. Fehlerfreiheit (free of error): Daten sind fehlerfrei, wenn sie mit der Realität übereinstimmen.
10. Eindeutige Auslegbarkeit (interpretability): Daten sind eindeutig auslegbar, wenn sie in gleicher, fach-
lich korrekter Art und Weise begriffen werden.
11. Objektivität (objectivity): Daten sind objektiv, wenn sie streng sachlich und wertfrei sind.
12. Relevanz (relevancy): Daten sind relevant, wenn sie für den Anwender notwendige Informationen
liefern
13. Aktualität (timeliness): Daten sind aktuell, wenn sie die tatsächliche Eigenschaft des beschriebenen
Objektes zeitnah abbilden.
14. Verständlichkeit (understandability): Daten sind verständlich, wenn sie unmittelbar von den Anwen-
dern verstanden und für deren Zwecke eingesetzt werden können.
15. Wertschöpfung (value-added): Daten sind wertschöpfend, wenn ihre Nutzung zu einer quantifizier-
baren Steigerung einer monetären Zielfunktion führen kann.
„Eine prozessübergreifende Sicherstellung einer guten Informationsqualität kann nur erreicht werden,
wenn die jeweiligen Datennutzer an den Schnittstellen ihre relevanten —für die Informationsqualität
wichtigen - Informationen genau mit ihren Anforderungen unterlegen und diese auch aktuell halten.“-30Dadurch können Messgegenstände zur Bewertung der IQ klar strukturiert werden. Weil das Konzept
von Wang und Strong aber bereits 20 Jahre alt ist und sich gerade in diesen letzten Jahren das technische
Umfeld und die Anwendungsmöglichkeiten stark verändert haben, müsste eine Aktualisierung durch-
geführt werden. Dies geschieht am besten in Form einer Umfrage unter deutschen IT-Nutzern, um zu
prüfen, ob alle relevanten Aspekte der Informationsqualität aus Anwendersicht enthalten sind.
30 Rohweder J.P., Kasten G., Malzahn D., Piro A., Schmid J. (2008) Informationsqualität — Definitionen, Dimensionen und Begriffe. In: Hildebrand K., Gebauer M., Hinrichs H., Mielke M. (eds) Daten- und Informationsqualität. Vieweg+Teubner
QUALITÄT & WERT VON DATEN
Data Value Costtn =
Kosten
(Aktuallität * Fehlerqute * Identifiktion)
Single Data Value Costtn =
Kosten für Informationsaufbereitung
Anzahl der Datensätze
Gewinn pro Datensatz=Umsatz pro Datensatz- Single Data Value Cost
19BEISPIELHAFTE BEWERTUNG FÜR DIE BESTIMMUNG DER WERTSCHÖPFUNG
BEISPIELHAFTE BEWERTUNG EINES DATENSATZES FÜR DIE BESTIMMUNG DER WERTSCHÖPFUNG
Um eine Bewertung der Daten vorzunehmen und die Hygienefaktoren zu bestimmen, ist es zunächst
notwendig, einige Berechnungsmodelle zu erklären. Im Wesentlichen lassen sich drei Hygienefaktoren
nennen: Fehlerquote auf Basis definierter Regeln, Aktualität und der Grad der Identifikation. Diesen drei
Hygienefaktoren stehen die prozessabhängigen Kosten gegenüber, welche auf Basis der Stufenkalkulati-
on, gleichbedeutend mit mehrstufiger Divisionskalkulation, ermittelt werden können. In dem Verfahren
der Kostenermittlung werden die entstehenden Kosten jeder Wertschöpfungsphase (Datengewinnung,
Datenaufbereitung, Informationsgewinnung, Informationsbereitstellung und Informationsnutzung) zuge-
ordnet. Die Wertschöpfungskette der Data Economy lässt sich damit als Produktionsprozess verstehen.
Ziel dieses Modells ist es, die entstandenen Kosten samt Hygienefaktoren später dem einzelnen Daten-
satz zuzuordnen und auf Basis der Hygienefaktoren Hebeleffekte zur Kostensenkung und Absatzopti-
mierung zu generieren. Die Basisformel berechnet sich wie folgt:
Die Datenwertkosten (Data Value Cost) berechnen sich je Periode auf den gesamten Datenbestand und
lassen sich mittels Division auf die die einzeln Datenwertkosten (Single Data Value Cost) bestimmen:
Auf dieser Basis lassen sich die Grenzkosten für den einzelnen Datensatz ableiten. Auf Basis der ge-
planten durchschnittlichen Umsätze pro Datensatz wird es möglich, den Plan-Gewinn zu bestimmen:
Auf Basis dieser Grundlage lässt sich die Wertschöpfung des Wandlungsprozesses von eingehenden
Daten hin zur Information bestimmen.
Alle Daten werden für die Wertschöpfung einzeln betrachtet und es erfolgt eine Definition von not-
wendigen Ausprägungen für jeden einzelnen Datensatz. Am Ende der Bewertung steht eine quantitative
Information zum Datensatz.
Daten-
Gewinnung
Daten-
Aufbereitung
Informations-
Gewinnung
Informations-
Bereitstellung
Informations-
Nutzung
Betriebskosten
Kostenarten Erlösarten Kostentreiber (Beispiele)
Fixkosten Bezug der Daten über einen Service (API, FTP,…)
Variable Kosten Frequentierung der Abrufe (100.000 abrufe / h = 500 €)
Einmalkosten Kauf einer Datenbank oder eines Datensatzes
Fixkosten Betrieb der automatisierten Aufbereitung von Daten
Variable Kosten
Einmalkosten Entwicklung einer Methode zur Datenaufbereitung.
Fixkosten Wartung und Monitoring des Algorithmus
Variable Kosten
Einmalkosten Entwicklungskosten Algorithmus
Personalkosten für Modeling
Fixkosten Bereitstellung eines Output-Trägers (Webseite, Datenbank, …)
Variable Kosten
Einmalkosten
Fix-Erlöse
Variable-Erlöse
Einmal-Erlöse
Fixkosten Personalaufwand zum Betrieb der IT Infrastruktur
Betriebskosten der IT Infrastruktur
Variable Kosten
Einmalkosten Anschaffungskosten von Hardwarekomponenten
Fehlerquote =Fehlerpunkte
Anzahl Regeln1–
1–
20
Um nun die wirkliche Wertschöpfung zu analysieren, ist es notwendig, die Kosten und Umsätze zu ken-
nen. Die nachfolgende Tabelle stellt beispielhaft mögliche Kosten je Wertschöpfungsstufe dar:
Es lässt sich aus der Tabelle ableiten, dass sich je nach Wertschöpfungsstufe Kosten und Erlöse inner-
halb der eigenen Unternehmung bestimmen lassen. Betrachtet man die Wertschöpfungskette als auf-
einander folgende Fertigungsstufen, bei der die Leistungen jeder Stufe zu Herstellkosten bewertet und
zugeordnet werden können, liegt es nahe, die Bewertung auf Basis der Stufenkalkulation vorzunehmen.
Dies ermöglicht die kalkulatorische Aufgliederung in selbständige Kostenstellen einer Herstellungsphase
(Wertschöpfungsbaustein).
Sind die Kosten bestimmt, müssen die Hygienefaktoren ermittelt werden. Ein vereinfachtes Beispiel er-
klärt zunächst die Bestimmung des Hygienefaktors Fehlerquote, im Anschluss wird auf die Bestimmung
der Aktualität eingegangen, bevor der Grad der Nutzeridentifizierung ermittelt wird.
Um die Fehlerquote zu bestimmen, ist es notwendig, ein Regelwerk für die Datenqualität zu bestim-
men. Diese Aufgabe obliegt dem Informationsmanagement. Das Informationsmanagement legt Regeln
zur Ausprägung einzelner Datenfelder fest. Somit lassen sich je Datensatz Fehlerpunkte bestimmen und
diese gegenüber der Anzahl der Regeln in ein Verhältnis setzen:
BEISPIELHAFTE BEWERTUNG FÜR DIE BESTIMMUNG DER WERTSCHÖPFUNG
Wert Der Wert ist ein Preis mit zwei Dezimalstellen nach dem Komma. Als Komma muss das Trennzeichen Punkt („.“) verwertet werden.
Was Zur Identifikation muss die Transaktion immer die Amazon Standard Identification Number (ASIN) enthalten.
Zahlungsart Folgende Zahlarten stehen mittels einem Secondary-Key zur Verfügung:
1 = EC
2 = Kreditkarte
3 = …
Datum Das Datum ist im Format TT-MM-JJJJ zu speichern.
Datensatz Kein Datensatzfeld darf leer sein.
Quantitative Bewertung
Wert Was Zahlungsart Wann Fehlerpunkt Fehlerquote
6 EC 12-11-2016 3 0,4
6,56 Spielzeug Paypal 2016-11-4 4 0,2
8.99 B01G05UW3I 3 12-11-2016 0 1
1.99 B01G05UW3I 2 15.05.16 1 0,8
Durchschnittliche Datenqualität: 0,6
Fehlerquote =Fehlerpunkte
Anzahl Regeln1–
21BEISPIELHAFTE BEWERTUNG FÜR DIE BESTIMMUNG DER WERTSCHÖPFUNG
Die Fehlerquote gibt je Datensatz an, wie viele Fehler im betrachteten Datensatz auf Basis des defi-
nierten Regelwerks vorliegen. Der Wert „1“ entspricht der vollständigen Richtigkeit des Datensatzes,
hingegen bedeutet „0“, dass keine Regel auf den betrachteten Datensatz zutrifft. Über dieses Verfahren
lässt sich eine durchschnittliche ganzheitliche Betrachtung eines Datenbestands ermöglichen.
Beispiel: Kauftransaktion
Das dargestellte Beispiel soll in kurzer Form helfen zu verstehen, wie eine quantitative Bewertung er-
möglicht werden kann. Im Beispiel hat das Informationsmanagement folgendes festgelegt:
Mithilfe dieses Regelwerks lassen sich Fehlerpunkte vergeben. Trifft jedes Mal eine definierte Bedingung
nicht zu, erhält der Datensatz einen Fehlerpunkt:
Die Fehlerquote berechnet sich je Datensatz und Datenbasis, indem für den Datensatz die Anzahl der
Fehler durch die definierten Regeln (5 Regeln) dividiert und das Ergebnis von 1 subtrahiert wird.
Wert Was Zahlungsart Wann
6 EC 12-11-2016
6,56 Spielzeug Paypal 2016-11-4
8.99 B01G05UW3I 3 12-11-2016
1.99 B01G05UW3I 2 15.05.16
0,4 =3
51–
WAktualität = exp(-Alterung * Alter)
WAktualität = exp(-0,02*(14.11.2016 – 12.11.2016))
WAktualität =0,96079
Grad der Nutzeridentifikation = Stufe der Nutzeridentifikation5
Bezugsfeld zur Bestimmung Wann
Faktor für die Alterung des Datensatzes 0,02
Zeiteinheit Je Tag
Tag der Berechnung 14-11-2016
22 BEISPIELHAFTE BEWERTUNG FÜR DIE BESTIMMUNG DER WERTSCHÖPFUNG
Für die erste Zeile ergibt sich folgende Berechnung:
Ein weiterer Hygienefaktor ist die Aktualität eines Datensatzes. Darunter wird die Gegenwartsbezo-
genheit eines Datenbestands verstanden. Er gibt einen Anhaltspunkt darüber, wie weit die aktuellen ge-
speicherten Daten mit der „Realwelt“ übereinstimmen. Um eine automatisierte Messung zu realisieren,
ist es notwendig, diese Betrachtung auf Basis der Wahrscheinlichkeitstheorie vorzunehmen. Dabei wird
unterstellt, dass die Alterung eines Datensatzes exponentiell erfolgt. Um die Alterung eines Datensatzes
zu bestimmen, wird die Wahrscheinlichkeitsrechnung herangezogen, diese ermöglicht eine exponentielle
Bestimmung zwischen Ausgangsdatum und Gegenwart. Drei Faktoren sind dazu notwendig:
• Bezugsdatensatz zu Bestimmung der Differenz
zwischen letzter Änderung und dem heutigen Bezugsdatum
• Faktor der Alterung je definierter Zeiteinheit
• Definition der Zeiteinheit, z. B. je Stunde, Tag, Woche, Monat, Jahr
Eine vereinfachte Form zur Wahrscheinlichkeitsberechnung stellt die folgende Formel dar:
Für das oben genannte Beispiel soll für den Datensatz vom „12-11-2016“ die Aktualität bestimmt wer-
den. Folgende Definitionen erfolgen, um die Berechnung zu ermöglichen:
Es resultiert, dass der Datensatz mit einer Wahrscheinlichkeit von 0,96079 Punkten (96,079 Prozent) nicht
mehr aktuell ist. Führt man die gleiche Berechnung auf Stundenbasis aus und geht davon aus, dass die Trans-
aktion und die Berechnung 48 Stunden voneinander getrennt sind, beträgt die Wahrscheinlichkeit, dass der
Datensatz aktuell ist, nur 0,38289 Punkte (38,289 Prozent). Es wird deutlich, dass die Alterung immer einen
Bezug auf die betrachtete Zeiteinheit mit sich bringt. Um den Grad der Nutzeridentifikation zu bemessen,
hilft es, die vier Stufen in gleiche Einheiten zu zerlegen. Angenommen wird, dass mit personenbezogenen
Daten die größte Wirkung zwischen Angebot und Absatz erzielt werden kann. Es steigt somit pro Nutzeri-
dentifikationsgrad die Wahrscheinlichkeit eines Abschlusses. Daraus ergibt sich folgende Ableitung:
23ZUSAMMENFASSUNG
ZUSAMMENFASSUNG
Das eigentliche „Gut i. S. eines Handelswertes“ der Data Economy ist nicht das Datum, sondern die
Informationen, die aus der verknüpften Auswertung von einzelnen Daten abgeleitet werden.
Im Kern bestehen Daten aus Zeichen, welche binär oder alphanumerisch vorliegen können. Daten lie-
fern ohne einen Kontext noch keine Information. Es ist möglich, Daten zu sammeln und diese zu ar-
chivieren, doch ohne einen konkreten Kontext liefern Daten zunächst kein neues Wissen i. S. einer
Information. Wurde ein Kontext definiert, können Daten zu Informationen transformiert werden und
erlauben dem Menschen oder der Maschine Wissen zu generieren. Dieser Prozess wird meist mithilfe
eines Algorithmus getätigt. Dieses Wissen fließt dann im Informationsmanagementprozess in die kon-
textbezogene Wertschöpfung ein. Aus dem Dokument lässt sich somit ableiten, dass Daten nicht das
neue Öl sind, denn sie haben keinen Wert an sich. Erst durch den wertschöpfenden Prozess lassen sich
neue Informationen gewinnen für Stakeholder ein Interesse und Bedeutung haben.
Daten sind wertschöpfend, wenn ihre Nutzung zu einer quantifizierbaren Steigerung einer monetären
Zielfunktion führen kann. Um den Wert von Daten zu bemessen, ist es notwendig, sich auf Basis der
eigenen Geschäftsmodelle mit einer eigenen Bewertung der Daten zu befassen. Die horizontale Wertbil-
dung beschreibt im Wesentlichen den Weg von Daten zur Information ab, hingegen umfasst die vertikale
Wertschöpfung den der Informationsgewinnung.
Mit der Zunahme der Menge erfasster Daten gewinnen Daten im Kontext unternehmerischer Ent-
scheidungen eine immer größere Bedeutung. Die Wertbemessung von Daten für Unternehmen wird
maßgeblich von zwei Faktoren beeinflusst: der Datenstrategie eines Unternehmens und dem Grad der
Nutzeridentifikation. Nach diesen Faktoren muss jedes Unternehmen individuell nach seiner Dynamik
den Daten Wert beimessen. Eine Standardisierung der Datenmetrik ist nicht möglich.
Die Datenstrategie eines Unternehmens muss als Reifemodell gesehen werden, welches nach den fol-
genden vier Entwicklungsstufen differenziert wird: Monitoring, Optimierung und Marktdifferenzierung,
Wachstum und Disruption durch neue Erlösquellen sowie Monetarisierung. Der Grad der Nutzeri-
dentifikation lässt sich nach anonymen Daten, pseudonymen Daten und registrierungsbasierten Daten
differenzieren. Dabei geht jedes Unternehmen individuell vor und erzeugt so eine individuelle Dynamik,
auf dessen Basis dann die Bewertung stattfinden kann.
Eine hohe Datenqualität ist Grundvoraussetzung für funktionierende betriebliche Abläufe. Deshalb gibt
es das Informationsqualitätsmanagement, welches als elementarer Baustein in Systemintegrationspro-
zessen fungiert. Die Bewertung von Informationsqualität ist die Voraussetzung für Ressourcenentschei-
dungen und Zielfestlegungen. Basierend auf dem Konzept von Wang und Strong aus dem Jahr 1996
lassen sich Merkmale zur Datenqualität in 15 Dimensionen und vier Kategorien unterteilen: System,
Inhalt, Darstellung und Nutzung. Aufgrund des Alters des Konzeptes und der Weiterentwicklung im
technischen Bereich ist allerdings eine Aktualisierung der Inhalte notwendig.
Die Bestimmung der Wertschöpfung von Daten ist mithilfe des Data Value Costs auf Basis der Stufen-
kalkulation berechenbar. Somit lässt sich der betriebswirtschaftliche Wertbeitrag ermitteln. Dafür ist es
allerdings notwendig, im Rahmen des Total Data Quality Managements einen Basiskatalog zu generieren,
um ein branchenübergreifendes Verständnis von Daten, Datensätzen und deren Ausprägung zu erhalten.
24 BUNDESVERBAND DIGITALE WIRTSCHAFT (BVDW) E.V.
BUNDESVERBAND DIGITALE WIRTSCHAFT (BVDW) E.V. Der Bundesverband Digitale Wirtschaft (BVDW) e.V. ist die zentrale Interessenvertretung für Unternehmen, die digitale Geschäftsmodelle betreiben oder deren Wertschöpfung auf dem Einsatz digitaler Technologien beruht. Mit Mitgliedsunternehmen aus unterschiedlichsten Segmenten der Internetindustrie ist der BVDW interdisziplinär verankert und hat damit einen ganzheitlichen Blick auf die Themen der Digitalen Wirtschaft.
Der BVDW hat es sich zur Aufgabe gemacht, Effizienz und Nutzen digitaler Angebote – Inhalte, Dienste und Technologien – transparent zu machen und so deren Einsatz in der Gesamtwirtschaft, Gesellschaft und Administration zu fördern. Außerdem ist der Verband kompetenter Ansprech-partner zu aktuellen Themen und Entwicklungen der Digitalbranche in Deutschland und liefert mit Zahlen, Daten und Fakten wichtige Orientierung zu einem der zentralen Zukunftsfelder der deutschen Wirtschaft.
Im ständigen Dialog mit Politik, Öffentlichkeit und anderen, nationalen und internationalen Interessen- gruppen unterstützt der BVDW ergebnisorientiert, praxisnah und effektiv die dynamische Ent-wicklung der Branche. Fußend auf den Säulen Marktentwicklung, Marktaufklärung und Markt- regulierung bündelt der BVDW führendes Digital-Know-how, um eine positive Entwicklung der führenden Wachstumsbranche der deutschen Wirtschaft nachhaltig mitzugestalten.
Gleichzeitig sorgt der BVDW als Zentralorgan der Digitalen Wirtschaft mit Standards und verbind-lichen Richtlinien für Branchenakteure für Markttransparenz und Angebotsgüte für die Nutzerseite und die Öffentlichkeit.
Wir sind das Netz.
www.bvdw.org
25RESSORT DATA ECONOMY IM BVDW
RESSORT DATA ECONOMY IM BVDW
Daten sind die Grundlage für unzählige Wertschöpfungsprozesse der Digitalen Wirtschaft. Mit un-serem Ressort Data Economy möchten wir die marktübergreifende Zusammenarbeit unterschiedli-cher Stakeholder im Bereich Data fördern und auf nationaler wie auf europäischer Ebene eine Inte-ressenvertretung für den Bereich Data Economy etablieren. Ziel ist es, mit fairen Marktbedingungen und unter Gewährleistung von Daten- und Verbraucherschutz sicherzustellen, dass Unternehmen der Digitalen Wirtschaft erfolgreich arbeiten können.
Das Ressort Data Economy begleitet hier außerdem aktiv nationale und europäische Gesetzge-bungsvorhaben mit dem Ziel, rechtssichere und praktikable Rahmenbedingungen für die Branche durchzusetzen. Die Aufklärung über Anwendungsszenarien im Bereich Big Data und die hinter diesen Geschäftsmodellen stehenden Wertschöpfungsketten ist ein zentraler Bestandteil unserer Aktivitäten. Unsere Schwerpunktarbeit, zu der wir Sie einladen sich jederzeit zu beteiligen, deckt insbesondere die nachfolgenden Themenbereiche ab:
Zustimmungsbasierte Geschäftsmodelle Crossmediale Nutzungsdaten Data Handling Compliance Datenschutz
Des Weiteren ist das Ressort Data Economy innerhalb des BVDW die Schnittstelle zum Deutschen Datenschutzrat Online-Werbung (DDOW). Der DDOW ist die freiwillige Selbstkontrolleinrich-tung der digitalen Werbewirtschaft für nutzungsbasierte Online-Werbung, an der der BVDW als einer der Trägerverbände federführend beteiligt ist.
DATENWERTSCHÖPFUNG UND QUALITÄT VON DATEN
Erscheinungsort und -datumDüsseldorf, April 2018
HerausgeberBundesverband Digitale Wirtschaft (BVDW) e.V.Schumannstraße 210117 Berlin+49 30 2062186 - [email protected]
GeschäftsführerMarco Junk
PräsidentMatthias Wahl
VizepräsidentenThomas DuhrThorben FaschingAchim HimmelreichStephan NollerFrederike ProbertMarco Zingler
KontaktMichael Neuber,
Leiter Politik und Regulierung / Rechtsanwalt / Justiziar, [email protected]. Wolfgang Gründinger
Referent Digitale Transformation, [email protected]
VereinsregisternummerVereinsregister Düsseldorf VR 8358
RechtshinweiseAlle in dieser Veröffentlichung enthaltenen Angaben und Informationen wurden vom Bundesver-band Digitale Wirtschaft (BVDW) e.V. sorgfältig recherchiert und geprüft. Diese Informationen sind ein Service des Verbandes. Für Richtigkeit, Vollständigkeit und Aktualität können weder der Bundes- verband Digitale Wirtschaft (BVDW) e.V. noch die an der Erstellung und Veröffentlichung dieses Werkes beteiligten Unternehmen die Haftung übernehmen. Die Inhalte dieser Veröffentlichung und / oder Verweise auf Inhalte Dritter sind urheberrechtlich geschützt. Jegliche Vervielfältigung von Informationen oder Daten, insbesondere die Verwendung von Texten, Textteilen, Bildmaterial oder sonstigen Inhalten, bedarf der vorherigen Zustimmung durch den Bundesverband Digitale Wirtschaft (BVDW) e.V. bzw. die Rechteinhaber (Dritte).
AusgabeErstausgabe
TitelmotiviStock / NicoElNino
26 IMPRESSUM
Bundesverband Digitale Wirtschaft (BVDW) e.V.Schumannstraße 210117 Berlin+49 30 2062186 - [email protected]
Herausgeber