Wie den ökonomischen Wert von Daten bestimmen?

München, Starnberg, 16. Nov. 2017 - Um den Wert von Daten zu messen, lassen sich einfache wirtschaftliche Prinzipien anwenden. Ein Gastbeitrag von Western Digital...

Zum Hintergrund: Daten werden in der digitalen Wirtschaft auf immer neue Weise genutzt. Wichtige Fragen, die sich in diesem Zusammenhang stellen, sind: Wer zieht daraus Nutzen? Wo werden die Daten gespeichert? Wodurch zeichnen sich neue Daten aus? Wann sollten Daten gespeichert, verschoben, gelöscht oder umgewandelt werden? Wie sind Daten zu bewerten und warum sind sie heute so viel wichtiger als früher? Joan Wrabetz* (HGST/ Western Digital Corp.) geht im folgenden Gastbeitrag auf diese und weitere Zusammenhänge, die gerade im Zuge der fortschreitenden Digitalisierung für Unternehmen und Organisationen von zunehmender Bedeutung sind, näher ein.


Zum Gastbeitrag: „Daten sind unter den wichtigsten Gütern eines jeden Unternehmens. Dennoch ist es erstaunlich, dass der von uns betriebene Aufwand, um den Wert von Daten zu erkennen und zu messen, hinter den Investitionen in traditionellere und greifbare Güter zurückbleibt. Sollte den Daten als Gut weniger Wert zugeschrieben werden? Oder sollten sie vielleicht eher wie Kunst betrachtet werden? Überraschenderweise sind beide Fragen mit „Ja“ zu beantworten.

Um den Wert von Daten zu messen, lassen sich simple wirtschaftliche Prinzipien anwenden. Zum Beispiel wissen wir von IT-Prognosen, dass die derzeit generierte digitale Datenmenge viel höher ist als die Speicherkapazitäten, die aktuell erworben werden (Quelle: IDC Digital Universe, Recode). Warum ist das so? In einfachen Worten: Einige Daten werden erzeugt, aber nicht gespeichert.

Ein einfaches Kurvendiagramm zu Angebot und Nachfrage veranschaulicht den Grund. Die Angebotskurve zeigt die Storage-Kapazität. Diese ist zu unterschiedlichen Preisen erhältlich, jedoch gibt es ein Preisminimum. Die Nachfragekurve beschreibt die erzeugte Datenmenge. Diese Menge schafft eine Nachfrage nach Speicherkapazität. Diese Daten werden solange gespeichert wie ihr Wert höher ist als die langfristigen Speicher- und Zugangskosten.

Das veranschaulicht folgende Gleichung: Wert von Daten (t) >= (Sc + Mc + Ac)/GB/yr * Speicherungszeitraum

Grundsätzlich muss der Wert von Daten als eine Funktion der Zeit größer sein als die Summe der Kosten für Netzwerke, Computing- und Storage-Infrastruktur (Sc), die Wartungskosten für Daten und Infrastruktur (Mc) und die Kosten, um Daten zugänglich zu machen (Ac). Um Cloud- und Non-Cloud IaaS (Infrastructure as a Service) gleichermaßen zu beachten, sind alle Messwerte als „pro Einheit und Jahr“ zu verstehen. Diese Kosten sind auch eine Funktion der Zeit, gemessen am Speicherungszeitraum für die Daten.

Natürlich ist die Gleichung im echten Leben nicht so einfach. Die Kosten zur Speicherung und Pflege von Daten sind davon abhängig, wie lange diese gespeichert werden müssen, ob sie geschützt und gesichert werden etc. Die Speicherung von Daten birgt zudem Gefahren, da langfristig mit ihr ein erhöhtes Risiko für Sicherheitsverstöße, Datenverlust und -verfälschung einhergeht.

Auf der Wertseite der Gleichung gibt es keine klar definierte Maßeinheit für den Wert von Daten. Dieser ist in Wirklichkeit ein Maß für den wirtschaftlichen Wert, der sich aus jeglicher Form der Datennutzung und -analyse ergibt. Zudem besteht eine Korrelation zwischen der gespeicherten Datenmenge, ihrer Zugänglichkeit und ihrem Wert. Wenn die Nutzung der Daten von historischen Entwicklungen abhängt, führt ein großer Datenbestand automatisch zu einem höheren Wert der Daten. So verändert bereits die Nutzung des maschinellen Lernens den Wert größerer Datensätze, da die meisten Algorithmen für maschinelles Lernen besser funktionieren, wenn sie mit umfangreichen Datenmengen trainiert werden.

Der Bereich unterhalb der Kurve stellt die Datenmenge dar, die zwar generiert, aber nicht gespeichert wird, da ihr Wert als geringer eingestuft wird als die Kosten für ihre Speicherung. Wenn wir annehmen, dass die Menschen, wenn sie könnten, alle von ihnen erzeugten digitalen Daten speicherten, dann wäre unser Ziel, den Bereich unterhalb der Kurve zu eliminieren. Hierfür müssten wir entweder die Speicher- und Wartungskosten senken oder den Wert der Daten erhöhen – oder beides.

Haben wir einmal akzeptiert, dass der Wert von Daten gemessen werden soll, was täten wir mit einer solchen Messung? Im Hinblick auf die Infrastruktur schlage ich vor, dass wir uns mehr auf Lösungen zur Maximierung der Maßeinheit „Wert von Daten“ konzentrieren als auf infrastrukturspezifische Einheiten, wie etwa Preis pro GB, Energieeffizienz oder monatliche Cross-Connect-Kosten. Hierdurch werden Innovationen für Infrastruktur-Lösungen in zwei verschiedenen Richtungen vorangetrieben: Niedrigere Gesamtbetriebskosten auf der einen Seite und mehr Möglichkeiten zur Steigerung des Werts von Daten auf der anderen Seite. Dies schließt möglicherweise Index- und Suchfunktionen, integrierte Analyseschnittstellen, Data Mover etc. mit ein.  

Ich denke, dass Unternehmen ihre eigene betriebsinterne Metrik anwenden sollten, um einen Wert für ihre Daten zu bestimmen. In der Vergangenheit haben Unternehmen dies in erster Linie bei der Messung langfristiger Wertveränderungen von Daten unter der Annahme getan, dass ältere Daten weniger wert seien, da auf sie weniger zugegriffen wird. Diese Auffassung ist überholt, der Zugang zu Daten ist nicht mehr das Maß der Dinge, sondern ihrer analytischen Auswertung. Zukünftige Blogeinträge werden auf diese Themen noch detaillierter eingehen“.


*Autorin Joan Wrabetz: Vice President Marketing und Product Management für Data Center Systems at HGST, a Western Digital Corp. brand (Bildquelle: HGST).

> https://www.linkedin.com/in/joanwrabetz/