Automatisierte Datenmaskierung sollte Teil einer erfolgreichen DataOps-Strategie sein

München, Starnberg, 06. April 2020 - Warum Datenketten laut Delphix bei Digitalisierungs-Initiativen bessere Einblicke in ein bestimmtes Produkt oder einen Service liefern können...

Zum Hintergrund: Um als Unternehmen heute erfolgreich zu sein, braucht es Daten. Folgt man der Argumentation von Delphix, soll dies am besten mit der (automatisierten) Sammlung aller relevanten Daten zu einem Service oder Produkt in Form einer kontinuierlichen Datenkette gelingen. Die Analyse hilft, bei Fertigungsprozessen ein Optimum zu erreichen. Dafür müssen die Verantwortlichen allerdings einige Herausforderungen lösen. Autobauer z.B. produzieren mit ihren Fahrzeugen zusätzlich eine gigantische Menge an Daten. Diese Daten sind ein wichtiger Treibstoff für die Konzerne, um beispielsweise die Sicherheit und Attraktivität ihrer Autos zu erhöhen. Nur mithilfe von Daten können sie auch in Zukunft mit angepassten Diensten und Produkten Fahrzeuge verkaufen.

Dies macht deutlich, wie wichtig Daten geworden sind, um Innovationen voranzutreiben. Ihre Auswertung liefert den Verantwortlichen belastbare Antworten auf die Frage „Was ist der nächste Schritt?“, die im Zeitalter der Digitalisierung so zentral geworden ist wie kaum eine zweite. Gary Hallam, Director Pre-Sales bei Delphix (1) gibt Ihnen im Folgenden einen kurzen Überblick zu den Kriterien einer erfolgreichen DataOps Strategie:

„Das Konzept einer Datenkette greift diese Erkenntnis auf und treibt sie weiter: Datenketten haben das Ziel, umfassende Kenntnisse und Einblicke in ein bestimmtes Produkt oder einen Service zu bieten. Dafür enthalten sie idealerweise alle relevanten Informationen dazu – von der Maschine, die ein Produkt produziert, bis hin zu seiner Nutzung beim Endanwender.

Das Besondere dabei: Eine kontinuierliche Datenkette erlaubt, die Informationen nicht nur isoliert voneinander zu betrachten. Alle Informationen werden immer wieder an die verschiedenen Quellen zurückgespielt und stehen im Austausch miteinander. So lassen sich Prozesse optimieren und stetig neue Innovationen entwickeln.

Hindernisse auf dem Weg zur Datenkette

Um kontinuierliche Datenketten allerdings erfolgreich nutzen zu können, müssen sich Unternehmen einigen Herausforderungen stellen, die die Erfassung von Informationen erschweren und komplexer machen.

  • Datenschutz und Compliance: Von Daten geht generell ein großes Risiko aus, weil sie vertrauliche Informationen beinhalten. Daher liegt es in der Verantwortung der Unternehmen zu gewährleisten, dass aus Daten keine Rückschlüsse auf bestimmte Personen gezogen werden können. Die Gesetzeslage der vergangenen Jahre stärkt diese Verantwortung: Die Europäische Datenschutzgrundverordnung (DSGVO) regelt beispielsweise, dass alle personenbezogene Daten wie etwa Kreditkarteninformationen in Einklang mit Datenschutzregelungen und Compliance-Vorgaben verarbeitet werden müssen.

  • Sicherheit: Echte Kundendaten dürfen niemals in die Hände von Unbefugten geraten. Es braucht klare Sicherheitsregeln, um Zugangsbeschränkungen und Befugnisse festzustellen. In Zeiten von Big Data wird das allerdings immer schwieriger: In der heutigen Praxis benötigen verschiedene Entwicklerteams oft gleichzeitig dieselben Datensätze. So entstehen für jede Instanz von Produktivdaten mehrere Instanzen von Nicht-Produktiv-Daten. Und das bietet ein immer höheres Gefahrenpotenzial, weil Test- und Entwicklungsumgebungen aus Kostengründen oftmals schlechter geschützt sind als die Produktion.

  • Datenmengen: Die Datenmenge, mit der es Unternehmen zu tun haben, wächst seit Jahren kontinuierlich. Die Speicherung und der Transport über verschiedene Infrastrukturen hinweg gestalten sich daher immer schwieriger. Der Zeitverlust und Mehraufwand dabei sind allerdings kostspielig und stehen Innovationen stark im Weg.

  • Relevanz und Qualität: Informationen müssen jederzeit relevant und von hoher Qualität sein, damit sie aussagekräftig sind. Entwickler verwenden jedoch oft veraltete oder ungesicherte Daten für Entwicklungs- und Testzwecke. Software-Teams benötigen Zugang zu qualitativ hochwertigen Testdaten, um den Kunden schnellere und sicherere digitale Produkte und Dienstleistungen anbieten zu können.

Sich den Herausforderungen stellen – mit DataOps

Doch wie kann sich diesen Hindernissen stellen? Mit einer automatisierten Datenebene, die einen flexiblen und effizienten Umgang mit Daten garantiert. DataOps steht genau dafür: Man versteht darunter einen kollaborativen Datenmanagement-Ansatz, der Menschen, Prozesse und Technologien koordiniert, damit sich ein effizienter Datenumgang im Unternehmen etabliert. Dafür setzen DataOps-Plattformen, wie sie beispielsweise Delphix anbietet, bei der Bereitstellung von Daten in Unternehmen an. DataOps-Plattformen stellen sicher, dass Daten frei fließen, und zwar innerhalb kürzester Zeit und über unterschiedliche Umgebungen hinweg.

Das unterstützt die Virtualisierung: Eine gute Daten-Plattform kopiert Datenquellen nicht physisch, sondern virtuell – mit einem Bruchteil des ursprünglichen Umfangs. Und diese Einsparung sorgt für die nötige Geschwindigkeit, um Daten schnell zur richtigen Person transportieren zu können. Echtzeit-Analysen und kontinuierliche Datenketten werden so sichergestellt und Innovationen damit sehr viel leichter.

Agilität trifft auf Sicherheit

Ein DataOps-Ansatz versucht allerdings auch, dabei Agilität und Sicherheit zu vereinen. Daher sollte eine automatisierte Datenmaskierung Teil jeder guten DataOps-Plattform sein: Mit der Lösung von Delphix werden die Daten beispielsweise bereits für Teams zur Verwendung für Entwicklung und Tests maskiert. Spezielle Algorithmen erkennen dabei vertrauliche Informationen automatisch und wenden je nach Sicherheitsrisiko verschiedene Schutzmechanismen an.

Vertrauliche Daten werden so vollständig und irreversibel maskiert. Das bedeutet, dass die Informationen komplett anonymisiert werden und sich nicht mehr einer bestimmten Person zuordnen lassen. Die Agilität bleibt allerdings erhalten: Denn wichtige Korrelationen bleiben bestehen. So können Entwickler weiterhin relevante Informationen aus den Daten gewinnen und kontinuierliche Datenketten sind sichergestellt. Denn die maskierten Daten bleiben in ihrer Qualität jederzeit produktionsnah und damit voll funktionsfähig. Mit diesem Schritt investieren Firmen langfristig in ihre Zukunft, denn ein DataOps-Ansatz ist ein wichtiger Meilenstein für Innovation und Unternehmenserfolg.“

(1) Das Foto zeigt Gary Hallam, Director Pre-Sales bei Delphix.


Querverweis: