Intelligentes Datenmanagement, Daten-DNA, Container und weitere Trends für 2020

München, Starnberg, 20. Dez. 2019 - Nach Ansicht von Veritas kommt den Bereichen KI/ML, Data-DNA, Edge-Computing und Containern verstärkt Bedeutung zu...

Zum Hintergrund: Immer mehr Daten werden weltweit generiert. Die Marktforscher von IDC schätzen, dass das Volumen weltweit in den kommenden fünf Jahren auf 175 Zettabyte anwachsen soll. (1) Dieser Trend erzeugt damit aber auch immer mehr Herausforderungen in Bezug auf die intelligente Speicherung und Verwaltung dieser Daten im Unternehmensumfeld. Welche Trends drücken dem kommenden Jahr 2020 in Bezug auf diese Herausforderungen aus IT-Sicht einen Stempel auf? Veritas Technologies' Sascha Oehl, Director Technical Sales erläutert nachfolgend für Sie, weshalb sich IT-Entscheider aus Sicht des Herstellers deshalb verstärkt mit Maschinellem Lernen (ML) und Künstlicher Intelligenz (KI), Daten-DNA sowie Edge-Computing und Container-Technologien auseinandersetzen sollten.

Automatismen für die Daten-DNA

Es ist fast schon so universell gültig wie ein physikalisches Gesetz – unsere Welt generiert jedes Jahr mehr Daten und Firmen werden mehr Daten auswerten, sichern, speichern und verwalten müssen. Wer das händisch bewältigen will, wird eher früher als später scheitern. Organisationen werden daher mehr auf voll automatisierte Arbeitsabläufe setzen, indem sie ihre Datenströme mit Algorithmen aus dem Bereich Künstlicher Intelligenz (KI) und Machine Learning (ML) autonom steuern und kontinuierlich pflegen lassen. Solche KI-gestützten Lösungen können beispielsweise Kapazitätsanforderungen bei der Datenhaltung selbst vorausberechnen und bei Bedarf automatisch neuen Speicherplatz in der Cloud hinzubuchen.

Das ist der erste Schritt. In einem zweiten Schritt werden die Daten selbst eine eigene DNA bekommen, in der sich neben klaren Hinweisen auf deren Inhalt auch Richtlinien und Instruktionen einbetten lassen. KI- und ML-getriebene Funktionen werden diese Befehle auslesen und so beispielsweise automatisch Compliance-Vorgaben umsetzen – etwa indem die Daten verschlüsselt werden. Das Zusammenspiel aus Daten-DNA und automatischer Algorithmen wird Mitarbeiter von vielen nervenden händischen Routineaufgaben befreien, so dass sie mehr Zeit in fortschrittlichere Analysen investieren können.

Der Druck zu standardisieren

Die DSGVO hat als eine der ersten Vorgaben branchenübergreifende Standards für Daten vorgegeben, was den Schutz, die Hygiene, das Speichern und Löschen personenbezogener Informationen betrifft. Im Finanzsektor und dem Gesundheitswesen sind branchenspezifische Compliance-Anforderungen längst etabliert und andere Branchen werden folgen. Ein globaler, branchenübergreifender Standard ist allerdings nicht in Sicht, so dass wie in der Vergangenheit bestimmte Industrien eigene Vorgaben vorantreiben, um den Austausch der Daten zwischen den Mitgliedern zu regeln und die Datenqualität zu sichern.

Fest steht, dass diese Fragen nicht mehr nur von Chief Data Officers (CDO) oder Data Protection Officers (DPO) allein beantwortet werden. Es gibt zu viele Daten und zu viele Prozesse, als dass man die Verantwortung an einer Stelle konzentrieren könnte. Vielmehr werden sich Vertreter einzelner Abteilungen Kompetenzen auf dem Gebiet aneignen müssen, um die Daten den Vorgaben entsprechend zu verarbeiten.

Das ausfallsichere Mikrorechenzentrum kommt

Folgt man Schätzungen von Gartner, sind bis 2020 nahezu 5,8 Milliarden Geräte vernetzt, ein Plus von 21 Prozent gegenüber 2019. Technologien wie Internet of Things (IoT) und die 5G-Technologie werden die Infrastruktur und Bandbreite liefern. Um Daten über 5G schnell zu verarbeiten, ist es nötig, die Aufgaben auf eine Vielzahl von Mikrozellen aufzuteilen, damit die Daten gleich am Entstehungsort analysiert werden können. Ein IoT-Gerät wie ein Sensor hat in der Regel zu wenig Speicher und Rechenressourcen, um Daten längerfristig vorzuhalten. Neben den klassischen zentralen Rechenzentren werden also viele Mikrorechenzentren aufgesetzt, um eine hohe Zahl IoT-fähiger Geräte und Daten aufzunehmen.

Ein großer Teil der Daten mag aus sogenannten Transient Data bestehen, Informationen eines Abstandssensors im Auto zum Beispiel, die nur für die eine Sekunde ihrer Verarbeitung relevant sind und danach gelöscht werden können. Es wird bei kritischen Prozessen wie dem autonomen Fahren allerdings wichtig werden, die Mikrorechenzentren und ihre Daten so zu strukturieren, damit Ausfälle beispielsweise die Fahrsicherheit nicht gefährden. In diesem Kontext sind zudem Daten-Backups zu bedenken.

Backup-Strategien auffrischen

Cyberkriminelle werden trickreicher und entwickeln ihre Angriffsstrategien weiter. Um vor ihren Ransomwareangriffen geschützt zu sein, müssen Unternehmen im Jahr 2020 ihre Backup-Strategien auf den Prüfstand bringen. Es muss sichergestellt sein, dass einheitliche Policies für Multi-Cloud-Umgebungen vorliegen und in regelmäßigen Abständen Sicherheitskopien der Daten erstellt werden, um bei einem Angriff keinen Schaden davonzutragen. Automatisierung erweist sich für Unternehmen dabei als eine große Hilfe. Denn werden Backups händisch angelegt, ist die Business Continuity gefährdet, insbesondere wenn es sich um kritische Daten handelt.

Container werden mehr und wichtiger

Unternehmen in Deutschland werden ihre IT-Infrastruktur mit Containern noch stärker virtualisieren, damit sie neue Anwendungen noch schneller aufsetzen und weltweit skalieren können. Container helfen, indem sie die Ressourcen der Hardware noch klüger abstrahieren und an neue Anwendungen verteilen. Container im Zusammenspiel mit Software Defined Architectures können Prozessoren, Speicher, Netzwerk und Virtualisierung dann automatisch zuweisen und hochverfügbar strukturieren, ohne dass IT-Techniker eingreifen müssen. Auf dieser Grundlage lassen sich dann Anwendungen in Containern weltweit und schnell in Betrieb nehmen und die Mitarbeiter können ihre Workloads zügiger implementieren, insbesondere auf hyperkonvergenten Infrastrukturen.

Link > Veritas Technologies

Querverweis: Unser Beitrag > Storage-Systeme und Künstliche Intelligenz - Neuland oder Business as Usual?


(2) Link > IDC Data Age Studie im Auftrag von Seagate