Denodo zu aktuellen Entwicklungstrends im unternehmensweiten Datenmanagement für 2024

München, Starnberg, 19. Dez. 2023 - Auf schlecht integrierte Daten und steigende Speicherkosten im Unternehmen achten; Datensicherheit und Data Governance betroffen...

Zum Hintergrund: Unternehmensweites Datenmanagement und damit verbundene Prozesse beinhalten u.a. die Sicherung, Organisation, Analyse und Verwaltung aller relevanten Daten während ihres gesamten Lebenszyklus, inklusive Datenintegration, Datenmodellierung, Qualitätssicherung uvm. Insgesamt somit ein mitunter komplexes Unterfangen, welches durch die Cloud und wachsende Edge-Computing-Initiativen nicht einfacher werden dürfte. Im kommenden Jahr werden Unternehmen auf Grund verschiedener weiterer Faktoren (s.u.) ihr Augenmerk stärker als bisher auf ihre Datenmanagement-Strategie legen müssen; und nicht zuletzt wird auch der Erfolg von GenAI von der richtig gewählten Daten- (und Speichersystem-)Architektur abhängig sein.

 

Bis 2026 sollen manuelle Datenintegrations-Aufgaben durch die Einführung von sog. Data-Fabric-Designpatterns, die eine erweiterte Datenintegration unterstützen, um bis zu 30 Prozent sinken, so die Prognose im aktuellen Gartner Magic Quadrant Report in der Kategorie Datenintegrations-Tools ** (Querverweis / externer Link zu Data-Fabric-Design > https://www.gartner.de/de/artikel/data-fabric-architecture-zur-modernisierung-von-datenmanagement-und-integration).

Nach Ansicht von Otto Neuer, Regional VP und General Manager bei Denodo (1), sind viele Unternehmen derzeit jedoch noch nicht in der Lage, das Optimum aus ihren Daten herauszuholen, während gleichzeitig die Speicherkosten aus dem Ruder laufen. Ein Grund dafür im Bereich Datenmanagement ist laut Neuer (Zitat:) „der zentralisierte Ansatz, den viele noch verwenden, der angesichts der Massen an verteilten Daten aber nicht mehr praktikabel ist…“. Im folgenden Beitrag erläutert er für Sie, mit welchen Entwicklungen sich Unternehmen im kommenden Jahr aus seiner Sicht verstärkt auseinandersetzen müssen.

 

1. Anti-Datengravitation setzt sich durch

„Daten haben eine Art Anziehungskraft – neue Daten sowie begleitende Dienste hängen sich oft an bestehende große Datenbestände an. Doch Unternehmen erkennen zunehmend, dass zentrale Repositories wie Data Warehouses und Data Lakes, in denen dies geschieht, mehr neue Probleme schaffen, als sie alte lösen. Denn die meisten Datenlandschaften bestehen aus lokalen als auch Cloud-Systemen verschiedener Anbieter, die zudem oft geografisch verteilt sind.
 
Aus diesem Grund, aber auch wegen steigender Kosten für die Replikation von Daten, Fragen der Datenhoheit, lokaler Gesetze und Vorschriften zum Datenmanagement sowie der Notwendigkeit schneller Insights, wird Anti-Datengravitation im Jahr 2024 und darüber hinaus die Norm werden. IT-Verantwortliche sollten daher in Technologien investieren, die auf der Prämisse des verteilten Datenmanagements aufbauen.

 

2. Datenprodukte gewinnen an Bedeutung

2024 bringt außerdem den Durchbruch für Data Mesh, bei dem die verteilte Natur von Daten von vornherein berücksichtigt wird. Ein Data Mesh ist um verschiedene Datendomänen herum organisiert, deren Daten von den jeweiligen primären Business Usern verwaltet werden. Das heißt, die IT muss künftig vor allem die Grundlagen für die Arbeit der Datendomänen – der Erstellung und Verteilung von Datenprodukten – bereitstellen.

Entscheidend sind hierbei Datenkataloge, die Rohdaten in Form von verlässlichen, konsumierbaren Data-Assets bereitstellen. Im Sinne der Nutzererfahrung werden Anbieter von Datenplattformen außerdem Funktionen wie personalisierte Empfehlungen und beliebte Produkthighlights bieten und gleichzeitig durch Nutzerempfehlungen sowie Transparenz hinsichtlich der Datenherkunft Vertrauen schaffen. Darüber hinaus werden diese Plattform Echtzeitabfragen direkt aus dem Datenkatalog ermöglichen und interaktive Feedbackschleifen für Nutzeranfragen, Datenanforderungen und Änderungen einrichten.

 

3. Der Erfolg von GenAI wird von der Datenarchitektur abhängen

Unternehmen werden sich bei der Implementierung von generativer künstlicher Intelligenz (GenAI) und Large Language Models (LLMs) mit zahlreichen Herausforderungen konfrontiert sehen, etwa mit Blick auf die Datenqualität, der Governance, der Einhaltung ethischer Grundsätze und des Kostenmanagements. Jedes Hindernis steht in direktem oder indirektem Zusammenhang mit der übergreifenden Datenmanagementstrategie der Unternehmen – ob es darum geht, die Integrität der in KI-Modelle eingespeisten Daten zu gewährleisten oder eine reibungslose Integration in bestehende Systeme zu ermöglichen.

Vor diesem Hintergrund ist eine robuste Datenarchitektur eine Notwendigkeit. Qualitativ hochwertige, gut verwaltete Daten bilden das Fundament, auf dem diese fortschrittlichen Modelle arbeiten und haben erheblichen Einfluss auf die Zuverlässigkeit und ethische Compliance der Ergebnisse. Unternehmen, die proaktiv in ein starkes Datenmanagement-Framework investieren, sind 2024 deshalb besser positioniert, um das volle Potenzial dieser Technologie zu erschließen.

 

4. Organisationen nehmen ihre Cloud-Kosten stärker in den Fokus

Im kommenden Jahr wird es für Unternehmen darum gehen, sowohl ihre steigenden Cloud-Kosten einzudämmen als auch einen hochwertigen Service und eine wettbewerbsfähige Performance zu gewährleisten. Steigen Kosten für Cloud-Hosting und -Datenmanagement hindern sie an einer effektiven Vorhersage und Budgetierung und die ehemals verlässlichen Kosten für die On-Premises-Datenspeicherung werden durch die volatilen Preisstrukturen der Cloud in den Hintergrund gedrängt.

Um dieser finanziellen Belastung zu begegnen, werden Unternehmen ihre Cloud-Ausgaben gründlich analysieren. Sie müssen dabei etwa die von Querys beanspruchte Rechenleistung und die damit verbundenen Datenausgangsvolumina in den Blick nehmen, die Nutzung von Datensätzen erfassen und ihre Speicherlösungen optimieren. Diese Bemühungen werden durch die Einführung von Financial Operations (FinOps)-Prinzipien unterstützt, die finanzielle Rechenschaftspflicht mit dem flexiblen Kostenmodell der Cloud verbinden. Durch das kontinuierliche Monitoring ihrer Ausgaben, die zuverlässige Vorhersage von Kosten und die Implementierung von Best Practices bei der Cloud-Verwaltung erreichen Unternehmen ein Gleichgewicht zwischen Kosteneinsparungen und betrieblicher Effizienz.

 

5. Datensicherheit und Data Governance werden vereinfacht

Schlecht integrierte Daten beeinträchtigen die Agilität eines Unternehmens auf vielen Ebenen, aber vielleicht am stärksten wirken sie sich auf die Datensicherheit und die Data Governance aus. Da es Zeit kostet, unzählige isolierte Systeme einzeln zu aktualisieren, ist es unmöglich, alle Unternehmenssysteme gleichzeitig abzusichern und zu verwalten.

Um diese Herausforderung zu meistern, werden Unternehmen in 2024 verstärkt auf globale Richtlinien für diese Aspekte setzen. Entsprechende Sicherheitsrichtlinien können nicht auf Nutzerrollen angewendet werden, sondern auch auf Standorte, während sich mithilfe von Data-Governance-Richtlinien beispielsweise die Schreibweise bestimmter Wörter in den verschiedenen Systemen des Unternehmens standardisieren lässt.“

 

 

(1) Quelle / Foto: Otto Neuer, Regional VP und General Manager bei Denodo (Bildquelle: Denodo)

** Anmerkung: Denodo hat bekanntgegeben, dass Gartner das Unternehmen zum vierten Mal in Folge als „Leader“ in der Kategorie Datenintegrations-Tools im Gartner Magic Quadrant 2023 aufgeführt hat. Die Denodo Platform unterstützt (Zitat:) „Unternehmen als führende Lösung für Datenintegration, Datenmanagement und Datenbereitstellung bei der Implementierung einer logischen Data-Fabric-Architektur. Dies ermöglicht Unternehmen Self-Service-BI, Data Science, Hybrid/Multi-Cloud-Datenintegration und Unternehmensdatenservices zu etablieren und zu nutzen…“

 

Querverweis:

Unser Beitrag > Intelligentes Datenmanagement als Basis für faktenbasiertes Nachhaltigkeits-Reporting

Unser Beitrag > Datadobi StorageMAP 6.6: Verwaltung unstrukturierter Daten mit Objektspeicher-Erweiterungen

Unser Beitrag mit Podcast > Die Speicherkosten von kalten Daten reduzieren und Nachhaltigkeitsziele erreichen