Entwicklungen im Bereich der unternehmensweiten Speicherverwaltung, Blogpost Teil 2

Starnberg, 06. Mai 2024 - Integrative Datenstrategien im Zeichen von generativer KI, IT-Infrastruktur-Automatisierung, Cyberschutz und hybriden Clouds; eine Übersicht…

Um was es in diesem Beitrag (Teil 2) geht: Wie im ersten Teil dieses Blogpost dargestellt, geht es IT-Infrastrukturseitig darum, die Fähigkeiten der Plattformen als Basis für Geschäftsanwendungen nicht nur leistungsmäßig zu verbessern, sondern gleichzeitig deren Agilität, Compliance, Sicherheit und Verfügbarkeit sicherzustellen. Allerdings steigen auf Grund der dynamischen Entwicklungen im Applikationsumfeld (KI, Cloud, regulatorische Rahmenbedingungen etc.) die Anforderungen an Storage, Netzwerke, Server etc. kontinuierlich an; und dies hat wiederum direkte Auswirkungen auf die Speicher- und Datenverwaltung. Im Teil 2 dieses Blogposts geht es deshalb um Software-definierte Infrastrukturen, die Verwaltung von Block-, File- und Objektdaten vor-Ort und in der hybriden Cloud, sowie AIOPs, Automatisierung und einige ESG-Aspekte.

 

KI-Unterstützung für Software-definierte Infrastrukturen

Eine Datenservices-Infrastruktur, die den hybriden (Multi-)Cloud-Betrieb unterstützt, ist ein zentrales Element innerhalb einer modernen Datenverwaltungs-Strategie. In Bezug auf die Management- und Speicher-Funktionalitäten bei stark wachsenden verteilten Datei- und Objektspeicher-Systemen werden diese sinnvollerweise logisch in einer Managementplattform zusammengeführt, um ein möglichst breites Spektrum an Anwendungsfällen für unstrukturierte Daten abzudecken und gleichzeitig die Kosten für das Speicher- und Datenmanagement zu senken. Davon profitieren dann auch Themen wie Resilienz und Sicherheit. Mit Hilfe von AIOps im IT-Betrieb ist eine hochautomatisierte Infrastruktur viel besser in der Lage, als widerstandsfähige Plattform zur Verwaltung von Datendiensten zu agieren. Der Einsatz generativer Künstlicher Intelligenz und Natural Language Processing liefert weitere Möglichkeiten, wie die Cyberwiederherstellung mit Hilfe von KI-Funktionen beschleunigt werden kann, um SLA- und RTO-/RPO-Vorgaben einzuhalten. Ein prominenteres Beispiel: die Zusammenarbeit von Backup-Plattformanbietern mit Microsoft Sentinel und Azure OpenAI Cloud Service.

 

Der KI-Einsatz verkürzt den Zeitaufwand für die Untersuchung und Festlegung von Reaktionen auf Cyber-Ereignisse. Moderne KI-gestützte Backups sind über pro-aktive Ransomware-Erkennung oder die Identifizierung kritischer Daten in der Lage, mit Hilfe von ML-Technologien potentielle Risiken zu minimieren und die Bedrohungserkennung zu unterstützen. Beispiel: sofortige Warnmeldungen falls Verschlüsselungen, nicht legitimierte Löschungen-/Änderungen an Daten oder andere Anomalien auftreten. Die Einführung von KI und maschinellem Lernen macht somit aus bisher stark manuell dominierten Sicherungs- und Wiederherstellungs-Prozessen einen hoch-automatisierten datengesteuerten Prozess, der eine konsistentere Abstimmung sowie Integration mit IT-Service-Management-Tools ermöglicht.

Diese bilden eine zentrale Schnittstelle der IT hin zur Unternehmensführung ab, die auf Grund steigender regulatorischer Vorgaben immer mehr Verantwortung für die Verfügbarkeit und Sicherheit der Anwendungen und Systeme zu tragen hat. Externe Katalysatoren und Treiber dieser Entwicklungen betreffen EU-weite politische und regulatorische Vorgaben zur Resilienz inklusive Maßnahmen zu (branchenspezifischen) Cybersicherheitsmaßnahmen. Dazu gehört die anstehende Umsetzung des EU-Gesetzes zur digitalen Widerstandsfähigkeit (Digital Operational Resilience Act, DORA). Weiter gilt es die 2016 eingeführte Cybersicherheits-Vorschrift der EU, die durch die 2023 veröffentlichte NIS-2 Richtlinie weiter aktualisiert wurde, zu beachten.

 

Zustandsbehaftete Cloud-native Anwendungen und persistenter Storage

In der Praxis stellt die Storage- und Data Management Integration im Sinne einer übergreifenden Architektur zwischen on-premise- und nativen Cloud Ressourcen im DevOps-Umfeld noch verschiedene Herausforderung bereit, auch weil die Anzahl zustandsabhängiger Anwendungen in den letzten Jahren schnell und organisatorisch teilweise unkontrolliert zugenommen hat. Persistente Speichersysteme laufen auch außerhalb von nativen Cloud-Umgebungen auf separaten Systemen, was den Verwaltungsaufwand komplizierter, unübersichtlicher und teurer machen kann.

Das Interesse an der Bereitstellung von Stateful-Applikationen mit Kubernetes-Clustersystemen ist schon daher gestiegen, weil man sich nicht immer auf ein separates Team verlassen will (oder kann...), das den Speicher verwaltet. Es ist - das nötige Know-how vorausgesetzt - mitunter kostengünstiger aber oft auch zeitsparender-/einfacher, wenn dasselbe IT-Team das den Kubernetes-Cluster verwaltet, auch alle mit diesem Cluster verbundenen Speicherressourcen betreut. Damit steigt in Konsequenz der Bedarf an einer verstärkten Automatisierung der Speicherverwaltung über alle Arten von Clustern, an die unterschiedliche Speicherdienste angeschlossen sein können. Entwicklungen im Bereich KI-gestützter moderner Tool-Sets versprechen jedoch inzwischen Abhilfe.

 

Verwaltung von Block-, File- und Objektdaten vor-Ort und in der hybriden Cloud

Das starke Wachstum im Bereich von unstrukturierten Filedaten bei Standard-Applikationen und die damit zunehmende Attraktivität von Objektspeicher-Angeboten für neue Anwendungen verstärkt die Notwendigkeit einer umfassenden konsolidierten Speicherverwaltung. Diese beruht im wesentlichen auf Software-definierten Compute- und Speicherressourcen. Innerhalb von SDI verwendet SDS eine verteilte Systemarchitektur für Primär-, Sekundär- und Archivdaten. Einher geht dies mit dem Entwicklungstrend, isolierten Infrastruktur-Silos zugunsten von flexibel skalierbaren Cloud-unterstützen hybriden Plattformen aufzulösen. Die Automatisierung von DevOps-Prozessen, um schneller Cloud-native und skalierbare Anwendungen auf Basis von Containern sowie Mikroservices zu erstellen, spielt dabei eine wichtige Rolle.

 

Das Cloud-Native-Ökosystem liefert zur Speicherverwaltung ja bereits seit geraumer Zeit über das Container Storage Interface (CSI) dazu festgelegte Spezifikationen, um einen standardisierten, portablen Ansatz zur Implementierung und Nutzung von Storage-Services auf Basis von containerisierten Workloads zu erreichen. Per Definition ist CSI eine weitere Möglichkeit, um beliebige Block- und Dateispeichersysteme für containerisierte Workloads bereitzustellen. Mit Hilfe von CSIs kann mit dem Speicher auf einem lokalen Server oder auch außerhalb des Clusters selbst interagiert werden. CSIs stehen auch für die Interaktion mit Azure Storage oder AWS S3 Storage zur Verfügung, um Cloud-native Plattformen zum Speichern von Pod-Daten zu verwenden. Deren Daten sind auch dann noch vorhanden, wenn ein Pod selbst verschwindet. Storageanbieter wie NetApp, Pure Storage, IBM, HPE, VMware vSAN u.w. bieten Storage-Plugins für Kubernetes & Co. Tool-seitig sind Open-Source-Projekte wie z.B. Kubestr zudem in der Lage, die relativen Leistungswerte verschiedener Speicherkonfigurationen, sogar über Cloud-Anbieter hinweg, zu analysieren.

Moderne Cloud-native Anwendungen auf Basis von Containern und Mikroservices integrieren skalierbare Datei-, Block- und Objektspeicherdienste direkt im Applikations-Cluster und führen sie mit anderen Anwendungen und Diensten zusammen, die den Speicher allokieren. Dadurch wird der Cloud-native Cluster autark und portabel über Public Clouds und On-Premise-Bereitstellungen hinweg. Unternehmen werden so in die Lage zu versetzt, ihre Rechenzentren mit dynamischer Anwendungsorchestrierung für verteilte Speichersysteme in lokalen und öffentlichen Cloud-Umgebungen zu modernisieren. Selbst wenn übergeordnete Verwaltungswerkzeuge wie Kubernetes verteilte Dateisysteme wie NFS und GlusterFS verwenden, bleibt der Einsatz einer Container-fähigen Storage-Fabric empfehlenswert, falls diese auf die Anforderungen von zustandsabhängigen Workloads in der Produktion ausgelegt ist.

Betreiber können aus einer wachsenden Anzahl von Open-Source-Projekten sowie Anbieter-Plattformen wählen. Konkret: neben APIs und CSI (Container Storage Interface) sind eine wachsende Anzahl von Lösungen verfügbar, um eine gemeinsame speichernahe Datenverwaltung innerhalb kombinierter File- und Object-Plattformen - entweder als cloud-native Softwarelösung - oder kombinierte Hard- und Software (Appliance) zu realisieren. Ceph, Longhorn, OpenEBS oder Rook (als storage operator für Kubernetes) repräsentieren dazu native open-source Storageprojekte, während Kubera / MayaData, Robin.io, Trident / NetApp, Pure Storage Portworx, SUSE (Rancher) oder Red Hat OpenShift Container Storage Platform (kein Anspruch auf Vollständigkeit!) kommerziell verfügbare Angebote mit entsprechendem Support darstellen.





Bildquelle: Beispiel Rook, Ceph Storage Provider

Anmerkung zur Abbildung: Open-Source Cloud-Native Storage for Kubernetes am Beispiel Rook. Die Software orchestriert die Ceph-Speicherlösung mit einem speziellen Kubernetes-Operator zur Automatisierung der Verwaltung. Rook stellt sicher, dass Ceph unter Kubernetes entsprechend gut läuft und vereinfacht die Bereitstellung und Verwaltung. (Quelle: https://rook.io/)


Es ist in diesem Umfeld darauf hinzuweisen, dass analog zum (ITOps) Produktivbetrieb auch hier auf die steigende Anforderungen in Bezug auf Hochverfügbarkeit, Performance, Compliance, Datensicherheit und Cyberschutz zu achten ist. Zentrale Leistungsmerkmale bei der Auswahl einer Lösung beinhalten:

  • Storage-as-a-Service, um die Dienste als Cloud-ähnlichen Service bereitstellen zu können
  • Hoher Automatisierungsgrad, so dass die Bereitstellung selbst nicht IT-gebunden sein muss
  • Optimierte Integration mit bestehenden Entwicklerprozessen
  • End-to-end Funktionalitäten (Edge-to-Core-to Multi-Cloud).



Von CAPEX zu As-a-Service-Bereitstellungen in der Cloud

Um die Bereitstellung und Verwaltung von Server- und Speicherressourcen zu erleichtern, ist über die Zeit ein wachsendes Angebot von „as-a-Service“-Angeboten (STaaS) zu beobachten. Die Motivation dahinter: CAPEX Ausgaben zu begrenzen und Beschaffung, Einsatz sowie laufende Wartung zu vereinfachen; dies gilt besonders dann als vorteilhaft, wenn eine Investition im Betrieb meist nur unvollständig ausgelastet ist. Cloud-Angebote für IT-Management-Dienste können im Speicherumfeld gezielt helfen, den gesamten IT-Infrastruktur-Betrieb besser zu rationalisieren. Beispiel: Backup-, Disaster Recovery- oder Archivierung-as-a-Service.

Dies trifft auch für Virtuelle Desktops (VDI) mit DaaS zu. Sie vereinfachen die Desktop-Bereitstellung und somit auch die Datenspeicher-Verwaltung. Betreiber müssen jedoch sicherstellen, dass ihr VDI über ausreichend Speicherressourcen verfügt, um das stetig wachsende Leistungs- und Kapazitätsanforderungen zu erfüllen. Bei DaaS-Angeboten wird dies meist zusätzlichen Gebühren bedeuten. Für VDI vor-Ort heißt es mehr Speicherplatz zu organisieren und auf Grund der gestiegenen Service-Akzeptanz die Performance mit schnelleren All-Flash-Arrays zu erhöhen. Generell werden Abo-Dienste oder On-demand-Services künftig jedoch nur dann erfolgreich sein, wenn sie durch entsprechende SLAs garantiert, sprich abgesichert und meßbar sind; dies gilt insbesondere für die Bereiche Datenschutz, Energieeffizienz und Nachhaltigkeit (ESG).

 

Zusammenfassung und Ausblick

Im modernen Applikationsbetrieb ist - auch getrieben durch KI - ein verstärkt datenzentrierter Ansatz zu beobachten. Daten werden als strategische Ressource genutzt, die entsprechend verwaltet und analysiert, aber auch geschützt werden muss. Diese Datenlandschaft besteht aus lokalen Umgebungen und Cloud-Systemen verschiedener Anbieter, die geografisch verteilt sein können. Vereinfachungen lassen sich durch eine verbesserte Konvergenz durch standardisierte Schnittstellen wie S3 zum Speicher erreichen.

IT-Organisationen werden aber nicht nur die reine Speicherverwaltung, sondern diese im Verbund mit einem leistungsfähigen Datenmanagement als strategischen Differenzierungsfaktor gegenüber Kunden, Mitbewerbern, Märkten und Anwendungen betrachten. Speicherverwaltungs-Werkzeuge erleichtern nicht nur die Überwachung, Verwaltung und Fehlerbehebung aller wesentlichen Komponenten eines Unternehmensspeicher-Systems und steuern wichtige Parameter zur Komprimierung, Deduplizierung, Auslastung-, Speicherbereitstellung sowie Performanceoptimierungen für konsistente Anwendungsleistung (QoS).

Moderne Data Management Plattformen liefern darüber hinaus weitergehende Funktionen zum Aufbau einer persistenten cloud-nativen Umgebung mit hohem Automatisierungsgrad und SLA-Funktionen für Anwendungsdaten, ohne dass die Bereitstellung dazu per se IT-Ops gebunden sein muss. Um die Anwendungsleistung für hybride Cloud-Umgebungen sicherzustellen, werden Container, Servicenetze, Mikroservices, unveränderliche Infrastrukturen und deklarative APIs benötigt. Zusammen ermöglichen sie in Kombination mit einer robusten KI-gestützten Automatisierung die Implementierung, Überwachung sowie Kontrolle lose gekoppelter Systeme, die dann belastbarer, relativ einfach handhabbar und zentral zu managen sind.

Aus ESG-Sicht nehmen auf Grund von steigenden Speicherausgaben besonders im unstrukturierten Bereich flexible On-Demand-Bereitstellungs-Modelle an Relevanz zu, da sie eine bedarfsgerechte und wirtschaftlichere Ressourcen-Bereitstellung bieten. Dies ermöglicht es der Speicher- und Datenverwaltung, die Energiekosten durch reduzierte Stromverbräuche zu senken. Unter dem Aspekt Nachhaltigkeit wird die energieeffiziente Plattformnutzung für Rechenzentren ein zentraler Faktor zur Senkung von CO2-Emissionen sein. Unternehmen sollten dies bei ihren Kaufentscheidungen und Planungen berücksichtigen.

 

Querverweise:

Blogpost > Zum Einsatz von KI-Technologien für Backup-Recovery-Verfahren und besseren Datenschutz

Blogpost > Kriterien zur Speicherauswahl im Bereich von primären Unternehmens-Workloads

Unser Beitrag > Grüne Rechenzentren – überhaupt ein realistischer Ansatz in Zeiten der Energiekrise?