Blogpost: Status und Entwicklungen im Bereich der unternehmensweiten Speicherverwaltung

Starnberg, 11. April 2024 - Integrative Datenstrategien im Zeichen von Energieeffizienz, Gen. KI und einer verstärkten Bedrohungslage durch Cyberangriffe…

Um was geht es in diesem Blogpost (Teil 1): Das „klassische“ Speichermanagement zielt darauf ab, eine effiziente und vor allem zuverlässige Speicher- und somit letztlich Datennutzung zu gewährleisten. Es geht darum, die Leistungsfähigkeit von IT-Infrastrukturen als Basis für Geschäftsanwendungen nicht nur zu verbessern, sondern gleichzeitig auch deren Integrität, Sicherheit und höchste Verfügbarkeit sicherzustellen. Allerdings steigen Infrastrukturseitig auf Grund der dynamischen Entwicklungen bei immer mehr (verteilten) Daten die Anforderungen an Storage, Netzwerke, Server etc. kontinuierlich an. Ein Trend, der direkte Auswirkungen auf die Speicher- und Datenverwaltung hat. Bevor jedoch die weiteren Entwicklungen in diesem Umfeld angerissen werden sollen, nachfolgend ein kurzer Überblick zu einigen Begrifflichkeiten:

 

Storage Management umfasst die (unternehmensweite) Verwaltung von Speicherressourcen und der daran beteiligten Komponenten, sowohl on-premise als auch in der hybriden- und Multi-Cloud. Darunter fallen Funktionen zur Ressourcenbereitstellung, Prozessautomatisierung, Load Balancing, Kapazitätsplanung und -verwaltung, vorausschauende Analysen, Leistungsüberwachung, Datenreplikation, Komprimierung, Deduplizierung, Snapshots sowie Cloning. Mit dazu gehören Dienste für Cloud-Speicher sowie Container-Managementsysteme wie Kubernetes & Co.

 

Storage Ressource Management ist ein Teilaspekt der unternehmensweiten Speicherverwaltung. Von direct-attached- to Fabric-attached storage ist SRM typischerweise enger mit der verwendeten Speicherhardware verbunden, unabhängig ob diese über Software-Definierte JBODs und-/oder in sich abgeschlossenen intelligente Storage Arrays-/Subsysteme bereitgestellt werden. Das hardware-nahe Storage Management bezieht sich auf die Verwaltung physischer Speicherressourcen-/Medien wie HDDs, SSDs, Tapes und weiterer Geräte. Dies gilt auch für hyperkonvergente Umgebungen und Computational Storage Systeme. Beim speichernahen Datenmanagement hingegen geht es um die Verwaltung der gespeicherten Daten, unabhängig von deren physischen Speicherung.

 

Unternehmens-Speicher und gängige Management-Plattform-APIs

Der Standard SMI-S zur Integration von Ressourcen verschiedenster Anbieter - um diese gemeinsam zu nutzen und effizient betreiben zu können - wird Herstellerseitig verstärkt adaptiert. Ziel der Standardisierung aus Betriebssicht ist es, Speichergeräte verschiedener Hersteller möglichst einfach und sicher zu verwalten, da sie mit SMI-S „von aussen“ gleich aussehen und sich auch identisch verhalten und somit orchestrieren lassen. SNIA Swordfish liefert ab Version 1.2.5a (aktuell Version 1.2.6 / Jan. 2024) eine Erweiterung der DMTF Redfish-Spezifikation, so dass dieselbe RESTful-Schnittstelle zusammen mit JavaScript Object Notation (JSON) und Open Data Protocol (OData) verwendet wird, um neben Servern auch Speichergeräte- und Dienste mit Blockspeichern, Filesystemen, Objektspeichern und Speichernetzwerk-Infrastrukturen transparent zu verwalten.

 

Swordfish v.1.2.6 bietet Schlüsselfunktionen wie neue Metriken für FileSystem, StoragePool, StorageService und Erweiterungen für VolumeMetrics. Es führt neue Mapping- und Maskierungsmodelle ein, die Connections im Fabric-Modell verwenden; außerdem werden neue Volume-Eigenschaften wie StoragePool, Change StripSize, Asymmetric Logical Unit Access (ALUA) zur Verwaltung von Reservierungen unterstützt. Swordfish v.1.2.6 bringt weiter Verbesserungen beim NVMe Domain Management, einschließlich ALUA-Unterstützung. Zudem bietet es Aktualisierungen für NVMe-Namespaces, wie z. B. eine vereinfachte Darstellung des LBA-Formats (Logical Block Address) und die Verwaltung mehrerer Namespaces. (Quelle: SNIA Swordfish)

 

Erweiterungen betreffen auch das Management von NVMe- und NVMe-oF- Konfiguration / Ressourcen mit Hilfe von (SNIA-) Swordfish und (DMTF-) Redfish. Die Fähigkeit zur Cloud-Anbindung und Verwaltung mit Hilfe von S3 als de-facto-Standard bei Objektspeichern ist für Speicherlösungen ja inzwischen so gut wie überall gegeben. Zu den weiteren Komponenten eines umfassenden (Cloud-)Data und Storage Managements gehören neben Funktionen zur Automatisierung und Orchestrierung insbesondere die Bereiche Leistungsüberwachung, Sicherheit, Governance und Compliance sowie ein transparentes Kostenmanagement.
 

 

Bildquelle: SNIA

Externer Link > https://www.snia.org/forums/smi/swordfish


 

Integrative Strategien: Vorteile mit Software und KI

Software-definierte Speicherlösungen (SDS) bieten eine hohe Flexibilität und Skalierbarkeit im Vergleich zu reinen Hardware-Systemen. Insbesondere die Möglichkeit, Ressourcen plattformunabhängig dynamisch anzupassen, über Regionen auszudehnen und in die Cloud zu erweitern, erlaubt eine effiziente Skalierung, erfordert dann aber sorgfältige Planung und Implementierung. SDS-Lösungen sind aufgrund ihrer inhärenten Flexibilität und der Vielzahl von Optionen sowie Einstellungen je nach Einsatzgröße und Heterogenität deshalb je nach Größe komplexer in der Verwaltung. Die notwendige Konfigurationsarbeit, Überwachung und laufende Optimierungen der Systeme (OPEX) gilt es auch auf Grund des aktuellen Fachkräftemangels deswegen gerade im open-source-Umfeld zu berücksichtigen.

Davon unberührt bleibt der Trend zur Konvergenz von Speicherverwaltung (Infrastruktur) mit speichernahen Datenmanagement-Werkzeugen. Unternehmen, die einen stärker integrierten Ansatz zur Speicher- und Datenverwaltung verfolgen, sind in der Lage, die Bereitstellung von Anwendungen zu beschleunigen und Infrastruktur-Silos aufzulösen. Software Definierte Infrastrukturen (SDI) haben aus Verwaltungssicht den Vorteil, dass sich wie bereits hier mehrfach erwähnt im Sinne einer integrativen IT zwei Ziele im Auge behalten lassen: Beweglichkeit und Elastizität des Storage-Layers im laufenden Betrieb. Mehr Kapazität oder Rechenleistung bedeutet, diese Ressourcen im laufenden Betrieb hinzu zufügen. Mehr Kapazität oder keine Hardware vor-Ort zur Verfügung? SDI nutzt vermehrt dazu kostengünstige und skalierbare Ressourcen innerhalb der Public-Cloud.

 

Betriebe können sich damit auf verändernde Anforderungen besser einstellen und schneller reagieren. Software-Defined Storage (SDS) trennt technisch gesehen die Steuerung (control plane) der Speicherinfrastruktur von der rein physischen Hardware (data plane) und erlaubt die zentralisierte Verwaltung unterschiedlicher Speicherressourcen und deren Automatisierung über Speicher- und Datenmanagement-Funktionen wie Deduplizierung, Komprimierung, Snapshots, Replikation und Datenverschlüsselung. Dies ermöglicht je nach Anbieter eine komplette Verwaltung und Sicherung kritischer Daten „in the Box“, auch ohne weitere externe Tool-Sets.

Bei software-gesteuerten Unternehmensspeichern lässt sich inzwischen sowohl der On-Premise (Private-Cloud-)Storage als auch die native Public-Cloud-Storageumgebung als eine integrierte softwaredefinierte Infrastruktur (SDI) verwalten, so als ob die Public Cloud nur ein weiteres Speichersystem wäre, das über seine Benutzeroberfläche identifiziert wird. Die Public Cloud wird gerne für speicherintensive Anwendungsfälle wie Datenarchivierung (Cold Storage) als auch für Backups, Disaster Recovery- oder DevOps Cloud-native Anwendungen genutzt. Unternehmen erhalten in dieser Kombination vor allem eine bessere Kontrolle, indem sie ihre kritische Daten je nach Anforderung vor Ort (on-premise) behalten, um gesetzliche Einhaltung von Vorschriften zu Data Governance, Compliance und Datenschutz gewährleisten zu können...

 

Teil 2 dieses Blogposts wird sich dann mit der KI-Unterstützung für Software-definierte Infrastrukturen, der Verwaltung von Block-, File- und Objektdaten vor-Ort und in der hybriden Cloud sowie AIOPs, Automatisierung und einigen ESG-Aspekten beschäftigen.

 

Querverweise:

Blogpost > Kriterien zur Speicherauswahl im Bereich von primären Unternehmens-Workloads

Blogpost > Zum Einsatz von KI-Technologien für Backup-Recovery-Verfahren und besseren Datenschutz

Blogpost > Storage Protokolle auf Basis FC, iSCSI und NVMeoF in der Entwicklung