Virtual DataCenter Storage und OPEX

Starnberg, 29. Juli 2014 - Software Defined Storage, SDS als Basis von "Software defined Datacenter"; Servervirtualisierung, SDN und SDS... Wertschöpfung oder Kostenblock?

Um was es hier geht: Wichtig aus IT-Betriebssicht ist die möglichst enge und automatisierte Verknüpfung von Application-Workloads mit den hierzu vorhandenen Speicher-Ressourcen (Stichworte: dynamisches, policy-based Tiering oder application-aware storage) - aus Standardisierungs-, Technologie- und Prozesssicht derzeit noch eine Herausforderung im Zusammenhang mit Hybrid-Cloud-Implementierungen... Die Speichervirtualisierung als übergeordnete Instanz stellt jedenfalls ein integratives Wekzeug zur dynamischen Allokation, Migration und Integration von virtualisierten Compute- und Storage-Ressourcen dar. Im virtualisierten Rechenzentrum können Storage Services entweder kontrolliert durch den Microcode bzw. O/S des Storage-Controllers/Servers oder alternativ durch eine plattformunabhängige Storage Software - Kontrollebene verlagert-/gesteuert werden. Vorteil: es entsteht in jedem Fall eine zentrale, systemweite Verwaltungsinstanz, die nicht von spezifischen Funktionen einzelner Speichersysteme abhängig ist.

  • Ein Trend betrifft in diesem Zusammenhang mittelfristig die Konsolidierung von Flash-Ressourcen. Die Kosten pro I/O sind mit Flash deutlich gesunken, aber wenn OPEX bis zu 80% der TCO ausmachen sollte, muss man sich Gedanken um die Integration und zentralisierte Verwaltung dieser oft dediziert agierenden Ressourcen machen. Software-gesteuert verschiedene Flash-Ressourcen übergreifend (im Sinne eines einheitlichen Storage Pools) mittels Tiering und Virtualisierung zu verwalten, liefert eine nach SLA- und QoS-Aspekten aufgebaute Architektur – die je nach Kapazität-/Performance- und Kostenanforderungen – im heterogenen Umfeld Wertschöpfung erzeugt, oder mit anderen Worten: eine Storage - Quality of Service Abstraktion, die über Hersteller- und Plattform-Implementierung hinaus geht, erzeugt Synergien auch für das Business (Produktivität, Kosteneffizienz).
  • Wichtige Punkte bei "Software Defined xxx" betreffen die Sicherheit, integriertes Management (On-Premise, Cloud) und Standardisierung (OpenStack, DMTF, OVF, REST etc.). Trotz aller technologischen Konvergenz werden sich weiterhin unterschiedliche herstellerspezifische Implementierungen (Software, Hardware plus integrierte Stacks), zum Teil für dedizierte Anwendungen (z.B. Big Data Apps mit DAS) am Markt befinden.

Neutrale Weblinks zum Thema "open Standards" finden Sie unter:

http://dmtf.org/standards/ovf

https://twitter.com/OpenStack

http://www.openvirtualizationalliance.org

http://www.snia-europe.org/

Aus Backup-Performance und Kosten- und Kostensicht spielt zusammen mit der Storage-Virtualisierung die intelligente Kapazitätsoptimierung mittels variabler Deduplizierung und Kompression (zur Eliminierung von Redundanzen) eine zentrale Rolle; genau wie das zunehmende Interesse nach automatisierter Datenklassifizierung und Object-Storage, wenn es um die Speicherung und Kontrolle großer, verteilter semi-/unstrukturierter Datenmengen geht (Archiving, Cloud Storage...). Ein technisches Whitepaper des Herstellers Quantum (mit freundlicher Genehmigung) zu variabler Deduplizierung finden Sie in unserer Rubrik Downloads unter folgendem Link:

http://www.storageconsortium.de/content/content/data-deduplication-background-technical-white-paper

Software Defined Storage – Anbieter verweisen im Zusammenhang mit Ihren Lösungen auf den Aspekt der heterogenen Virtualisierung von Block-Storage, basierend auf Industrie Standard Server-/Storage – Systemen. SDS kann natürlich genauso auf herstellerspezifischen Plattformen nutzbringend implementiert werden (siehe z.B. EMC, NetApp, HDS, IBM...). Dies ist auch die Position der SNIA, nachzulesen in ihrem Dokument (Draft) „Software Defined Storage“ von Mark Carlson, Alan Yoder, Leah Schoeb, Don Deel, Carlos Pratt – April, 2014 Working DRAFT (Seite 4). Notwendig ist demnach eine Self-Service-Schnittstelle zur Bereitstellung und Verwaltung von virtualisierten Ressourcen, egal ob File- oder Block, proprietär oder heterogen und offen. Da bei fast alle Systeme bereits Daten abstrahiert und somit virtualisiert werden, stellt sich die Frage nach der Definition von SDS, oder anders herum... was sollte Software Defined Storage beinhalten? Der Industrieverband nennt hier vier wesentliche Kriterien:

  1. Automation - Vereinfachte Verwaltung, die eine Reduzierung der Infrastruktur-Betriebskosten der Infrastruktur ermöglicht
  2. Standard-Interfaces - APIs zur Verwaltung, Bereitstellung und Wartung von Storage-Systemen und Diensten
  3. Virtualisierter Data Path - Block-, File- und Objekt-Storage Interfaces, die Anwendungen - geschrieben für diese Schnittstellen – optimiert unterstützen
  4. Skalierbarkeit - Möglichkeiten, die Storage-Infrastruktur ohne Unterbrechung je nach Applikationsanforderung dynamisch anzupassen (ohne Einschränkungen bei Leistung und Verfügbarkeit).

Dies alles sollte ohne komplexe Eingriffe von Seiten der Storage-Administration möglich sein und ein automatisiertes SLA-Management ermöglichen. Mehr dazu in einem der nächsten Beiträge zu diesem Thema.