Blog: Software Defined Storage zur Reduzierung von Infrastruktur-Komplexität

Starnberg, 14. Aug. 2013 - Die durchgängige (End-to-end) Virtualisierung von Servern, Netzen, Storage und Applikationen bleibt eine herausfordernde Aufgabe für die IT...

Um was es hier geht: die Aufgabe der Virtualisierung ist es Infrastrukturseitig, existierende technologische Begrenzungen durch isolierte Systemumgebungen wann immer möglich bzw. sinnvoll aufzulösen, um technisch & organisatorisch kosteneffiziente und flexible Infrastruktur-Umgebungen zu schaffen. Diese sollen dann hinreichend skalierbar, kosteneffizient, leistungsgerecht und maximal flexibel bei der Anwendungsunterstützung sein. Dies stellt à la longue jedenfalls aus IT-Sicht auch das Ziel eines „Software Defined Datacenter“ dar und ist technolgisch dessen Grundlage.

Doch bleiben wir noch kurz bei der Gegenwart: neben der Standardisierung auf Serverebene findet derzeit verstärkt eine Automatisierung im Bereich des Configuration- und Change-Management statt. Hintergrund ist, dass sich die Software-Schicht zwar zunehmend von funktionalen Abhängigkeiten der Hardwareseite löst, jedoch virtuelle Konfigurationen komplexer (TCO-/CAPEX) und geschäftskritischer werden (Virtualisierung von Tier-1 Applikationen). Von Bedeutung in diesem Zusammenhang ist auch die Präsentation von virtualisierten Infrastrukturkomponenten gegenüber den Anwendungen über möglichst standardisierte Schnittstellen.

Aus Storagesicht wichtig ist eine möglichst enge und direkte Verknüpfung der Workloads von Unternehmensanwendungen mit den Leistungsprofilen vorhandener Speicher-Ressourcen (Stichworte: policy-based dynamic storage tiering; application-aware storage). Hierbei stellt die Speichervirtualisierung (Software Defined Storage, SDS) im übergeordneten Sinn ein sinnvolles und integratives Wekzeug zur dynamischen Allokation, Migration und Integration von virtualisierten Compute- und Storage-Ressourcen dar. Im konsequent virtualisierten Rechenzentrum können dann Storage Services, die sich bislang im Microcode des Arraycontrollers befinden alternativ auf die Storage Software - Kontrollebene verlagert werden. Vorteil: es entsteht eine zentrale und systemweite Verwaltungsinstanz, die nicht von spezifischen Funktionen einzelner Speicher-Subsysteme abhängig ist.

Ein neuer Trend betrifft mittelfristig die Konsolidierung von Flash-Ressourcen: die Kosten pro I/O sind mit Flash ja deutlich gesunken (siehe All-FlashArrays), aber wenn OPEX in diesem Umfeld bis zu 80% der TCO ausmachen sollte, muss man sich zwangsläufig Gedanken um eine bessere zentralisierte Verwaltung dieser verteilt agierenden Ressourcen machen. Ein weiterer Aspekt betrifft die engere Verbindung zwischen Anwendungen und Storage Ressourcen mit einem möglichst hochgradig automatisierten Storage Management. Hier kommt Software Defined Storage ins Spiel: Software-gesteuert verschiedenste Flash-Ressourcen übergreifend (im Sinne eines einheitlichen Storage Pools mittels Tiering und Virtualisierung zu verwalten, liefert eine nach SLA- und QoS-Aspekten aufgebaute Architektur – die je nach Kapazitäts-/Performance- und Kostenanforderungen – gerade in einem heterogenem Umfeld Vorteile bringt; oder mit anderen Worten: eine Storage - Quality of Service Abstraktion, die über Hersteller- und Plattform-Implementierungen hinaus geht, erzeugt direkte Synergien auch für das Business.

„Software-defined“ auf der Storageseite unterliegt damit weiteren Entwicklungsschritten und es ist sehr wahrscheinlich, dass dieser Evolutionsprozess des Software Defined Datacenter im Zusammenhang mit Cloud Services durch die zunehmende Konvergenz zwischen Servervirtualisierung, SDN und SDS beschleunigt wird.

Aus Backup-, Performance und Archivierungssicht spielt neben der Storage-Virtualisierung vor allem die intelligente Kapazitätsoptimierung mittels Deduplizierung und Compression zur Eliminierung von Daten-Redundanzen eine immer wichtigere Rolle. Genau wie der zunehmende Bedarf nach Object-Storage-Lösungen, wenn es um die Kontrolle sehr großer, verteilter Mengen an kaum strukturierten Daten geht – auch in Verbindung mit Cloud-Services-Angeboten zur Archivierung und Sicherung.

Software Defined Networking (SDN) konzentriert sich bereits auf Service-change-Requests über zentralisierte Schnittstellen innerhalb einer Control Plane. Bei Netzwerkgeräten kontrolliert die Datenebene die Header-Informationen der Datenpakete (Routing), während die Kontrollebene sog. Forward Tables adressiert und diese in den Geräten jeweils auf dem neuesten Stand bringt. Auch hier also eine Entkopplung der Infrastruktur von bislang eher starr existierenden Gerätebeschränkungen hin zu einer erhöhten Flexibilität gegenüber der Applikationsschicht. Mehr dazu finden Sie übrigens auch auf unserer Seite unter dem Stichwort „SDN“.

Kritische Punkte beim Thema "Software Defined..." betreffen derzeit Aspekte zur Sicherheit, integriertem Management (On-Premise, Cloud) und Standardisierung (OpenStack, DMTF, OVF, REST...), denn gegenüber der technologischen Konvergenz werden sich ja weiterhin unterschiedliche herstellerspezifische Infrastrukturen (Software, Hardware plus integrierte Stacks) und Anwendungen am Markt befinden. Einige aktuelle Weblinks zum Thema "open Standards" finden Sie nachfolgend unter:

http://dmtf.org/standards/ovf

https://twitter.com/OpenStack

http://www.openvirtualizationalliance.org