Blog: Software Defined Storage und die Notwendigkeit von Verwaltungswerkzeugen

Starnberg, 21. Febr. 2014 - Die Virtualisierung hat sich bei unternehmenskritischen Workloads etabliert, wo aber bleiben plattform-übergreifende Management-Tools...

Um was es hier geht: Wo ein Vorteil, da leider oft auch ein Nachteil... Mit der Server- und Storagevirtualisierung vereinfachen sich zwar eine Reihe von betrieblichen Aspekten im RZ, allerdings wird auch der Infrastruktur-Stack komplexer (Abhängigkeiten, Fehlersuche, Verwaltung). Das betrifft auch Storage, der maßgeblich die Leistung und Verfügbarkeit von virtualisierten Serverumgebungen und Applikationen beeinflusst. Neue Entwicklungstrends in diesem Bereich betreffen deshalb neue Application-centric Storage-Hardware-/Software wie Server-SANs oder Hypervisor-zentrierten Storage, die z.B. aus Anwendungsservern Storage-Server machen oder den VM-Machine-Storage als einen übergreifenden Data-Resourcepool logisch zusammenbinden. Die Idee dabei ist, den Hypervisor nebst Anwendung und Daten mit Storage enger zu verzahnen.

FC-SANs spielen jedoch gerade bei großen RZ-Umgebungen weiterhin eine zentrale Rolle (Skalierbarkeit, Latenzen, robuster Betrieb) und bei mittelständischen IT-Shops ist iSCSI (Cluster) eine leistungsgerechte Option. Für alle genannten komplexeren virtuellen Umgebungen gilt allerdings: neben der Automatisierung sind dringend Verwaltungswerkzeuge gefordert, die eine pro-aktive Kontrolle kritischer Systemkomponenten erlauben und plattformübergreifend funktionieren. Komplexe IT-Prozesse verlangen aus Server-, Storage- und Netzwerksicht nach transparenten Management Funktionalitäten und je nach Business-Ansatz eine Cloud-Strategie (on-premise, hybrid oder public). VMware adressiert den Punkt z.B. mit seiner vCloud Suite Software, während OpenStack mit Havana den open Source-basierten Cloud-Betriebssystem-Ansatz für die „as a Service-IT“ bereitstellt - kommerziell z.B. über die Red Hat Enterprise Linux OpenStack Plattform.

Die in der Praxis oft geforderte und auch funktionierende End-to-end Automation oder Orchestration gibt es aber nur, wenn die Komplexität im Infrastruktur-Stack reduziert werden kann (bei verstärkter Prozess-Automatisierung). Erst dann wird sich eine stärkere Flexibilität bei mehr Kosteneffizienz für das Business deutlicher bemerkbar machen.

Software-defined-/based-/controlled Storage, SDN, virtual Fabrics und das Resource- und Performance-Management sind derzeit zentrale Initiativen von Herstellern und sollten im Rahmen einer modularen End-to-End Architektur Anwenderseitig zügig evaluiert werden – inklusive entsprechender Cloud Services. Infrastrukturseitig existieren zwar für einzelne Branchen unterschiedliche Anforderungen, mittelfristig ist das der einzig gangbare Weg hin zu mehr Flexibilität und Kostentransparenz. Aus meiner Sicht spielt die Speichervirtualisierung dabei weiter eine wichtige Rolle. Kritische Punkte betreffen ferner Performanceaspekte wie eine applikationszentrierte Flash-Strategie und bedingt durch weiter wachsende Datenmengen kosteneffiziente als auch skalierbare Archivlösungen.

Fazit: Die Wandlung der IT hin zur Serviceorientierung - IT als Services-Broker - hat durch die Virtualisierung Dynamik in starre Techniksilos gebracht und das Business sieht mit Cloud Computing neue Optionen für mehr Flexibilität und Kostentransparenz. Aus Infrastruktursicht bedeutet das in Hinblick auf den Betrieb und der damit verbundenen Ausgaben verstärkte Investitionen in flexible, virtualisierte Standard-Architekturen und Storagelösungen sowie Überwachungs- und  Automatisierungstools; auch unter Einbeziehung von konvergenten Lösungen, die ein schnelles Time-to-Market bei gleichzeitig niedrigeren Betriebskosten (OPEX) versprechen.