Datacenter Blog: Virtualisierung und scale-out All Flash Storage

Starnberg, 2. Juni 2016 - Robuste Storage-Services, QoS und Business Continuity sind so wichtig wie die skalierbare I/O-Performance...

Storage Verantwortliche und IT-Planer müssen auf das schnelle Wachstum von virtuellen Maschinen mit einem granular skalierbaren und robusten I/O-Stack reagieren. Oft wird dabei reaktiv gehandelt, sprich Kapazität oder Performance erst dann schnell erweitert, wenn akuter Bedarf besteht. Dabei besteht jedoch die Gefahr, dass die Lösung nicht optimal mit den geschäftlichen Anforderungen zusammenspielt, schwierig auszubauen ist bzw. verschiedene Technologien (HW, SW) zum Einsatz kommen, was aus TCO-Sicht suboptimal ist. Richtig beschafft und effektiv umgesetzt, ist scale-out Flash bei virtualisierten Anwendungen - bislang eines der primären Anwendungsszenarien von SSDs - eine sinnvolle Investition, die Zukunftspotential besitzt.

Flash sollte möglichst nahtlos und hochverfügbar in die virtualisierte Infrastruktur einzubinden sein; dies gilt besonders im Zusammenhang mit der Ausfallsicherheit von Anwendungen bei 24 x 7 Workloads. Wenn viele VMs zudem gleichzeitig um die I/O- Ressourcen des Speichers konkurrieren, ist die Skalierbarkeit der Speicher- und I/O- bzw. Netzwerk-Infrastruktur beim Datendurchsatz entscheidend und nicht alleine dessen Kapazität. Ein Problem, das bei HDDs gerne auftritt: das Mehr an I/O bedeutet mehr Kapazität (Drives), die wiederum angeschlossen, verwaltet und optimiert werden müssen (OPEX).


+++ Hinweis: weitere Informationen zum Thema scale-out Flash und Software Defined Storage im Data-Center erhalten Sie als IT-Infrastruktur-Verantwortlicher im Rahmen unseres 17. Anwendertreffens am 16. Juni 2016 in Frankfurt/M. auf dem Gelände des e-shelter data-center campus. Eine RZ-Führung rundet das Angebot ab. HIER ANMELDEN  +++


Scale-out Flash garantiert eine konstant hohe Anwendungsleistung und je nach Hersteller auch verschiedene QoS-Funktionalitäten. Wenn wie bei All-Flash alle Applikationsdaten auf SSDs gespeichert sind, müssen Administratoren nicht ständig aktiv eingreifen und virtualisierte Applikationen I/O-seitig (mit Iometer...) überwachen. Aber: nicht alle VMs benötigen immer die höchste I/O-Performance oder sie haben Anwendungen, die sehr schreib-intensiv sind (= höhere Belastung der NAND Zellen); NAND ist technologisch bedingt da auch nicht so schnell, weshalb gerne Caching vorgeschaltet wird, um zum Storage Backend sequentielle Reads zu liefern. Neue Entwicklungen im Bereich 3D-NAND (gestapelter high-density Aufbau) führen dazu, dass auch das Wear-out der NAND-Zellen optimiert werden konnte; im Controller muss dann weniger Arbeit für Garbage-Collection etc. geleistet werden und die Haltbarkeit des Speichermediums bzw. dessen Zuverlässigkeit wird erhöht.

In Verbindung mit Deduplizierung, intelligenten Caching und Komprimierung ist es heute möglich, mit All-Flash den Preispunkt (CAPEX) von HDD-Arrays zu erreichen oder zu unterschreiten (kapazitätsreduzierenden Maßnahmen gelten natürlich auch für HDDs, allerdings leidet die Performance bei der Deduplizierung und es gelten die mit dem Einsatz von HDDs verbundenen Randbedingungen wie Betriebskosten, Leistungseinschränkungen, höhere Ausfallwahrscheinlichkeiten etc.).

Hybride Arrays verfügen über Auto-Tiering Software im Controller bzw. Server, um Hot-Files oder gesamte Anwendungsdaten nach Bedarf auf schnellen Flash Storage zu migrieren. Bei einem Cache-Miss (Hot Data nicht mehr im Flash) gibt es allerdings negative Auswirkungen auf die Anwendungsleistung. Dies gilt insbesondere dann, wenn anstelle von 15K RPM SAS Drives preiswerte SATA Laufwerke mit hoher Kapazität zum Einsatz kommen.

Je enger Flash an den Server und die Anwendung rückt, desto geringer sind die Latenzzeiten. Aber wo Licht ist, ist auch Schatten... PCIe Flash im Server ist sehr schnell, aber als Direct Attached Device (DAS) weniger skalierbar und bei einem Ausfall des ungeschützten Systems ein Single-Point-of-Failure. Geclusterte Server (z.B. über Ethernet / FC / RDMA), um einen skalierbaren Flashpool als Tier-0 Block-Storage bereitzustellen, sind deshalb eine performante und verfügbare Lösung. Zudem kann Server-based Flash falls notwendig, über VVOL u.a. Tools mit All-/Hybrid-Flash oder HDD-Arrays zur Massendatenspeicherung im Rahmen von Shared-Storage (SAN) kombiniert werden. Eine Storage Software direkt beim Hypervisor, die den I/O-Stream zwischen VMs und den Backend -Speicher-Arrays kontrolliert und die am häufigsten zugegriffenen Daten auf den lokalen Flash-Systemen speichert, hat folgenden Vorteil: die Speicherleistung wird virtualisiert von Speicherkapazität getrennt, d.h. I/O-kritische Read-/Writes werden über die jeweils lokalen Flash Cache Systeme ausgeführt (Performance- Pool), während HDD Storage Arrays (Capacity-Pool) mit kostenoptimierten SATA-/SAS Drives für nicht-zugriffskritische I/O’s verwendet werden.