EMC VNX erreicht hohe Leistungswerte bei SPECsfs Storage-Benchmark

Starnberg, 1. März 2011 - Das neue Unified Storage System EMC VNX hat im SPEC-Benchmark 497.623 fs Operationen pro Sekunde erreicht – Eine kurze Analyse... 

Zum Hintergrund: Wie Aussagefähig sind Benchmarks? Im Zusammenhang mit der letzten Ankündigung von EMC zu den aktuellen SPECsfs-Benchmark-Ergebnissen habe ichnachfolgend einige Informationen zusammengestellt. In den neuen VNX-Modellen sieht EMC nach eigenen Angaben die Zukunft für sein Unified Storage Mid-Range-Portfolio (File-/Block) und hat diese vor allem in Kombination mit Flash-SSDs auf Performance ausgerichtet. Die bisherige langjährige System-Architektur (Celerra) war hierzu technisch in Bezug auf Durchsatz nicht mehr skalierbar genug (auch preislich nach unten); der Marktanteil von EMC in diesem Segment lag in 2010 bei 26 Prozent (IDC Worldwide Quarterly Disk Storage Systems Tracker, Dezember 2010). 

Mit den neuen VNX-Speichersystemen verspricht sich der Hersteller hingegen ein deutliches Plus an Marktattraktivität. Die “Unfied Storage Systeme VNX” - im Januar 2011 - vorgestellt, lassen sich dazu mit bis zu 1.000 Laufwerken auf ca. 2 Petabyte pro System skalieren; die Einstiegsvariante VNXe ist bis zu 240 Terabyte ausbaufähig, der Zielgruppe entsprechend einfach zu bedienen und sind preislich als Einstiegsmodelle attraktiv gestaltet. Laut Tests des Herstellers kann mit den neuen VNX-Arrays der Speicherplatz für mehrere hundert Exchange-Postfächer oder ein Terabyte-großer VMware Data Store in wenigen Minuten konfiguriert werden und Microsoft's SQL Server oder Oracle OLTP Datenbanken sind bis zu dreimal schneller als auf bisherigen EMC Mid-Range-Systemen. Integrierte Kompressions- und De-Duplikationsmechanismen mit EMC FAST (Fully Automated Storage Tiering aus der Symmetrix-Serie) erhöhen die Auslastungseffizienz. 

Die VNX-Systeme wurden speziell für virtualisierte IT-Umgebungen hin optimiert, denn je höher der Durchsatz, desto mehr virtuelle Server können über ein Speichersystem versorgt werden. In den durchgeführten Tests konnte eine 98-prozentige Auslastung der Bruttokapazität erzielt werden (bei nicht-optimierten Speichersystemen liegt dieser Wert typischerweise deutlich darunter). Nach den vorliegenden Informationen ist die Grundlage für die hohen Performancewerte bei dem nachfolgend aufgeführten Benchmark (siehe Link unten) im Aufbau der Architektur mit neuen Intel-Chips (6 Core Westmere Xeon X5660) sowie dem konsequenten Einsatz von Solid State Disks, SSDs zu suchen. 

Der von EMC veröffentlichte Wert von 497.623 fs Ops per sec. wurde im Benchmark SPECsfs2008_nfs.v3 mit einer Responsezeit von 0,96 Millisekunden gemessen (von der Responsezeit hängt das Antwortverhalten des Systems ab) und vergleicht sich damit mit kommerziell eingesetzten High-End-Scale-out-NAS(Cluster-) Filessystemen wie IBM Sonas (GPFS-Historie). 

Folgende Konfiguration wurde für den Benchmark verwendet (alle Details finden Sie in den nachfolgenden Links): Vier VNX 5700-System-Racks (Blades) mit 8 Filesystemen aggregiert plus VNX VG8-NAS Gateway plus komplettes SSD-Setup mit 436 SSD-Disks (EMC VX-VS6F-200) = 3.5", 200GB (6Gbps SAS flash SSD) Drives (usable 80 TB / ca. 60TB exported). 34 Load-generating Clients (Dell PowerEdge R610 Server, 12 GB RAM, Linux O/S) über 10GBE an 48-Port Cisco-Switch angeschlossen. Der VNX-Storage ist über 80 x 8 Gbps FibreChannel (FC-)-Switchports konfiguriert: 

> http://www.spec.org/sfs2008/results/res2011q1/sfs2008-20110207-00177.html 

Im Vergleich: Das SONAS Filesystem von IBM (V. 1.2) erreichte im gleichen SPECsfs Benchmark 403,326 SPECsfs2008_nfs.v3 Ops per sec. bei einer (overall) Response time von 3.23 ms. 

Konfigurationsbeschreibung: Ein SONAS – Filesystem, NFS V3. Load-Generators: 14 x Intel Xeon X3450 - Server / 4 Core, 16 GB Main Memory, Red Hat Enterprise Linux 6 plus ein QLogic 10 GBE Converged Enhanced Network Adaper (CNA). SONAS ist in diesem Test als (20Gbps) InfiniBand Cluster-Netzwerk ausgelegt (10 Interface-Nodes, 8 Storage-Pods mit je 2 x 8 Gbps FC, Linux Clients). Bei den Festplatten (keine SSDs) wurden insgesamt in dieser Konfiguration 1975 SAS-Disks (600 GB /450 GB) SAS-Laufwerke /15k RPM) mit ca. 940.0 TB exported verwendet (inkl. operating system use / logging, 8.2 TB): 

http://www.spec.org/sfs2008/results/res2011q1/sfs2008-20110204-00176.html

Eine Kurze Analyse des vorliegenden Benchmarks: Bereits aus Konfigurationssicht ist der direkte “Äpfel-mit-Äpfel-Vergleich” von Lösungen für Anwender nicht einfach zu treffen und kann die Aussagekraft von Leistungsvergleichen zwischen Benchmark-Ergebnissen damit relativieren. Benchmarks sind immer ideale Situationen (isolierte Umgebungen) mit möglichst maximaler Leistung durch den kompromisslosen Einsatz von Technik (sprich Kosten...). Performancewerte in der Praxis hingegen hängen von den verschiedensten Randbedingungen ab (Anwendungen, Filesystemen, Zugriffsart, Budget, Caching usw.) und wichtig ist die Tatsache, daß sie aus Praxissicht eben nicht isoliert gesehen werden können. Weitere Aspekte betreffen die Qualität der damit verbunden Storage Services über Funktionen (Array Controller- oder Filesystem-spezifisch) wie Remote-Replication, File system-level snapshots, skalierbares automatisiertes storage tiering etc.; nach Möglichkeit verwaltet im Rahmen einer einzigen logischen Management-Instanz (aka Global-Namespace-Architektur). Nichts desto weniger gibt der Benchmark wichtige Aufschlüsse zur Leistungsfähigkeit, die dann natürlich im Kontext der eigenen Anforderungen entsprechend gewichtet werden muss. 

IBM SONAS ist im Gegensatz zu Controller-Lösungen ein Scale-out-Architektur (HW, SW), die auf Grund zur Zeit mit bis zu 30 Interface-Nodes und 30 Storage-Pods konfiguriert werden kann (im Benchmark wurde das System mit 10 Interface-Nodes mit 8 Storage-Pods verwendet).

Rechnet man die Performancewerte k-IOPS pro Filesystem in Relation zur exportierten Kapazität hoch, ist SONAS im Benchmark die Lösung, da die Filesystem-Leistung (Software) architekturbedingt entsprechend effektiv linear skaliert.

Bei diesem NFS-Benchmark ergaben sich auf Grund der vorliegenden Randbedingungen folgende Ergebnisse: IBM = 903.8 TB pro SPECsfs Filesystem  ***  EMC VNX = 7.5 TB pro SPECsfs Filesystem  ***  NetApp FAS 6240 = 42,9 TB pro Filesystem). 

SONAS unterstützt nach Herstellerangaben derzeit bis 14.4 Petabyte und kann 256 Filesysteme innerhalb eines Clusters und 256 File system-level-snapshots für jedes dieser Fileysteme liefern, stellt also extren erweiterbare Lösung für größere kommerzielle Rechenzentren dar (technische Basis ist GPFS). Man muss in diesem Zusammenhang damit den richtigen Architekturvergleich heranziehen. 

EMC hat durch den Zukauf von Isilon Systems seit einiger Zeit ein Scale-Out-NAS-System im Portfolio, das mit derzeit 10.4 Petabyte pro Filesystem auf dem Datenblatt zwar nicht die Leistungsfähigkeit und Architekturseitige Erweiterbarkeit von SONAS erreicht, aber durch die granulare Skalierung von Compute- und Storage-Nodes (über InfiniBand) ebenfalls für sehr hohe Leistungswerte konzipiert wurde (hauptsächlich im Broadcasting-/Medien – Bereich, der Forschung oder z.B. Bei seismischen Daten-Auswertungen im Einsatz). Die prinzipiellen Unterschiede beider Lösungen werden Gegenstand einer separaten Analyse in einem der nächsten Blogs sein. Neu in dieser Leistungsklasse ist auch das heute auf der CeBIT angekündigte HP X9300 Gateway, siehe > http://www.storageconsortium.de/content/node/776 < dass die Integration von HP (3PAR-)Arrays in ein Cluster-Dateisystem mit bis zu 1000 Cluster-Knoten und einem einzelnen, globalen Namensraum bis zu 16 Petabyte erlaubt (aka Grid-Array-Controller Konzept).  

Wichtig ist die Skalierbarkeit einer Architektur natürlich dann, wenn deutlich mehr Speicherkapazität angeschlossen wird, wir im vorliegenden Benchmark-Beispiel. Bei Array-basierten Systemen (Scale-Up) müssen weitere Filesysteme bzw. Storage-Racks aggregiert und konfiguriert werden; dies kann je nach Lösung auch ein mehr an Verwaltungsaufwand, Komplexität und Kosten (siehe hier: Massiver SSD-Einsatz) bedeuten.
Architekturseitig bedeutet das also prinzipiell einen Vorteil von Scale-Out-Lösungen gegenüber Arrray-basierten-Systemen, allerdings erst ab einer relevanten Kapazität und ggf. verbunden mit einem entsprechenden Aufwand an Hardware (InfiniBand-Cluster, CNAs, Lizenzkosten, verschiedene Hardware-/Software-Komponenten) und Management-Know-How. Hier gilt es, die Herstellerangebote entsprechend vergleichbar zu machen inkl. TCO (OPEX). 

Für grosse Rechenzentren mit starkem Wachstumsbedarf bei Kapazität und Durchsatz stellt die (Software-basierte) Scale-Out-(NAS)Cluster-Architektur neben den neuen Grid-Architekturen (siehe HP) grundsätzlich eine wichtige Beschaffungsoption dar.

Unternehmen und RZ’s mit geringeren Wachstums- und Kapazitätsanforderungen - bis max. rund 150 TB pro Filesystem über die nächsten Jahre - lassen sich auch aus wirtschaftlichen Gründen leistungsmäßig sehr gut mit aktuellen Controller-basierten (Unified-) modularen Storage Systemen von EMC’s (VNX), NetApp (FAS-Serie - siehe auch Benchmarkwerte), HP und anderen Herstellern – je nach Anforderung - bedienen. Neben den reinen Leistungswerten und Beschaffungskosten gilt es auch, die Integration in vorhandene (Betriebs-)systeme, Serviceaspekte, Storage Services (VM-Integration, Automatisierungstools, Snapshot-Effizienz, Remote-Copy, DeDupe etc. und Backupaspekte) entsprechend Ihrer Betriebs- und Applikationsanforderungen zu berücksichtigen. 

> http://www.spec.org/sfs2008/results/sfs2008nfs.html