München, Starnberg, 18. Mai 2012 – Quantum erweitert sein Portfolio zum Data Management von Multi-Petabyte-Umgebungen…
Zum Hintergrund: In der optimierten Speicherung und schnellen Analyse von Informationen im Petabyte-Bereich liegt für viele Unternehmen der Schlüssel zum künftigen Unternehmenserfolg. Wie integriere ich jedoch traditionelle Disk-Architekturen, Tiered Storage- und Management-Software mit den neuen Big Data Anforderungen hinsichtliche Performance, Skalierbarkeit und Kosteneffizienz. Echte Herausforderungen bei Festplattensystemen liegen derzeit in den folgenden Bereichen:
1. Die Aufzeichnungsdichte pro Disk (HDD) und damit pro Speichersystem (Array) wächst stetig. Mit dem Wachstum steigen neben den Kosten jedoch auch die Risiken von ungeplanten Datenausfällen und damit die Gefahr von unkalkulierbaren Folgen.
2. Da viele Datenarchive längst auf Petabyte-Level und weiter anwachsen, müssen mit der Integration neuer Prozessor- oder Disk-Technologien (um ein besseres Preisleistungsverhältnis oder höhere Skalierbarkeit zu erreichen) verstärkt geplante Ausfallzeiten oder ein kompletter Technologiewechsel in Kauf genommen werden (das Thema Datenmigration ist in diesem Zusammenhang nicht nur aus Kostengründen ein kritischer Aspekt).
Traditionelle Disk-Architekturen sind auf Dauer nicht geeignet, extrem stark wachsende Datenbestände (Petabyte-Archive) kosteneffizient und sicher zu speichern; Tape Technologien (siehe auch LTFS !) adressieren diese (Archiv-)Anforderungen bislang neben der Sicherheit und Verfügbarkeit zwar Kosten- und energieeffizienter, haben aber natürlich auch Einschränkungen in Bezug auf die Zugriffsgeschwindigkeit, Librarykosten (TCO) und Integration in den jeweiligen Software-Stack (Applikationsaspekte).
Ausgehend von de Erfahrungen im Bereich Big Data und der Langzeitarchivierung, adressiert Quantum die Restriktionen traditioneller Disk-Architekturen durch die Integration von (scale-out) Object Storage-Technologie > Amplidata OEM http://www.amplidata.com/ < mit der regelbasierten Tiering (HSM-) und Datenmanagement Software StorNext innerhalb eine neuen Familie von Disk-Storagelösungen.
Die Technologie vonAmplidata beinhaltet Datenalgorithmen, die einen sicheren Datenzugriff über den erweiterten Lebenszyklus der Daten ermöglichen sollen. Dies wird Architekturbedingt gewährleistet, selbst wenn Disks oder ganze Standorte ausfallen bzw. Technologie-Upgrades zu gefahren werden müssen. Durch die zum Patent angemeldete BitSpread Erasure Coding Software kann das System laut Anbieter die Ausfälle von Disk-Laufwerken, Speicher-Modulen, Controller, Netzwerk-Switches und sogar ganzer Standorte Ausfälle tolerieren. Der BitSpread Algorithmus verringert nach Amplidata-Informationen den Speicher-Overhead um 50% (im Vergleich zu gespiegelten RAID-Systemen) und bis zu 70% im Vergleich zu einer dreifach gespiegelten Cloud-Storage Konfiguration. Dies wiederum kann zu Diskeinsparungen im Petabyte-Festplatten führen und damit zu einer deutlich reduzierten TCO (indirekte Kosten).
Das System selbst besteht aus drei Ebenen und umfasst Komponenten zur unabhängige Skalierung von Kapazität, Bandbreite und Performance, realisiert über sog. AmpliStor Controller und AmpliStor Storage Nodes (n-node-cluster Architecture / ultrascale / low-cost). Da die Algorithmen eine eingebaute Datenreduzierung bieten, sind die neuen Lösungen kostengünstiger als der verbreitete Ansatz zur verteilten File-Replikation, der für die Unterstützung sehr großer Datenmengen im Internet konzipiert wurde. Durch die Integration in granular abgestufte Tiered-Storage Lösungen können die Daten verschiedenster Big Data-Applikationen (sowohl Inhaltsbezogene als auch Analytics) über den life-cycle gespeichert und verwaltet werden.
Zitat: „Viele der weltweit größten Eigentümer von Daten und Inhalten - in Behörden, Medien und Unterhaltung, Energie und Life Sciences – vertrauen auf die StorNext-Software und Appliances von Quantum für Tiering und langfristiges Management von Big Data-Inhalten“, kommentiert Jon Gacek, Präsident und CEO von Quantum. „Die Integration von Object Storage in ein umfassendes Set von Big Data-Lösungen ist die logische Erweiterung unserer langjährigen Führungsposition bei der Bereitstellung von Speichertechnologien. Der Kunde erhält von Quantum nie da gewesenen Mehrwert und Skalierbarkeit wie auch die benötigte Leistungsfähigkeit und Kapazität für das Management der Daten über den gesamten Lebenszyklus".
Die Einführung der neuen Disk-Lösungen von Quantum ist noch in 2012 geplant. Auch das Angebot eines Portfolios von Cloud-Services, die auf diesen Lösungen basieren, wird laut Hersteller angestrebt. Mehr zu Quantum's StorNext-Lösungen für Big Data finden Sie unter:
Was versteht man unter Objekt-Orientierter Speicherung? File-System-Storage hängt implizit von Applikationen and den jeweils unterstützten Betriebsystem-Plattformen ab. Object-based Storage hingegen speichert davon unabhängig, z.B. über Hash-code Identifiers in sog. Container und speichert somit alle Daten nur in Form von Objekten und nicht als Block- oder Filedaten (die kleinste Speichereinheit ein ganzes Objekt). Dem Speichersystem sind dafür bestimmte Informationen über Inhalt und Art des Objektes bekannt = Metadaten. Diese werden ebenfalls unabhängig gespeichert und so kann eine Zugriffsbeschränkung für jedes Objekt erfolgen (Sicherheitsaspekte). Mit der Objektdaten-Speicherung lässt sich ein großer, skalierbarer Speicher schaffen, der je nach Plattform mehrere Milliarden Objekte sicher beherbergen kann.
Das entsprechende SCSI - Command-Set für Object Storage Devices wurde von der entspr. Arbeitsgruppe der SNIA für das T10 Committee - International Committee for Information Technology Standards, INCITS – bereits 2003 vorgeschlagen und bald darauf als sog. “OSD-Standard = "Object-based Storage Device Commands" (OSD)” im Jahre 2004 verabschiedet. Ein weiterer Standard der SNIA in diesem Zusammenhang ist die “eXtensible Access Method (XAM)”, der den standardisierten Objektspeicherzugriff für Archivapplikationen betrifft.
Object Storage Lösungen finden sich heute zwar bereits bei allen grossen Herstellern (und diversen Start-Up-Firmen) im Portfolio, sind aber Anwenderseitig noch relativ wenig vertreten (Komplexität, Support, Integration, Referenzinstallationen etc.). Es ist jedoch zu erwarten, dass die Technologie auf Grund der gestiegenen Anforderungen zur Speicherung im unstrukturierten Datenbereich (Kostenbewusstsein, TCO) verstärkt an Bedeutung gewinnen wird. Mehr Infos hierzu finden Sie auch unter: