Hyperkonvergente Infrastrukturen: Wege zum Next Generation Data Center?

München, Starnberg, 06. Dez. 2017 - IT-Umgebungen auf einer generischen Plattform möglichst zukunftsfähig konsolidieren; ein Gastbeitrag der Firma NetApp...

Zum Hintergrund: Hyperkonvergente Infrastrukturen (HCI) werden beliebter, denn alles was ein Rechenzentrum prinzipiell ausmacht, fasst eine hyperkonvergente Infrastruktur in einer Box zusammen. Die verwendeten Komponenten lassen sich im nächsten Schritt dann von einer zentralen Konsole aus vereinfacht und zentral verwalten. Vor allem die annähernd beliebige Skalierung von Storage und Compute sowie Quality of Service-Funktionalitäten bringen nach Angaben von NetApp aus Anwendersicht den entscheidenden Fortschritt, um eine zukunftsfähige IT-Umgebung betreiben zu können. Johannes Wagmüller, Director Systems Engineering bei NetApp (1) beschreibt hierzu für uns in seinem Gastbeitrag die Entwicklung von HCI inklusive der Vorteile dieses Architekturansatzes.


Zum Beitrag: „Ein Unternehmen muss sofort auf unvorhersehbare Änderungen in seinem Geschäftsumfeld reagieren. Das gelingt nur, wenn das firmeneigene Rechenzentrum IT-Ressourcen flexibel, agil, skalierbar und automatisiert bereitstellt. Über diese Kriterien definiert sich ein Next Generation Data Center (NGDC), das die typischen Vorteile der Cloud ins eigene Haus holt und digital wettbewerbsfähig macht.

Einen ersten Schritt in die richtige Richtung stellten konvergente Infrastrukturen dar. Sie vereinen die vier Kernelemente eines Rechenzentrums in einer vorkonfigurierten Box: Server, Speicher, Netzwerk und Virtualisierung. Die Komponenten sind so ausgewählt, dass sie reibungslos miteinander funktionieren. Das System bleibt jedoch Hardware-zentriert, das heißt, die Ressourcenverteilung ist an die physische Hardware gebunden.

Software-gesteuerte Evolution

Hyperkonvergente Infrastrukturen (HCI) erreichen die nächste Evolutionsstufe. So ein Mikrorechenzentrum vereint auch alle Komponenten in einer Box, das geschieht jedoch Software-definiert. Mindestens zwei Chassis mit zwei Compute und vier Storage Nodes bilden die Hardware, die vom Speicherbetriebssystem und Hypervisor gesteuert wird. Applikationen beziehen Rechen- und Speicher-Ressourcen, wofür sich All Flash Systeme am besten eignen, aus einem Pool. Verschiedene Data Services wie Hochverfügbarkeit, Replikation, Datensicherung, Deduplizierung, Komprimierung oder WAN-Optimierung sowie Backup und Recovery sind integriert. Weitere Dienste lassen sich über Schnittstellen einbinden.

Die ersten Systeme waren noch nicht für mehrere, parallele Anwendungen ausgelegt. Die neue Generation der HCI, die gerade auf den Markt kommt, bringt Quality of Service (QoS) mit. Für jede Applikation wird werden Minimal,- Maximal – und Burstwerte an IOPS festgelegt, wodurch der Betrieb aller Anwendungen ungestört läuft. Diese garantierte Performance ist ein wesentliches Merkmal eines NGDC. Unternehmen können nun eine virtuelle Desktop-Infrastruktur (VDI) parallel mit einer Produktionsdatenbank auf derselben HCI betreiben, da sich die beiden Anwendungen nicht in ihrer Leistung stören. Eine VDI muss zudem sehr gut skalierbar sein – zum Beispiel um neue Mitarbeiter schnell und problemlos hinzuzufügen. Auch diese Anforderungen erfüllen die neuen hochintegrierten Systeme. Sie sind horizontal skalierbar. Administratoren fügen bei Bedarf neue Rechen- und Speicherknoten hinzu – unabhängig voneinander. Bei den Vorläufersystemen war das nicht möglich.

Automatisierte Absicherung

Auf den neuen HCI-Systemen können im Prinzip die Kernanwendungen aller Branchen laufen. Zum Beispiel bieten die Komplettlösungen die Skalierbarkeit und Performance um große SQL- und NoSQL-Datenbanken zu betreiben. Hinzukommt der Aspekt Ausfallsicherheit: das System legt jeden Datenblock zweimal ab und speichert auf jedem Knoten Metadaten, die angeben, wo sich welcher Block befindet und zu welcher Applikation oder welchem Volume er gehört. Fällt einmal eine SSD aus, werden die fehlenden Daten einfach neu in den Cluster hineinkopiert. Das läuft automatisiert innerhalb von nur wenigen Minuten ab.

Administratoren können sich sowieso freuen, denn ihr Aufwand sinkt deutlich. Ihnen stellen die ausgereiften Lösungen ein zentrales Dashboard wie die VMware vCenter-Konsole zur Verfügung um alle Komponenten zu verwalten. Standard-IT-Aufgaben wie das Aufsetzen und Provisionieren einer virtuellen Maschine (VM) oder von Backups sind automatisiert. Wie das Datenmanagement noch effizienter sowie ortsunabhängiger wird, zeigt die NetApp HCI*, die der Hersteller in sein Konzept der Data Fabric integriert hat. Die Datenmanagementplattform arbeitet nahtlos mit dem NetApp Betriebssystem ONTAP zusammen. Damit lassen sich Daten komfortabel zwischen verschiedenen Infrastrukturen und Speicherorten verschieben. So unterstützt die HCI moderne Hybid-Cloud- und Multi-Cloud-Umgebungen.

Basis für die Modernisierung

Eine unternehmensweite Datenstrategie steht branchenübergreifend bei vielen Akteuren auf der Agenda. Rund die Hälfte der Unternehmen will deshalb in neue Storage-Systeme und neue Analytics-Tools investieren, ermittelte eine aktuelle Studie von Crisp Research und NetApp**. Diesen Modernisierungsbedarf können die neuen HCIs decken. Die neuen hochintegrierten Systeme sind für alle Einsatzgebiete prädestiniert, bei denen Flexibilität, einfaches Management, Automatisierung, Skalierbarkeit und Ausfallsicherheit gefragt sind. Zudem lassen sich auf ihnen viele verschiedene, parallele Anwendungen betreiben. Dadurch versetzen HCIs Unternehmen in die Lage, ihre IT-Landschaft zu konsolidieren – auf einer generischen Plattform, die sie sukzessive zum umfassenden NGDC ausbauen können.“

(1) Abb. 1: Johannes Wagmüller, Director Systems Engineering bei NetApp (Bildquelle: NetApp)


*Querverweis: Link > Weitere Informationen zu NetApp HCI

**Quelle: „Datenhoheit als Garant für digitale Wertschöpfung“, Studie von Crisp Reserch in Zusammenarbeit mit NetApp.