Virtualisierung - wie Software das Rechenzentrum der Zukunft steuert

München, Starnberg, 16. März 2017 - Hyperkonvergente Infrastrukturen ebnen den Weg zum Software-gesteuerten Rechenzentrum (SDDC)...

Zum Hintergrund: Hyperkonvergente Infrastrukturen sind auf dem Vormarsch und machen den Weg zum Software-gesteuerten Rechenzentrum frei. Aktuell ist dort meist noch die manuelle Verwaltung von virtuellen Servern und Speichern der Standard. Künftig sollen jedoch über eine entsprechende Management-Konsole Speicher- und Netzwerkressourcen zugeteilt werden, um eine einheitliche (logische) Verwaltung der vorhandenen Umgebung bei möglichst geringem Aufwand zu realisieren (Trennung von Control-Layer und Data Access Ebene). Im folgenden Gastbeitrag geht Herr Michael Ganzhorn, Business Unit Leiter IT Infrastructure bei Axians IT Solutions (1) näher auf die genannten Aspekte ein.


Zum Beitrag: „Wenn die IT-Infrastruktur Ressourcen nicht schnell genug zur Verfügung stellt, dann kann es passieren, dass Fachabteilungen auf Programme von Cloud-Plattformen ausweichen. Diese hat die IT-Abteilung weder auf Compliance geprüft noch abgesegnet. So entsteht Schatten-IT und das Vertrauen in die IT-Abteilung schwindet. Ein solches Szenario kann abgewendet werden, wenn das firmeneigene Rechenzentrum skalierbar, effizient, flexibel und sicher ist. Dann vertrauen die Fachabteilungen auch wieder der internen IT-Abteilung, weil sie die steigenden Ansprüche an Ressourcen und Datenmengen bedienen kann.

Damit die IT mit schwindendem Budget diese Ziele erreichen kann, muss sie die Hardware effizienter auslasten. Dies ist nur mit Hilfe eines modernen Betriebskonzeptes möglich. Das Argument, dass eine Modernisierung des Rechenzentrums zu teuer sei, lässt sich widerlegen: Meist entfallen nur 25 Prozent der Kosten auf die Anschaffung. Der Betrieb der IT-Systeme verbraucht die restlichen 75 Prozent. Zudem benötigt die neue Hardware weniger Platz, Strom und Kühlung. Die Modernisierung schließt in der Regel auch die Server-Virtualisierung ein, die für besser ausgelastete und flexibel zuteilbare Rechnerkapazitäten sorgt.

Server und Speicher virtualisieren

  • Moderne Komponenten wie Storage, Rechenleistung und Netzwerk bilden die Basis einer agilen IT-Umgebung. Für die zentrale Verwaltung der Ressourcen gilt es, die zu integrierenden Komponenten zu virtualisieren. Bei Servern stellt ein Hypervisor virtuelle Maschinen (VMs) zu Verfügung. Diese teilen sich die Hardware, was Server-Ressourcen besser auslastet, und betreiben Gastbetriebssysteme.

  • Für eine erfolgreiche Server-Virtualisierung stellt der sogenannte Shared Storage ein wichtiges Element dar. Software Defined Storage (SDS) fußt auf der Speicher-Virtualisierung. Dabei trennt die Abstraktionsschicht die Hardware-Eigenschaften und das Speichermanagement voneinander. Ein Hypervisor virtualisiert Host-interne Storage-Medien wie SSDs und HDDs und macht sie als Speicher verfügbar. Das leistungsfähige Speichermedium Flash lässt sich so ebenfalls integrieren. Die Speicher werden als eigenständige Ressourcen gehandelt, wobei Software sie skalieren kann. Software-gesteuerte Speicher helfen Datenanalysten beispielsweise Big-Data-Initiativen zu verwirklichen. SDS bildet zudem die Basis für Cloud-Speicher-Services. Die Technologie steht noch am Anfang, wird aber langfristig Appliance-basierte Storage-Systeme ablösen.

  • Eine ähnliche Entwicklung wie bei SDS läuft für Software Defined Network (SDN) ab – nur deutlich verzögert. Ein SDN wird über bestehende Layer-3-Netzwerke gespannt. Das verwandelt das physikalische Netz in ein Transportmedium. Software übernimmt die Steuerung. Dabei fallen die Entscheidungen für den Transport der Datenpakete auf der Control Plane, der Steuerungsebene. Das Weiterleiten der Datenpakete findet auf der darunter liegenden, unabhängigen Data Plane, der Datenzugriffsebene, statt.

Integrierte, skalierbare Systeme aufbauen

  • Die Komponenten eines Rechenzentrums werden mehr und mehr als eine Einheit verstanden. Netzwerk, Compute, Virtualisierung und Storage stellen dann ein integriertes System dar. Je nach Bedarf können Anwender so Speicherplatz und Rechenleistung stufenlos nach oben und unten skalieren. Bei den integrierten Systemen unterscheidet man konvergente und hyperkonvergente Infrastrukturen. Konvergente Systeme bestehen aus Hardware-Komponenten für Server, Speicher und Netzwerkinfrastruktur. Experten verwalten und steuern diese. Die Komplexität bleibt sichtbar und steigt beim Erweitern an.

  • Im Gegensatz dazu lassen sich Hyper Converged Infrastructure Appliances (HCIA) über eine Management-Konsole verwalten. In wenigen Tagen ist eine komplette Infrastruktur auf dieser Basis eingerichtet. Um HCIAs für den Betrieb bereitzustellen, brauchen Fachleute laut Herstellern nur eine Stunde. Firmen können ihre Infrastruktur schnell um ein weiteres Gerät ergänzen, denn hyperkonvergente Lösungen benötigen im Rechenzentrum lediglich zwei Rack-Höheneinheiten. Ihre Stärken zeigen hyperkonvergente Lösungen vor allem in Niederlassungen und Filialen ohne IT-Personal.

  • Der Management-Schwerpunkt liegt bei den hyperkonvergenten Lösungen auf der Ebene der Applikation und der virtuellen Maschine, nicht auf der Ebene der IT-Komponenten. Damit gibt es keine Silos von unabhängigen IT-Komponenten und es ist nicht notwendig, einzelne Geräte zu verwalten. Das Ergebnis ist eine einfache und flexiblere IT-Infrastruktur, die den Einsatz der Ressourcen beschleunigt und die Betriebskosten erheblich senken kann. Seit der Virtualisierung ist die Hyperkonvergenz der größte Fortschritt in der IT. Die nächste Entwicklungsstufe kündigt sich mit dem Software Defined Datacenter (SDDC) bereits an.

Software steuert in Zukunft Rechenzentren

  • Ein HCIA ist im Prinzip bereits ein kleines SDDC. An der großen Lösung arbeiten die IT-Experten noch. Eine Software virtualisiert im SDDC alle Speicher- und Netzwerkressourcen. Auf die elastischen Pools des Programms können Anwender meist über ein Self-Service-Portal zugreifen. Die Software arbeitet im Hintergrund und automatisiert Arbeitsabläufe, die IT-Fachkräfte sonst manuell steuern müssten. Das verschlankt und beschleunigt IT-Prozesse, während das System Monitoring- und Reporting-Aufgaben bewältigt. Außerdem sind Zusatzfunktionen wie Showback oder Chargeback für eine transparente Verrechnung der IT-Ressourcen möglich.

  • Auch beim wichtigen Aspekt der Infrastruktur- und Systemsicherheit bietet ein SDDC neue und bessere Möglichkeiten der Absicherung, zum Beispiel durch Micro-Segmentation und den damit verknüpften Sicherheitstechnologien. Sicherheitsrichtlinien können automatisch und dynamisch auf Systemanpassungen angewendet werden und agieren nicht nur auf der Perimeterschicht, sondern auf allen Virtualisierungsebenen.

Fazit: Agile IT-Strukturen reagieren schnell auf sich ändernde Geschäftsanforderungen und können individuell an eine gegebene Infrastruktur angepasst werden. Entwickler setzen im SDDC das Grundprinzip um, Steuerungsebene und Datenzugriffsebene zu trennen. Im SDDC stellt Software die Infrastruktur bereit und steuert sie auch.“


Foto: Michael Ganzhorn, Business Unit Leiter IT Infrastructure bei Axians IT Solutions (Bildquelle: Axians)

(1) Informationen zum Autor:

Michael Ganzhorn startete seine IT-Karriere als Intranet Architekt bei der heutigen Finanzinformatik. Danach war er bei Sun Microsystems in verschiedenen Positionen tätig, zuletzt als Consulting Leiter Software and Security. 2010 wechselte er zu Axians IT Solutions, wo er heute in der Rolle des Business Unit Leiters IT Infrastructure das Datacenter-Geschäft verantwortet.


Hinweis / Weitere Informationen zum Thema finden Sie unter: