Storage Performance Probleme bei Migrationen bereits im Vorfeld vermeiden

Starnberg, 14. Sept. 2018 - Virtuelle IT-Infrastrukturen und Storagesysteme pro-aktiv überwachen; verlassen Sie sich dabei nicht auf Durchschnittswerte...

Zum Hintergrund: Die zunehmende Komplexität und Abstraktion in hochgradig virtualisierten Rechenzentren - in naher Zukunft verstärkt auf Basis von Software Definierten Infrastrukturen und HCI - in Kombination mit neuen dynamischen Anwendungen zwingt Verantwortliche, in Bezug auf die Überwachung ihrer IT-Systemumgebungen verstärkt pro-aktiv anstatt wie bislang reaktiv tätig zu werden, um die optimale Verfügbarkeit und Performance ihrer Applikationen zu gewährleisten. Vor allem stehen Entscheider und Fachabteilungen in der Pflicht, diese Veränderungen aktiv mitzugestalten und möglichst detaillierte Informationen bezüglich des aktuellen Ist-Zustands zu liefern, allerdings stehen diese Daten meistens nicht transparent und in ausreichender Qualität und Granularität zur Verfügung.

Praxisbeispiel: Ein IT-Lieferant liefert seinem Kunden das gerade aktuellste Speichersystem zur Ablöse seiner bislang im Einsatz befindlichen, aber veralteten Storage-Umgebung. Die Anforderungen werden gemeinsam besprochen und I/O Sizing Parameter für einzelne Anwendungen wie z.B. 80,000 IOPS bei 4.0ms Latenz definiert.

Jetzt beginnt die Migration des Altsystems, aber bereits nach 50% Migrationsfortschritt ist das neue System überfordert; es kann die Latenz-Anforderungen zwar im Durchschnitt erfüllen, jedoch nicht konsistent über die Zeit (QoS). Wenn man die Latenz über ein 5.0 min Fenster misst, sind viele IOPS sogar wesentlich schneller sind als die geforderten 4.0ms, aber gleichzeitig treten bei vielen E/A-Anfragen auch Latenzzeiten von 100ms oder deutlich darüber auf.

Die Ursache war in diesem Fall, dass man sich bei der I/O-Size auf Durchschnittswerte zur Dimensionierung des neuen Systems verlassen hat. Das gleiche Problem stellt sich aber auch bei Cloud-Migrationen oder im Rahmen von Applikations-Upgrades von Datenbanken: meistens basieren die Annahmen nur auf Durchschnittswerten.


Hinweis > Live-Webinar zum Thema: "Warum Infrastructure Performance Management, IPM? Geben Sie Durchschnittswerten keine Chance!

Termin:  Freitag, 21. Sept. 2018  - Uhrzeit:  11:00 bis 11:45 Uhr (MEZ)

Mit Hands-on Demo zu Infrastructure-Storage Performance Monitoring & Analytics. Referenten: Frank Mickert, Sen. Technical Consultant. Kai Preuss, Virtual Instruments Regional Sales Manager DACH. Moderation: Norbert Deuschle, Storage Consortium

> Zum Webinar hier kostenfrei anmelden


Diese geschilderte Vorgehensweise beschreibt damit typische Herausforderungen, die sich mit Hilfe von detaillierten Messungen und den richtigen Tools schon im Vorfeld vermeiden lassen. Ist das Lastprofil meiner Applikationen jedoch nicht genau bekannt, gehe ich unnötigerweise ein hohes Risiko ein. In den seltensten Fällen wissen Fachabteilungen, wie das Lastprofil einer Datenbank exakt beschaffen ist oder wie sich dieses bei einem Release-Wechsel ändert. Im Zusammenhang mit Cloud Migrationsprojekten oder der Neuanschaffung bzw. dem Austausch eines Speichersystems ergibt sich deshalb fast immer folgende Fragestellung:

Welches spezifische Workload-Profil besitzt meine Applikation?

Verfüge ich nur über die typischen Durchschnittswerte in Bezug auf IOPS, IO-Größen, Latenzzeiten oder Datentransfer-Raten (GB/s), kann die prognostizierte Leistung und Anwendungsverfügbarkeit womöglich nicht erreicht werden und negative Auswirkungen auf das Geschäft und zusätzliche Kosten sind die Folge. Um den Wert der getätigten Infrastrukturinvestitionen zu maximieren (ROI), sollten deshalb einige zentrale Prinzipien angewendet werden:

Dazu gehört neben der Beurteilung des Geschäftswerts von Anwendungen auch ein vertieftes Verständnis darüber, welche kritischen Anwendungen wo genau auf der Infrastruktur ablaufen und wie die Leistung sowie Zustand der die Applikationen unterstützenden Infrastrukturdienste möglichst automatisiert zu überwachen und zu verwalten sind.

In Bezug auf Enterprise Storage- und Data Management sind die gängigen Tools wie Storage Ressourcen Manager, Virtual Server Monitoring oder SAN Fabric Manager typischerweise nicht in der Lage, eine kontinuierliche Überwachung der Anwendungsauslastung über die gesamten End-to-End Infrastruktur in hochgranularer Form oder Echtzeit zu liefern.

Die zur Entwicklung und Bereitstellung von Performance-basierten SLAs erforderliche Transparenz kann vor allem nicht durch einzelne gerätespezifische Daten oder wie gezeigt mit Stichprobenartig manuell erhobenen Durchschnittswerten gewährleistet werden - sie sollte statt dessen auf einer umfassenden Sicht auf das gesamte System, deren Abhängigkeiten und einer möglichst granularen Messung von tatsächlichen Reaktionszeiten der Infrastruktur basieren.


Mehr dazu erfahren Sie in dem o.g. Webinar am 21. Sept. und in dem aktuellen Storage Consortium Whitepaper „Fünf Leistungskriterien einer modernen IPM-Plattform“, dass Ihnen als registrierter Benutzer dieser Webseite hier zum freien Download zur Verfügung steht.