Blog: Kennzahlen zum unterbrechungsfreien Zugriff auf Unternehmensanwendungen

Starnberg, 18. Aug. 2016 - RPO und RTO als Parameter zur Planung eines kontinuierlichen Geschäftsbetriebes aus Sicht der IT-Organisation...

Zum Thema: von Marktforschern befragte Organisationen haben in 2015 angegeben, im Durchschnitt für Recovery Point- und Recovery Time Objective - Zeiten von weniger als 60 Min. bzw. weniger als 240 Min. erreicht zu haben. Viele Geschäfte erlauben diese Ausfallzeiten aber nicht und so verursachen ungeplante Ausfallzeiten von Anwendungen jährliche Kosten in Millionenhöhe durch verloren gegangene Umsätze, geringere Produktivität und versäumte geschäftliche Chancen. Über ein Drittel der untersuchten deutschen Unternehmen verloren danach während der vergangenen 12 Monate wenigstens einmal Geschäftsdaten. Von den befragten deutschen IT-Verantwortlichen war dabei nur etwa ein Viertel „sehr sicher“, dass ihre derzeitigen Data Protection-Applikationen für den Schutz der neuen schnellen Flash-Arrays geeignet wären und fast die Hälfte war der Meinung, die in der Cloud gespeicherten Daten seien nicht vollständig geschützt (1).

  • Recovery Time Objective (RTO) und Recovery Point Objective (RPO) - Werte stehen also bei jeder Initiative zur Aufrechterhaltung des Geschäftsbetriebes im Mittelpunkt der Überlegungen; dies gilt für on-premise wie (hybrid) Clouds. Recovery Point Objective: Definiert die Zeitspanne, die im Business Continuity Plan den gerade noch zulässigen Grenzwert darstellt. Beispiel: Wenn die letzte intakte Kopie von Daten 12 Stunden alt ist, während die RPO dafür 18 Stunden beträgt, dann entspricht der RPO-Parameter dem des Business Continuity Plans.

  • Recovery Time Objective: Definiert die Zeit die benötigt wird, um den Geschäftsprozess nach einem Ausfall im Rahmen der SLA-Vorgaben wieder zu produktiv werden zu lassen. RTO gibt damit eine Antwort auf die Frage, wieviel Zeit zum Recovery nach einer Geschäftsprozessunterbrechung zur Problembeseitigung zur Verfügung steht.

  • Beide Parameter mit weiteren Analysen zum Einfluss von Ausfällen auf den Geschäftsbetrieb liefern somit eine fundierte Grundlage zum Aufbau einer praxistauglichen Strategie im Rahmen von Business Continuity- und Disaster Recovery Planungen.

Die Datenreplikation zwischen Standorten, Systemen bzw. Cloud Ressourcen ist ein bewährtes Verfahren zur Minimierung der RPO-Zeiten, denn das Zielsystem repräsentiert das gespiegelte Image der Quelle. Der jeweilige RPO-Wert hängt damit nur davon ab, wie schnell die Änderungen übernommen werden können, bzw. ob asynchron oder synchron gespiegelt wird. Entscheidend bleibt aber letztlich die Tatsache, wie schnell sich die Daten auf der Zielseite den jeweiligen Applikationen zur Verfügung stellen lassen. Mit Hilfe von neueren Verfahren wie Data Copy Virtualization lassen sich auf Dauer viele unnötige Datenkopien vermeiden, da immer eine sog. "goldene Masterkopie" der jeweiligen Produktionsdaten zur Verfügung steht; damit können Disaster-/Backup-Prozesse vereinfacht und Kosten reduziert werden.

Zusammenfassung:

Je nach Komplexitätsgrad im Unternehmen / Organisation existieren derzeit verschiedenste manuelle und auch (teil-)automatisierte Prozesse. Wo immer Organisationseinheiten und komplexe Systeme beteiligt sind, gibt in der Praxis jedoch eine Differenz zwischen den beschriebenen Zielen und den tatsächlich erreichten Werten (menschliche Fehler, Software-/HW-Probleme, Patches, Konfig.-/Applikations-Änderungen etc.). Deshalb sind regelmäßige Tests mit den möglichen Auswirkung auf den Geschäftsbetrieb wichtig. Das ist schwierig und Zeitaufwändig, liefert aber reale Zahlen und Werte zur Optimierung der geplanten Ziele und Vorgaben. Dies gilt insbesondere im Rahmen einer hybriden Cloud Strategie beim Zusammenspiel mit dem jeweiligen Service Provider (Leistungskatalog, Verantwortlichkeiten, Vertragsbedingungen, Compliance-Themen); diese Faktoren sind vielfach wichtiger als technologische Details, die auf Grund der raschen technischen Entwicklung zwar wesentlich, aber auch nicht überbewertet werden sollten.


Quellen:

(1) Unser Beitrag vom 18. Juli 2016 "Jeder Datenverlust kostet deutsche Unternehmen eine halbe Million Euro" > EMC-Data Protection Idex 2016

http://www.mckinsey.com/business-functions/organization/our-insights/the-global-companys-challenge