Hinweise zum Aufbau einer krisenfesten Disaster-Recovery-Strategie gegen Cyberbedrohungen

München, Starnberg, 26. März 2020 - Eine erfolgreiche Disaster Recovery Strategie beginnt lange vor dem Ernstfall; Spezialist Veritas empfiehlt folgende Vorgehensweise...

Zum Hintergrund: Wenn ein Ransomware-Angriff in einer Firma Daten verschlüsselt, so bedroht er auch die Lauffähigkeit der Anwendungen. Es ist daher wichtig, bereits vorab eine Disaster-Recovery-Strategie (DR) zu entwickeln. Sie regelt, wie eine Firma im Ernstfall ihre Informationen schnell und flexibel wiederherstellen kann. Damit der Erpressungsversuch ins Leere läuft, sollte man von Zeit zu Zeit testen, ob die Maßnahmen in der DR-Strategie greifen und alle wichtigen Daten und Systeme abdecken. Laut einer Studie der IT-Security-Experten von Sophos fielen 2018 in Deutschland 38,4 Prozent aller befragten Unternehmen einem Ransomware-Angriff zum Opfer. Das sind 8,4 Prozent mehr als im internationalen Durchschnitt. Gerade vor dem Hintergrund solcher Attacken wird es immer wichtiger, dass Unternehmen auch in einem solchen Fall weiter auf Daten zugreifen können, ohne Lösegelder zahlen zu müssen. Eine gute Vorbereitung ist dafür unerlässlich.

Experten empfehlen deshalb, bereits im Vorfeld einen Notfallplan zu definieren, der dann in der jeweiligen Situation auch schnell umgesetzt werden kann. Herr Sascha Oehl, Director Technical Sales DACH bei Veritas, (1) zeigt für Sie auf, welche Aspekte die Unternehmen beim Festlegen ihrer Disaster -Recovery-Strategie beachten sollten:

1. Fokus auf unternehmenskritische Daten

„Unternehmen sollten im Vorfeld festlegen, welche Daten mit welcher Priorität wiederherzustellen sind. Unternehmenskritische Informationen sind dabei vordringlich zu behandeln. Das Bewerten dieser Dringlichkeit ist dabei ein essentieller Aspekt jeder Disaster-Recovery-Strategie. Kenngröße für die Priorisierung von Informationen sind dabei das Recovery Time Objective (RTO) und das Recovery Point Objective (RPO). Das RTO legt fest, wie viel Zeit maximal vergehen darf, bis auf alle Daten einer Anwendung wieder zugegriffen werden kann. RPO bemisst die maximale Höhe eines verschmerzbaren Datenverlustes, um die Verfügbarkeit der Geschäftsabläufe zu sichern. RTO und RPO sind die entscheidenden Messlatten einer jeden Wiederherstellung. In keinem Fall dürfen unternehmenskritische Dienste länger als 15 Minuten ausfallen.

2. Automatisierte Failover- und Failback-Prozesse

Im Ernstfall spielen Automatismen eine wichtige Rolle, um die Verfügbarkeit von Systemen, Informationen und Anwendungen zu gewährleisten. Denn manuelle Wiederherstellungen bringen ein hohes Fehlerrisiko mit sich. Unternehmen kommen somit nicht daran vorbei, automatisierte Failover- und Failback-Prozesse einzurichten. Dank Failover werden Nutzer automatisch auf ein Ersatz-System umgeleitet. So bemerken Anwender den Systemausfall gar nicht erst. Sie können weiter völlig unbeeinträchtigt auf einen Prozess oder einen Dienst zugreifen. Ist das Ursprungssystem wieder einsatzbereit, führt der ebenso automatisierte Failback auf das Ursprungssystem alle Prozesse durch, um den Service in die Ausgangssituation zurückzuschalten. Dabei wird das primäre System auch um die Workloads aktualisiert, die in der Zeit des Ausfalls im sekundären System angefallen sind.

3. Backup-Daten logisch entkoppeln

Es ist wichtig, die Backup-Daten nicht automatisch über klassische Storage-Verfahren zu spiegeln, sondern logisch voneinander zu entkoppeln. Hier spricht man vom so genannten Airgap, mit dem man folgendes Szenario ausschließen will: Backup-Files werden auf einem primären Storage-System abgelegt. Fällt das System Ransomware zum Opfer, würde es seine gekaperten Daten auf das zweite oder dritte redundante Speichersystem replizieren. Statt also drei Backup-Sicherheitskopien zu besitzen, hätte das Unternehmen am Ende drei Speichersysteme mit verschlüsselten Daten.

Firmen sollten die Replizierung der Backups daher logisch konfigurieren. Nach einem erfolgreichen Backup wird das Backup logisch zum nächsten Standort repliziert, aber auch nur das Backup. Wird das primäre Backupsystem angegriffen und verschlüsselt, sind die Daten auf dem zweiten oder dritten Standort nicht betroffen und stehen weiter für ein Restore zur Verfügung. Dadurch ist es möglich, die betroffenen Systeme schnell und sicher wiederherzustellen.

4.  Notwendige Flexibilität

Im Rahmen einer umfassenden Disaster-Recovery-Strategie müssen Unternehmen je nach Situation flexibel entscheiden können, welche Anwendungen und Systeme mit welcher Priorität wiederherzustellen sind. Daher besteht eine Strategie aus zahlreichen Einzelszenarien der Wiederherstellung. Je nach Situation kommt es darauf an, entweder virtuelle Maschinen, eine große Menge komplexer Anwendungen oder gar ein ganzes Rechenzentrum wiederherzustellen. Eine hinreichend detaillierte und umfassende Disaster-Recovery-Strategie erlaubt es dann, diese Wiederherstellungen reibungslos abzuwickeln und den Normalbetrieb so schnell wie möglich wieder zu ermöglichen.

5. Einheitliches Multi-Cloud-Management

Auch verschiedene Cloud-Umgebungen sind im Rahmen eines Wiederherstellungsplans zu berücksichtigen. Der sinnvolle Einsatz verschiedener Cloud-Lösungen bietet zahlreiche Vorteile, macht die Wiederherstellungsprozesse aber unter Umständen komplexer. Das liegt auch daran, dass eventuell mehrere Mitarbeiter eingebunden werden müssen, die sich mit den einzelnen Clouds auskennen. Unternehmen riskieren so höhere Betriebskosten und längere Ausfallzeiten – von der steigenden Gefahr von Datenverlusten ganz zu schweigen. Multi-Cloud-Umgebungen sollten daher zentral gesteuert werden können. Dabei helfen im Vorfeld des Ernstfalls Snapshot-basierte Cloud-Backup-Lösungen, die speziell für das Management von Multi-Cloud-Workloads ausgerichtet sind. Eine geeignete Snapshot-Lösung erlaubt die Definition und das Anwenden einheitlicher Richtlinien für eine nahtlose Sicherung unterschiedlicher Clouds.

6. Strategietests

Last but not least ist zu überprüfen, ob die eingerichtete Disaster-Recovery-Strategie auch funktioniert – und wie schnell sie funktioniert. Gerade diese Frage bleibt in der Praxis häufig unbeantwortet. Am Testen der Strategie auf ihre Funktionsfähigkeit führt aber kein Weg vorbei. Die dafür notwendigen Tests laufen dabei im Hintergrund ab, ohne dass der laufende Betrieb beeinträchtigt wird. Mit der Veritas Resiliency Platform haben Unternehmen zum Beispiel die Möglichkeit, den gesamten Disaster-Recovery-Prozess per Drag & Drop einzurichten. Ein integriertes Dashboard stellt Echtzeit-Analysen bereit. Unternehmen sind dadurch stets informiert, ob die zeitlichen Zielvorgaben eingehalten werden. Mit wenigen Mausklicks liefert die Lösung belastbare Informationen zur Dauer eines Failovers oder Failbacks sowie zum Verlust von Produktiv-Daten. IT-Verantwortliche können sich durch die Simulation ein Bild vom Ernstfall machen, das auf realistischen Bedingungen basiert."

Fazit: Eine detaillierte Disaster-Recovery-Strategie gepaart mit einer entsprechenden IT-Lösung hilft Unternehmen, der Ungewissheit in Bezug auf die Verfügbarkeit von Anwendungen und Informationen im Fall einer Ransomware-Attacke zu begegnen.

 

(1) Das Foto zeigt Sascha Oehl, Director Technical Sales DACH bei Veritas (Bildquelle: Veritas).