Das Backup-Management unter Linux einfacher gestalten

München, Starnberg, 6. April 2017 - Alternativer Lösungsansatz für open-source Plattformen mit Hilfe der Virtualisierung von Datenkopien …

Zum Hintergrund: Linux-Server sind verbreitet und entsprechend wichtig werden damit Backups, denn das Betriebssystem findet in den meisten Hypervisor-Systemen (in der Private- und Public Cloud), speziell aber bei Cluster-Systemen (in private Clouds) sowie virtuellen Maschinen (in der Hybrid Cloud) Verwendung. Nach Schätzungen von Marktforschern ist der Linux-Umsatz im Jahr 2015 auf zwei Milliarden US-Dollar angewachsen und war damit höher als der UNIX Umsatz mit rund 1,8 Milliarden Dollar; auf drei Windows-Server kommen nach diesen Zahlen zwei Linux-Server. Damit Backups schnell und unkompliziert realisiert werden können, bringt Softwarespezialist Actifio die Virtualisierung von Datenkopien in's Spiel und führt drei wichtige Überlegungen in Bezug auf den Schutz der Daten an:

  1. Incremental-forever-Backup – Vollständige Backups wirken sich auf die Performance der Produktionsanwendung aus. Daher ist es wichtig, dass die Backup-Lösung in der Lage ist, Incremental-forever-Backups auszuführen, um die Auswirkungen auf die Produktionsanwendungen zu minimieren und Backup-Fenster um das bis zu 10-Fache zu reduzieren

  2. Instant Recovery – Egal ob die Anwendung unter Linux OS auf eine Multi-TB-Datenbank oder ein großes Dateisystem mit Millionen von Dateien zugreift, sollte die Backup-Lösung in der Lage sein, Instant Recovery innerhalb von wenigen Minuten durchzuführen. Eine niedrige RTO (Recovery Time Objective) und RPO (Recovery Point Objective) sind ein "Muss für alle geschäftskritische Anwendungen.

  3. Infinite Retention (unbegrenzte Aufbewahrung) – Unternehmen sollten die Flexibilität behalten ihre Backups für Stunden, Tage, Wochen, Monate, Jahre oder sogar Jahrzehnte, wenn sie müssen. Dennoch sollten sie immer noch die Möglichkeit haben, den sofortigen Zugriff auf die Daten zu gewähren.

Eine Plattform zur Virtualisierung von Datenkopien kann laut Actifio diese Anforderungen erfüllen. Das folgende Beispiel zeigt wie ein Unternehmen, das große DB2-Datenbanken unter Linux OS  betreibt, von diesem Ansatz profitieren konnte.

  • Problemsituation: Wiederholte VM-Stun-Probleme bei einer 2 TB großen DB2-Datenbank. Deshalb Einsatz von Agenten-basiertem Backup. Dieser Ansatz erforderte jedoch wöchentliche vollständige Backups, was sich auf die Performance der Produktionsdatenbank auswirkte und das Backup-Fenster vergrößerte. Die RTO verlängerte sich ebenfalls wegen der Wiederherstellung vollständiger, inkrementeller und transaktionsbezogener Logs.
  • Lösungsansatz: Einsatz für Incremental-forever-Backups der DB2-Datenbank. Nutzung von Pre- und Post-Scripts für Datenbank-Konsistenz-Backups mit jeder inkrementellen Sicherung. 1 Stunde RPO mit stündlichem inkrementellem Backup. Niedrige RTO mit sofortiger Wiederherstellung zu jedem der einstündigen Point-in-Time-Images.

SLA-basierender Ansatz für einfaches Handling

  • Für jede Linux-VM oder physischen Linux-Server wird ein Connector installiert (ähnlich wie einen Agenten). Der Connector besitzt die Intelligenz, um zu verfolgen, welche Blöcke sich in einem Volume ändern. Der Administrator legt SLAs fest, die festlegen, wann die virtuelle Appliance einer Plattform zur Datenvirtualisierung eine Sicherung initiieren muss – beispielsweise jede Stunde, alle sechs Stunden oder alle 24 Stunden. Basierend auf diesen SLAs koordiniert die Plattform mit dem Connector nur die geänderten Blöcke. Bevor die geänderten Bausteine ​​gesichert werden, ruft der Connector Pre- und Post-Scripts auf, um die Datenbank einzufrieren und dann aufzutauen, so dass die geänderten Bausteine ​​in einem datenbankbasierten Modus vorliegen.

  • Nach jeder inkrementellen Sicherung erstellt die Plattform zur Virtualisierung von Datenkopien eine virtuelle Voll-Sicherung. Wenn der Benutzer eine Wiederherstellung zu einem bestimmten Zeitpunkt durchführen muss, erhält er immer ein vollständiges synthetisches Image. Sobald die Backups erstell wurden, basierend auf SLAs, repliziert die virtuelle Appliance deduplizierte oder komprimierte Backup-Images zu einer entfernten virtuellen Appliance, die an einem Disaster-Recovery-Standort oder in einer Public Cloud wie Microsoft Azure, AWS oder Oracle Cloud läuft. Sowohl am primären Standort als auch am entfernten Standort kann die virtuelle Appliance eine sofortige Wiederherstellung durch die Bereitstellung von Backup-Images auf dem Wiederherstellungsserver mit wenigen Klicks durchführen.

  • Im Idealfall kann die cloudbasierte Lösung Daten für den gewünschten Aufbewahrungszeitraum gemäß den vom Administrator spezifizierten SLAs vorhalten. Die virtuelle Appliance kann Daten für Tage, Wochen oder Monate in seinem Deduplizierungs-Pool speichern. Für eine Aufbewahrung über mehrere Jahre und Jahrzehnte werden Daten auf Objektspeicherplattformen verteilt – in der Cloud (z.B. Amazon S3, Azure Blob, Softlayer, Google Cloud Nearline etc.) oder vor Ort (z.B. IBM Cloud Object Storage). Eine cloudbasierte Lösung bietet sofortigen Zugriff auf Daten, die im Objektspeicher gespeichert sind, und zwar einfach durch das „Mounten“ eines Images, so dass Unternehmen die Daten für On-Demand-Cloud-Analyse oder Data-Warehousing-Anforderungen nutzen können.

Testdatenmanagement für Test-Dev- und DevOps-Teams

  • Die meisten großen Unternehmen beschäftigen eigene Teams für das Testen und Entwickeln von Anwendungen oder für DevOps. Diese Teams benötigen Kopien von Produktionsanwendungsdaten in ihren Testumgebungen. Actifio Sky ermöglicht es den Teams und Datenbankadministratoren, virtuelle Kopien von Backup-Images auf einfache Weise in mehrere Linux-Testumgebungen nach dem Self-Service-Prinzip bereitzustellen. Beispielsweise können mehrere virtuelle Kopien einer 10-TB-Datenbank sofort in verschiedenen Testumgebungen vom Dev- oder QA-Team selbst abgerufen werden, ohne die Datenbank beim Administrator langwierig erst anfordern zu müssen.

  • Dies ermöglicht es den Test-Dev- und DevOps-Teams, ihren Code immer gegen virtuelle Kopien von Produktionsdaten auf virtuellen Maschinen oder physischen Servern ab dem Tag Eins ihrer Sprint-Zyklen zu testen. Dies hilft ihnen, kritische Fehler frühzeitig in den Entwicklungs- und Qualitätsmanagementzyklen zu erfassen. Dadurch wird die Produktqualität verbessern und gleichzeitig können die Release-Zyklen beschleunigt werden. Da die virtuellen Kopien keinen zusätzlichen Speicherplatz verbrauchen, reduziert dies auch die Infrastrukturanforderungen für IT-Teams erheblich. Eine solche On-Demand-Bereitstellung von virtuellen Daten ist auch gut geeignet für DevOps-Teams, die On-Demand-Computing in der Cloud für Test-Dev-Zwecke nutzen wollen.

Ein Fazit

Der Aufbau einer einheitlichen Plattform zum Data- und Storagemanagement für unternehmenskritische open-source Anwendungen kann Linux-Administratoren in den o.g. genannten Zusammenhängen helfen, viel Zeit und Arbeit einzusparen.