Datenklassifizierung, Archivierung und Information-Governance... Speicher optimieren und Kosten senken

Starnberg, 20. Dez. 2011 – Über die Notwendigkeit einer Strategie zur Klassifizierung von Unternehmensdaten zur Senkung von Storagekosten und mehr Transparenz...

Zum Hintergrund: Die konstante Zunahme der Datenbestände trifft viele Firmen und Organisationen mehrfach: Erstens stiegen auf Grund der Flutkatastrophe in Thailand die Preise für Festplatten (Thema direkte Storagekosten, CAPEX) und zweitens führt das hohe Kapazitätswachstum bei unstrukturierten und semi-strukuturierten Daten zu Problemen in den Bereichen Management, Compliance und Archivierung (Thema Data Classification, Information-Governance, OPEX). Ferner plant die Europäische Kommission nach einem FTD Bericht (Stanley Pignal) für Unternehmen beim Verlust von persönliche Daten, die durch eine Verletzung von EU-Datenschutzbestimmungen entstehen, Geldstrafen in Höhe von bis zu fünf Prozent des weltweiten Umsatzes zu erheben…

„Da unstrukturierte Daten in den Archiven je nach Branche und Unternehmensgröße meist wenig kontrolliert wachsen und vielfach schon hunderte Terabytes oder Petabytes umfassen, stoßen klassische Daten-Sicherheitslösungen-/Prozesse zunehmend an ihre Grenzen. Hält dieser Trend an, wird offensichtlich dass ein derartiges Mengenwachstum mit den üblichen Ansätzen – also primär mit mehr Storagekapazitäten – kaum bewältigt werden kann. Nach Ansicht von Wolfgang Munz, Geschäftsführer von dataglobal > http://dataglobal.com/de < greifen diese Ansätze auch deshalb zu kurz, weil sie sich mit Symptomen beschäftigen. Zitat: "…das Problem liegt nicht im Gesamtvolumen, sondern darin, dass in den meisten Fällen Informationen über einen Leisten geschert werden und nicht differenziert betrachtet werden können. Wer Informationen automatisiert klassifiziert und damit in wichtig und unwichtig, aufbewahrungspflichtig und löschbar, sicherheitsrelevant oder öffentlich unterscheiden kann, hat kein Storage-Problem..."

Natürlich ist diese Aussage differenziert zu sehen, denn Storageprobleme liegen nicht nur auf der Mengenseite, sondern derzeit verstärkt beim Verfügbarkeitsmanagement von virtualisierten Daten (virtual machine storage, Desaster Recovery mit RTO, RPO, Restoreproblematik auf Grund von Komplexität und zu enger Zeitfenster etc.). Gefragt ist deshalb ein mehrstufiger Ansatz, der mit Storage-Effizienztechnologien wie Storage (File) Virtualisierung, Thin Provisioning, DeDuplizierung (Speicherauslastung-/Optimierung, Kapazitätsreduzierung etc.) auf der (Storage-) Infrastrukturseite direkt ansetzt.

In einem parallelen Schritt sollten die betroffene Unternehmen jedoch eine systematische und möglichst automatisiert ablaufende Klassifizierung ihrer Daten durchführen. Nach Möglichkeit ist zudem eine plattformübergreifende Archivierung inklusive integriertem Management (Stichworte: Vewaltungsaufwand, Aufbewahrungsfristen, Retention-time...) anzustreben. Eine Anmerkung zum Thema Tapes & Archive: Eine interessante Lösung stellt das Linear Tape File System, LTFS und damit verbunden neue Lösungen wie beispielsweise "StrongBox" - Appliance des US-Herstellers Crossroads - dar. Konzipiert als online- und file-basierendes Archiv für Daten, die einmal geschrieben und selten gelesen werden (“write once, read rarely”), kombiniert sie als Langzeitsicherung die Vorteile von Disk-Storage (Cachebuffer) mit LTFS und erlaubt den unkomplizerten Zugriff auf gesicherte Files (so als verwende der Nutzer z.B. einen USB-Stick…).

LTFS wurde von IBM und HP entwickelt und speziell auf die Anforderungen der Tape-Sicherung hin konzipiert; das Filesystem definiert die Organisation von Daten und Metadaten auf dem Datenträger. Alle Daten, die im LTFS-Format auf Tape geschrieben wurden, können unabhängig von einer externen Datenbasis oder einem Storage System genutzt werden. Dies gewährleistet einen sofortigen Zugriff auf komplette Files oder File-Metadaten.

Tape–Storage eignet sich somit als kostengünstige, energieeffiziente Langzeitsicherung von Tier 3 / unstrukturierten Daten (siehe active Archive, Deep Archives). Die Appliance kann in diesem Zusammenhang als Datenarchiv verstanden werden, das mit dem Netzwerk verbunden ist. Disk wird für die schnelle Sicherung und das Retrieval von Files verwendet, Tape hingegen für die kostengünstige Langzeitsicherung großer Datenmengen über lange Zeit hinweg...

Dieser storagezentrierte Data-Life-cycle-Management - Ansatz ist meines Erachtens ein wichtiger Aspekt innerhalb einer gezielten Vorgehensweise, der sich aber stärker an der Ausnützung und automatisierten Migration von Storage-Tiers und Daten orientiert (siehe auch ILM/HSM-Ansatz von IBM, HDS, Quantum StorNext, HP, F5 Networks ARX etc.).

Aus Compliance-Sicht ist es essentiell, Daten nicht nur nach ihrer Zugriffshäufigkeit oder Storagekosten (Medien) zu bewerten, sondern insbesondere nach ihrer Wichtigkeit, sprich Relevanz für das Unternehmen (gesetzliche Vorgaben bzw. branchenspezifische Regularien). Der daraus resultierende Zugewinn an Transparenz und Struktur bringt reale Effizienz- und damit letztlich Wettbewerbsvorteile mit sich; das Thema Compliance stellt sich dann sowohl aus Sicht der IT als auch des Unternehmens insgesamt als Mehrwert dar (IT-Business-Alignment).

Information-Governance-Lösungen repräsentierten zudem eine parallele Vorgehensweise zur Identifikation und Verwaltung "sensibler" Unternehmensdaten über den gesamten Lebenszyklus hinweg (Datensicherheit, Data Loss Prevention DLP etc.). Einen Ansatz hierzu erläutert die Firma Nogacom > http://www.nogacom.eu < auch in ihrem aktuellen best-practise Whitepaper (siehe Webseite des Herstellers). Das Dokument adressiert nach Meinung der Verfasser einige der dringenden Probleme die Unternehmen haben, wenn sie versuchen, sensible unstrukturierte Daten zu identifizieren und zu verwalten. Diese können sein:

  • Mangelndes Verständnis, was sensible Daten tatsächlich sind, sowie das Fehlen von Werkzeugen und Methoden diese zu identifizieren, sobald Unternehmen herausgefunden haben, was sie überhaupt suchen.
  • Fehlender Einblick ein den sich ändernden Status eines Dokumentes über dessen gesamten Lebenszyklus hinweg sowie die Unmöglichkeit, die Dokumente nachzuverfolgen.
  • Unzureichende Transparenz, wie mit sensiblen Daten im Unternehmen umgegangen wird…

FAZIT: In Summe wird damit offensichtlich, dass die Kombination aus der richtigen Speicherstrategie (Infrastruktur, Technologie…) in Verbindung mit automatisierten Verfahren zur Klassifizierung von (unstrukturierten) Daten unter Entwicklung einer übergreifenden Sicherheits- und Archivierungsstrategie einen zufriedenstellenden Ansatz für die angeführten Problemstellungen liefert.

Bitte beachten Sie hierzu auch unseren Beitrag "Warum die Datenklassifizierung wichtig für den Nutzen von Cloud-basierten Storage Services ist …" Hier finden Sie auch eine kurze Auflistung relevanter Anbieter (ohne Anspruch auf Vollständigkeit).

http://www.storageconsortium.de/content/node/719