Speicherautomatisierung und vorausschauende Analysemethoden

München, Starnberg, 24. Mai 2016 – Predictive Analytics-Methoden zur effektiven Nutzung vorhandener Speicherumgebungen mit Hilfe geeigneter Softwarelösungen…

Ein Beitrag der Firma FalconStor (leicht gekürzte Fassung*): "Predictive Analytics beim Speicher, also die Vorhersage zur zukünftigen Entwicklung des Speichers, aufbauend auf intelligenten Analysen der bisherigen Nutzung, fügen heutzutage vieler Hersteller ihren Produkte hinzu, um Überwachung, Reporting, Problembehebung, Performance und Nutzung zu verbessern. Die daraus resultierenden Erkenntnisse ermöglichen es IT-Profis, aktiv Entscheidungen in ihrer Infrastruktur zu treffen. Moderne, virtualisierte Rechenzentren nutzen heutzutage sowohl alte als auch neue Speichersysteme parallel. Analysetools nur für einzelne Speichersilos zu nutzen, kann also nicht der richtige Weg sein. Eine moderne Software-definierte Speicherlösung (SDS) hingegen schafft es, Predictive Analytics für die komplette Speicherebene bereitzustellen: Es werden sämtliche Teile der Speicher-Infrastruktur analysiert, inklusive Virtualisierung und Prozessen - egal ob alt oder neu, All-Flash, Hybrid, HDDs oder Cloud.

Speicherebenen mit verschiedenen parallelen Lösungen benötigen ein gemeinsames Analyse-Werkzeug

Die Realität sieht so aus, dass sowohl die Speicherkapazität als auch die Anzahl der zu unterstützenden Anwendung über die Jahre wächst und entsprechend mehrere Speicherplattformen verschiedener Hersteller parallel genutzt werden. In den meisten Fällen reichen die einzelnen Lösungen für die Anforderungen aus – immerhin wurden sie einst genau dafür geplant – und müssen nicht durch neue Speicherlösungen ersetzt werden. Moderne SDS-Lösungen, die die Speicherebene virtualisieren, können die Laufzeit einzelner Systeme sogar verlängern und bieten darüber hinaus ein Analysewerkzeug, das Informationen über Speicherarrays, Server und Anwendungen sammeln und auswerten kann. Analysen sowohl über Workloads und die komplette Speicher-Infrastruktur bieten einer modernen Organisation in der Praxis damit hohen Nutzen.

SDS und heterogene Predictive Analytics

In Echtzeit erhobene Daten bilden die Basis intelligenter Analysewerkzeuge, die somit Entwicklungen und Muster erkennen können und zukünftige Bedürfnisse oder Probleme identifizieren, bevor es zu Ausfällen oder gar zum Betriebsstillstand kommt. Die Erkenntnisse können sogar für automatische, richtlinien-basierte Änderungen bei Performance, Kapazitätsnutzung, Cachegröße, Sicherheit, Optimierung, Disaster Recovery, Workloads und Service Levels genutzt werden.

Es geht darum, den Speicher mit den neuen Erkenntnissen aus Unternehmenssicht aktiv zu verwalten und nicht nur reaktiv aus technischer Perspektive. Das neue heterogene Analysewerkzeug ist somit operativ effektiver, macht die Verwaltung von SLAs und wichtigen Workloads einfacher und bietet im Vergleich mit einzelnen Silo-Lösungen deutlich mehr Nutzen.


+++ Hinweis: weitere Informationen zum Thema Predictive Analytics und Software Defined Storage erhalten Sie auch im Vortrag von FalconStor Software im Rahmen unseres 17. Anwendertreffens am 16. Juni 2016 in Frankfurt/M. auf dem Gelände des e-shelter data-center campus. Eine exklusive RZ-Führung rundet das Angebot ab  +++


Selbstverwaltung von Daten und Kapazität

Eine Verwaltungsoberfläche aus einem Guss reduziert die Komplexität einer Umgebung enorm und erlaubt jeder IT-Organisation, ihre Ressourcen effizient einzusetzen. Die Verwaltung von Volumes, Provisionierung und Migration ist eine oft zeitaufwändige und lästige Pflichtübung. Mit SDS-Lösungen und richtlinien-basierten Analysewerkzeugen ist es möglich, dass sich Daten und Kapazitäten buchstäblich selbst verwalten. Auch Workloads können ihren eigenen Performancebedarf basierend auf verfügbaren Ressourcen selbst festlegen. Ein Analysewerkzeug, das im Fernbetrieb, also in der Cloud arbeitet, kann auch für Service Provider, die Daten und Infrastrukturen ihrer Kunden verwalten, von großem Nutzen sein, auch wenn sichere Multi-Tenancy benötigt wird.

Früher musste man „Pi mal Daumen“ schätzen, wie lange der Speicher wohl noch halten würde. Sich auf nur einfachste Analysen simpler Speicherattribute für bestimmte Speichersilos einzelner System zu beschränken, ist in einem heterogenen Rechenzentrum keine gute Option. Dank Software Definied Storage mit Predictive Analytics kann die IT ab sofort ihre komplette Speicherumgebung überwachen und die Speicher-Wahrsagerei endlich beenden."


Fazit des Beitrags: Das zunehmend von Virtualisierung und Software geprägte moderne Rechenzentrum benötigt geeignete Analysewerkzeug für die komplette Umgebung. Damit kann die IT die für das Unternehmen notwendigen Entscheidungen für die gesamte Speicherebene treffen und die erforderlichen (Storage-)Einstellungen aufbauend auf diesen Analysen automatisieren.


* Autor ist Siegfried Betke. Er ist Sales Account Manager CEMEA bei FalconStor Software und seit Anfang der Neunziger Jahre in der IT-Industrie tätig, unter anderem für die Unternehmen DataCore, MTI Technology und Intergraph).

Abb. 1: Bildquelle FalconStor Software, OpenStack Cinder API