München, Starnberg, 22./30. Aug. 2012 – Symantec und Hortonworks bieten Technologie für zeitnahe Analysen von Big Data innerhalb der bestehenden IT-Infrastruktur…
Zum Hintergrund: Damit sich vorhandene Daten genauer auswerten und geschäftsrelevante Schlussfolgerungen daraus ziehen lassen, hat der Hersteller Symantec eine Zusatzfunktion für sein Cluster File System entwickelt. Mit dem neuen Modul „Symantec Enterprise Solution for Hadoop“ lassen sich Big Data - Analysen mit einer bereits bestehenden IT-Infrastruktur durchführen. Die Lösung von Symantec und Hortonworks ist skalierbar und arbeitet ausfallsicher, so dass Unternehmen Appache Hadoop unternehmensweit für ihr Datenmanagement einsetzen können, ohne aufwändig in eine parallele Hardware-/Software - Lösung investieren zu müssen. Damit lassen sich Big Data Analysen einführen und zugleich die Kosten und Komplexität für die beteiligte (Storage-) Infrastruktur senken.
Die gemeinsame Lösung von Symantec und Hortonworks skaliert nach Anbieterangaben bis 16 Petabyte und bindet sowohl strukturierte als auch unstrukturierte Daten ein. Das Add-on sorgt laut Anbieter zudem dafür, dass nicht zuviele Speicher- als auch Rechenressourcen für die Analye von Big Data geblockt werden:
- Daten analysieren: Im ersten Schritt bei der Implementierung werden die zu analysierenden Daten in die Infrastruktur von Hadoop geleitet. Dank der Symantec Enterprise Solution for Hadoop können Firmen ihre bestehende Speicherinfrastruktur nun an die Hadoop-Installation koppeln und so zeitaufwändige und teure Datenbewegungen vermeiden. Das Add-on erlaubt Administratoren, die Daten an ihrem üblichen Ort zu belassen und dort Analysen zu starten, ohne die Daten extrahieren, transformieren oder in ein separates Cluster laden zu müssen. Teure und schmerzvolle Datenmigrationen lassen sich so umgehen.
- Hochverfügbarkeit sicherstellen: In einer Apache-Hadoop-Umgebung sind die Daten über verschiedene Knotenpunkte verteilt und nur ein Metadaten-Server kennt ihren genauen Speicherort. Dadurch entsteht ein möglicher Leistungsengpass, der zu einen Single Point of Failure werden kann. Fällt der zentrale Server aus, könnte die gesamte Anwendung still stehen. Die Symantec Enterprise Solution for Hadoop liefert Hochverfügbarkeit für das Dateisystem auf dem Metadaten-Server und sorgt zusätzlich dafür, dass die Analyseapplikationen weiterläuft, solange mindestens ein Knotenpunkt im Cluster funktioniert. Symantec ersetzt hierzu das Hadoop File System mit seinem eigenen Cluster File System, wodurch jeder Knotenpunkt simultan auf die Daten zugreifen darf. Dadurch werden sowohl der Leistungsengpass als auch der Single Point of Failure aufgehoben.
Preis, Verfügbarkeit und Support: Die Symantec Enterprise Lösung für Hadoop steht Anwendern von Symantec Cluster File System ohne Aufpreis zur Verfügung.
Sie unterstützt die Hortonworks Data Platform http://bit.ly/RE1hdq (HDP), Version 1.0 sowie Apache Hadoop, Version 1.0.2. Kunden, bei denen HDP Version 1.0 läuft, können sich an das Support Team von Hadoop wenden sowie an Schulungen des Symantec Partners Hortonworks http://bit.ly/OOmb4C teilnehmen.