Newsletter 02/12 - Storage Consortium

 

Newsletter 2/2012 - Storage Consortium

Datum: 5. Juli 2012 - Zur Inhaltsübersicht...

Nächste Fachkonferenz des Storage Consortium am 15. November 2012 im LRZ, Garching b. München

Plattformunabhängiger Zugriff von mobilen Geräten auf unsere Internetseite mit Google Currents

Übersicht zu aktuellen Lösungs- und Produktangeboten unserer Kooperationspartner

Vorankündigung – Powering the Cloud, Frankfurt 30./31. Okt. 2012

Unter folg. Link können Sie diesen Newsletter auch direkt ONLINE abrufen:

http://www.storageconsortium.de/content/node/1236


1) Vorankündigung  +++ 11. Fachkonferenz des Storage Consortium am 15. Nov. 2012 im LRZ  +++

Nachdem unsere 10. Fachkonferenz am 25. April mit Unterstützung von T-Systems International erfolgreich beendet wurde (die freigegebenen PDF's der Vorträge erhalten Sie als registrierter Benutzer unserer Seite unter folgendem Link:

> http://www.storageconsortium.de/content/node/1121

findet die nächste Anwenderkonferenz am Donnerstag, den 15. Nov. beim Leibniz Rechenzentrums in Garching statt. Arbeitstitel: Speicher(Netzwerk-) Lösungen, Datenschutz und effiziente Speicherverwaltung für virtualisierte Infrastrukturen und Cloud Computing. In bewährter Manier bieten wir wieder ausgewählte Anwenderreferate und Technologievorträge zu aktuellen Anforderungen und Lösungen. Parallel zur Mittagspause erhalten alle Teilnehmer eine exklusive Führung durch das neue Leibniz Rechenzentrum. Wir freuen uns sehr, nach 2007 nun zum zweiten Mal hier Gast sein zu können; insbesondere nachdem erst kürzlich das neue SuperMUC Petascale Computing System des LRZ seinen offiziellen Betrieb aufgenommen hat.

"Das SuperMUC Petascale System SuperMUC The Gauss Centre for Supercomputing (GCS)" ist eine Allianz der drei deutschen nationalen Supercomputing-Zentren (Jülich, HLRS Stuttgart, LRZ MUC) und stellt derzeit die leistungsfähigste high-performance Computing-Infrastruktur in Europa dar. SuperMUC ist die Bezeichnung des neuen Supercomputers im LRZ. Mit 3 Petaflop/s (10^15 Floating Point Operations per second) -  erzielt im Juni 2012 - ist SuperMUC im LRZ derzeit einer der leistungsfähigsten Systemumgebungen der Welt (multi-teraflops & petaflops supercomputers, multi-petabyte storage, multi-gigabit communication links). Hier einige Randbedingungen zu den Leistungswerten des Systems:

155,656 CPU cores bei 9400 compute nodes

Größer 300 TB RAM

Infiniband FDR10 interconnect

4 PB NAS permanent disk storage

10 PB GPFS temporary disk storage

Größer 30 PB of tape archive capacity

Powerful visualization systems

Höchste Energieeffizienz

http://www.grid.lrz.de/de/news.html

http://www.lrz.de/services/compute/supermuc/

Weitere Details zur Agenda & Anmeldung für diese exklusive Konferenz beim LRZ gehen Ihnen rechtzeitig per separater Einladungsmail zu. Selbstverständlich finden Sie ab diesem Zeitpunkt hierzu auch alle notwendigen Informationen auf unserer Webseite unter der Rubrik "Fachkonferenzen des Storage Consortium".


2) Storage Consortium bei Google Currents

Zu Hause, im Büro, bei Meetings, unterwegs im Zug, Auto oder Flugzeug… Der nun auch in Deutschland verfügbare Nachrichtendienst Google Currents ermöglicht mit seiner App allen mobilen Endgeräten wie Android- oder Apple-Telefonen bzw. Tablets plattform-unabhängigen Zugang zu den Inhalten unseres online-Angebotes; Sie können direkt die Inhalte unserer Storage Consortium Webseite aus Google Currents lesen - gegliedert nach Fachbeiträgen, News (Twitterfeed) und Videos (YouTube). Die neue App bietet dabei für ihre jeweilige mobile Plattform das optimierte Erscheinungsbild und erlaubt zudem eine personalisierte Darstellung der Currents Inhalte (Text, Audio, Video). Für Apple iPhones steht natürlich weiterhin auch unsere iPhone App (kostenlos erhältlich über iTunes) zur Verfügung. Über den nachfolgenden Link können Sie bei Interesse die neue Google Currents App direkt auf Ihr mobiles Gerät herunterladen (Currents erfordert eine Anmeldung bei Google):

http://www.google.com/producer/currents


3) Ankündigungen und News unserer Kooperationspartner

Neue Quantum StorNext M660 Metadaten-Appliance kann bis zu 800 Millionen Files verwalten

Die neue StorNext M660 Appliance wurde konzipiert, um bis zu acht StorNext File-Systeme mit 800 Millionen Files zentral kontrollieren zu können (Metadaten Management). Der Vorteil: Große und sehr schnell wachsende Datensätze, einschließlich Tiered-Content Archive im Petabyte-Bereich lassen sich damit verwalten. Mit der Kombination aus Skalierbarkeit und hoher Streaming-Leistung liefert StorNext M660 speziell für datenintensive Umgebungen eine optimierte Data Management - Plattform. Anwendungsbeispiele betreffen digitale Medien (HD-Videos), Biowissenschaften oder die Erforschung von Öl- und Gasvorkommen. Die neuen Leistungsmerkmale im Kurzüberblick:

StorNext M660 erhöht die Anzahl und Größe der verwalteten File-Systeme. Gleichzeitig verfügt sie jedoch laut Hersteller über die einfache Bedienbarkeit einer vorkonfigurierten Appliance und liefert Hochleistung für Streaming-Clients (Verarbeitung-, File-Sharing und Datenanalyse).

Die StorNext M660 Appliance beinhaltet eine integrierte Gateway-Funktion, um die Performance beim Datenzugriff über Ethernet gegenüber traditionellen NFS- oder CIFS-Protokollen zu steigern. Sie wird alternativ als 1 GB oder 10 GB Ethernet-Modell angeboten. StorNext M660 startet ab netto €85.700,- und ab sofort verfügbar. Sie beinhaltet zehn Lizenzen für StorNext File-System SAN-Clients, Dual-Nodes für Hochverfügbarkeit, Dual-Gateways für einen Hochgeschwindigkeits-LAN-Zugang und eine Software für die Datenverteilung, um die Archivierungszeiten zu beschleunigen. Weitere Details zur StorNext M660 Metadata-Appliance und zu StorNext Lösungen für Big Data unter:

http://www.quantum.com/products/BigDataManagement/StorNextMetadataApplia... index.aspx

http://www.quantum.com/DE/Products/software/stornext/index.aspx

Red Hat verstärkt sein Software Engagement mit Red Hat Storage - Einstieg in Big Data Application-Support mit Apache Hadoop

 

Anfang Okt. 2011 hat Red Hat den Speichersoftware-Spezialisten "Gluster" übernommen (zu dessen Kunden Firmen wie der Musikdienst Pandora, die Deutsche Bank, Box.net, Autodesk oder Samsung gehören). Gluster stellt eine hochleistungsfähige Scale-out Open-Source-Storage-Software zur Verwaltung großer unstrukturierter Datenmengen(Big Data) dar. Das Dateisystem repräsentiert ein virtualisiertes (NAS) storage file system (POSIX, NFS-, CIFS - Mount points, inklusive Nutzung vorhandener Linux-Filesysteme, hochgradig skalierbar = scale-out, Global Namenspace Architektur).

Diese neue – als Red Hat Storage Server bezeichnete Softwarelösung - erlaubt die Kombination von Commodity Storage Hardware und Compute-Ressourcen zu einem logisch zentral verwaltbarem Storagepool, auf dessen Daten global zugegriffen werden kann (klassische SAN–Lösungen skalieren nicht effektiv bei Big Data, noch sind sie in diesem Umfeld kosteneffizient). Zitat: "it overcomes the typical downside of distributed file systems (performance and scalability degradation caused by metadata management), by using a sophisticated filename algorithm that eliminates the need for metadata servers". Mit Red Hat Storage Server bieten sich für Unternehmen neue Möglichkeiten bei der Verwaltung von „Big Data“ – unabhängig davon, ob Petabytes an unstrukturierten Daten vor Ort (on-premise), oder über puzblic-/hybrid Cloud-Modelle gespeichert werden. Typische Anwendungsgebiete sind Multimedia-Anwendungen, Geophysikalische- oder astronomische Daten, financial analysis/modeling, medizinische Daten oder social media data streams.

Im Zusammenhang mit Red Hats Storage Software wurde neu der Support von Big-Data-Infrastrukturen mit Apache Hadoop angekündigt. Der Red Hat Storage Server kann zusammen mit Hadoop Distributed File System (HDFS) oder an dessen Stelle eingesetzt werden und bietet neue Anwendungsbereiche für Hadoop bei File- aber auch objektbasierten Anwendungen (Red Hat Storage Server 2.0 Technologieausblick siehe u.g. Weblink).

Die Strategie von Red Hat im Bereich Cloud Computing und Red Hat Storage Server for Hybrid Clouds finden Sie unter:

http://www.redhat.com/products/storage-server/hybrid-cloud/

http://www.redhat.com/promo/liberate/?intcmp=70160000000UfMEAA0

http://www.redhat.com/products/storage-server/

 

NetApp hat sein neues FAS2220 Storage-System der Einstiegsklasse vorgestellt und erweitert sein Partner-Ökosystem zur Bereitstellung von Cloud-Lösungen

Mittlere Unternehmensgrößen stehen vor der Herausforderung, mit begrenzten IT-Ressourcen und knappen Budgets steigende Datenmengen verwalten zu müssen. Eine einfache, flexible und effiziente IT-Infrastruktur verleiht Organisationen die nötige Agilität, um dieses Datenwachstum zu nutzen und Wettbewerbsvorteile zu erzielen. Somit ist die Wahl des richtigen Storage entscheidend. Das FAS2220 System kommt mit einigen neuen Technologien wie NetApp Flash Pool und bietet für Anwender die folgenden Vorteile:

Höhere Performance als herkömmliche Arrays der Einstiegsklasse.

Verbesserte Leistungsfähigkeit ohne Mehraufwand bei Implementierung oder Verwaltung.

Vorhandene Storage-Investitionen werden genutzt und neue Kapazitäten nach Bedarf ergänzt.

Flash Pools (NetApp Virtual Storage Tiering) beschleunigt die Performance von Applikationen. Flash Pools sind einfach zu implementieren und sofort einsatzbereit; die Flash Pool-Technologie wurde in alle anderen neun NetApp Storage-Effizienztechnologien integriert. Folge: Die Systemauslastung wird optimiert und Stromkosten lassen sich reduzieren.

Der neue NetApp OnCommand System Manager 2.1 vereinfacht, steuert und automatisiert die Einrichtung und das Management von NetApp Storage.

Die FAS2200 Serie läuft unter der aktuellen Version des Betriebssystems Data ONTAP. Kunden erhalten eine skalierbare Unified Architecture, mit der sie ihre Systeme einfach und kostengünstig aufrüsten, neue Funktionen ergänzen sowie aufwändige Upgrades vermeiden.

Data ONTAP ist „clusterfähig“. So können mittelständische Unternehmen ihren Shared IT-Infrastrukturen ganz nach Bedarf und ohne Ausfallzeiten weitere Storage-Kapazitäten hinzufügen.

Der Link zur Online-NetApp Community beinhaltet auch eine Rubrik, die technische Fragestellungen im Zusammenhang mit den Lösungen des Herstellers beantwortet.

http://www.netapp.com/de/solutions/midsize/

Schon 2007 führte NetApp seine Deduplizierungstechnologie ein, wodurch Kapazitätsanforderungen an den Storage deutlich verringert wurden. NetApp Deduplizierung arbeitet prinzipiell so, dass identische Datenblöcke identifiziert und mit Referenzen zu einem einzelnen, gemeinsam genutzten Block ersetzt werden, nachdem eine Validierungs-Überprüfung auf Byte-Ebene durchgeführt wurde. Redundante Datenblöcke werden eliminiert, die sich auf demselben Volume oder LUN befinden. Im Kern basiert NetApp's Deduplizierung auf einer Art Referenzzählung; vorher wurde in Data ONTAP nur festgehalten, ob ein Block frei oder in Benutzung ist. Mit Deduplizierung wird darüber hinaus auch die Anzahl der Nutzungen registriert. Bei DeDupe kann auf einen einzelnen Block bei NAS- und auch bei SAN-Konfigurationen bis zu 255 Mal referenziert werden. Die Einzelheiten werden innerhalb des NetApp WAFL Dateisystems unsichtbar organisiert. Mehr zum Thema NetApp und Daten-Deduplizierung finden Sie hier:

http://www.netapp.com/de/communities/tech-ontap/de-tot-bb-deduplication-...

 

Fujitsu ETERNUS CS High End Appliance V5.1 für Hochleistungs-Backup und Archivierung

Konzipiert wurde das System für Unternehmen, die sowohl eine umfassende Konsolidierung als auch gezielte Vereinfachung ihrer Backup- und Archivierungssysteme im Bereich von Mainframes, UNIX- und Industriestandard-Server durchführen möchten. Die neu entwickelte ViNS (Virtual Network Storage)-Funktion bietet die Integration mit Enterprise-Systemen zur File-Archivierung und Migration von älteren Files; auch sorgt die Appliance für die notwendige K-Fall-Absicherung bei allen relevanten Backup- und Archivierungsvorgängen. Neben der Datensicherung adressiert die ETERNUS CS High End V5.1 vor allem die Kundenanforderungen in puncto gesetzeskonformer (Langzeit-)Archivierung. Fujitsu hat hierzu einen Auditor beauftragt, die Lösung in Übereinstimmung mit den hierzu allgemein anerkannten Standards zu prüfen. Das Testergebnis steht unter folgendem Link zum Download bereit:

http://www.fujitsu.com/de/products/computing/storage/solutions/efficient...

Wesentliche Leistungsmerkmale betreffen:

ViNS-Funktionalität unterstützt Active Directory- und LDAP-Umgebungen. Dies ermöglicht die Integration mit Systemen zur File-Archivierung. Die Skalierbarkeit des ViNS-Dateisystems (zwei Milliarden Dateien ohne Dateigrößenbeschränkung) erlaubt die Konsolidierung von Backup- und Archivierungsdaten auf Festplatte. ETERNUS CS High End V5.1 verwendet einen Mix aus komprimierter Festplatten-Kapazität, Tapes und deduplizierter Diskkapazität in Kombination mit Daten-Replikation. So können definierte Service Level Agreements erfüllt und gleichzeitig Budgetbeschränkungen berücksichtigt werden. Unternehmen können mit der Appliance Backup, Wiederherstellung und Archivierung konsolidieren beziehungsweise zentralisieren, sowie Disk- und Tape-Storage über ein einziges System steuern.Für andere ETERNUS CS High End-Systeme ist ViNS im Paket mit weiteren, nützlichen ETERNUS CS High End-Funktionen erhältlich, die der Backup-Konsolidierung in Mainframe-, UNIX- und x86-Umgebungen dienen.

Große Konsolidierungsprojekte erhalten eine deutlich verbesserten Skalierbarkeit bei Kapazität und Performance. Durch das Skalieren von bis zu 16 RAID-Systemen speichert der interne Festplatten-Cache jetzt bis  3,6 PB bei hoher Schreib- und Lese-Performance. Um Leistungssteigerungen von bis zu 50 Prozent zu erzielen, können bis zehn Prozessorknoten parallel arbeiten. Damit ist die ETERNUS CS High End V5.1 laut Hersteller die derzeit skalierungsfähigste Data Protection Appliance auf dem Markt. Die ETERNUS CS High End liefert Disaster Recovery-Funktionen mit einer Kombination aus Cache-Mirroring an zwei Standorten, dem Anlegen mehrfacher Datenkopien und einer kaskadierbaren Datenreplikation für die geforderte Datensicherungsleistung. Um die Fernreplikation zu optimieren, ist neben Fibre-Channel auch nativer TCP/IP-Support gewährleistet.

http://www.fujitsu.com/de/products/computing/storage/solutions/eternus/

 

B.Braun Melsungen AG implementiert Tiered Storage Lösung mit F5 Networks ARX

Wachsende Datenmengen von 50 % p.a. stellten die Verantwortlichen des Herstellers von Pharma- und Medizinprodukten vor immer größere Herausforderungen, vor allem hervorgerufen durch lange Backup-Zeiten. Nach internen Schätzungen hätten diese pro Jahr um etwa 40% zugenommen. Bis zu 95% der vorhandenen Ressourcen im RZ waren permanent in Betrieb und ausgelastet. Gleichzeitig erhöhte sich durch wachsende Datenmengen die Backup-Restorezeiten auf >40 Stunden. Dieser Trend konnte zwar kurzfristig mit dem Zukauf neuer Storagesysteme abgefedert werden, im Kern blieben die Probleme aber ungelöst. Deswegen suchte das Unternehmen nach einer Lösung, welche a) die Backup-Frequenz senkt und b) durch automatisiertes Storage Tiering zusätzliche Speicherressourcen freisetzen würde. Ein in diesem Zusammenhang wichtiges Kriterium bei der Auswahl war, dabei keine Stub-files zu erzeugen. Die B.Braun Melsungen AG bezifferte die Kosten der bestehenden Infrastruktur mit 60 Cent pro GByte eines Sicherungsbandes im Jahr.

In den Augen der Verantwortlichen waren Kosteneinsparungen in diesem Bereich unabdingbar. Außerdem suchte man eine intelligente Möglichkeit, durch Storage Tiering die Backup-Frequenzen zu senken. Anwenderzitat: „Die wichtigsten Kriterien, die uns dazu bewogen haben die F5 ARX zu implementieren, waren ihre Skalierbarkeit und stub-freeness“, begründet der Betreiber die Entscheidung. Die bestehende Infrastruktur konnte dabei vollständig erhalten bleiben... Zitat: “die zugeschaltete Dateivirtualisierungs-Schicht konnten wir problemlos in die Microsoft DFS Service Umgebung implementieren…“ beschreibt B.Braun die Erfahrung. Die File-Virtualisierung ermöglicht eine übergangslose Migration von Daten ohne Unterbrechung und Auszeiten. Durch die Unterstützung von Storage Tiering werden vorhandene Datenbestände entsprechend ihrer Priorität und ihres Alters auf verschiedene Speicherklassen verteilt (automatisierter HSM-Ansatz). Die Migration auf Tier- 2 Speicher erfolgt dabei übergangslos. Fazit: Das Ziel, die Backup-Zeiten um bis zu 50% zu verringern, konnte laut durch die F5-ARX-Lösung erreicht werden. Damit einhergehende Kosteneinsparungen lassen sich laut B.Braun Melsungen mit jährlich 20.000 Euro beziffern. Die ganze Fallstudie steht bei F5 als pdf-Download zur Verfügung:

http://www.f5networks.de/de/de/resources

Video: STORAGE TIERING VON 0 AUF CLOUD DURCH FILE VIRTUALISIERUNG. F5 Networks zeigt mit seinem Cloud-Storage-Modell einen Weg, die Storage-Infrastruktur auf zukünftige Anordnungen vorzubereiten. Folgende Themen werden in dem Webcast (53 Min.) behandelt:

Welche Vorteile bringt File Virtualisierung mit sich?

Was ist Storage Tiering und wo bringt es Vorteile?

Was ist Cloud-Storage?

Wie kann man Clouds in traditionelle File Services integrieren?

Welche Vorteile hat ein "Tier to Cloud Konzept"?

http://www.f5networks.de/de/de/videos/arx-datenmanagement.mp4

 

Brocade Communications - Aktuelles Netzwerk-Portfolio und Architekturübersicht

Heute transportieren Rechenzentrums­-Netzwerke die Daten für eine Vielzahl unterschiedlichster Anwendungen wie Client/Server, Web-Services und Unified Communications – jede dieser Anwendungen stellt dabei unterschiedliche Verkehrsmuster und Anforderungen an die Netzwerk-­Services. In zunehmendem Maße werden jedoch Anwendungen auf virtuellen Maschinen eingesetzt, die auf Server-­Clustern arbeiten. Außerdem wird Ethernet eingesetzt, um gemeinsam genutzte Speicher­ Pools aufzubauen; dadurch entstehen erhöhte Anforderungen an das Netzwerk wie z. B. verlustfreie Lieferung der Pakete, vorhersagbare Latenzzeiten und höchste Bandbreite. Die hierfür notwendige manuelle Konfiguration zahlreicher Switches und Ports mit gemeinsamen Parametern ist nicht flexibel skalierbar, zu starr und auf Dauer auch einfach zu teuer. Das Netzwerk-Management muss also agiler und werden – wegen virtuellen Maschinen und deren logischen Verbindungen zur Physik, dem Zusammenlegen von IP- und Speicherverkehr auf den gleichen Verbindungen und der Mobilität der virtuellen Maschinen.

In einem klassischen Ethernet-Netzwerk dürfen die Verbindungen zwischen Switches, d. h. die Inter-Switch Links keine Schleifen bilden; andernfalls werden Frames nicht zum Ziel transportiert. Das SpanningTreeProtokol (STP) verhindert Schleifen, indem es eine Baum-Topologie erzeugt, in der es zwischen zwei beliebigen Switches nur jeweils einen aktiven Pfad gibt. Dies bedeutet jedoch, dass die ISL-Bandbreite auf eine einzige Verbindung begrenzt wird, da Mehrfach-Pfade zwischen Switches nicht zulässig sind. Die Brocade Ethernet Fabric lösen die Beschränkungen auf.

Die Ethernet Fabricist ein Multi-Pfad-Netzwerk, das einen neuen Standard namens „Transparent Interconnection of Lots ofLinks“ (TRILL) verwendet. Im Gegensatz zu STP sind bei TRILL alle Pfade im Netzwerk aktiv, und der Verkehr wird automatisch über alle Wege mit gleichen Kosten verteilt. In dieser optimierten Umgebung wird der Verkehr automatisch über den kürzesten Pfad geleitet – das bedeutet minimale Latenzzeiten ohne manuellen Konfigurationsaufwand. Ethernet Fabrics kann man sich auch als moderne Erweiterung der Control und Management Planes über den physikalischen Switch hinaus in die Fabric vorstellen.

Ethernet Fabrics stellen ausserdem eine wichtige Komponente des Software-Defined Networking, SDN dar. Mehr zu Ethernet Fabrics, der Brocade VCS Fabric Technologie und zur Netzwerkautomatisierung mittels SDN finden Sie in folgenden Infobroschüren (PDF-Downloads) unter:

http://www.brocade.com/downloads/documents/white_papers/network-transfor...

http://www.brocade.com/launch/sdn/ethernet-fabric.html?intcmp=ms_sdn_bn_...

http://www.brocade.com

 

IBM erweitert sein Storage Produkt Portfolio mit umfangreichen Neuankündigungen zu Storage- und Technical Computing-Systemen

Ziel der (Juni-) Ankündigung ist es laut IBM, die Effizienz, Auslastung und Leistung von Speichersystemen für Anwender zu erhöhen und gleichzeitig die damit verbundene Kosten (Beschaffung, TCO, OPEX) gering zu halten oder zu senken. Nach einer Umfrage des Herstellers zusammen mit IDC bei 300 CIOs weltweit konnten die effizientesten Unternehmen über 50 Prozent ihres Budgets für neue Projekte freimachen. Die hierzu notwendigen Technologien zur Speicher-Virtualisierung, Kapazitätsoptimierung (DeDupe-/Compression) und Auto-Tiering sind unter Speicheraspekten zentrale Infrastruktur-Komponenten. Nachfolgend eine Übersicht zu den Neuerungen aus Storagesicht:

IBM Storwize V7000 und Storage SAN Volume Controller (SVC) in V.6.4 mit block-basierter (real-time) Komprimierung für Primärdaten

System Storage DS3500 Express und DCS3700 für HPC-Umgebungen erhalten verbesserte FlashCopy-Fähigkeite und Dynamic Disk Pooling (DDP)

Tape System Library Manager (TSLM) ist eine neue Software, die die Nutzung der IBM TS3500 Tape Libraries erweitert

Linear Tape File System (LTFS) Storage Manager - Software optimiert das Lifecycle-Management von Rich-Media-Dateien

Tivoli Storage Productivity Center-(TPC V. 5.1) wurde für Big-Data-Speicherumgebungen (SONAS R.1.3.2) optimiert

3D-Tiering für DS8000 erlaubt ein automatisiertes, granulares (Intra-) Tiering innerhalb einer Tiering-Stufe

Application-Aware Storage API: Zukünftige Erweiterungen von Easy Tiering für DS8000, XIV, V7000 und SONAS auch mit Direct-attached Server-based High-Density Flash SSD

IBM Storage SoD: Die Active-Cloud-Engine, ACE ermöglicht es, auch nicht IBM-NAS-Systeme transparent zu migrieren und mittels Global-Namespace-Architektur zu konsolidieren.

http://www-03.ibm.com/systems/de/storage/

 

Archivierung mit Bull StoreWay - Die Storage-Experten von Bull ermitteln spezifischen Archivierungsbedarf, um den unterschiedlichsten Anforderungen und Gruppen im Unternehmen gerecht zu werden:

"Unendliche" (Mailbox-)Ablage mit einfachen Möglichkeiten zum Suchen/Finden für die Benutzer

stabile Speicherinfrastrukturen mit reduzierten Aufwänden (z.B. bei Backup/Restoreprozessen) für den IT-Betrieb

Integration in bestehende Prozesse bzw. Anwendungssysteme für die Betriebsorganisation

Erfüllung gesetzlicher Auflagen für die Rechtsabteilung/Revision

Hohe Sicherheit vor Ausfällen und Datenverlusten gepaart mit Kosteneffizienz für die Geschäftsleitung.

Innhalb dieser Archivlösung können die unterschiedlichsten Technologien zum Einsatz kommen:

Information Life Cycle Management (ILM) zur Klassifizierung von Dokumenten und Festlegung ihrer Aufbewahrungsfristen

Dokumenten Management (DMS/ECM) zur Identifikation, Verschlagwortung und Katalogisierung von Dokumenten

Volltextindizierung zur schnellen Auffindung von Informationen

Verschlüsselung, Signatur und Rechtemanagement zur Verhinderung nicht autorisierter Zugriffe

Systeme zur unverfälschbaren Aufbewahrung von Dokumenten

Einsatz standardisierte Formate wie TIFF, PDF/A etc.

Deduplizierung zur Kapazitätsverringerung redundant abgelegter Daten

Hierarchical Storage Management (HSM) zur Verlagerung selten genutzter Dokumente auf kostengünstige Speichermedien

Unterbrechunsfreie Migrationsverfahren bei Technologiewechsel im Speicherbereich.

http://www.bull.de/storage/archivierung.html

 

Riverbed Cloud Storage Gateway unterstützt Cloud-basiertes Disaster Recovery - Whitewater Familie von Riverbed unterstützt HP Cloud Object Storage; Zusammenarbeit mit VMware über vCloud Connector intensiviert

Riverbed Whitewater Gateways wurden für die schnelle Datensicherung und entsprechend leistungsfähige Disaster Recovery Verfahren entwickelt. Mittels Deduplizierung, Komprimierung und Encryption lassen sich die zu übertragenden Daten (in die Cloud) sichern und gleichzeitig die damit verbundenen Speicherkosten durch entsprechende Cloud Services reduzieren. Ab sofort kann in Kombination mit Riverbed's Whitewater Gateways auch der neue HP Cloud Object Storage als Storage-Option genutzt werden, um die Anforderungen im Bereich von Disaster Recovery (DR) Prozessen zu erfüllen und z.B.  veraltete Backup-(Tape)Technologien durch schnelle und verbrauchsbezogene Cloud Storage-Dienste zu ersetzen.

Riverbed und VMware erweitern die Zusammenarbeit: Riverbed WAN-Optimierung beschleunigt mit dem VMware vCloud Connector virtuelle Maschinen, die zwischen Private, Public und Hybrid Cloud-Umgebungen migriert werden. Der VMware vCloud Connector basiert auf VMware vSphere 5 und VMware vCloud APIs. Mithilfe des Connectors lassen sich VMware vSphere und VMware vCloud Director-basierte Private und Public Clouds verknüpfen und über eine Schnittstelle verwalten. Beim Verschieben großer virtueller Maschinen über das WAN erreicht die Riverbed WAN-Optimierungslösung nach Angaben des Herstellers dabei eine deutlich höhere Performance. Die neuesten Entwicklungen der Zusammenarbeit zwischen VMware und Riverbed betreffen im wesentlichen die Themen IT-Zweigstellen-Konsolidierung (Virtual Services Platform VSP), die Performance-Überwachung in der virtuellen Maschine, die Beschleunigung von VDI-Umgebungen und schnellere Replikation zwischen Rechenzentren (beschleunigte VMware vSphere Replication) für Disaster Recovery Zwecke.

Riverbed stellt Stingray Traffic Manager 9.0 zur Web Content Optimierung & Application Delivery Controller vor: Stingray Aptimizer ist eine Web-Content-Optimierungs-Lösung, die laut Hersteller einfach über im Rechenzentrum genutzte Software funktioniert. Daher sind keine Änderungen an den Browsern oder der Anwendungen nötig. Aptimizer liefert eine umfassende WCO-Lösung, die alle Kernelemente von Web-Anwendungen adressiert, inklusive HTML & CSS Kombinationen für weniger HTTP-Transaktionen zwischen Browser und Server, Image-Spriting, JavaScript-Dateikomprimierung sowie die Optimierung mittels Domain Sharing (dem Aufsplitten von Inhalten auf mehrere Domains) und dem Transfer von Inhalten zu Content Delivery Networks (CDN). Eine kostenlose Stingray Entwickler Edition können Sie hier herunterladen:

http://blog.riverbed.com/2012/06/introducing-stingray-90.html

http://www.riverbed.com/us/products/whitewater_products/

http://www.riverbed.com/vmware/media/docs/SolutionBrief-VMWare-Riverbed-...

Anwenderbericht: KTR Kupplungstechnik GmbH: Der Hersteller von Antriebskomponenten konsolidiert Systeme für Daten-Backup und Disaster Recovery (DR) in Private Cloud  mit Hilfe von Riverbed Steelhead Appliances:

http://www.riverbed.com/assets/de/media/documents/case_studies/CaseStudy... (4 MB)

 

4. Veranstaltungshinweis: "Powering the Cloud" - Konferenz in Frankfurt a.M. vom 30.-31. Okt. 2012

SNW Europe, Virtualization World und Datacenter Technologies erneut im Congress Frankfurt - POWERING THE CLOUD

Mit einer umfangreichen Agenda, branchenführenden Sponsoren und hochkarätigen Referenten rechnen die Veranstalter der diesjährigen SNW Europe, Datacenter Technologies und Virtualization World damit, den Erfolg der vergangenen Jahre zu übertreffen. Die drei Konferenzen finden am 30. und 31. Oktober 2012 unter dem Motto „Powering the Cloud im Congress Frankfurt statt. Das Programm umfasst über 130 Sessions mit Präsentationen von Industrieexperten, Beiträgen aus der Praxis, Demonstrationen der neuesten Produkte und Informationen zu aktuellen Trends und Entwicklungen. Details hierzu auf der Webseite des Konferenzveranstalters (siehe Link) > http://poweringthecloud.com

Als Partner des Veranstalters bieten wir Ihnen den kostenfreien Eintritt mit unserem Promocode S2M12, den Sie bitte bei der Registrierung zum verwenden.


Storage Consortium

Impressum nach § 6 des Teledienstgesetzes:

Inhaltlich Verantwortlich gemäß §10, Absatz 3 MDStV:

Storage Consortium. Esterbergstr. 29, 82319 Starnberg

Geschäftsführung: Norbert E. Deuschle

Tel.:  +49 (0) 8151 97 999 04

Fax:  +49 (0) 8151 97 999 05

Mail: info@storageconsortium.de

Web: www.storageconsortium.de