Podcast zu Low Latency Storage, Hot Data und der richtigen Datenstrategie

Starnberg, 28. März 2023 - Big Data und neue KI-basierte Applikationen erfordern leistungsfähige IT-Infrastrukturen und keine Silos; Expertengespräch mit CANCOM und HPE...

Um was geht es in dieser Podcast-Episode? Storage-Technologien sind kein Selbstzweck und werden verstärkt über aktuelle Entwicklungen auf der Anwendungsseite beeinflusst. Ein Beispiel: die Verschmelzung von Data Lake- und Data Warehouse-Architekturen, um als eine zentral aggregierte Ressource für alle strukturierten, semi- und unstrukturierten Daten eines Unternehmens zu agieren. Zudem werden unternehmensrelevante Daten in immer größeren Mengen erzeugt.

Der Einsatz von Big Data Analysen, ML und KI auf Grund von Digitalisierung & Co. fordert die existierende Speicher- und IT-Infrastruktur von Core-to-Edge zunehmend heraus. Real-time Datenanalysen und neue teils KI-basierte Applikationen verlangen Performance-seitig hohe und skalierbare Verarbeitungsgeschwindigkeit. Dies betrifft aber nicht nur den Storage mit seinen I/O-Protokollen, sondern letztlich den gesamten IT-Infrastruktur-Stack, um Silos und Engpässe möglichst gar nicht erst entstehen zu lassen. Gefordert ist deshalb eine Datenstrategie, um kosteneffiziente und leistungsfähig skalierbare Lösungen für Daten und Anwendungen (User) bereitzustellen.

 

Gesprächspartner der Podcast-Episode sind Dirk Hannemann, HPE Principal Solution Architect* und Christian Hansmann**, Solution Sales Architect bei der Firma CANCOM. Fragen & Moderation: Norbert Deuschle, Storage Consortium.

Zum Hintergrund: In den letzten zwei Podcast-Episoden mit beiden Gesprächspartnern wurde darauf eingegangen, welche Herausforderungen und Lösungsansätze aus Speicher-/Datenmanagement-Sicht mit dem Fokus auf sogenannte kalte und warme Daten bestehen. Dieser Podcast beschäftigt sich deshalb primär mit dem Thema "Low-latency storage" sowie „Hot"- und "Fast Data“.

Zudem werfen wir einen Blick auf Entwicklungstrends im Bereich von Multiprotokoll-Storage, der Bedeutung von NVMoF im Zusammenhang mit Software Definierten Architekturen und Flash sowie dem möglichst gezielten Einsatz von hybriden Clouds; hier auch im Zusammenhang mit Microservices und Container-Deployments. Angesprochen werden auch einige der damit verbundenen Entwicklungstrends für die nächsten Jahre.

 

 

 

Bei Apple Podcasts hören > https://podcasts.apple.com/de/podcast/low-latency-storage-und-hot-data-anforderungen-entwicklungstrends/id81294878?i=1000606261316

 

Punkte, die im Podcast behandelt werden (Hörzeit ca. 25:33 min):

  • Warum sollte sich ein Unternehmen (neben Datenbanken und den damit verbundenen Performancethemen) beim Auf- und Ausbau seiner Datenstrategie mit dem Thema „Hot Data“ befassen?
  • Welche Rolle spielen Flash und NVMEoF im Zusammenhang von Applikationen mit I/O-intensiven Low-Latency Workload-Profilen? Auch Abgrenzung zu Block Storage etc.
  • Kosteneffizienz und Performance sind neben Hochverfügbarkeit und dem Schutz von Cyberangriffen im Bereich der unternehmenskritischen Datenspeicherung wichtige Randbedingungen. Anwender sind deshalb versucht, alleine auf Grund der Menge an Daten, die Speicherkomplexität- und Kosten durch den Einsatz von Cloud-Services zu reduzieren. Wie kann der Cloudeinsatz in diesem Umfeld durch hybride Cloud-Modelle optimiert werden und wo liegen die Herausforderungen?
  • S3 und Cloud-native Architekturen mit Anwendungen sind im Kommen. Allerdings besteht Kundenseitig gleichzeitig der Bedarf, bislang bewährten File-Protokolle- und Daten zu verwalten. Wie können beide Welten sinnvoll kombiniert bzw. ergänzt werden?
  • Wie ist die weitere Storage-Protokollentwicklung auf mittlere- und längere Sicht zu bewerten; sprechen wir in fünf Jahren immer noch über Scale-out File-, Block- und Object Storage?
  • Wie sinnvoll ist ein einheitlicher Storage-Ressourcenpool inkl. Multi Protokoll Storage (auf Basis software-definierter Plattformen) für Workloads wie Standard Anwendungen, Data Warehouse-Analysen und Ad-hoc-Abfragen bis hin zu komplexen Data Science-Jobs? Was hat es technologisch damit auf sich und wie realistisch ist dieses Entwicklungsziel?

 

*Foto: Dirk Hannemann, HPE Principal Solution Architect (Bildquelle HPE)

**Foto: Christian Hansmann, CANCOM Solution Sales Architect (Bildquelle CANCOM)

 

Anzeige:

HPE GreenLake Day for storage: Thuesday, April 4, 2023 from 12 to 12:30pm CT

Link> https://www.hpe.com/us/en/newsroom/fact-sheet/hpe-greenlake-for-storage.html