Starnberg, 28. Okt. 2024 - Speicher- und Datenstrategien im Zeichen unstrukturierter Daten und KI-Anwendungen; im Experten-Podcast bei HPE und CANCOM nachgefragt…
Zum Inhalt dieser (garantiert nicht synthetischen) Podcast-Episode: In dieser Folge beschäftigen wir uns primär mit der Speicherung, Verwaltung und Analyse von wachsenden unstrukturierten Datenmengen im Zusammenhang mit KI und anderen wichtigen Unternehmensanwendungen. Kein grundsätzlich neues Thema, aber ein weiterhin top-aktuelles, vor allem in Hinblick auf die Auswahl der richtigen Speicher- und Datenverwaltungslösung. Die Fragen stellt Norbert Deuschle vom Storage Consortium. Gesprächspartner sind die Storage-/IT-Experten Juergen Ruhland vom HPE Storage Competency Center Germany und Christian Hansmann, Solution Sales Architect, Cloud & DataCenter Infrastrukturen, bei CANCOM. (1)
Um was geht es konkret? Die Anforderungen an IT-Infrastrukturen, also Storage, Netzwerke, Server etc. steigen weiter an. Dies hat direkte Auswirkungen auf die Speicher- und Datenverwaltung. Folgt man globalen Trends, so sollen sich in großen Unternehmen & Organisationen die Kapazitäten im Bereich von unstrukturierten Daten bis 2026 bis zu verdreifachen. Dies stellt Verantwortliche jeder Organisationsgröße vor Herausforderungen, aber es gibt Lösungen: Dazu gehören scale-out File- und Objektspeicher-Systeme, die heute bereits erfolgreich und bevorzugt im Umfeld von unstrukturierten Daten, S3 und der Cloud agieren. In diesem Zusammenhang zählt die Unterstützung performance-orientierter KI-Anwendungen sowie ein möglichst einheitliches hybrides Cloud Daten Management zu den Top-Prioritäten vieler Unternehmen.
Unsere Podcast-Folgen auch bei Apple Podcasts und in allen gängigen Podcasting-Portalen hören.
Externer Link > https://podcasts.apple.com/de/podcast/storage-consortium/id81294878
Juergen Ruhland, Pre-Sales Solution Architect, HPE Storage Competency Center, Germany (Bildquelle: HPE)
Christian Hansmann, Solution Sales Architect, Cloud & DataCenter Infrastrukturen, bei CANCOM (Bildquelle: CANCOM)
Folgende anwendungsbezogenen Aspekte, Herausforderungen und Entwicklungen werden angesprochen:
- Was macht die Speicherung und Verwaltung unstrukturierter Daten aus Kundensicht derzeit so herausfordernd und wo liegen die größten Baustellen?
- Eine hochleistungsfähige Datenverarbeitung- und Verwaltung mit Skalierbarkeiten bis in den Multi-Petabyte-Bereich und darüber hinaus ist nicht mehr nur im HPC-Umfeld inzwischen schon ein Standard.
- Welche spezifischen Leistungsmerkmale sind bei der Auswahl einer File System Umgebung zu beachten und was bedeutet das konkret für die vorhandene IT-Infrastruktur beim Kunden?
- Wie sollte eine zukunftsorientierte, scale-out Filesystem Speicherumgebung (NAS, Object / S3 / Infiniband, Ethernet usw.), im Kontext moderner Anwendungen wie GenAI, KI/ML, Data Analytics, Data Lakes usw. aufgebaut sein?
- Wie läßt sich das Zusammenspiel von File Systemen und (Cloud) Object Storage aus Anwendungssicht beschreiben? Welche Fallstricke bzw. Limitationen sind zu beachten?
- Wo liegen weitere Herausforderungen und wie lassen sich Datenverwaltungs-Prozesse vereinfachen und beschleunigen (Datenklassifizierung, Automatisierung…)?
- Anwendungsbeispiele im Kontext von Applikationsbezügen, Performance-Anforderungen an File Data Mgmt., Datenwachstum und Integration unterschiedlicher Plattformen.
- OPEX- und CAPEX-Aspekte zum Cloudbetrieb im semi- und unstrukturierten Datenumfeld; auch im Zusammenhang mit Data Analytics (Stichwort: Egress-Kosten). Was ist zu beachten und wie agieren Unternehmen derzeit in diesem Zusammenhang?
Fazit der Q&A
Das rasche Wachstum im Bereich von unstrukturierten Filedaten bei Standard-Applikationen und neuen dynamischen Anwendungsfeldern - siehe KI - verstärkt die Attraktivität von Objektspeicher-Lösungen sowie die Notwendigkeit einer konsolidierten unternehmensweiten Speicherverwaltung. Dies gilt nicht nur für Primär-, sondern ebenso für Sekundär- und Archivdaten. Unternehmen, die verstärkt einen integrativen Ansatz zur Speicher- und Datenverwaltung verfolgen, sind dann in der Lage, die Bereitstellung von Anwendungen effektiver zu beschleunigen und vorhandene Infrastruktur-Silos aufzulösen.
Querverweis:
Unser Beitrag > KI und GPU-Workload-Anforderungen: Storage mit HBM Memory im KI-Daten-Lebenszyklus
Unser Beitrag > Befragung zum Stand der Umsetzung des EU AI Act: Wie bereit sind deutsche Unternehmen?