Blogpost: Anspruchsvolle KI-Anwendungen benötigen für höchste Performance und Skalierbarkeit technologische Weiterentwicklungen wie HBM…
Zum Hintergrund dieses Blogposts: Moderne KI Deep Learning (DL) Modelle erfordern Millionen von Matrixoperationen. Diese müssen mit speziell entwickelten GPUs hochparallel gerechnet werden, damit die KI schnell und kosteneffektiv, sprich wirtschaftlich darstellbar ist. Problem: die starke Nachfrage, hohe Kosten und Knappheit machen GPUs derzeit zur wertvollsten KI-Ressource im Rechenzentrum. Zum primären Designziel für KI-Datacenter ist deshalb die Maximierung der vorhandenen GPU-Nutzung geworden.
Der Einsatz und Betrieb von KI hat damit auch die Nachfrage nach Arbeitsspeicher und Storage für die Unterstützung von Trainingssätzen und Inferenz-Engines beschleunigt. Zunehmend steht die Verarbeitung aller Arten von Daten, einschließlich Text und Bilder sowie Audio- und Videoinhalte im Mittelpunkt und die Datenspeicherung spielt eine wichtige Rolle im gesamten KI-Lebenszyklus (Datenpräparierung, Training und Tuning, Interferenz).
Anbieter von DRAM, Flash / HDD und Tape-Technologie (Archive, HSM, Datenschutz) sind grundsätzlich in einer guten Position, denn KI-Workflows verstärken die Nachfrage sowohl nach Arbeitsspeicher (DRAM), als auch nach nichtflüchtigem Speicher wie Flash und weiterhin HDDs (price/performance). Aktuelle NAND Flash SSDs Entwicklungen für KI sind primär mit den Schwerpunkten High-Performance- (TLC) und High-Capacity „Disks“ (QLC) zu beobachten.
Flüchtiger Speicher mit DRAM für High-Bandwidth-Memory HBM wie z.B. von SK Hynix und AMD für HBM** (HBM ist ein JEDEC Industriestandard), aber auch Produkte wie von Micron (HBM3-Gen2 folgte bei Micron auf HBM2E) oder Samsung stehen parallel dazu im Fokus der Entwicklung. Der Hintergrund: GDDR5 kann mit dem GPU-Leistungswachstum nicht mehr mithalten, vor allem in Bezug auf Stromverbrauch, Integration und Packungsdichte verschiedener Komponenten (Density).
Weiter fokussieren Hersteller wie Western Digital oder Intel (HBM) sich auf die Entwicklung neuer Produkte bzw. Architekturen zur Unterstützung von KI-Workloads, um die verschiedensten Elemente von KI-Anwendungen effektiver zu unterstützen. Es gilt besonders die Betriebskosten für KI-Anwendungen weiter zu senken und den Energieverbrauch zu reduzieren.
**Bildquelle / Auszug: High-Bandwidth Memory (HBM). AMD, REINVENTING MEMORY TECHNOLOGY, HBM vs GDDR5.
s.a. Externer Link > https://de.wikipedia.org/wiki/High_Bandwidth_Memory
Anmerkung: HBM repräsentiert einen neuen Speicherchip mit geringem Stromverbrauch und extrem breiten Kommunikationskanälen. Er verwendet vertikal gestapelte Speicherbausteine, die durch mikroskopisch kleine Drähte, so genannte "Through-Silicon-Vias" (TSVs), verbunden sind (Quelle: AMD).
Weitere Aspekte der Datenspeicherung- und Verwaltung in Bezug auf KI und den dafür optimierten Storage betreffen folgende Punkte-/Kriterien:
- Komprimierung / Deduplizierung
- Hochverfügbarkeit
- Verschlüsselung im Ruhezustand
- Datenschutz & Governance / Datensicherheit
- Zugriff über mehrere Protokolle / Multi-Protokoll Storage
- Hybride Cloud-Datenreplikation
- Objektspeicher / Parallele- /scale-out Filesysteme
- Langfristige Archivierung
- Verwaltung des Lebenszyklus von Daten.
Querverweis:
Unser Beitrag > Qdrant Managed Vektordatenbank: Neues Hybrid-Cloud-Angebot für KI-Anwendungen
Unser Beitrag > Bessere KI-Ergebnisse mit Graphdatenbank-Technologien?