
Nvidia GTC ist eine globale Konferenz für Entwickler im Bereich von künstlicher Intelligenz. Während der diesjährigen Nvidia GTC vom 17.-20. März stellen die Storageanbieter Dell, HPE, DNN, Cohesity, Cloudian, Hitachi Vantara, IBM, NetApp, Nutanix, Pure Storage, WEKA und VAST Data ihre Neuerungen im Zusammenhang mit Nvidia Blackwell Ultra GPUs und der AI Data Platform des KI-Spezialisten vor.
Das neue NVIDIA Referenzdesign verbindet Nvidia GPUs, Spectrum-X Switches, BlueField NICs und AI-Software mit externen Speichersystemen auf Basis von Block-, Datei- und Objektstorage. (1) Diese werden über NICs und Switches (Infiniband, Ethernet) an die GPUs gesendet, um dort mit Hilfe von Nvidia’s AI-Software weiterverarbeitet zu werden (im Bild oben: NVIDIA DGX GB300. Bildquelle: NVIDIA).
(1) Quelle / externer Link > https://blogs.nvidia.com/blog/ai-cloud-providers-reference-architecture/
Nachfolgend die Updates mit Storagefokus von WEKA.io, NetApp, Hitachi Vantara, Pure Storage und DELL Technologies (Auszug):
1. WEKA Augmented Memory Grid™
Die WEKA Datenplattform wird mit NVIDIAs neuen beschleunigtem Compute-, Netzwerk- und Unternehmenssoftware-Lösungen integriert. WEKAs Augmented Memory Grid erreicht laut Entwickler eine bis zu 41-fach schnellere Zeit bis zum ersten Token und optimiert Token, um die Durchsatzkosten um bis zu 24 % senken zu können. WEKA stellt zudem verschiedene erweiterte NVIDIA-Integrationen und -Zertifizierungen vor, darunter:
- WEKApod™ Nitro ist ab sofort für NVIDIA Cloud Partner-Implementierungen mit GB200 Blackwell zertifiziert.
- Die WEKA-Integration mit der NVIDIA AI Data Platform bietet eine skalierbare Grundlage, um im Unterehmen KI-Agenten, komplexe Schlussfolgerungsmodelle und Inferenz-Workloads der nächsten Generation zu unterstützen.
Die Zero-Tuning-Architektur von WEKA optimiert sich dynamisch für Workloads und soll Latenzzeiten im Bereich von unter einer Millisekunde bei Millionen von IOPS erreichen können. Eine 8U-Einstiegskonfiguration erfüllt die E/A-Anforderungen einer skalierbaren GB200 Blackwell-Einheit (1.152 GPUs).
S3-Objektspeicher für KI-Pipelines - Die S3-Schnittstelle von WEKA wurde für den Zugriff auf kleine Objekte für KI-, ML- und Analyse-Workloads bei niedrigen Latenzen optimiert.
Mandantenfähigkeit - WEKAs Composable Cluster schaffen eine logische und physische Isolierung, indem sie die inhärenten Fähigkeiten von Containern für mandantenfähige KI-Cloud-Services ermöglichen.
WEKA unterstützt bis zu 32.000 NVIDIA-GPUs pro Single Namespace, so dass NCPs ohne architektonische Einschränkungen global skalieren können.
WEKApod Nitro Appliance (Bildquelle: WEKA.IO)
2. NetApp Storage Validierung für NVIDIA Umgebungen zu KI-Training und -Inferencing
Umfangreiche Datenmanagement-Funktionen sollen helfen, KI-Innovationen zu beschleunigen. Durch die Zertifizierungen ist NetApp in der Lage, das Referenzdesign der NVIDIA AI Data Platform für NetApp ONTAP zu nutzen. Dies erweitert die Storage-Infrastruktur mit KI-Agenten für Inferenz-Workloads, die von NVIDIAs beschleunigtem Computing, Netzwerk und Software unterstützt werden.
NVIDIA hat hochperformante NetApp Enterprise Storage-Systeme mit NetApp ONTAP für Umgebungen validiert, um KI-Training und -Inferencing unterstützen. Damit können Kunden mit NetApp die Vorteile validierter Konfigurationen und Architekturen für NVIDIA nutzen, einschließlich NVIDIA DGX SuperPOD, NVIDIA Cloud Partners und NVIDIA-zertifiziertem Storage. Diese sind, in Kombination mit den umfangreichen und ausgereiften Datenmanagement-Services in NetApp ONTAP, entscheidend für den Aufbau von KI-Fabriken.
Mit der Einführung einer intelligenten Dateninfrastruktur können Unternehmen ihre Daten sicher und ohne Silos in jeder Umgebung bearbeiten, um wichtige Erkenntnisse zu gewinnen und Abläufe mit KI zu automatisieren. Durch die Zusammenarbeit mit NVIDIA zur Zertifizierung und Validierung seiner Datenspeicher- und Management-Funktionen kann NetApp damit Unternehmen die Nutzung intelligenter Dateninfrastrukturen erleichtern, um KI-Innovationen voranzutreiben.
NetApp kündigt Updates und Zertifizierungen für sein Portfolio zur Unterstützung von KI-Innovationen an, darunter:
- NetApp AFF A90 validiert für NVIDIA DGX SuperPOD: NetApp AFF A90 Enterprise Storage-Systeme mit NetApp ONTAP sind jetzt für NVIDIA DGX SuperPOD validiert.
- Darüber hinaus bringt NetApp gemeinsam mit Lenovo eine neue Version von NetApp AIPod auf den Markt. Diese enthält die NVIDIA AI Enterprise Software-Plattform und bietet Kunden, die eine KI-Infrastruktur für Inferencing und Fine-Tuning einsetzen, mehr Flexibilität. Diese vereinfachte Architektur ist die Grundlage, um die Chancen der generativen und agentenbasierten KI zu nutzen, ohne in spezielle Data-Science-Ressourcen zu investieren.
- NetApp AFF A90 als High-Performance Storage für NVIDIA Cloud Partner mit NVIDIA HGX Systems zertifiziert: Mit der Zertifizierung zur Unterstützung der NVIDIA Cloud Partner (NCP) Referenzarchitekturen für High-Performance-Storage mit NVIDIA HGX B200 und HGX H200 Systemen kann NetApp die Funktion eines zugrunde liegenden Storages für NVIDIA Cloud Partner übernehmen. Die NetApp AFF A90 Systeme liefern laut Hersteller die nötige Performance, um transformative KI- und Datenservices in sicheren mandantenfähigen Umgebungen bereitzustellen, so dass NCPs ihren Kunden eine skalierbare KI-Infrastruktur bieten können.
- NetApp AIPod für Enterprise Storage mit neuem NVIDIA Certified Storage-Programm zertifiziert: NetApp AIPod hat die neue Bezeichnung NVIDIA-Certified Storage erhalten und unterstützt NVIDIA Enterprise Reference Architectures mit High-Performance Storage. NetApp ist jetzt auch für die Bereitstellung von Enterprise-Storage für NVIDIA-zertifizierte Systeme für eine breite Palette von KI-Workloads zertifiziert. So beschleunigt NetApp Computing-Plattformen – von NVIDIA L40S bis zu NVIDIA HGX H200 Supercomputern – und gewährleistet die Performance, Skalierbarkeit, Qualität, Effizienz und Zuverlässigkeit der KI-Infrastruktur.
AFF-A Series (Bildquelle: NetApp)
3. Neu: Hitachi iQ M Series
Hitachi Vantara, Tochterfirma der Hitachi, Ltd. kündigt mit der Hitachi iQ M Series die neueste Ergänzung seines Hitachi iQ-Portfolios KI-fähiger Infrastrukturlösungen an. Hitachi iQ M Series kombiniert die Hitachi Vantara Virtual Storage Platform One (VSP One), integrierte Dateisysteme und optionale NVIDIA AI Enterprise Software zu einer skalierbaren, anpassungsfähigen und kosteneffizienten KI-Infrastrukturlösung.
a) Die Hitachi iQ M Series bietet eine Auswahl an NVIDIA Accelerated Computing-Plattformen, um den jeweils am besten geeigneten Grafikprozessor für bestimmte Arbeitslasten auszuwählen und eine optimale Leistung für verschiedene KI-Anwendungen zu gewährleisten. Rechen- und Speicherleistung sollen sich dabei unabhängig skalieren lassen, mit der Flexibilität, sich an unterschiedliche und schwankende Datengrößen, Datentypen und Arbeitslasten anzupassen. Unternehmen können Ressourcen effizient zuweisen, indem sie die Rechen- oder Speicherleistung nach Bedarf skalieren, anstatt sie übermäßig bereitzustellen (Overprovisioning) und unnötige Kosten zu generieren.
b) Zusätzlich integriert Hitachi iQ das Referenzdesign der NVIDIA AI Data Platform, um KI-Agenten Geschäftseinblicke nahezu in Echtzeit zu ermöglichen:
Als Teil des Hitachi iQ-Portfolios bietet die M-Serie Konfigurationen mit NVIDIA Accelerated Computing und die Wahl zwischen einem Hochleistungs- oder einem Global-Namespace-Dateisystem. Innerhalb des Hitachi iQ-Portfolios ist laut Anbieter auch ein optionales Objektspeicher-Repository verfügbar, mit dem die M-Serie verschiedene Datentypen, -größen und Arbeitslasten bewältigen kann und sich ideal für dynamische und datenintensive Umgebungen eignet. Mit dem Referenzdesign der AI Data Platform sind damit gespeicherte Daten in Echtzeit auf Hitachi iQ zugänglich, wodurch Anwendungen Zugriff auf das gesamte Wissen des Unternehmens erhalten können.
c) Hitachi iQ Powered by Hammerspace und VSP One
Im Bereich der Datenorchestrierung hat Hitachi Vantara eine Wiederverkaufsvereinbarung mit Hammerspace geschlossen. Hitachi Vantara hat die Hammerspace-Software in die VSP One-Speicherplattform integriert und erweitert nach vorliegenden Angaben die Möglichkeiten von Hitachi iQ, um unterschiedliche Anforderungen an das Datenmanagement bei der Erstellung, Verarbeitung, Verwaltung und Sicherung von Datensätzen zu erfüllen.
Die Kombination aus VSP One und Hammerspace soll sicherstellten, dass verteilte Daten für GenAI-Workloads einfach und transparent von überall zugänglich sein sollen. Hitachi iQ bildet damit eine komplette Infrastrukturlösung für KI-, GenAI-, Analyse- und Data-Lake-Umgebungen ab, die für eine Reihe von branchenspezifischen Anwendungsfällen zur Verfügung steht.
Hitachi iQ M Series Components (Bildquelle: Hitachi Vantara)
4. Pure Storage integriert NVIDIA AI Data Platform in FlashBlade
a) FlashBlade ist für NVIDIA Cloud Partner- und Enterprise-Bereitstellungen jetzt zertifiziert. Ziel ist es, Daten nahezu in Echtzeit zu transformieren, um die Einführung agentenbasierten KI zu beschleunigen. Pure Storage ist offiziell HPS-zertifiziert für NVIDIA Cloud Partner-Referenzarchitekturen mit NVIDIA HGX-Systemen, die NVIDIA B200- oder H200-Grafikprozessoren verwenden. NVIDIA-zertifizierte Speichersysteme erfüllen die Datenanforderungen von KI-Fabriken durch eine umfassende Speicherzertifizierung.
Das Programm ergänzt NVIDIA-Certified-Systeme und NVIDIA Enterprise Reference Architectures (RAs) und soll es Partnern und Kunden ermöglichen, KI-Infrastrukturen effizienter einzusetzen. Durch die Integration validierter Speicherplattformen mit den Rechen- und Softwaretechnologien von NVIDIA können die Daten für schnellere, genauere und zuverlässigere KI-Modelle genutzt werden.
Zusammen mit der kürzlich erfolgten Zertifizierung von FlashBlade//S500 mit NVIDIA DGX SuperPOD durch Pure Storage bieten diese neuen Zertifizierungen NVIDIA Cloud-Partnern und Unternehmen Hochleistungsspeicher, um die Anforderungen für den Aufbau einer hochmodernen KI-Infrastruktur zu erfüllen.
b) Neu: Pure Storage FlashBlade//EXA
Kurz vor der GTC in San Jose hat Pure Storage mit FlashBlade//EXA ein neues System vorgestellt, dass für hochanspruchsvolle Anwendungs-Anforderungen konzipiert sein soll. Vor allem Unternehmen und Organisationen, die auf große KI-Umgebungen und High-Performance Computing (HPC) setzen, sollen damit adressiert werden. FlashBlade//EXA wird laut Anbieter voraussichtlich im Sommer 2025 verfügbar sein.
FlashBlade//EXA adressiert laut Entwickler den Metadaten-Engpass auf Basis der Pure FlashBlade Architektur, die für hohe Parallelität und enormen Mengen an Metadaten-Operationen ausgelegt wurde, wie sie für große KI- und HPC-Workloads typisch sein kann. Die FlashBlade//EXA-Architektur skaliert Daten und Metadaten dazu unabhängig voneinander und laut Pure Storage eine „nahezu unbegrenzte Skalierbarkeit mit handelsüblichen Data Nodes von Drittanbietern“ erreichen. In ersten Szenarien soll FlashBlade//EXA voraussichtlich eine Leseleistung von mehr als 10 Terabyte pro Sekunde pro Single Namespace liefern, über die massiv parallele, disaggregierte Architektur. Dazu ist laut Anbieter auch die Einbindung von Hochgeschwindigkeits-NVIDIA ConnectX-NICs, Spectrum-Switches, LinkX-Kabeln und Accelerated Communications Libraries vorgesehen.
FlashBlade//EXA (Bildquelle: Pure Storage)
5. Dell AI Factory with NVIDIA - Update
Dell Technologies stellt jetzt eine Reihe neuer Lösungen für die schnelle Einführung von KI vor. Die Neuerungen umfassen Clients, Infrastruktur, Software und Services.
a) Dell PowerEdge soll künftig NVIDIA Blackwell Ultra unterstützen, einschließlich der kommenden GPUs NVIDIA HGX B300 NVL16, NVIDIA GB300 NVL72 und NVIDIA RTX PRO 6000 Blackwell Server Edition. NVIDIA Blackwell Ultra bietet bis zu 288 GB HBM3e-Speicher, um komplexe KI-Modelle schnell und skalierbar zu verarbeiten. Mit NVIDIA ConnectX-8 SuperNICs werden die neuen Server zudem KI-Clustern eine Peak Performance mit einem Durchsatz von 800 Gb/s ermöglichen. (Quelle: Anbieter).
b) Die Server Dell PowerEdge XE7740 und XE7745 sollen mit der Dell AI Factory with NVIDIA erhältlich sein. Diese Server sind derzeit mit bis zu acht NVIDIA H200 NVL GPUs erhältlich und beinhalten ein Fünf-Jahres-Abonnement der NVIDIA AI Enterprise Software. Diese Ausstattung macht sie zu einer leistungsstarken Plattform für GenAI Fine Tuning, Inferencing und agentische Reasoning-Anwendungen sowie für High Performance Computing (HPC). Künftig sollen sie auch bis zu acht NVIDIA RTX PRO 6000 Blackwell Server Edition PCIe GPUs unterstützen, die die KI-Leistung der Server mehr als verdoppeln.
c) Der neue Server Dell PowerEdge XE8712 mit der GB200-NVL4-Plattform stellt die nächste Generation der beschleunigten KI-Berechnung dar und unterstützt bis zu 144 NVIDIA B200 GPUs pro Dell IR7000 Rack. Diese flüssigkeitsgekühlten Rack-Systeme sind auf das Training von KI-Modellen und komplexe HPC-Simulationen zugeschnitten, optimieren Leistung und Recheneffizienz, senken Betriebskosten und sparen Platz im Rechenzentrum.
Neue Datenplattform Dell AI Data Platform with NVIDIA
Integrierte Lösung für die sichere Implementierung von Agentic AI und anderen KI-Anwendungen. Sie eröffnet Unternehmen einen direkten Zugriff auf hochwertige strukturierte, halbstrukturierte und unstrukturierte Daten.
Die Plattform kombiniert dazu Dell Enterprise Storage mit Rechenbeschleunigern, Netzwerklösungen und KI-Software von NVIDIA und bietet eine kontinuierliche Datenverarbeitung und robuste Datenmanagement-Services. Sie integriert sich nahtlos in das Referenzdesign der NVIDIA AI Data Platform und liefert Unternehmen eine optimale Infrastruktur, um mit KI das volle Potenzial ihrer Geschäftsdaten auszuschöpfen.
Neue Softwarelösungen und Services
Dell Technologies vereinfacht Agentic AI durch die Integration von AI-Q Blueprint und des AgentIQ Toolkit von NVIDIA in die NVIDIA AI Enterprise Platform und die neuen NVIDIA-Llama-Nemotron-Modelle für Reasoning. Unternehmen können dadurch robuste Plattformen für KI-Agenten aufbauen. Die neuen Dell Accelerator Services for RAG implementieren und optimieren agentenbasierte Lösungen mit integrierten Geschäftsdaten und verkürzen so die Zeit bis zum Return on Investment.
- Die Dell AI Factory with NVIDIA hat die KI-Orchestrierungsplattform NVIDIA Run:ai validiert. Die Plattform bietet Unternehmen Tools, mit denen sie in On-premises-Umgebungen die Nutzung von GPU-Ressourcen optimieren, komplexe Workloads verwalten und KI-Berechnungen beschleunigen können.
- Dell Services for GenAI Digital Assistants sind jetzt auf die skalierbare Blueprint-Architektur von NVIDIA abgestimmt. Sie helfen Unternehmen dabei, ihren Self-Service mit einer menschenzentrierten, mehrsprachigen Lösung zu verbessern.
- Der Dell AI Code Assistant kann laut Anbieter vollständig on-premises betrieben werden und erfüllt höchste Anforderungen an Flexibilität und Datenschutz. Die Lösung macht exakte und kontextbewusste Code-Vorschläge und wird dabei von agentenbasierten KI-Tools und einer erweiterten Kontext-Engine unterstützt.
Dell PowerScale (Bildquelle: DELL Technologies).
Querverweis zum Thema:
Unser Blogpost > Datenintensive KI-Applikationen und steigende Anforderungen an die Speicherinfrastruktur
Unser Podcast > KI-Systeme benötigen leistungsfähige Speicherinfrastrukturen