Böblingen, Starnberg, 26. Juli 2024 - Die neue Produktreihe umfasst eine erste schlüsselfertige Private-Cloud-KI-Lösung mit den Ziel, die GenAI-Einführung zu beschleunigen…
Zur Ankündigungsübersicht: Im Rahmen der HPE Discover 2024 letzten Monat in Las Vegas wurde von Hewlett Packard Enterprise (HPE) und NVIDIA AI Computing mit „NVIDIA AI Computing by HPE“ angekündigt, ein Portfolio gemeinsam entwickelter KI-Lösungen inkl. gemeinsamer Vermarktung auf den Markt zu bringen. (1) Ziel ist es die Einführung generativer KI in Firmen und Verwaltungen zu beschleunigen. Zu den wichtigsten Angeboten des Portfolios gehört HPE Private Cloud AI, eine hochintegrierte Lösung von NVIDIAs Computing-, Netzwerk- und Software-Technologien mit HPE Speicher, Servern und der GreenLake Cloud des Anbieters.
Das neue Portfolio wurde für Inferenz, Feintuning und Retrieval-Augmented Generation (RAG) auf der Grundlage von proprietären Daten entwickelt und soll für Unternehmen und Verwaltungen jeder Größe geeignet sein. HPE Private Cloud AI adressiert Themen wie die Kontrolle und Souveränität hinsichtlich Datenschutz, Sicherheit, Transparenz und Governance.
Unterstützt durch einen neuen KI-Kopiloten auf der Grundlage von OpsRamp stellt HPE Private Cloud AI eine Self-Service-Umgebung mit Cloud-Nutzererfahrung und kompletten Live-Cycle-Management dar. Die Lösung wird in vier Konfigurationen angeboten, um eine breite KI-Anwendungsunterstützung zu bieten.
Die Angebote und Dienstleistungen im Rahmen von NVIDIA AI Computing by HPE werden nach vorliegenden Angaben von HPE und NVIDIA gemeinsam mit Channel-Partnern und einem globalen Netzwerk von Systemintegratoren – darunter Deloitte, HCLTech, Infosys, TCS und Wipro – vermarktet.
Technologie-Stack von HPE Private Cloud AI
Zum KI- und Daten-Software-Stack von HPE Private Cloud AI gehört die Softwareplattform NVIDIA AI Enterprise. Sie beschleunigt Daten-Pipelines und die Entwicklung von Kopiloten und anderen Anwendungen der generativen KI. NVIDIA AI Enterprise umfasst auch Inferenz-Microservices von NVIDIA NIM, die einen reibungslosen Übergang vom Prototyp zum Betrieb von KI-Modellen unterstützen sollen.
Als Ergänzung zu NVIDIA AI Enterprise und NVIDIA NIM bietet die Software HPE AI Essentials eine Reihe von kuratierten KI- und Datenwerkzeugen, die über eine einheitliche Steuerungsebene verwaltet werden. Diese Werkzeuge dienen dazu, Compliance, Erklärbarkeit und Reproduzierbarkeit von KI-Modellen sicherzustellen.
HPE Private Cloud AI beruht auf einem integrierten KI-Infrastruktur-Stack, der unter anderem die folgenden Komponenten umfasst: Spectrum-X-Ethernet-Netzwerke von NVIDIA, HPE GreenLake for File Storage und HPE-ProLiant-Server mit Unterstützung für die Grafikprozessoren NVIDIA L40S und NVIDIA H100 NVL Tensor Core sowie für die Superchip-Plattform NVIDIA GH200 NVL2.
Cloud-Nutzererfahrung und AIOps mit HPE GreenLake Cloud und OpsRamp
Grundlage für die Self-Service-Nutzererfahrung der Lösung ist die HPE GreenLake Cloud, eine einheitliche Steuerungsplattform, mit der sich Endpunkte, Anwendungen und Daten in hybriden Umgebungen überwachen, automatisieren, orchestrieren und verwalten lassen. Dazu gehören laut Anbieter auch Nachhaltigkeitsmetriken für Anwendungen und Endpunkte.
Die Softwarelösung OpsRamp ist in die HPE GreenLake Cloud integriert und bietet Überwachung und AIOps für den gesamten Technologie-Stack der HPE Private Cloud AI, einschließlich aller NVIDIA-Komponenten. IT-Administratoren können damit zum Beispiel Anomalien identifizieren und ihre KI-Infrastruktur und -Anwendungen in hybriden Multi-Cloud-Umgebungen überwachen.
Der neue OpsRamp-Kopilot nutzt die beschleunigte Computing-Plattform von NVIDIA und einen Chatbot, um große Datensätze zu analysieren und damit die Produktivität des Betriebsmanagements zu steigern. OpsRamp wird auch in CrowdStrike-APIs integriert, sodass Kunden eine einheitliche Sicht auf die Endpunktsicherheit bekommen können.
Abb.: HPE GreenLake for File Storage software stack (Bildquelle: HPE).
Anmerkung: HPE GreenLake for File Storage hat die DGX-Base-POD-Zertifizierung und die OVX-Speichervalidierung von NVIDIA erhalten und bietet eine Dateispeicherlösung zur Beschleunigung von KI-, GenAI- und GPU-intensiven Anwendungen in großem Maßstab.
(1) NVIDIA AI Computing by HPE wurde während der HPE Discover neben Antonio Neri, President und CEO von HPE, von NVIDIA-Gründer und -CEO Jensen Huang angekündigt. Zitatauszug Huang: „Noch nie zuvor haben NVIDIA und HPE unsere Technologien so tief integriert wie mit dieser Kombination des gesamten NVIDIA AI Computing Stacks mit der Private-Cloud-Technologie von HPE. Damit statten wir Kunden mit dem führenden Infrastruktur- und Dienstleistungsangebot aus, sodass sie die Grenzen der KI erweitern können.“
Neue HPE-Server mit Unterstützung der aktuellsten GPUs, CPUs und Superchips von NVIDIA
Folgende Server-Modelle wurden angekündigt (Quelle / HPE):
- HPE Cray XD670 unterstützt acht NVIDIA H200 NVL Tensor Core GPUs und soll ideal für das Training großer Sprachmodelle (LLM) sein.
- Der HPE ProLiant DL384 Gen12 Server mit NVIDIA GH200 NVL2 ist ideal für LLM-Nutzer, die größere Modelle oder RAG verwenden.
- Der HPE ProLiant DL380a Gen12 Server unterstützt bis zu acht NVIDIA H200 NVL Tensor Core GPUs und gedacht für LLM-Nutzer, die mehr Flexibilität bei der Skalierung ihrer GenAI-Anwendungen benötigen.
- HPE wird zeitnah NVIDIA GB200 NVL72/NVL2 sowie die neuen Architekturen von NVIDIA Blackwell, NVIDIA Rubin und NVIDIA Vera unterstützen.
- HPE GreenLake for File Storage zertifiziert für NVIDIA DGX BasePOD und NVIDIA OVX
- HPE GreenLake for File Storage hat die DGX-Base-POD-Zertifizierung und die OVX-Speichervalidierung von NVIDIA erhalten und bietet Kunden eine Dateispeicherlösung zur Beschleunigung von KI-, GenAI- und GPU-intensiven Anwendungen in großem Maßstab.
Zur Verfügbarkeit (Quelle / HPE): HPE Private Cloud AI soll voraussichtlich im Herbst 2024 allgemein verfügbar sein. HPE ProLiant DL380a Gen12 Server mit NVIDIA H200 NVL Tensor Core GPUs soll voraussichtlich im Herbst 2024 allgemein verfügbar sein. HPE ProLiant DL384 Gen12 Server mit zwei NVIDIA GH200 NVL2 soll voraussichtlich im Herbst 2024 allgemein verfügbar sein. HPE Cray XD670 Server mit NVIDIA H200 NVL wird voraussichtlich diesen Sommer allgemein verfügbar.
Querverweis:
Unser Blogpost > KI und GPU-Workload-Anforderungen: Storage mit HBM Memory im KI-Daten-Lebenszyklus
Unser Beitrag > MCML mit appliedAI Initiative: KI-Forschung und Anwendungs-Knowhow besser kombinieren