IBM Cloud erweitert AI Accelerator Angebot: Zusammenarbeit mit AMD bei GenAI und HPC

Armonk (NY), Starnberg, 20. Nov. 2024 - IBM Cloud setzt AMD Instinct™ MI300X Accelerators ein; mehr Leistung für generative KI-Workloads und HPC-Anwendungen geplant…

Zur Ankündigung: IBM und AMD haben eine Zusammenarbeit zur Bereitstellung von AMD Instinct MI300X Accelerators als Service in der IBM Cloud angekündigt. Hintergrund: Unternehmen sind gerade dabei, immer größere KI-Modelle und Datensätze zu implementieren. Deshalb ist es nach AMD von entscheidender Bedeutung „dass die Beschleuniger innerhalb des Systems rechenintensive Workloads mit hoher Leistung und Flexibilität zur Skalierung verarbeiten können“. Das neue Angebot, das voraussichtlich in der ersten Hälfte des Jahres 2025 verfügbar sein soll (1), zielt darauf ab, die Leistung und Energieeffizienz von Gen-AI-Modellen wie High Performance Computing (HPC) Anwendungen für Unternehmenskunden zu verbessern. Diese Zusammenarbeit soll dann auch die Unterstützung von AMD Instinct MI300X Accelerators innerhalb der IBM watsonx AI- und Datenplattform sowie die Unterstützung von Red Hat® Enterprise Linux® AI-Inferenz ermöglichen.

 

IBM und AMD arbeiten zusammen, um MI300X Accelerators als Service in der IBM Cloud bereitzustellen und Unternehmenskunden bei der Nutzung von KI zu unterstützen. Um Unternehmenskunden aus verschiedenen Branchen, darunter auch stark regulierten, Hilfestellung zu bieten, beabsichtigen IBM und AMD nach diesen Informationen, die Funktionalitäten der IBM Cloud in den Bereichen Sicherheit und Compliance voll auszuschöpfen.

 

Unterstützung für Large Model Inferencing

Ausgestattet mit 192 GB High Bandwidth Memory (HBM3) bieten AMD Instinct MI300X Accelerators- Unterstützung für Larges Model Inferencing und Fine Tuning. Die große Speicherkapazität kann Kunden auch dabei helfen, größere Modelle mit weniger GPUs auszuführen, wodurch die Kosten für die Inferecing möglicherweise gesenkt werden.

Verbesserte Leistung und Sicherheit

Die Bereitstellung von AMD Instinct MI300X Accelerators als Service auf IBM Cloud Virtual Servers for VPC sowie die Unterstützung von Containern mit IBM Cloud Kubernetes Service und IBM Red Hat OpenShift on IBM Cloud können dazu beitragen, die Leistung unternehmensinterner KI-Anwendungen zu optimieren.

 

Bildquelle: IBM, credit AMD.
 

Für generative AI Inferencing Workloads plant IBM nach eigenen Angaben, die Unterstützung für AMD Instinct MI300X Accelerators in der watsonx AI und Datenplattform von IBM zu ermöglichen und watsonx Kunden zusätzliche KI-Infrastrukturressourcen für die Skalierung ihrer KI-Workloads in Hybrid-Cloud-Umgebungen bereitzustellen.

Darüber hinaus können auf den Red Hat Enterprise Linux AI und Red Hat OpenShift AI Plattformen Large Language Models (LLMs) der Granite-Familie mit Alignment-Tools unter Verwendung von InstructLab auf MI300X Accelerators ausgeführt werden.

IBM Cloud mit AMD Instinct MI300X Accelerators soll laut Anbieter voraussichtlich in der ersten Hälfte des Jahres 2025 allgemein verfügbar sein.

(1) Quelle / externer Link > https://www.ibm.com/cloud/gpu


Querverweis:

Unser Beitrag > KPMG Cloud-Monitor 2024: KI-Lösungen werden bevorzugt von Cloud-Anbietern bezogen

Unser Beitrag > Deloitte CFO Survey zur Entwicklung von GenAI-Budgets bei deutschen Unternehmen

Unser Beitrag > NoSQL-Datenbanken in der Cloud: Hinweise zu Leistungsmerkmalen und Vorteilen im Betrieb