Neu: Integration von NVIDIA AI Enterprise-Software einschließlich NVIDIA NIM-Microservices und NVIDIA NeMo. NVIDIA GPUDirect Storage für KI-Workloads…
Ankündigungsübersicht
Nutanix hat am 8. Mai 2025 die allgemeine Verfügbarkeit der neuesten Version seiner Lösung Nutanix Enterprise AI (NAI) bekanntgegeben. Sie bietet eine vertiefte Integration mit NVIDIA AI Enterprise einschließlich NVIDIA NIM Microservices und NVIDIA NeMo Framework, um die Einführung von Agentic-AI-Anwendungen in den Unternehmen zu beschleunigen. Die neu hinzugefügten Fähigkeiten der Lösung sollen damit die Verbreitung produktiver Agentic-Workloads in den Unternehmen beschleunigen.
Hintergrund
KI-Agenten (agentbased AI) sind KI-Systeme, die nicht nur bestimmte Aufgaben erfüllen können, sondern sie verfügen über Autonomie und Anpassungsfähigkeit. Ziel ist es, sich so dem menschlichen Verhalten weiter anzunähern… Agentische KI kann dazu Kontexte verstehen, aus Erfahrungen lernen und Entscheidungen treffen, die mit übergeordneten Zielen übereinstimmen.
Nun hatten Unternehmen bislang nur einen relativ kurzen Zeitrahmen für die Implementierung von GenAI, um klassische Aufgaben wie Day-2-Operations zu übernehmen. Sicherzustellen, dass dieselbe Architektur nun auch an rasch wechselnde KI-Landschaften wie die agentenbasierte KI angepasst werden kann, ist für Organisationen mitunter große Herausforderung.Ankündigungsdetails
NAI wurde konzipiert, die Bereitstellung von generativer KI in den Unternehmen schneller voranzubringen, und „vereinfacht zu diesem Zweck die Art und Weise, wie Kunden Modelle und Inferencing-Dienste am Edge, im Rechenzentrum oder in der Public Cloud auf von der Cloud Native Computing Foundation® (CNCF) zertifizierten Kubernetes®-Umgebungen erstellen, betreiben und sicher zu verwalten.“ Das neueste NAI-Release erweitert laut Nutanix "die gemeinsame Model-Service-Methodologie, die Agentic-Workflows vereinfacht und dabei hilft, deren Bereitstellung und laufenden Betrieb simpler zu gestalten."
- Mithilfe gemeinsamer Embedding-, Reranking- und Guardrail-Funktionsmodelle für Agenten optimiert das Release die Ressourcen und Modelle, die für die geschäftsbereichsübergreifende Bereitstellung multipler Anwendungen erforderlich sind.
- Die neue Version baut auf dem NAI-Kern auf, der ein zentrales Repository für LLM-Modelle enthält. Damit sollen sich sichere Endpunkte erstellen lassen, welche die Anbindung generativer KI-Anwendungen und -Agenten vereinfachen und schützen.
Bildquelle: Nutanix.
Ankündigungsdetails
NAI für Agentic-Anwendungen können bei folgenden Szenarien unterstützen (Quelle / Anbieter):
- Bereitstellung von Agentic-AI-Applikationen mit Shared-LLM-Endpunkten
„Kunden können bereits bestehende und bereitgestellte Modell-Endpunkte als Shared Services für multiple Anwendungen wiederverwenden. Durch die Wiederverwendung von Modell-Endpunkten lässt sich der Bedarf an notwendigen Infrastrukturkomponenten reduzieren. Dazu zählen GPUs, CPUs, Arbeitsspeicher, Datei- und Objektspeicher sowie Kubernetes®-Cluster.
- Nutzung einer großen Bandbreite an LLM-Endpunkten
NAI ermöglicht ein großes Spektrum an Agentic-Model-Services einschließlich der Open-Reasoning-Modelle NVIDIA Llama Nemotron, NVIDIA NeMo Retriever und NeMo Guardrails. NAI-Anwender können NVIDIA AI-Blueprints nutzen. Dabei handelt es sich um vorkonfigurierte und anpassbare Workflows, mit deren Hilfe Kunden unmittelbar mit der Entwicklung ihrer eigenen KI-Anwendungen auf der Basis von NVIDIA-Modellen und KI-Microservices loslegen können. Zudem ermöglicht NAI Funktionsaufrufe für Konfiguration und Nutzung externer Datenquellen, damit Agentic-AI-Anwendungen exaktere und detailliertere Ergebnisse liefern können.
- Absicherung von generativer KI
Mithilfe der neuen NAI-Version können Kunden Guardrail-Modelle nutzen und dadurch Agentic-Anwendungen unter Einhaltung der in ihren Unternehmen geltenden Regeln implementieren. Diese Modelle sind in der Lage, ab der ersten Interaktion User-Eingaben und LLM-Antworten zu filtern und dadurch vorurteilsbehaftete oder schädliche Ausgaben zu verhindern. Außerdem ermöglichen sie, die Kontrolle über Themen zu behalten und Jailbreak-Versuche zu entdecken.
NVIDIA NeMo Guardrails sind LLM-Modelle für Inhaltsfilterung und erlauben es, unerwünschte Inhalte und andere sensible Themen auszusortieren. Sie lassen sich zudem auf den Bereich Code-Generierung anwenden und ermöglichen dadurch modellübergreifend eine höhere Zuverlässigkeit und Konsistenz."
Die Nutanix Cloud Platform baut auf der Referenzarchitektur der NVIDIA AI Data Platform auf. Integration von Nutanix Unified Storage und Nutanix Database Service für strukturierte und unstrukturierte Daten zur Nutzung durch KI. Die Plattform Nutanix Cloud Infrastructure liefert eine unternehmensinterne Basis für NVIDIAs Accelerated Computing-, Networking- und KI-Software.
NVIDIA-zertifizierter Enterprise-Storage
Nutanix Unified Storage stellt Funktionen wie NVIDIA GPUDirect Storage zur Verfügung und bietet Unternehmen eine Software-definierte Enterprise-Storage Lösung für KI-Workloads.
Bildquelle: Nutanix
Anmerkung: GPUDirect Storage ermöglicht einen direkten DMA-Datenpfad zwischen GPU-Speicher und lokalem oder entferntem Speicher, wodurch eine Kopie in den Systemspeicher durch die CPU vermieden wird. Der direkte Pfad erhöht die System-Bandbreite und verringert Latenzen sowie die Auslastung von CPU und GPU (Quelle: NVIDIA).
NAI ist laut Entwickler für die Nutzung weiterer Services der Nutanix-Plattform ausgelegt und ermöglicht gleichzeitig flexible Bereitstellungen auf hyperkonvergenter Infrastruktur (HCI), Bare Metal und Cloud IaaS.
NAI-Betreiber können auch die Kubernetes-Plattform von Nutanix für das Flottenmanagement containerisierter Cloud-nativer Anwendungen in der Multicloud sowie Nutanix Unified Storage (NUS) und Nutanix Database Service (NDB) als diskrete Datenservices nutzen. Dadurch entsteht eine Komplettplattform für Agentic-AI-Anwendungen.
Querverweis:
Unser Beitrag > Nvidia GTC 2025: Storage- und Data-Management Update
Unser Beitrag > Kubernetes-native Backup: Veeam Kasten for Kubernetes v7.5 Ankündigung
Unser Beitrag > Energieeffizienz im Rechenzentrum: KIOXIA, AIO Core und Kyocera entwickeln optische Breitband-SSD