Zur Ankündigung: Gemeinsam entwickeltes Angebot verbindet Red Hat AI Enterprise mit Hardware-beschleunigter Compute-Software von NVIDIA, um KI produktionsreif in großem Maßstab beschleunigt einzusetzen…
Hintergrund
Bis 2029 sollen die Ausgaben für Enterprise-KI voraussichtlich auf über eine Billion US-Dollar steigen. (1) Getrieben wird diese Entwicklung danach vor allem von Agentic AI, da Unternehmen ihre Strategien anpassen und stärker auf komplexe, agentenbasierte Workflows setzen. Dazu müssen die sich daraus ergebenden Anforderungen hinsichtlich KI-Inferencing und Infrastruktur erfüllt werden. Um zu unterstützen, zielt die Red Hat AI Factory with NVIDIA auf eine vereinfachte Verwaltung sowohl klassischer als auch moderner Infrastrukturen, um die steigenden Anforderungen des KI-Stacks zu erfüllen.
Ankündigungsübersicht
Bei der am 26. Febr. vorgestellten Red Hat AI Factory with NVIDIA handelt es sich um eine gemeinsam mit NVIDIA entwickelte Software-Plattform, die Red Hat AI Enterprise und NVIDIA AI Enterprise zu einer skalierbaren Ende-zu-Ende-KI-Lösung für Unternehmen kombiniert, um KI im großem Maßstab einzusetzen. Die Lösung soll die Bereitstellung von KI für Unternehmenskunden beschleunigen, liefert Day-0-Support für NVIDIAs Hardware-Architekturen und ist laut Anbieter ab sofort verfügbar.
Ankündigungsdetails
Red Hat AI Factory with NVIDIA möchte den Weg zu produktionsreifer KI verkürzen und positioniert sich als Software-Plattform für KI-Fabriken. Diese setzen auf Hardware-beschleunigte Compute-Infrastrukturen, die eine hohe Performance für die Modelle bereitstellen - inkl. Support für NVIDIA GPUs - die den Inference-Stack antreiben.
KI-Infrastrukture von Systemherstellern wie Cisco, Dell Technologies, Lenovo oder Supermicro unterstützen die Plattform. Dadurch sollen IT-Administratoren und Betriebsteams in die Lage versetzt werden, ihre KI-Workloads mit derselben operativen Genauigkeit und Vorhersagbarkeit wie jeden anderen Enterprise-Workload skalieren und verwalten zu können.
Die gemeinsam entwickelte Software-Plattform adressiert die Bereiche Kollaboration, Entwicklung und Support. Für Unternehmen soll sie eine vertrauenswürdige, Enterprise-taugliche Lösung mit einer hochskalierbaren Basis für KI-Bereitstellungen in beliebigen Umgebungen abbilden– sei es on-premises, in der Cloud oder am Edge.
Externer Link > https://github.com/rh-ai-quickstart/maas-code-assistant
Wichtige Kernfunktionen für ein leistungsstarkes KI-Inferencing zum Tuning und der Anpassungen von Modellen sowie Bereitstellung und Verwaltung von Agenten - mit Fokus auf Sicherheit - sind laut Entwicklerangabe vorhanden. Betriebe können die volle Kontrolle über ihre Architekturen behalten, vom RZ bis in die Public Cloud. Folgenden Vorteile ergeben sich daraus (Quelle, Red Hat):
Schnellere Amortisation: KI schnell in den Produktivbetrieb überführen durch schlanke Workflows und den sofortigen Zugriff auf vorkonfigurierte Modelle, darunter die mit einer Absicherung gegen Verletzung des geistigen Eigentums von Dritten versehene Granite-Familie von IBM sowie die offenen Modelle NVIDIA Nemotron und NVIDIA Cosmos, bereitgestellt als NVIDIA NIM-Microservices. Modelle mit NVIDIA NeMo besser an Unternehmensdaten anpassen und Zeit und Kosten für das Fine-Tuning reduzieren.
Performance- und Kostenoptimierungen: Die Inference-Performance mit einem einheitlichen Stack steigern. Red Hat AI Factory with NVIDIA bietet Funktionen für die Überwachung der Modelle und nutzt die Inference-Funktionen von Red Hat AI, die auf vLLM, NVIDIA TensorRT-LLM und NVIDIA Dynamo basieren, um auch strenge KI-Service-Level-Ziele zu erfüllen. Auf diese Weise können Unternehmen das Zusammenspiel aus Modellen und NVIDIA-GPUs optimieren und die Total Cost of Ownership (TCO) von KI senken.
Intelligente GPU-Orchestrierung: On-Demand-Zugriff auf GPU-Ressourcen über eine intelligente Orchestrierung und Infrastruktur-Pools, sodass die Compute-Kosten auch in dynamischen Umgebungen planbar bleiben sollen. Automatisiertes Checkpointing schützt lange laufende Jobs.
Sicherheit für KI-Workloads: Red Hat Enterprise Linux als Basis bietet entsprechende Sicherheits- und Compliance-Funktionen, die fest integriert sind, um Risiken zu reduzieren und Ausfallzeiten zu minimieren. Hiermit besteht eine sicherheits-optimierte Grundlage für geschäftskritische KI-Workloads, die einer Isolierung und kontinuierlichen Verifizierung bedürfen. Die NVIDIA DOCA Microservices bauen darauf auf, um eine Zero-Trust-Architektur abzubilden, die KI zur Laufzeit über die gesamte Infrastruktur hinweg absichern kann.
(1) Quelle: IDC, Agentic AI to Dominate IT Budget Expansion Over Next Five Years, Exceeding 26% of Worldwide IT Spending, and $1.3 Trillion in 2029, August 26, 2025.
Querverweis:
Unser Beitrag > Preventive AIOps in der Smart Factory: Wie KI mögliche Ausfälle vermeidet und Industrieprozesse stabilisiert
Unser Beitrag > Red Hat OpenShift von IONOS Public Cloud und RHEL mit neuer AWS European Sovereign Cloud verfügbar
Unser Beitrag > KI-unterstützte kontextbezogene Datenabfragen: MongoDB erweitert Voyage AI