
Red Hat stellt RHEL10, Red Hat AI Inference Server auf llm-d open source project, geplantes In-Vehicle Operating System und eine Reihe weiterer Neuerungen vor. "Any model, any accelerator, any cloud with open source innovation"
Ankündigungsübersicht (Auszug)*
1. Red Hat Enterprise Linux 10
Aufgrund der Verbreitung hybrider Umgebungen und Notwendigkeit zur stärkeren Integration von KI-Workloads, steigt auch Bedarf nach einer leistungsfähigen Betriebssystem-Umgebung. Red Hat Enterprise Linux 10 greift laut Anbieter diese Anforderungen auf und liefert eine Plattform, die "auf Agilität, Flexibilität und Verwaltbarkeit" ausgelegt ist und gleichzeitig eine hohe Sicherheit im Hinblick auf künftige Software-Bedrohungen bieten soll.
Die neueste Version der Plattform bildet das Fundament für Red Hat AI, das heißt für die kuratierten-/ optimierten KI-Lösungen von Red Hat. Dies umfasst Red Hat AI Inference Server, Red Hat OpenShift AI und Red Hat Enterprise Linux AI (RHEL AI). RHEL 10 ist laut Anbieter ab sofort über sein Customer Portal allgemein verfügbar.
Die zentrale Neuerungen in Red Hat Enterprise Linux 10 umfassen:
- Red Hat Enterprise Linux Lightspeed- um die kritische Qualifikationslücke in der Linux-Administration zu schließen. Durch die direkte Integration generativer KI in die Plattform werden kontextbezogene Anleitungen und umsetzbare Empfehlungen über eine natürliche Sprachschnittstelle bereitgestellt. Die Lösung soll bei Aufgaben wie der Behebung häufiger Probleme oder der Nutzung von Best Practices für die Verwaltung komplexer IT-Umgebungen unterstützen. Die KI-gestützte Hilfe in Red Hat Enterprise Linux 10 wurde dazu direkt in die Befehlszeile integriert.
Abb: Red Hat Enterprise Linux Lightspeed (Bildquelle: Red Hat).
-
Red Hat Post-Quantum-Kryptografie- Im Hinblick auf die langfristigen Sicherheitsauswirkungen des Quantencomputings integriert die Unternehmens-Linux-Distribution die Federal Information Processing Standards (FIPS) für Post-Quantum-Kryptografie. Dieser proaktive Ansatz soll Unternehmen in die Lage versetzen, sich besser gegen zukünftige „Harvest now, decrypt later“-Angriffe zu verteidigen und sich ändernde regulatorische Anforderungen zu erfüllen. Dazu gehören die Integration quantenresistenter Algorithmen zur Minderung des Risikos einer zukünftigen Entschlüsselung derzeit gesammelter Daten sowie Post-Quantum-Signaturschemata zur Validierung der Integrität und Authentizität von Softwarepaketen und TLS-Zertifikaten.
- Der neue RHEL 10 Image Mode- Als Container-nativer Ansatz kombiniert er die Erstellung, Bereitstellung und Verwaltung von Betriebssystemen und Anwendungen in einem optimierten Workflow. Unternehmen können ihre gesamte IT-Landschaft – von containerisierten Anwendungen bis hin zur zugrunde liegenden Plattform – mit einem einheitlichen und konsistenten Toolset verwalten.
Abb.: Red Hat Enterprise Linux 10. Image mode for Red Hat Enterprise Linux (Bildquelle: Red Hat).
Weitere Neuerungen sind:
- Vorbereitung für die Hybrid Cloud mit vorab optimierten und einsatzbereiten Red Hat Enterprise Linux Images für AWS, Google Cloud und Microsoft Azure.
- Erweiterung des IT-Toolkits mit Community-unterstützter Software wie Podman Desktop.
- Zugriff auf neue Architekturen, um sich etwa einen Vorsprung bei Entwicklungen für die RISC-V-Plattform mit Entwicklervorschau auf RHEL 10 in Zusammenarbeit mit SiFive zu sichern. Dies soll Unternehmen frühzeitig Zugang zu einer sichereren und zuverlässigeren Plattform für die Architektur HiFive P550 RISC-V bieten können.
- Optimierung von Linux-Sicherheitsstrategien durch das kommende Add-on „Red Hat Enterprise Linux Security Select“, mit dem Unternehmen laut Anbieter jährlich Korrekturen für bis zu zehn spezifische Common Vulnerabilities and Exposures (CVEs) anfordern können.
2. Inference-Server mit Enterprise-Funktionalitäten
Red Hat AI Inference Server basiert auf dem vLLM-Projekt, das Mitte 2023 von der University of California in Berkeley ins Leben gerufen wurde. Das Community-Projekt hat eine Inference-Engine für LLMs entwickelt, die sich durch einen hohen Durchsatz auszeichnet und Eingaben mit langem Kontext, Multi-GPU-Modellbeschleunigung, Continuous Batching uvm. unterstützt.
Die Unterstützung von öffentlich verfügbaren Modellen in Verbindung mit der Tag-0-Integration von Modellen des Frontier Model Forum – darunter DeepSeek, Gemma, Llama, Mistral und Phi – sowie von offenen Reasoning-Modellen für Unternehmen wie Llama Nemotron soll vLLM zum De-facto-Standard für zukünftige Innovationen beim KI-Inferencing machen. Anbieter von Frontier-Modellen setzen demnach zunehmend auf vLLM bei der Gestaltung der GenAI-Zukunft.
Red Hat AI Inference Server kombiniert die Neuerungen von vLLM mit Enterprise-Fähigkeiten. Er ist sowohl als containerisierte Stand-alone-Lösung als auch als Teil von RHEL AI und Red Hat OpenShift AI verfügbar. In den verschiedenen Bereitstellungsumgebungen steht Nutzern eine gehärtete und unterstützte Distribution von vLLM mit folgenden Leistungsmerkmale zur Verfügung:
- intelligenten Komprimierungstools zur deutlichen Reduzierung der Größe von Basismodellen und feingetunten Modellen. Dadurch wird der Verbrauch von Rechenressourcen minimiert, während die Modellgenauigkeit beibehalten und möglicherweise auch verbessert wird.
- optimiertes Modell-Repository, gehostet im Bereich von Red Hat AI bei Hugging Face. Dort besteht direkter Zugriff auf eine validierte und optimierte Sammlung von führenden KI-Modellen, die sofort einsatzbereit sind. Auf diese Weise wird die Bereitstellung von KI laut Red Hat um das Zwei- bis Vierfache beschleunigt, ohne die Modellgenauigkeit zu beeinträchtigen.
- Enterprise-Support von Red Hat
- Third-Party-Support für flexible Bereitstellung. Laut den Third-Party-Support-Richtlinien des Anbieter soll Red Hat AI Inference Server auch auf Linux- und Kubernetes-Plattformen eingesetzt werden, die nicht von Red Hat stammen.
Fazit zur Vision von Red Hat- Jedes Modell auf jedem Beschleuniger in jeder Cloud
KI bietet viele Möglichkeiten – allerdings nur, wenn sie nicht durch Infrastruktursilos eingeschränkt wird. Red Hat setzt sich nach eigenen Angaben „für eine KI-Zukunft ein, in der Unternehmen beliebige KI-Modelle auf beliebigen KI-Beschleunigern in beliebigen Clouds nutzen können.“ Auf diese Weise soll eine konsistente Nutzererfahrungen ohne exorbitante Kosten entstehen können.
*Quellenangabe:
Die Übersicht zu allen vorgestellten Neuerungen-/ Updates finden Sie direkt bei Red Hat unter diesem externen Link > https://www.redhat.com/en/about/red-hat-summit-newsroom?intcmp=RHCTG0250000448249