
Helmholtz Munich plant die KI-Grundlagenforschung im Bereich Life Sciences durch eine Erweiterung seines Supercomputer-Clusters um 14 Systeme des Typs HPE Cray XD670 zu stärken; diese sind jeweils mit acht NVIDIA H100 GPUs ausgestattet…
Hintergrund
Die Investition ist Teil der Mission von Helmholtz Munich, KI für die akademische Forschung zu demokratisieren. Durch die Bereitstellung von KI-Supercomputern, Beratung und Projektfinanzierung möchte die Helmholtz-Gemeinschaft die Einstiegshürden für Wissenschaftler senken. Laut dem Index der Zeitschrift „Nature“ belegt die Helmholtz-Gemeinschaft Platz 8 unter den Top-10-Institutionen in Bezug auf KI-Forschungsergebnisse.
Der HPE-Partner Hansen & Gierathswird laut dem Hersteller die neuen Systeme im neuen Helmholtz-Rechenzentrum in Neuherberg im Münchner Norden installieren. Die neuen Systeme können dann zum Beispiel genutzt werden, um Algorithmen zu entwickeln, die in hochkomplexen Datenbeständen Ursache-Wirkungs-Beziehungen erkennen und außerdem ihre Entscheidungen in natürlicher Sprache erklären. Langfristig soll dabei die selbständige “Denkfähigkeit” großer KI-Modelle verbessert werden.
Ein weiteres Einsatzgebiet der Rechner ist die Automatisierung der Diagnostik auf der Grundlage klinischer Bilddaten, etwa von Gewebeproben. Dazu werden Grundlagen-KI-Modelle mit großen Mengen an Bilddaten einschließlich Metadaten trainiert.
Abb.: HPE Cray XD670 (Bildquelle: HPE).
HPE Cray XD670 wurde laut Anbieter speziell für das Training großer KI-Modelle und Deep Learning entwickelt und ist vollständig in den NVIDIA-Stack integriert. Das System erreichte im Benchmark MLPerf Inference Spitzenwerte in Disziplinen wie generative KI und Computer Vision. Quelle / externer Link > https://mlcommons.org/benchmarks/inference-datacenter/
XD670-Cluster können von einem auf Tausende von Knoten skaliert werden, um wachsende KI-Anforderungen zu unterstützen. Helmholtz Munich nutzt Switches vom Typ HPE InfiniBand NDR mit der Technologie NVIDIA SHARP und 64 Anschlüssen à 400 Gbit/s. Sie unterstützen die Verarbeitung auch sehr großer Datenmengen mit hochgradig parallelisierten Algorithmen.
Das System wird mit Luftkühlung oder direkter Plug-and-Play-Flüssigkeitskühlung (Direct Liquid Cooling, DLC) angeboten. Bei der Luftkühlung wird die Wärme vollständig an die Luft abgegeben, wohingegen bei DLC ein Großteil der erzeugten Wärme mithilfe von Betriebswasser in die Flüssigkeit übertragen wird. DLC bietet laut Hersteller ein vollständig in einem Rack untergebrachtes und integriertes warmwassergekühltes IT-System.
Weiterer Hinweis zum Themenkomplex:
„New MLPerf Inference Benchmark Results Highlight The Rapid Growth of Generative AI Models. With 70 billion parameters, Llama 2 70B is the largest model added to the MLPerf Inference benchmark suite.“ Externer Link > https://mlcommons.org/2024/03/mlperf-inference-v4/
Querverweis:
Unser Beitrag > GenAI für Unternehmen: HPE und NVIDIA bringen „NVIDIA AI Computing by HPE“ auf den Markt
Unser Beitrag > Bayern fördert generative KI mit 30 Millionen Euro
Unser Beitrag > Nvidia GTC 2025: Storage- und Data-Management Update
Unser Podcast > KI-Systeme benötigen leistungsfähige Speicherinfrastrukturen