Skalierbare und nachhaltige Basis für KI-, HPC und Cloud-Infrastrukturen in Portugal. Das Projekt mit einem Gesamtinvestitionswert von 8,5 Mrd. Euro soll...
Herausforderung durch immer größere Datenmengen; können Cloud-Services GenAI-Projekte skalierbarer, schneller und sicherer machen? Wenn ja, was sollten...
Neu: Integration von NVIDIA AI Enterprise-Software einschließlich NVIDIA NIM-Microservices und NVIDIA NeMo. NVIDIA GPUDirect Storage für KI-Workloads...
Fehlertolerantes verteiltes parallel File System für Scale-Out High-Performance Speicherinfrastrukturen. Quobyte 4 mit nativer ARM-Unterstützung jetzt als...
Wachsender Bedarf an Kubernetes-Clustern zur Unterstützung von Forschungsprojekten machte eine Lösung für automatisiertes Cluster-Management erforderlich...
PostgreSQL-Workloads über eine komplett verwaltete Open-Source Daten-Plattform in von Unternehmen bevorzugten Cloud-Umgebungen betreiben…
...
Komplexe Datenbewegungen automatisieren. Die Ausweitung der Integrationsmöglichkeiten aus über 700 Quellen für Microsoft Fabric und OneLake ohne komplexes...
Kombiniert die Hitachi Vantara Virtual Storage Platform One (VSP One), integrierte Dateisysteme und optionale NVIDIA AI Enterprise Software; Hitachi iQ...
„Neuromorphe Computersysteme“ orientieren sich am menschlichen Gehirn. Das System basiert auf dem SpiNNaker2-Chip und umfasst in der aktuellen Ausbaustufe...
Das IT-Infrastrukturportfolio des Anbieters wurde weiter ausgebaut: Neue Hybrid-Cloud-Lösung auf Basis ObjectScale in Zusammenarbeit mit Wasabi. Von Silos...
Mit Kubernetes zu einer alternativen Virtualisierungs-Plattform, die sowohl VMs als auch Container unterstützt. Mehr Leistung, Datenresilienz und...
Optimierte Perfomance für große Cloud-Storage-Workloads, einschließlich Vertex AI sowie Datensätzen im Petabyte-Bereich. Vollständige Integration in...
Die Neuerungen erweitern die Funktionalität des Systems über transaktionale KI-Funktionen hinaus. Mehr Möglichkeiten im Unternehmensmaßstab einschließlich...
Helmholtz Munich plant die KI-Grundlagenforschung im Bereich Life Sciences durch eine Erweiterung seines Supercomputer-Clusters um 14 Systeme des Typs HPE...
Konsistent mehr als ein Petabyte pro Sekunde Durchsatz für datenintensive Workloads. KI-Inferenz benötigt eine stärker verteilte Cloud. Neuer Service kann...
Am Zentrum für Nationales Hochleistungsrechnen (NHR@FAU) wird dazu KI-Rechenleistung in Form von mehr als 300 GPUs bereitgestellt. Mit über 12.000...
Flink Native Inference führt KI-Modelle direkt in Confluent Cloud aus, um die Entwicklung zu optimieren. Flink Search als einheitliche Schnittstelle für...
Nvidia GTC ist eine globale Konferenz für Entwickler im Bereich von künstlicher Intelligenz. Während der diesjährigen Nvidia GTC vom 17.-20. März stellen...
Wie KI- und datenintensive Anwendungen von scale-out Filesystemen, Flash Storage und einem intelligenten Datenmanagement profitieren können...
Wenn sich Unternehmen entscheiden, KI-Entwicklung zu betreiben, sollten die verwendeten Speichersysteme den resultierenden Anforderungen gerecht werden...