Verteilte Cloud-Objektspeicherung und KI: Storj übernimmt Hochleistungs-GPU-Anbieter Valdi

Los Angeles, Starnberg, 10. Juli 2024 - KI-Innovationen zu wettbewerbsfähigen Preisen im großen Maßstab mit integrierten Cloud-Speicher- und GPU-Lösungen beschleunigen…

Zur Ankündigung: Storj (1) hat gestern mit der offiziellen Übernahme von Valdi ein neues Angebot im Bereich von verteilten Cloud-Speicher- und Compute-Angeboten angekündigt. Storj - Anbieter von verteilter Cloud-Objektspeicherung - agiert gegenüber Kunden mit dem Versprechen, bis zu 90 % Kosteneinsparungen bei 90 % weniger Kohlenstoffemissionen realisieren zu können. Valdi ist ein Anbieter für On-Demand-Hochleistungs-Cloud-Computing (GPUs), das in datenintensiven Branchen wie Technologie, Forschung und Biowissenschaften für KI-Training und Inferenzen eingesetzt wird. Gemeinsam bieten beide Unternehmen durch den Zusammenschluss jetzt eine Lösung für die komplexen (KI-)Anforderungen von Unternehmen- von KI-Training und -Inferenz bis hin zur Speicherung und Verwaltung großer Datenmengen.

 

Valdi adressiert den aktuellen Mangel an GPUs, der durch das rasche Wachstum des KI-Marktes verursacht wird, indem es Kunden die Möglichkeit gibt, verfügbare GPU-Rechenzyklen in Rechenzentren weltweit zu nutzen. Die Kombination beider Unternehmen bringt Vorteile mit sich, da die meisten KI-Workloads erhebliche GPU-Rechenleistung, Speicherung und Bewegung von großen Datensätzen erfordern. Storj plant nach vorliegenden Angaben mit der Übernahme von Valdi die Gelegenheit zu nutzen, Innovationen im großen Maßstab mit integrierten Cloud-Speicher- und GPU-Lösungen zu beschleunigen, was aus Sicht des Unternehms ein wichtiger Schritt in Richtung der Entwicklung einer verteilten Full-Stack-Cloud-Lösung ist.

 

Die Ausgaben für KI sollen sich laut Anbieterinformation in den nächsten zehn Jahren auf rund 1 Billion US-Dollar belaufen, wobei mehr als 70 % der Unternehmen letztlich KI-Anwendungsfälle verfolgen werden. In dem sich schnell entwickelnden Bereich der generativen KI ist die Fähigkeit zur effizienten Skalierung in den verschiedenen Phasen der Modellentwicklung und -bereitstellung von entscheidender Bedeutung. Hier setzt die globale Recheninfrastruktur von Valdi an, die ´es Entwicklern und Unternehmen ermöglichen soll, ihre eigenen generativen KI-Anwendungen einfacher, skalierbar und kostengünstiger zu entwickeln.

 

Die Hochleistungs-GPUs von Valdi und der S3-kompatible verteilte Cloud-Objektspeicher von Storj sind quasi unendlich skalierbar und fast überall auf der Welt verfügbar. Das Valdi-Netzwerk umfasst weltweit gerade über 16.000 GPUs. Mit der elastischen Kapazitätsbereitstellung kann Storj Herausforderungen bei der Lieferkette, der Herstellung und der ressourcenintensiven Wartung adressieren. Institutionen wie CalTech und USC/ISI nutzen nach vorliegenden Angaben bereits die Cloud-Compute-Plattform von Valdi für ihre KI-Workloads zu einem (Zitat) „Bruchteil der finanziellen und kohlenstoffbedingten Kosten“ gegenüber herkömmlichen Ansätzen.
 

 

Bildquelle: Storj

(1) Anmerkung: In einer Storj-Umgebung werden die Daten nicht an einem Ort gespeichert, sondern sind über ein breites Netz unabhängig betriebener und statistisch nicht-korrelierter Speicherknoten verteilt. Das System ermöglicht die Aggregation von gering oder nicht-ausgelasteten Kapazitäten von Laufwerken und in Rechenzentren weltweit zu einer logisch zentralen und S3-kompatiblen Objekt-Cloud. Die Daten werden verschlüsselt und über ein vertrauenswürdiges Netzwerk verteilt, um sie vor Ausfällen, Ransomware und Kompromittierung zu schützen und einzelne Fehlerquellen zu eliminieren.

 

Kommentarauszug Colby Winegar, Chief Revenue Officer von Storj: „Valdis globales Netzwerk von Rechenzentren mit Hochleistungs-Cloud-Computing ist eine natürliche Erweiterung der verteilten Cloud von Storj und besonders spannend, da unser gemeinsames Speicher- und GPU-Angebot für generative KI-Workloads optimiert ist.“ Nikhil Jain, CEO von Valdi, ergänzt: "Die globale Cloud-Computing-Plattform von Valdi ermöglicht es, herkömmliche Ansätze für die GPU-Bereitstellung zu übertreffen, insbesondere bei einer noch nie dagewesenen Nachfrage. Unsere Kunden haben auch einen erheblichen Speicherbedarf für ihre KI-Workloads, so dass die Zusammenführung unserer Organisationen Vorteile für die Kunden bringt und uns gleichzeitig in die Lage versetzt, schneller zu wachsen."

 

Querverweis:

Unser Beitrag > Storj distributed global Cloud Object Storage mit Vorteilen bei verteilten KI-Workloads

Unser Blogpost > KI und GPU-Workload-Anforderungen: Storage mit HBM Memory im KI-Daten-Lebenszyklus