DDN, Pure Storage, Vast Data und WekaIO unterstützen Graphcore KI-Systeme

Bristol (UK), Starnberg, 08. Okt. 2021 - Die enge Zusammenarbeit bei der Qualifizierung von Storage-Lösungen soll so eine maximale Systemleistung und Nutzwert garantieren...

Zum Beitrag: Der europäische KI-Chiphersteller Graphcore kann nach Atos und Supermicro mit den Storage-Anbieter DDN, Pure Storage, Vast Data und WekaIO weitere Technologiepartner gewinnen. Die Unternehmen werden Graphcore KI-Systeme mit zertifizierten Referenzarchitekturen unterstützen. Zu den besonderen Anforderungen des KI-Computing zählen beispielsweise der Speicherzugriff mit extrem geringer Latenz, die Nutzung unstrukturierter Daten und die Verwaltung zufälliger, nicht sequenzieller Datenmuster. Die enge Zusammenarbeit bei der Qualifizierung von Storage-Lösungen soll garantieren, dass Kunden beim Auf- und Ausbau ihrer (Graphcore) KI-Systeme die maximale Leistung und den größtmöglichen Nutzen aus ihren Graphcore IPU-POD-Konfigurationen herausholen können.

Im Laufe des Quartals plant Graphcore mit seinen Partnern nach eigenen Angben eine Reihe von Ressourcen zur Verfügung zu stellen, darunter Referenzarchitekturen sowie Anleitungen für die Bereitstellung. Denn genau wie KI-Berechnungen eine andere Art von Prozessor benötigen, so wie sie mit der IPU von Graphcore zur Verfügung steht, erfordert KI-Storage auch einen anderen Ansatz hinsichtlich der Speichersysteme in Rechenzentren.


Wer ist Graphcore? Die meisten KI-Berechnungen in Rechenzentren wie das Training und Re-Training von KI-Modellen laufen derzeit auf Grafikprozessoren (GPUs) des amerikanischen Marktführers Nvidia. Wie sich dem Namen jedoch schon entnehmen lässt, sind GPUs ursprünglich nicht für KI-Anwendungen entwickelt worden, denn es handelt sich um Grafikprozessoren. Graphcore hat deshalb mit seiner IPU (Intelligence Processing Unit) einen neuen Prozessor speziell für künstliche Intelligenz und maschinelles Lernen entwickelt, der laut Entwickler nicht nur erhebliche Leistungsvorteile bei den derzeit am häufigsten verwendeten KI-Workloads bieten soll, sondern auch so konzipiert wurde, dass er sich optimal für KI-Anwendungen der nächsten Generation eignet.

GPUs eignen sich danach gut für datenparallele Workflows, die das Single-Instruction Multiple-Thread (SIMT)-Design nutzen können. Dagegen haben die IPUs von Graphcore ein Multiple-Instruction Multiple-Data (MIMD)-Design, das die gleichzeitige Ausführung von vielen unterschiedlichen Instanzen unabhängig voneinander ermöglicht. Die Graphcore-IPU soll laut Anbieter so nicht nur andere Technologien bei den heute am häufigsten verwendeten KI-Workloads übertreffen, sondern wurde auch so konzipiert, dass sie sich für KI-Anwendungen der nächsten Generation eignen soll – einschließlich Highly-Sparse-Modelle. (1)


Bildquelle: Graphcore

Link > https://www.graphcore.ai/

Anmerkung: Die Colossus MK2 GC200 IPU verfügt über 59,4 Mrd. Transistoren und dem neuesten TSMC 7nm-Verfahren. Jede MK2 IPU hat 1472 Prozessorkerne, die fast 9.000 unabhängige parallele Programm-Threads ausführen. Jede IPU verfügt über einen 900MB In-Processor-Memory™ mit 250 teraFLOPS an KI-Rechenleistung bei FP16.16 und FP16.SR (stochastische Rundung). Der GC200 unterstützt damit mehr FP32-Rechenleistung als andere Prozessor.

(1) Graphcore hat nach vorliegenden Informationen des Unternehmens mehr als 710 Mio. US-Dollar von führenden Finanz- und strategischen Investoren angeworben. Die Firma hat den Hauptsitz in Bristol, Großbritannien, und verfügt über Niederlassungen in Cambridge und London, Großbritannien; Peking, China, Oslo, Norwegen; Palo Alto, Kalifornien; München, Deutschland; Paris, Frankreich; Seoul, Korea und Tokio, Japan. 


Querverweis: