Micron und Continental arbeiten an KI-Acceleratoren für DL im Automotive-Umfeld

München, Starnberg, 13. März 2020 - Computing, Speicher, Tools und Software innerhalb einer umfassenden Entwicklungsplattform für künstliche Intelligenz (KI) integrieren…

Zum Hintergrund: Micron Technology, Inc. - Anbieter von Storage- und Arbeitsspeicherlösungen - hat Ende letzten Monats bekannt gegeben, gemeinsam mit Continental an Plänen für den Abschluss einer Kollaborationsvereinbarung zu arbeiten. (1) Ziel ist demnach die Erforschung und Anpassung von Microns Deep-Learning-Beschleuniger für maschinelles Lernen der nächsten Generation für den Automobil-Anwendungsbereich. Diese Vereinbarung bringt somit zwei Anbieter aus dem (Halbleiter-)Storage und Automobil-Segment zusammen, um gemeinsam maschinelle Lerntechnologien weiterzuentwickeln, sodass auch extreme Anforderungen bei der künftigen Fahrzeugentwicklung erfüllt werden sollen.

Automobil-Infortainment, Kommunikation, fortschrittliche Fahrerassistenzsysteme (Advanced Driver-Assistance Systems, ADAS) und Antriebsstrang-Steuerungssysteme werden zunehmend komplex.

Continental und Micron planen, eine anwendungsspezifische Version von Microns Deep-Learning-Akzelerator (DLA) Technologie zu entwickeln, die darauf ausgelegt ist, sowohl flexibel skalierbar zu sein, als auch einen niedrigen Stromverbrauch sowie hohe Leistung zu liefern, die benötigt werden, um Industriestandard-konforme Programmierungsmodelle zu unterstützen.

Micron will dazu mittels seiner DLA-Technologie sowohl Computing (post-von-Neumann-Architektur), Speicher, Tools als auch Software innerhalb einer umfassenden Entwicklungsplattform für künstliche Intelligenz (KI) integrieren. Damit verbunden ist die Absicht, diese Plattform zu nutzen um innovative Speicherlösungen zu untersuchen, die für KI-Arbeitsauslastungen optimiert sind, darunter Deep-Learning-Systeme zur Datenanalyse, welche sich insbesondere auf das Internet-of-Things (IoT) und Edge-Computing konzentrieren.


Abb. 1: The FWDNXT inference engine works with major deep learning platforms (Bildquelle: Micron Blog by Mark Hur, Power AI by Embedding an Inference Engine in Your Accelerator).


Abb. 2: Inference Engine (Bildquelle: FWDNXT)

Erklärung / Hinweis zur Abbildung: FWDNXT Inc. wurde im Okt. 2019 von Micron Technology übernommen. Die FWDNXT Inference Engine = Deep Neural Network Accelerator soll die höchste Nutzungsintensität aller maschinell lernenden und tiefen neuronalen Netzwerkprozessoren vorweisen können. Laut Entwickler stellen die drei Elemente - effiziente und flexible Rechnerplattformen, Hochleistungsspeicher und ein einfach zu bedienender ML-Stack - den Schlüssel zum Erreichen der künftig geforderten Anforderungen dar. Alle drei Elemente müssen vorhanden sein, wenn die enormen Datenmengen, die über IoT-Geräte gestreamt werden, einen Nutzen bringen sollen, egal ob sie lokal, in Echtzeit oder in der Cloud verarbeitet werden.


Micron hat sich aus den genannten Gründen mit FWDNXT zusammengetan, um die innovative Deep Learning-Architektur in Microns Beschleunigungslösungen zu integrieren, die im AC-511-Modul und im SB-852-Board beinhaltet sind. Diese energiesparenden Hochleistungsbeschleuniger werden durch programmierbare Logik (FPGAs) und Microns Hochleistungsspeicher realisiert. Sie bilden eine hoch-skalierbare Lösungen, die vom Rand bis zum Rechenzentrum eingesetzt werden kann. Ferner soll die Dreierkombination von Technologien (Compute, Memory & ML Stack) den Betrieb von maschinellen Lernsystemen bei nahezu maximaler Hardware-Auslastung bei optimierter Leistung pro Watt liefern können.

Kommentar Dirk Remde, Vice President des Innovation Center Silicon Valley bei Continental: „Die Zusammenarbeit mit Micron bei der Erstellung einer skalierbaren und flexiblen Lösung für Edge-Inferenz, die mehrere Netzwerke und Frameworks unterstützt, wird uns ermöglichen, maschinelles Lernen auf unseren Plattformen effizient bereitzustellen und unseren Kunden intelligente Mobilitätstechnologien zu bieten.“ Steve Pawlowski, Corporate Vice President der Advanced Computing Solutions bei Micron ergänzt: „Eines unserer zentralen Ziele bei der Zusammenarbeit mit Continental ist die Erschaffung einer Edge-Inferenz-Lösung, die maschinelles Lernen verwendet, um die Benutzerfreundlichkeit, Skalierbarkeit, niedrigen Stromverbrauch und Hochleistung zu erreichen, die in der Automobil-Industrie benötigt werden.“

(1) Quelle: https://investors.micron.com/news-releases/news-release-details/micron-and-continental-accelerate-machine-learning-edge


Querverweise zum Thema: