Anstelle GPUs und CPUs kommen FGPAs für Deep Neural Networks zum Einsatz. Internationales Leuchtturmprojekt zeigt Lösungen ohne aufwändige Programmierung auf…
Hintergrund
Künstliche Intelligenz verbraucht enorm viel Energie. Zudem ist der CO2-Ausstoß sehr hoch. Denn bei KI-Modellen müssen riesige Datenmengen und Informationen verarbeitet werden, was eine hohe Rechenleistungen sowie leistungsstarke Grafikprozessoren (GPUs) oder Zentralprozessoren (CPUs) notwendig macht.
In dem KI-Leuchtturmprojekt „eki“ [1] hat ein Forschungsteam unter der Leitung der Universität Paderborn an der Verbesserung der Energieeffizienz von KI-Systemen gearbeitet und Methoden entwickelt, mit denen der Energieverbrauch von KI um bis zu 90 Prozent gesenkt werden kann. Dafür kommen statt GPUs und CPUs spezielle Chips zum Einsatz.
Optimierung der Energieeffizienz von KI durch FGPAs
Deep Neural Networks (DNNs) sind ein elementarer Bestandteil von KI und werden in einem aufwendigen Prozess mit sehr großen Datenmengen trainiert. Deshalb sind sie auch für einen zunehmenden Anteil der Rechenlast und damit für Energieverbrauch sowie CO2-Ausstoß in Rechenzentren verantwortlich.
Kommentar Prof. Dr. Marco Platzner vom Institut für Informatik an der Universität Paderborn, der das Projekt „eki“ geleitet hat: „Tiefe neuronale Netze sind eine Art KI, die nach dem Prinzip des menschlichen Gehirns funktioniert. Der ,tiefe‘ Teil bezieht sich darauf, dass die Netze viele Schichten haben, die Daten verarbeiten und Muster erkennen, Bilder analysieren sowie Sprache verarbeiten.“
Nachdem die DNNs mit riesigen Datenmengen trainiert worden sind, kommen die Modelle, die aus dem Prozess resultieren, zum Einsatz. In der Regel werden dafür GPUs oder CPUs genutzt, die jedoch eine geringe Energieeffizienz aufweisen. Daher hat das Projektteam eine Lösung erarbeitet: Mithilfe von frei programmierbaren Field-Programmable Gate Arrays / FPGAs lässt sich laut den Forschern die Energieeffizienz von KI-Systemen für die DNN-Berechnung optimieren.
Messen – Automatisieren – Optimieren
Hürden und Erfolge des Projektes: Herkömmliche Prozessoren führen feste Befehlssätze aus, während die Schaltung bei FGPAs selbst angepasst werden kann. So entsteht eine Art maßgeschneiderte Hardware. Der Vorteil: Je nach Anwendung verbrauchen die Chips weniger Energie und rechnen schneller als Grafikprozessoren. Der Nachteil: Sie sind aufwendiger zu programmieren. Doch diese Hürde soll nun überwunden worden sein.
Das Fachgebiet Technische Informatik beschäftigt sich laut Prof. Platzner bereits lange gemeinsam mit dem Paderborn Center for Parallel Computing (PC2) der Uni Paderborn mit dem Thema energieeffizientes Rechnen mithilfe von FPGAs. Die Firma AMD (Xilinx) hatte schon das Open-Source-Programm FINN für neuronale Netze auf FPGAs entwickelt. Zitat: "In enger Zusammenarbeit konnten wir unsere Erfahrungen einbringen, um FINN noch besser zu machen und den Schwerpunkt auf Energieeffizienz zu legen.“
"Um den Energiebedarf zu senken, haben die Wissenschaftler die KI-Modelle vereinfacht, indem sie u.a. unnötige Verbindungen innerhalb der KI entfernt und dafür gesorgt haben, dass komplexe Funktionen effizient laufen. DNNs wurden dabei auch auf mehrere FGPAs verteilt.
Ein weiterer Schwerpunkt war es, verlässliche Methoden zu entwickeln, um den Energiebedarf einzelner Komponenten vorhersagen zu können. Das ist demnach durch die Erweiterung von FINN gelungen.
Auch konnte der Verbrauch kompletter Inferenzläufe gemessen und mit anderen Technologien verglichen werden. Hinweis: Ein Inferenzlauf ist der Moment, in dem ein KI-Modell seine Kenntnisse anwendet, um auf neue Daten zu reagieren."

Abb.: Das System des Supercomputers „Otus“ der Universität Paderborn ist auf bis zu 100 FPGA-Karten erweiterbar und dann eines der stärksten FPGA-Systeme weltweit. Quelle: Foto Universität Paderborn, Thorsten Hennig.
Der Code, den die Wissenschaftler entwickelt haben, steht in FINN offen zur Verfügung. Zudem bietet das PC2 der Universität Paderborn Workshops an, um Interessierte in die Nutzung der Methoden zur DNN-Abbildung auf FGPA-Systemen und zur Energieanalyse einzuführen.
Neben der Universität Paderborn waren nach vorliegenden Angaben die Hochschule Hamm-Lippstadt, die Fachhochschule Südwestfalen, das HPC-Unternehmen MEGWARE (Chemnitz) und die AMD Research Labs in Irland am Projekt beteiligt. Weitere Informationen / externer link > //www.eki-project.tech
Fazit von Prof. Platzner: „Besonders erfreulich ist, dass wir eine erhöhte Energieeffizienz bis zum Zehnfachen gegenüber der Verwendung von Grafikprozessoren erreichen konnten. Das senkt nicht nur den Stromverbrauch, sondern auch – je nach Strommix – den Ausstoß von CO2-Emissionen. Da der Einsatz von KI stetig wächst, wird in Zukunft der Energiebedarf von DNNs zu einem wichtigen Umweltfaktor“.
Quelle [1] Vollständiger Projektname: „eki-App: Energieeffiziente Künstliche Intelligenz im Rechenzentrum durch Approximation von tiefen neuronalen Netzen für Field-Programmable Gate Arrays“.
Anmerkung: Das Bundesministerium für Umwelt, Klimaschutz, Naturschutz und nukleare Sicherheit hat das Vorhaben mit rund 1,5 Millionen Euro über einen Zeitraum von drei Jahren gefördert.
Querverweis:
Unser Beitrag > WEKA KI-Storage macht Augmented Memory Grid auf NeuralMesh verfügbar
Unser Beitrag > Energieeffiziente KI-Rechenzentren im Gigawattbereich: Schneider Electric und NVIDIA entwickeln validierte Blueprints
Unser Beitrag > Energieeffizienz im Rechenzentrum: KIOXIA, AIO Core und Kyocera entwickeln optische Breitband-SSD