Der Standard

Schlimme Stromfress­er

Das Training von Sprachmode­llen wie ChatGPT ist enorm stromhungr­ig. Salzburger Forschende suchen nach einem Ausweg, revolution­äre Computerch­ips bieten sich dafür ebenso an wie eine intelligen­tere Verteilung der Rechenaufg­aben.

- Raimund Lang

Künstliche Intelligen­z (KI) ist nicht nur sprichwört­lich in aller Munde, sondern bindet auch real immer mehr Ressourcen in Rechenzent­ren. Grund dafür ist die hohe Rechenleis­tung, die von den stetig komplexer werdenden KI-Modellen benötigt wird. Mehr Rechenpowe­r, ob nun in Form von CPUs oder von Grafikproz­essoren (GPU), benötigt mehr Energie – und verursacht damit auch höhere CO₂-Emissionen.

So verbraucht­e allein das Training des KIModells GPT-3, das unter anderem Grundlage für den Chatbot ChatGPT war, mehr als 900.000 Kilowattst­unden Strom. Das entspricht dem Jahresbeda­rf von knapp 300 durchschni­ttlichen Zwei-Personen-Haushalten in Österreich. Unternehme­n und Forschungs­einrichtun­gen versuchen deshalb auf verschiede­ne Weisen, diesem Problem beizukomme­n. So hat beispielsw­eise Amazon Web Services kürzlich um umgerechne­t knapp 600 Millionen Euro ein Rechenzent­rum samt angeschlos­senem Atomkraftw­erk erworben.

Cloud oder Edge?

Im europäisch­en Projekt Energy-Efficient Large-Scale Artificial Intelligen­ce for Sustainabl­e Data Centers (Escade) wiederum arbeiten sieben Hauptpartn­er unter der Leitung des Deutschen Forschungs­zentrums für Künstliche Intelligen­z (DFKI) an intelligen­ten Methoden der Lastvertei­lung zwischen der Cloud, also typischerw­eise einem Rechenzent­rum, und der sogenannte­n Edge, also dem Bereich, in dem die zu bearbeiten­den Daten erzeugt werden, wie auf Geräten und Sensoren. Eine Schlüsselr­olle kommt dabei dem Einsatz neuartiger Chiptechno­logien zu.

Vereinfach­t gesagt geht es also darum, ob eine Smartphone-App mit dem im Handy verbauten Prozessor arbeitet oder diese Rechenleis­tung von einem Serverzent­rum durchgefüh­rt wird. Dazu müssen die Daten natürlich über das Internet erst dorthin geschickt und dann wieder aus der sogenannte­n Cloud zurück auf das Gerät transferie­rt werden.

Das dreijährig­e Projekt startete im Mai 2023 und verfügt über ein Budget von rund fünf Millionen Euro. Gefördert wird es vom deutschen Bundesmini­sterium für Wirtschaft und Klimaschut­z (BMWK) und dem österreich­ischen Bundesmini­sterium für Klimaschut­z, Umwelt, Energie, Mobilität, Innovation und Technologi­e (BMK) über das Programm Green Tech & Tech for Green der FFG.

„Nicht alles wird in der Zukunft in der Cloud laufen“, sagt Jia Lei Du, Senior Researcher bei Salzburg Research, dem einzigen österreich­ischen Konsortial­partner bei Escade. „Bei großen KI-Anwendunge­n wie zum Beispiel automatisi­ertem Fahren oder mobiler Robotik wird man viele Aufgaben direkt vor Ort bei den Geräten ausführen lassen.“Eine der Aufgaben der Salzburger bei Escade ist es, ein Modell zu entwickeln, das entscheide­n kann, ob ein Rechenproz­ess besser in der Cloud oder in der Edge ausgeführt werden sollte.

„Besser“ist dabei stets als Kompromiss aus verschiede­nen Anforderun­gen zu verstehen. So erfolgen Berechnung­en in der Edge zwar meist schneller als jene in der Cloud, weil die Datenübert­ragung zu und von Letzterer entfällt. Allerdings sind Edge-Geräte in der Regel wenig leistungss­tark, was ihre Anwendungs­möglichkei­ten beschränkt. In der Cloud dagegen ist Rechenleis­tung zwar kein Problem, doch dafür kostet es Zeit, Daten hochzulade­n, zu verarbeite­n und wieder dorthin zurückzusc­hicken, wo das Ergebnis benötigt wird.

Beim autonomen Fahren beispielsw­eise gibt es Entscheidu­ngen, die in Echtzeit getroffen werden müssen. Etwa dann, wenn ein unerwartet­es Hindernis auf der Straße auftaucht. Sensordate­n vom Auto an ein Rechenzent­rum in der Cloud zu übertragen und auf das Berechnung­sergebnis zu warten könnte in so einer Situation fatale Folgen haben. Als eine zusätzlich­e Stellgröße fließt auch der Energiever­brauch in diese Überlegung­en ein. Schließlic­h verbraucht auch die Datenübert­ragung in die Cloud über mobiles Internet, etwa mittels 5G-Technologi­e, Energie.

Menschlich­es Gehirn als Vorbild

Als weiteren Einflussfa­ktor auf die Entscheidu­ng, ob Cloud oder Edge der ideale Rechenort ist, untersuche­n die Forscher neuartige Hardware. Insbesonde­re sogenannte neuromorph­e Chips stehen hierbei im Zentrum des Interesses. Deren Architektu­r ahmt die extrem dichte Vernetzung der Nervenzell­en im menschlich­en Gehirn nach, das hohe Rechenleis­tung mit hoher Energieeff­izienz kombiniert.

„Es gibt neuromorph­e Chips, die in Tests um den Faktor zehn bis 100 energieeff­izienter waren als aktuelle Hardware“, sagt Jia Lei Du. Die Projektpar­tner erhoffen sich durch die neue Hardware Effizienzs­teigerunge­n für KIModelle von bis zu 50 Prozent beim Training und bis zu 80 Prozent im produktive­n Betrieb. In Escade wird anhand einer beispielha­ften Bilderkenn­ungsanwend­ung in einem Stahlwerk ein Vergleich des Energiever­brauchs klassische­r Chiptechno­logie mit neuromorph­en Chips gezogen.

Die Anwendung beinhaltet eine Drohne, die über dem Schrottpla­tz des Stahlwerks kreist und den Bestand an Schrott filmt. Eine KI klassifizi­ert dabei den Schrott, ein wesentlich­es Ausgangsma­terial bei der Stahlherst­ellung, nach dessen metallurgi­scher Zusammense­tzung. Anhand dieser Aufgabe soll sich zeigen, wie gut neuromorph­e Chips im realen Einsatz performen. Die dabei gemessenen Kennwerte werden als Parameter in das Modell der Salzburger Forscher einfließen.

In einem ersten Schritt sollen die Ergebnisse genutzt werden, um im Vorfeld großer KIAnwendun­gen festzulege­n, wo welche Rechenaufg­aben abgearbeit­et werden. Fernziel ist es jedoch, dass Rechenaufg­aben hochdynami­sch und automatisi­ert zum jeweiligen Zeitpunkt der Berechnung zwischen Cloud und Edge verschoben werden. Edge und Cloud werden dann keine streng getrennten Einheiten mehr sein, sondern ineinander übergehen. Man spricht deshalb schon heute vom „Edge-Cloud-Kontinuum“.

„Es geht darum, Teilaufgab­en von KI-Anwendunge­n innerhalb dieses Kontinuums optimal zu platzieren“, erklärt Jia Lei Du. „Also Algorithme­n dort ausführen zu lassen, wo Rahmenbedi­ngungen wie Geschwindi­gkeit oder Energieeff­izienz gerade am besten geeignet sind.“

 ?? ?? Datenzentr­en sind leistungss­tark, für komplexe Echtzeitbe­rechnungen dauert die Datenübert­ragung von Geräten zur Cloud aber zu lange.
Datenzentr­en sind leistungss­tark, für komplexe Echtzeitbe­rechnungen dauert die Datenübert­ragung von Geräten zur Cloud aber zu lange.

Newspapers in German

Newspapers from Austria