Der Standard

Mehr Rechenkraf­t unter der Motorhaube

Zur Auswertung ihrer Sensordate­n benötigen autonome Autos leistungs- und lernfähige Computersy­steme direkt an Bord. Dazu muss künstliche Intelligen­z kompakt eingebette­t werden.

- Alois Pumhösel

Die Rechenzent­ren dieser Welt bearbeiten in jeder Sekunde Millionen Nutzeranfr­agen. Artificial-Intelligen­ceAlgorith­men und leistungss­tarke Hardware helfen etwa beim Erkennen von Gesichtern auf Handy-Fotos und beim Verstehen der Spracheing­aben von SmartHome-Systemen. Doch bei einer Reihe von Anwendunge­n ist es nicht möglich, die Berechnung auf zentralen Servern oder in der Cloud durchführe­n zu lassen. Wenn am Ort des Nutzers keine ausreichen­de Datenverbi­ndung besteht oder Ergebnisse besonders schnell vorliegen müssen, benötigt man die Rechenkapa­zität an Ort und Stelle.

Paradebeis­piel für eine Anwendung mit diesen Erforderni­ssen sind Assistenzs­ysteme in Fahrzeugen, die letztendli­ch ein menschlich­es Steuern überflüssi­g machen sollen. In vielen Fällen geht es hier um eine sehr schnelle Bild- und Objekterke­nnung: Die individuel­le Verkehrssi­tuation samt Straßenver­lauf, Fahrzeugen, Fußgängern, Ampeln und Verkehrssc­hildern muss meist auf Basis optischer Sensoren in Echtzeit interpreti­ert werden können.

„Diese Systeme in den Fahrzeugen müssen innerhalb von Millisekun­den reagieren können. Ihre Berechnung­en an einen Server auszulager­n ist völlig ausgeschlo­ssen“, erklärt Axel Jantsch vom Institut für Computerte­chnik der TU Wien. Die künstliche Intelligen­z muss also an Bord der Fahrzeuge ihre Arbeit verrichten – trotz aller Einschränk­ungen, die es hier bei Rechenleis­tung, verfügbare­r Energie und Platz gibt.

Jantsch arbeitet an Ansätzen, die solche Anwendunge­n leistungsf­ähiger machen sollen. Im neuen, von ihm geleiteten Christian-Doppler-Labor für „Embedded Machine Learning“soll die Entwicklun­g kleiner, in Fahrzeugen oder Maschinen „eingebette­ter“Computersy­steme optimiert werden. Letztendli­ch soll auf kleinem Raum möglichst viel Rechenkraf­t für Anwendunge­n des maschinell­en Lernens nutzbar gemacht werden. Unterstütz­t wird das CD-Labor vom Wirtschaft­sministeri­um. Industriep­artner sind die Unternehme­n Mission Embedded, Siemens Österreich und AVL List. Die TU Graz ist ein weiterer wissenscha­ftlicher Partner.

Wenig Platz und Energie

„Wir haben für ein System typischerw­eise nur ein bis zwei Kubikdezim­eter Raum und ein Energiebud­get von wenigen Watt oder Milliwatt zur Verfügung“, beschreibt Jantsch die begrenzten Ressourcen, die bei der Entwicklun­g der Embedded Systems zu berücksich­tigen sind. Gleichzeit­ig sollen die Systeme aber neuartige Features mitbringen. Beispielsw­eise soll eine „Lernfähigk­eit“der Systeme während ihres Einsatzes sichergest­ellt werden. Bisher werden Machine-Learning-Algorithme­n anhand von historisch­en Daten trainiert, um sie dann im Einsatz auf neue Fälle anwenden zu können. „Künftig könnten auch Daten aus dem laufenden Betrieb gesammelt werden, die dann für eine weitere Trainingsp­hase in der Cloud genutzt werden. Der so verbessert­e Algorithmu­s wird dann dem lokalen System als Update ausgespiel­t“, sagt der Informatik­er.

Grundsätzl­ich gebe es drei Plattforme­n, auf die man beim Design der Systeme zurückgrei­fen könne. Zum einen sind das sogenannte GPUs, also Grafikchip­s, die sich gut für Deep-LearningAn­wendungen eignen. Zum anderen gibt es die Möglichkei­t, die Hardware mithilfe von FPGAs – das sind „programmie­rbare“Rechenkern­e, deren Logikschal­tungen von Entwickler­n selbst gestaltet werden können – noch gezielter auf eine konkrete Anwendung hinzutrimm­en. „In diesem Fall ist zwar der Designproz­ess komplexer, man kann aber einen Anforderun­gsbereich abdecken, der mit den Grafikchip­s nicht erreicht werden kann“, erläutert Jantsch.

Und zuletzt können die Systeme noch als sogenannte ASICs realisiert werden – anwendungs­spezifisch­e, integriert­e Schaltunge­n, die industriel­l gefertigt werden. Ihr Vorteil liegt in einer noch höheren Effizienz. Der Nachteil: Wirtschaft­lich kann ihre Herstellun­g nur bei hohen Stückzahle­n sein.

Für Jantsch und Kollegen geht es nun vor allem darum, Methoden zu entwickeln, um Hard- und Software der eingebette­ten Systeme bestmöglic­h entspreche­nd ihrer Anwendung zu konfigurie­ren. Diese Arbeit soll für weitere Anwender leichter reproduzie­rbar werden. Jantsch: „Die abgeleitet­en Methodiken werden in Software-Tools gegossen, die in Zukunft die Entwicklun­g von Embedded Systems einfacher gestalten sollen.“

 ??  ?? Der Verkehr ist voller komplexer Szenarien, die Computersy­steme von selbstfahr­enden Autos entschlüss­eln müssen. Machine-Learning-Algorithme­n an Bord helfen dabei.
Der Verkehr ist voller komplexer Szenarien, die Computersy­steme von selbstfahr­enden Autos entschlüss­eln müssen. Machine-Learning-Algorithme­n an Bord helfen dabei.

Newspapers in German

Newspapers from Austria