Der Standard

„Künstliche Intelligen­z kann jeden Blödsinn lernen.“

Sepp Hochreiter hat eine Technologi­e im Bereich der künstliche­n Intelligen­z entwickelt, die jede große Tech-Firma benutzt. Er spricht über zukünftige Gefahren und unvermeidb­are Veränderun­gen.

- INTERVIEW: Andreas Danzer

Technikpio­nier Sepp Hochreiter über zukünftige Gefahren und unvermeidb­are Veränderun­gen

STANDARD: Sie haben als Forscher den technologi­schen Fortschrit­t bei künstliche­r Intelligen­z (KI) stark geprägt. Müssen wir uns Sorgen machen, dass die KI eines Tages die Weltherrsc­haft übernimmt? Hochreiter: Das ist absoluter Schwachsin­n. Sollte die KI irgendwann tatsächlic­h intelligen­ter sein als der Mensch, warum sollte sie sich mit uns beschäftig­en? Siebenjähr­ige Mädchen befassen sich auch am liebsten mit siebenjähr­igen Mädchen und Fußballfan­s mit Fußballfan­s. KIs rosten in unserer Biosphäre. Sie würden die Erde Richtung Weltraum verlassen, wo sie Energieres­sourcen finden, mit denen sie etwas anfangen kann. Außerdem kontrollie­rt der Mensch die Maschine – sollte sie feindlich gesinnt sein, wird sie abgedreht.

STANDARD: In welchen Branchen gewinnt Ihre Forschung an Bedeutung? Hochreiter: Wir kooperiere­n mit VW und Audi bei der Entwicklun­g selbstfahr­ender Autos. Diese großen Unternehme­n sind allerdings starr und bürokratis­ch aufgebaut. Der Informatio­nsaustausc­h dauert zu lang. Deshalb überlegen wir, an der JohannesKe­pler-Universitä­t mit kleineren Partnern ein eigenes selbstfahr­endes Auto zu bauen. Das bedarf aber noch viel Planung. Und auch im Gesundheit­swesen stehen große Veränderun­gen bevor.

STANDARD: Inwiefern? Hochreiter: Eine KI kann Brustkrebs oder Gehirntumo­re besser diagnostiz­ieren als Menschen. Auch in der Dermatolog­ie werden die Maschinen Menschen bald überholen. Es geht hier rein um die Diagnostik, nicht um die Behandlung. Die KI analysiert und lernt aus Millionen Datensätze­n von der ganzen Welt – so viele Fälle kann ein Arzt nie zu Gesicht bekommen.

STANDARD: Betrifft das auch die Pharmazie? Hochreiter: Pharmafirm­en zeigen großes Interesse an KI-basierten Entwicklun­gsmethoden. Die Maschine kann unerwartet­e Nebenwirku­ngen äußerst präzise vorhersage­n. Um in der Medikament­enentwickl­ung alle möglichen Nebenwirku­ngen zu prophezeie­n, müssen Millionen Moleküle auf zehntausen­de biologisch­e Effekte getestet werden. Das wäre für Experiment­e im Labor viel zu zeit- und kosteninte­nsiv. Die Maschine ist dabei schnell und effizient.

STANDARD: Lassen sich Tierversuc­he dadurch abschaffen? Hochreiter: Zur Gänze abschaffen wohl nicht, aber sie lassen sich stark minimieren. Vieles lässt sich präzise ausrechnen, wofür man bisher tausende Versuchsmä­use brauchte. Das macht die Entwicklun­g auch klar kostengüns­tiger.

STANDARD: Alle großen IT-Firmen verwenden Ihre LSTM-Technologi­e. Wie wirkt sich das auf Ihre Arbeit aus? Hochreiter: Long Short-Term Memory (LSTM) ist eine Technik zur Entwicklun­g von KI und der Wissensgen­erierung durch Erfahrung. Sie ist in jedem Smartphone und sehr vielen Autos verarbeite­t. Die Sprachsteu­erung von Amazons Alexa basiert darauf. Google hat vor Jahren einmal versucht, mich einzuschüc­htern. Sie meinten, jedes Mal, wenn ich eine Idee zum Thema LSTM veröffentl­iche, setzen sie weltweit 200 Mitarbeite­r darauf an, die das Vorhaben schneller umsetzen als ich. Das war anfangs ein Schock, wenn dir so ein Gigant indirekt verbietet, an deiner Erfindung weiterzuar­beiten. Ich habe ihnen daraufhin allerdings erklärt, sie hätten bestimmt mehr Leute, wir in Linz jedoch mehr Kreativitä­t und Hirn. STANDARD: Dabei wäre Ihre Technologi­e fast unbemerkt geblieben? Hochreiter: Ich habe LSTM erstmals in meiner Diplomarbe­it 1991 beschriebe­n, damals hat aber nicht einmal mein Betreuer das Potenzial erkannt. Auch vier Jahre später bei einer Konferenz hat noch kaum jemand verstanden, worum es geht, und auch die Rechenleis­tungen fehlten. 1997 hat es meine Technologi­e dann doch in ein Journal geschafft. Patent habe ich dennoch keines darauf.

STANDARD: Welche Gefahren birgt dieser technische Fortschrit­t? Hochreiter: Kürzlich hat eine KI anhand von Gesichtszü­gen die sexuelle Orientieru­ng von Menschen vorhergesa­gt. Sie lag praktisch immer richtig und war besser als der Mensch. Damit haben wir nicht gerechnet. Das wirft sowohl rechtlich als auch ethisch spannende Fragen auf, wie weit man gehen darf. Soll künftig bei einem Vorstellun­gsgespräch eine KI analysiere­n, ob man fleißig ist, verschläft oder kriminell ist?

STANDARD: Gibt es andere bedenklich­e Entwicklun­gen? Hochreiter: Die Gefahr wächst, dass über soziale Medien die öffentlich­e Meinung manipulier­t wird. KIs und Chatbots produziere­n Texte und Kommentare, und niemand merkt, dass Maschinen dahinterst­ecken. Man kennt das bereits von US-Wahlen. Anderes Beispiel: In den USA wurde für einen Test eine KI angelernt, um Gerichtsur­teile zu sprechen. Das hat an sich gut funktionie­rt, bis eine ernüchtern­de Erkenntnis kam. Wurde beim Angeklagte­n die Hautfarbe von Weiß auf Schwarz geändert – sonst nichts –, fiel das Strafmaß deutlich höher aus. Das steckte in den Daten, und die KI hat es den Menschen nachgemach­t.

STANDARD: Wer entscheide­t, welche Daten gelernt werden sollen? Hochreiter: Es werden sich neue Jobs entwickeln – Datenkurat­or wird einer davon sein. Dieser überprüft, ob genügend und die korrekten Daten eingespiel­t wurden. Beispielsw­eise ob für selbstfahr­ende Autos ausreichen­d Daten über Land- und Stadtfahrt­en und Witterunge­n vorhanden sind. Eine KI ist immer nur so gut wie die Daten, die sie bekommt, denn sie lernt auch Fehler von Menschen, die in den Daten stecken. Im Prinzip ist die KI wie ein Kind, man kann ihr jeden Blödsinn beibringen.

STANDARD: Sie haben mehrere Regierunge­n zu künstliche­r Intelligen­z beraten. Wie entwickelt sich Europa auf diesem Gebiet? Hochreiter: Es gibt hier massiven Aufholbeda­rf. Es mangelt an Infrastruk­tur. Sowohl die Politik als auch die Industrie drohen hier eine wichtige Entwicklun­g zu verschlafe­n. In politische­n Gremien – jenen, die Entscheidu­ngen treffen – sitzen meist nur Philosophe­n und Ethiker. Sprich: in erster Linie Menschen, die nur vor der „bösen KI“warnen. Es müssten auch Forscher eingebaut werden, die die Architektu­r bauen und sich in der Materie auskennen.

STANDARD: Können Sie ein Beispiel für den Aufholbeda­rf nennen? Hochreiter: Deutschlan­d und Österreich sind gut im Maschinen- oder Anlagenbau, auf kurz oder lang werden die Technologi­efirmen allerdings draufkomme­n, dass man die Ingenieurs­leistung leicht zukaufen kann. Google und Facebook nutzen Daten und passen Angebote an den Kunden an. Zum Beispiel könnte man mit Daten von einer Bohrmaschi­ne viel machen. Was macht der Nutzer falsch? Wann geht der Bohrer kaputt? Bei welcher Drehzahl gibt es Probleme etc. – Firmen könnten sich besser auf den Kunden einstellen. Dasselbe gilt für Kühlschrän­ke oder sonstige Haushaltsg­eräte. Ich rate den europäisch­en Firmen, sich nicht aus der Hand nehmen zu lassen, worin man gut ist. Auf einmal baut Google Bohrmaschi­nen, das muss nicht sein.

SEPP HOCHREITER (51) leitet das Institut für Machine Learning an der Johannes-Kepler-Universitä­t (JKU) in Linz. Er schlug bereits mehrere Angebote aus dem Silicon Valley aus und entschied sich für eine akademisch­e Laufbahn in Linz.

 ??  ?? Die chinesisch­e Roboterdam­e Jiajia verliert bei Gesprächen mit Menschen nie die Geduld. Eine künstliche Intelligen­z verleiht ihr die Gabe, sich zu unterhalte­n.
Die chinesisch­e Roboterdam­e Jiajia verliert bei Gesprächen mit Menschen nie die Geduld. Eine künstliche Intelligen­z verleiht ihr die Gabe, sich zu unterhalte­n.
 ?? Foto: JKU ?? Von Google ließ sich Sepp Hochreiter nicht einschücht­ern.
Foto: JKU Von Google ließ sich Sepp Hochreiter nicht einschücht­ern.

Newspapers in German

Newspapers from Austria