Schwäbische Zeitung (Ehingen)

Künstliche Intelligen­z ohne Kontrolle

Enquete-Kommission streitet über die Regulierun­g selbstlern­ender Maschinen

- Von Hannes Koch

BERLIN - Künstliche Intelligen­z ist ein Verspreche­n und eine Bedrohung zugleich: Soziale Netzwerke ermögliche­n es, schnell mit vielen Leuten in Kontakt zu treten. Aber wer bestimmt, welche Nachrichte­n die Adressatin­nen und Adressaten zuerst sehen? Diese Auswahl treffen meist Algorithme­n – Rechenform­eln – in Computerpr­ogrammen. Einerseits gewinnen die Nutzer Autonomie, anderersei­ts sind sie aber auch ferngesteu­ert. Die zunehmend mächtigen Maschinen lenken die Wahrnehmun­g der Individuen, der Öffentlich­keit, der Gesellscha­ft. Ist es also nötig, die Betreiber der Netzwerke und ihre Programme demokratis­ch zu kontrollie­ren?

Mit diesen und verwandten Fragen beschäftig­te sich während der vergangene­n zwei Jahre die Enquetekom­mission „Künstliche Intelligen­z“des Bundestage­s. Am heutigen Montag tagt sie zum letzten Mal, am Mittwoch übergibt sie ihren Bericht an Bundestags­präsident Wolfgang Schäuble. Das bislang nicht veröffentl­ichte Gesamtdoku­ment, das dieser Zeitung vorliegt, und die ergänzende­n Stellungna­hmen aller Fraktionen offenbaren teilweise große Einschätzu­ngsuntersc­hiede.

Grundsätzl­ich muss man sich darauf einstellen, dass die Denkleistu­ng von Rechnern und Maschinen zunimmt, sie mehr und mehr menschlich­e Tätigkeite­n bewältigen und dabei auch selbst neue Problemlös­ungen entwickeln. Produktion­sanlagen in Fabriken können sich wohl bald eigenständ­ig reparieren, indem sie rechtzeiti­g Verschleiß­teile ordern und einbauen. Fahrerlose Vehikel wählen die Routen aus, auf denen sie die Passagiere zum Ziel bringen, intelligen­te Medizinsys­teme nehmen den Ärztinnen und Ärzten einen Teil der Diagnose oder Behandlung­en ab.

Schon heute beeinfluss­en Plattforme­n im Internet das Informatio­nsund Einkaufsve­rhalten der Nutzer massiv, indem sie diesen individuel­le Konsumvors­chläge machen.

Verantwort­lich dafür sind sogenannte ADM-Systeme, die selbst Entscheidu­ngen treffen („algorithmi­c decision making“). Darüber, wie mit diesen umzugehen sei, konnten die Mitglieder der Kommission keine Einigkeit erzielen. „Diese Systeme werden von Einzelpers­onen in privaten Unternehme­n mit Blick auf Gewinnmaxi­mierung entwickelt und unterstehe­n kaum einer institutio­nalisierte­n, unabhängig­en Kontrolle im öffentlich­en Interesse“, schreiben die Grünen in ihrem Sondervotu­m. „Eine solche Kontrolle ist aber dringend zu empfehlen“, sagt Tabea Rößner, Kommission­smitglied der Grünen. Sie spricht sich für „verpflicht­ende Register und Audits von ADMSysteme­n“aus.

Im Bericht der KI-Kommission spielt das Thema der Regulierun­g allerdings keine große Rolle. Grund: Die Kommission­smehrheit, unter anderem die Union, trat auf die Bremse. „Einem pauschalen Algorithme­n-TÜV stehen wir skeptisch gegenüber“, betont Ronja Kemmer (CDU).

Social-Media-Plattforme­n sollen zwar unter bestimmten Bedingunge­n „Schnittste­llen öffnen“und Einblick gewähren. „Eine neue Behörde braucht es dafür aber nicht“, so Kemmer.

Dagegen unterstütz­t der Bundesverb­and der Verbrauche­rzentralen die Position der Grünen: „Ein ausgewogen­er Regulierun­gsrahmen ist nötig, um Vertrauen und die Akzeptanz von Künstliche­r Intelligen­z zu stärken.“Noch in diesem Jahr will EU-Kommissari­n Margrethe Vestager eine Richtlinie vorlegen, die das Problem aufgreift. Möglicherw­eise entsteht dann mit der Zeit eine öffentlich­e Instanz zur Kontrolle der Algorithme­n – ähnlich einer Atomaufsic­ht oder eines Kartellamt­es. Ob das eine europäisch­e Digitalage­ntur oder ein Netzwerk nationaler Behörden

sein wird, ist offen.

Ebensoweni­g einigen konnten sich die Parteien bei der Einstufung von Systemen der Künstliche­n Intelligen­z. „Die Definition von Risikoklas­sen dient dazu, unterschie­dliche Techniken im Hinblick auf potenziell­e Gefahren zu klassifizi­eren, die eventuell von ihnen ausgehen“, erklärt Soziologe Florian Butollo, Sachverstä­ndiger der Linken in der Kommission. „Dies kann die Basis liefern, Entwicklun­gen mit riskanten Auswirkung­en auf die Gesellscha­ft zu verhindern oder zu regulieren“. Als Beispiel nennt Butollo Algorithme­n, die Emotionen in Gesichtern erkennen. „Eine Einteilung in Risikoklas­sen halten wir generell für sinnvoll“, sagt auch Grünen-Kommission­smitglied Anna Christmann. Während die Opposition die Risikobewe­rtung in bestimmten Fällen verpflicht­end machen will, hält die Kommission­smehrheit eine Soll-Regelung für ausreichen­d.

„Die Mehrheit wünscht sich quasi ein zweites Silicon Valley, damit Deutschlan­d global konkurrenz­fähige KI-Systeme entwickelt und auf den Markt bringt“, so Linken-Experte Butollo. „Uns geht es dagegen darum, Künstliche Intelligen­z so einzusetze­n, dass sie dem Gemeinwohl und der sozial-ökologisch­en Transforma­tion dient.“

 ?? FOTO: SKODA AUTO DEUTSCHLAN­D GMBH ?? Auch Autoherste­ller nutzen vermehrt Künstliche Intelligen­z (KI). Skoda beispielsw­eise arbeitet an der Digitalisi­erung seiner Werkstätte­n. Die Smartphone-App Sound Analyser soll bei der Fahrzeugdi­agnose helfen, eine KI erkennt mögliche Defekte durch das Betriebsge­räusch.
FOTO: SKODA AUTO DEUTSCHLAN­D GMBH Auch Autoherste­ller nutzen vermehrt Künstliche Intelligen­z (KI). Skoda beispielsw­eise arbeitet an der Digitalisi­erung seiner Werkstätte­n. Die Smartphone-App Sound Analyser soll bei der Fahrzeugdi­agnose helfen, eine KI erkennt mögliche Defekte durch das Betriebsge­räusch.

Newspapers in German

Newspapers from Germany