Schwäbische Zeitung (Sigmaringen)
Kontroverse um Künstliche Intelligenz
Enquete-Kommission streitet über die Regulierung selbstlernender Maschinen
RAVENSBURG (sz) - Nach zweijähriger Arbeit will die Enquetekommission „Künstliche Intelligenz“(KI) des Bundestages heute zum letzten Mal tagen. Einig sind sich die Mitglieder der Kommission darüber, dass die Denkleistungen von Maschinen und Computern immer weiter zunehmen werden. Kontroversen gibt es aber um die Frage, ob und wie stark die KI kontrolliert und reguliert werden soll. Vor allem CDU und Grüne kommen hier zu sehr unterschiedlichen Einschätzungen.
BERLIN - Künstliche Intelligenz ist ein Versprechen und eine Bedrohung zugleich: Soziale Netzwerke ermöglichen es, schnell mit vielen Leuten in Kontakt zu treten. Aber wer bestimmt, welche Nachrichten die Adressatinnen und Adressaten zuerst sehen? Diese Auswahl treffen meist Algorithmen – Rechenformeln – in Computerprogrammen. Einerseits gewinnen die Nutzer Autonomie, andererseits sind sie aber auch ferngesteuert. Die zunehmend mächtigen Maschinen lenken die Wahrnehmung der Individuen, der Öffentlichkeit, der Gesellschaft. Ist es also nötig, die Betreiber der Netzwerke und ihre Programme demokratisch zu kontrollieren?
Mit diesen und verwandten Fragen beschäftigte sich während der vergangenen zwei Jahre die Enquetekommission „Künstliche Intelligenz“des Bundestages. Am heutigen Montag tagt sie zum letzten Mal, am Mittwoch übergibt sie ihren Bericht an Bundestagspräsident Wolfgang Schäuble. Das bislang nicht veröffentlichte Gesamtdokument, das dieser Zeitung vorliegt, und die ergänzenden Stellungnahmen aller Fraktionen offenbaren teilweise große Einschätzungsunterschiede.
Grundsätzlich muss man sich darauf einstellen, dass die Denkleistung von Rechnern und Maschinen zunimmt, sie mehr und mehr menschliche Tätigkeiten bewältigen und dabei auch selbst neue Problemlösungen entwickeln. Produktionsanlagen in Fabriken können sich wohl bald eigenständig reparieren, indem sie rechtzeitig Verschleißteile ordern und einbauen. Fahrerlose Vehikel wählen die Routen aus, auf denen sie die Passagiere zum Ziel bringen, intelligente Medizinsysteme nehmen den Ärztinnen und Ärzten einen Teil der Diagnose oder Behandlungen ab.
Schon heute beeinflussen Plattformen im Internet das Informationsund Einkaufsverhalten der Nutzer massiv, indem sie diesen individuelle Konsumvorschläge machen.
Verantwortlich dafür sind sogenannte ADM-Systeme, die selbst Entscheidungen treffen („algorithmic decision making“). Darüber, wie mit diesen umzugehen sei, konnten die Mitglieder der Kommission keine Einigkeit erzielen. „Diese Systeme werden von Einzelpersonen in privaten Unternehmen mit Blick auf Gewinnmaximierung entwickelt und unterstehen kaum einer institutionalisierten, unabhängigen Kontrolle im öffentlichen Interesse“, schreiben die Grünen in ihrem Sondervotum. „Eine solche Kontrolle ist aber dringend zu empfehlen“, sagt Tabea Rößner, Kommissionsmitglied der Grünen. Sie spricht sich für „verpflichtende Register und Audits von ADMSystemen“aus.
Im Bericht der KI-Kommission spielt das Thema der Regulierung allerdings keine große Rolle. Grund: Die Kommissionsmehrheit, unter anderem die Union, trat auf die Bremse. „Einem pauschalen Algorithmen-TÜV stehen wir skeptisch gegenüber“, betont Ronja Kemmer (CDU).
Social-Media-Plattformen sollen zwar unter bestimmten Bedingungen „Schnittstellen öffnen“und Einblick gewähren. „Eine neue Behörde braucht es dafür aber nicht“, so Kemmer.
Dagegen unterstützt der Bundesverband der Verbraucherzentralen die Position der Grünen: „Ein ausgewogener Regulierungsrahmen ist nötig, um Vertrauen und die Akzeptanz von Künstlicher Intelligenz zu stärken.“Noch in diesem Jahr will EU-Kommissarin Margrethe Vestager eine Richtlinie vorlegen, die das Problem aufgreift. Möglicherweise entsteht dann mit der Zeit eine öffentliche Instanz zur Kontrolle der Algorithmen – ähnlich einer Atomaufsicht oder eines Kartellamtes. Ob das eine europäische Digitalagentur oder ein Netzwerk nationaler Behörden sein wird, ist offen.
Ebensowenig einigen konnten sich die Parteien bei der Einstufung von Systemen der Künstlichen Intelligenz. „Die Definition von Risikoklassen dient dazu, unterschiedliche Techniken im Hinblick auf potenzielle Gefahren zu klassifizieren, die eventuell von ihnen ausgehen“, erklärt Soziologe Florian Butollo, Sachverständiger der Linken in der Kommission. „Dies kann die Basis liefern, Entwicklungen mit riskanten Auswirkungen auf die Gesellschaft zu verhindern oder zu regulieren“. Als Beispiel nennt Butollo Algorithmen, die Emotionen in Gesichtern erkennen. „Eine Einteilung in Risikoklassen halten wir generell für sinnvoll“, sagt auch Grünen-Kommissionsmitglied Anna Christmann. Während die Opposition die Risikobewertung in bestimmten Fällen verpflichtend machen will, hält die Kommissionsmehrheit eine Soll-Regelung für ausreichend.
„Die Mehrheit wünscht sich quasi ein zweites Silicon Valley, damit Deutschland global konkurrenzfähige KI-Systeme entwickelt und auf den Markt bringt“, so Linken-Experte Butollo. „Uns geht es dagegen darum, Künstliche Intelligenz so einzusetzen, dass sie dem Gemeinwohl und der sozial-ökologischen Transformation dient.“