Saarbruecker Zeitung

Experte für Augenmaß bei der Regulierun­g von KI

Die EU hat sich kürzlich auf die weltweit ersten Regeln für die Nutzung von Künstliche­r Intelligen­z geeinigt. Manche finden sie zu streng, andere zu lasch.

-

KAISERSLAU­TERN (dpa) Der Software- und IT-Experte Peter Liggesmeye­r ist für Augenmaß bei der Regulierun­g von Künstliche­r Intelligen­z (KI). „Die Grundhaltu­ng, Regelungen zu KI zu definieren, kann ich nachvollzi­ehen“, sagte der Leiter des Fraunhofer-Instituts für Experiment­elles Software Engineerin­g IESE in Kaiserslau­tern mit Blick auf die Regulierun­g auf europäisch­er Ebene. „Die Frage ist, wie man das vernünftig umsetzt und was die Konsequenz­en sind.“

Er sehe derzeit eine sehr starke Betonung der Gefahren durch KI. „Das ist ein angstgetri­ebener Ansatz“, betonte der Wissenscha­ftler. Es müsse auch darum gehen, KI an bestimmten Stellen leistungsf­ähiger zu machen, um sie für bestimmte

Zwecke besser einsetzen zu können. „Das taucht in der Diskussion nur am Rande auf.“

Die vorgelegte­n Vorschrift­en legen Verpflicht­ungen für KI auf Grundlage ihrer potenziell­en Risiken und Auswirkung­en fest. Als besonders riskant wird KI eingestuft, die ein erhebliche­s Schadenspo­tenzial etwa für Gesundheit, Demokratie, Umwelt oder Sicherheit hat. Bestimmte Anwendunge­n werden komplett verboten, etwa biometrisc­he Kategorisi­erungssyst­eme, die sensible Merkmale wie zum Beispiel die sexuelle Orientieru­ng oder religiöse Überzeugun­gen verwenden. Auch das ungezielte Auslesen von Bildern aus dem Internet oder aus Überwachun­gsaufnahme­n für Gesichtser­kennungsda­tenbanken soll nicht erlaubt sein.

Mitte Dezember hatte etwa der Bundesverb­and der Deutschen Industrie (BDI) gewarnt, Europa drohe bei der Schlüsselt­echnologie ins Hintertref­fen zu geraten. Der

Branchenve­rband Bitkom sprach von einem „politische­n Schaufenst­er-Erfolg zu Lasten von Wirtschaft und Gesellscha­ft“, die europäisch­e Verbrauche­rschutzorg­anisation Beuc kritisiert­e dagegen, dass sich die EU zu sehr auf den guten Willen der Unternehme­n zur Selbstregu­lierung verlasse.

Liggesmeye­r warnt vor zu hohen Hürden für die, die an KI arbeiten. „Die Geisteshal­tung dahinter ist gut“, sagte er in Richtung EU. „Man muss aber aufpassen, dass man keine gravierend­en Fehler macht, die dann für sich wirtschaft­lich betätigend­e Unternehme­n zu einem substanzie­llen Nachteil werden, weil potenziell juristisch­e Risiken entstehen.“Es sei wichtig, im Rahmen der freiheitli­ch-demokratis­chen Grundordnu­ng Schranken zu setzen. Aber: „Es muss mit Augenmaß gemacht werden. Wenn man Forderunge­n erhebt, muss man immer schauen, wie man den Nachweis erbringen kann, dass diese Forderunge­n erfüllt werden.“

Es werde niemand abstreiten, dass Systeme diskrimini­erungsfrei sein sollen. „Wenn man aber zur Regel macht, die Nachweispf­licht den Inverkehrb­ringern dieser Systeme aufzuerleg­en, dann wird es schwierig. Es ist gar nicht so einfach, den Nachweis zu führen, dass etwas diskrimini­erungsfrei ist.“Sei es etwa bei einem System zur Vorauswahl von Bewerbern diskrimini­erungsfrei, wenn es gleich viele Männer und Frauen auswählte? Oder müsse es sich am Verhältnis bei den Absolventi­nnen und Absolvente­n in der Berufsgrup­pe orientiere­n? „Da kommt man ganz schnell in Teufels Küche“, sagte Liggesmeye­r.

Regulierun­g dürfe nicht zu einem erhebliche­n Problem für die Wirtschaft werden, so dass dann aufgehört werde, an Lösungen weiterzuar­beiten. „Das hätte die Konsequenz, dass solche Systeme aus Teilen der Welt kommen, wo Regulierun­g nicht existiert und man auch mit Social Scoring keine großen Probleme hat“, sagte Liggesmeye­r. „Man muss aufpassen, dass man dem eigenen Fortschrit­t keinen Riegel vorschiebt.“Unter Social Scoring ist eine Art Bewertung sozialen Verhaltens von Menschen mit Hilfe von KI zu verstehen.

Auch KI müsse zugestande­n werden, dass sie mit gewissen Restrisike­n verbunden sei. „Man will bei einem Flugzeug, dass von ihm keine übertriebe­n große Gefahren ausgehen“, sagte er. „Aber es wird nicht verlangt, dass das verbleiben­de Risiko gleich null ist.“So sollte es auch bei KI sein.

 ?? FOTO: IESE/DPA ?? Peter Liggesmeye­r, Leiter des Fraunhofer-Instituts für Experiment­elles Software Engineerin­g.
FOTO: IESE/DPA Peter Liggesmeye­r, Leiter des Fraunhofer-Instituts für Experiment­elles Software Engineerin­g.

Newspapers in German

Newspapers from Germany