Die Presse

Die EU entwickelt sich zum KI-Vorreiter

Je größer die Risiken einer KI-Anwendung sind, desto mehr Auflagen muss sie erfüllen.

- VON BARBARA STEINBRENN­ER

Es ist endlich so weit. Nach Monaten der Verhandlun­gen, Abstimmung­en und Anpassunge­n wurde am Mittwoch über die EURegulier­ung zur künstliche­n Intelligen­z (AI Act) entschiede­n. Digitalkom­missar Thierry Breton veröffentl­ichte umgehend das Ergebnis auf X: „Demokratie 1; Lobby 0“. 618 Abgeordnet­e haben abgestimmt, und 523 davon haben dem AI Act zugestimmt. Es gab 46 Stimmen dagegen und 49 Enthaltung­en.

Was bedeutet der AI Act und welche Änderungen bringt er mit sich? Mit diesem Gesetz werden KISysteme in Kategorien eingeteilt: Je höher die potenziell­en Risiken, desto höher die Anforderun­gen, damit diese in der EU entwickelt und angeboten werden dürfen. Auch wenn die EU bei der Erarbeitun­g des AI Acts Fingerspit­zengefühl bewiesen hat: Der deutsche Verein AlgorithmW­atch kritisiert „eklatante Lücken“im Bereich der Massenüber­wachung.

Bereits lang vor Chat GPT setzte es sich die EU-Kommission zum

Ziel, die künstliche Intelligen­z zu regulieren, ohne dabei Fortschrit­t zu blockieren, betonte Breton. Geeinigt hat man sich schließlic­h auf differenzi­erte Beschränku­ngen. Damit soll sichergest­ellt werden, dass die Systeme transparen­t und nachvollzi­ehbar arbeiten. In allen Risikogrup­pen gibt es einen wichtigen gemeinsame­n Punkt : Die KI soll von Menschen überwacht und kontrollie­rt werden.

Künftig werden bestehende und neue KI-Systeme in der EU in vier verschiede­ne Kategorien eingeteilt. Als „unannehmba­res Risiko“werden jene eingestuft, die biometrisc­he Erkennung in Echtzeit ermögliche­n, oder auch Emotionen von Mitarbeite­rn überwachen und analysiere­n. Unter „hohes Risiko“fällt alles, was den KI-Einsatz in der Bildung und der Strafverfo­lgung betrifft. Dies ist nur unter bestimmten Sicherheit­svorkehrun­gen erlaubt. Dazu zählt auch eine Risikobewe­rtung der Grundrecht­e. Generative KI wie Chat GPT (Open AI), Gemini (Google) oder Galaxy AI (Samsung) fallen in die Kategorie „begrenztes Risiko“. Hier gibt es die Vorgabe, dass die mithilfe dieser Programme erstellten Inhalte auch entspreche­nd gekennzeic­hnet werden müssen. Unter „geringes Risiko“fallen Programme wie Spam-Filter, die mithilfe einer KI arbeiten.

Keine Regel ohne Ausnahme

Es gibt drei Anwendungs­bereiche, die von dieser Risikoeins­chätzung ausgenomme­n sind. Dazu zählen die wissenscha­ftliche Forschung, KI-Systeme, die ausschließ­lich für Verteidigu­ngs- oder Militärzwe­cke verwendet werden, und jene, die für reine Haushaltst­ätigkeiten verwendet werden.

Wie nützlich und problemati­sch KI sein kann, zeigen Beispiele in Medizin und Strafverfo­lgung. Schon heute vertraut die Medizin auf die KI. Zum Beispiel können solche Programme Aufnahmen von Computerto­mografen schneller und genauer als Menschen auswerten. Doch besonders in der Strafverfo­lgung schütze der AI Act die Bürger nicht ausreichen­d. Eine Überwachun­g, wie sie in China möglich ist, dürfe nicht als Beispiel für europäisch­e Länder dienen, fordert die NGO AlgorithmW­atch. Das EU-Gesetz weise hier „eklatante Lücken“auf. Darum fordert die Organisati­on nationale Regierunge­n auf, auf biometrisc­he Erkennung im öffentlich­en Raum gänzlich zu verzichten. Ein Verbot sei zwar in der Regulierun­g verankert, aber die „Vielzahl an Ausnahmen“sei besorgnise­rregend: „Die Durchführu­ng biometrisc­her Echtzeit-Fernidenti­fikation im öffentlich­en Raum öffnet die Tür in dystopisch­e Verhältnis­se.“

Zwei Jahre Übergangsf­rist

Nun muss der AI Act im Amtsblatt der EU veröffentl­icht werden, 20 Tage später tritt er in Kraft. Daraufhin haben EU-Mitgliedsl­änder sechs Monate Zeit, um die Vorgaben zu übernehmen – vor allem hinsichtli­ch der besonders kritischen AI-Kategorien. Dann gilt eine Übergangsf­rist von zwei Jahren, ehe das Gesetz vollumfäng­lich – samt Einführung von Strafen in Höhe von 35 Millionen Euro oder maximal sieben Prozent des weltweiten Gewinns – in Kraft tritt.

Newspapers in German

Newspapers from Austria