Die EU entwickelt sich zum KI-Vorreiter
Je größer die Risiken einer KI-Anwendung sind, desto mehr Auflagen muss sie erfüllen.
Es ist endlich so weit. Nach Monaten der Verhandlungen, Abstimmungen und Anpassungen wurde am Mittwoch über die EURegulierung zur künstlichen Intelligenz (AI Act) entschieden. Digitalkommissar Thierry Breton veröffentlichte umgehend das Ergebnis auf X: „Demokratie 1; Lobby 0“. 618 Abgeordnete haben abgestimmt, und 523 davon haben dem AI Act zugestimmt. Es gab 46 Stimmen dagegen und 49 Enthaltungen.
Was bedeutet der AI Act und welche Änderungen bringt er mit sich? Mit diesem Gesetz werden KISysteme in Kategorien eingeteilt: Je höher die potenziellen Risiken, desto höher die Anforderungen, damit diese in der EU entwickelt und angeboten werden dürfen. Auch wenn die EU bei der Erarbeitung des AI Acts Fingerspitzengefühl bewiesen hat: Der deutsche Verein AlgorithmWatch kritisiert „eklatante Lücken“im Bereich der Massenüberwachung.
Bereits lang vor Chat GPT setzte es sich die EU-Kommission zum
Ziel, die künstliche Intelligenz zu regulieren, ohne dabei Fortschritt zu blockieren, betonte Breton. Geeinigt hat man sich schließlich auf differenzierte Beschränkungen. Damit soll sichergestellt werden, dass die Systeme transparent und nachvollziehbar arbeiten. In allen Risikogruppen gibt es einen wichtigen gemeinsamen Punkt : Die KI soll von Menschen überwacht und kontrolliert werden.
Künftig werden bestehende und neue KI-Systeme in der EU in vier verschiedene Kategorien eingeteilt. Als „unannehmbares Risiko“werden jene eingestuft, die biometrische Erkennung in Echtzeit ermöglichen, oder auch Emotionen von Mitarbeitern überwachen und analysieren. Unter „hohes Risiko“fällt alles, was den KI-Einsatz in der Bildung und der Strafverfolgung betrifft. Dies ist nur unter bestimmten Sicherheitsvorkehrungen erlaubt. Dazu zählt auch eine Risikobewertung der Grundrechte. Generative KI wie Chat GPT (Open AI), Gemini (Google) oder Galaxy AI (Samsung) fallen in die Kategorie „begrenztes Risiko“. Hier gibt es die Vorgabe, dass die mithilfe dieser Programme erstellten Inhalte auch entsprechend gekennzeichnet werden müssen. Unter „geringes Risiko“fallen Programme wie Spam-Filter, die mithilfe einer KI arbeiten.
Keine Regel ohne Ausnahme
Es gibt drei Anwendungsbereiche, die von dieser Risikoeinschätzung ausgenommen sind. Dazu zählen die wissenschaftliche Forschung, KI-Systeme, die ausschließlich für Verteidigungs- oder Militärzwecke verwendet werden, und jene, die für reine Haushaltstätigkeiten verwendet werden.
Wie nützlich und problematisch KI sein kann, zeigen Beispiele in Medizin und Strafverfolgung. Schon heute vertraut die Medizin auf die KI. Zum Beispiel können solche Programme Aufnahmen von Computertomografen schneller und genauer als Menschen auswerten. Doch besonders in der Strafverfolgung schütze der AI Act die Bürger nicht ausreichend. Eine Überwachung, wie sie in China möglich ist, dürfe nicht als Beispiel für europäische Länder dienen, fordert die NGO AlgorithmWatch. Das EU-Gesetz weise hier „eklatante Lücken“auf. Darum fordert die Organisation nationale Regierungen auf, auf biometrische Erkennung im öffentlichen Raum gänzlich zu verzichten. Ein Verbot sei zwar in der Regulierung verankert, aber die „Vielzahl an Ausnahmen“sei besorgniserregend: „Die Durchführung biometrischer Echtzeit-Fernidentifikation im öffentlichen Raum öffnet die Tür in dystopische Verhältnisse.“
Zwei Jahre Übergangsfrist
Nun muss der AI Act im Amtsblatt der EU veröffentlicht werden, 20 Tage später tritt er in Kraft. Daraufhin haben EU-Mitgliedsländer sechs Monate Zeit, um die Vorgaben zu übernehmen – vor allem hinsichtlich der besonders kritischen AI-Kategorien. Dann gilt eine Übergangsfrist von zwei Jahren, ehe das Gesetz vollumfänglich – samt Einführung von Strafen in Höhe von 35 Millionen Euro oder maximal sieben Prozent des weltweiten Gewinns – in Kraft tritt.