Intelligenter Balanceakt
Minority Report“-Fans kennen die Filmszene: Polizisten in schwerer Montur brechen in ein Haus ein und verhaften einen Mann, der noch kein Verbrechen begangen hat, aber vielleicht will. Der gruselige HollywoodBlockbuster stammt von 2002.
Zugegeben, es ist eine besondere Dystopie, wohin der Einsatz von Technologie und Daten führen kann; in Europa wird sie – wahrscheinlich – sobald nicht Wirklichkeit werden. Mit dem weltweit ersten umfassenden Gesetz zur Regulierung von Künstlicher Intelligenz (KI), das die EU-Abgeordneten am Mittwoch im Straßburg verabschiedeten, sind Anwendungen wie das „Preventive Policing“verboten.
Das ist nur einer von vielen Vorzügen des 258-seitigen Gesetzes, das regelt, welche Anwendungen von künstlicher Intelligenz in Europa erlaubt sind und welche nicht. Besonders riskante Anwendungen, wie KI-generierte Deepfakes für politische Propaganda, sind verboten. Überhaupt soll die KI nicht allein entscheiden, sondern immer von Menschen überwacht sein.
Die Tech-Riesen sind zudem angehalten, ihre Basismodelle und die Trainingsdaten (teilweise) offenzulegen, auf denen ihre KI-Programme basieren. Das ist wichtig, um grundrechtliche Risiken einer Anwendung besser einschätzen zu können. Der Balanceakt, technologischen Fortschritt zu ermöglichen, und gleichzeitig Sicherheiten für die Bürger einzubauen, damit ihre Grundrechte nicht mit der nächsten Innovation oder durch die nächste Regierung ausgehebelt werden, ist die Prämisse, auf der das KI-Gesetz aufbaut.
Einiges spricht dafür, dass Brüssel damit erfolgreich sein könnte. Die Datenschutzgrundverordnung, über Jahre hart verhandelt wurde, galt zunächst als Regulierungsmonster und hat heute Vorbildcharakter. Apple und Microsoft haben in viele ihrer Produkte Funktionen integriert, die die Vorgaben aus Brüssel respektieren. Wer auf dem EU-Markt Geschäfte machen will, muss sich EU-Regeln unterwerfen.
Der von Teilen der Wirtschaft vorgetragene Einwand, dass Regulierung Innovation abwürge, stimmt so pauschal also nicht. Zumal die Bereiche Forschung und Entwicklung in weiten Teilen von der Verordnung ausklammert sind. KI-basierte Krebsforschung, um ein Beispiel zu nennen, bleibt möglich. Dass in KI Gefahren lauern, haben die Tech-Firmen selbst zugegeben, als Elon Musk & Co vor einem Jahr werbewirksam eine Entwicklungspause forderten.
Unberechtigt sind Sorgen um zu viel Bürokratie aber nicht. Als problematisch für Startup-Unternehmen könnte sich die Risikofolgenabschätzung erweisen, die Firmen für ihre KI-Anwendungen vornehmen müssen, bevor diese auf dem Markt zugelassen werden. Denn die kostet.
Vielleicht aber ist das der Preis für einen Ansatz, der als „Brüsseler Formel“gepriesen wird – und von dem zu hoffen bleibt, dass er Schule machen wird. Inwieweit das klappt, wird der Praxistest zeigen. Der Wille, Grundrechte zu schützen, ohne die Vorteile von KI zu untergraben, ist das Unterfangen wert.
Besonders riskante KI-Anwendungen sind in Europa in Zukunft verboten.