Bessere Sicherheitsregeln für KI
Gibt es eine sichere künstliche Intelligenz? Bevor diese Frage bejaht werden kann, brauchen wir neue Standards für Entwicklung und Qualität komplexer KI-Systeme. Diese Normen sollten verbindlich sein.
Um komplexe KI-Systeme vorantreiben zu können, brauchen Entwickler neue Standards für Sicherheit und Qualität. Diese Normen sollten verbindlich sein.
Beim Thema Sicherheit von künstlicher Intelligenz (KI) denken viele an potenzielle Gefahren durch selbstfahrende Autos. Oft wird vergessen, dass viele Gefahren bereits in heutigen Fahrzeugen vorhanden sind, sobald diese mit dem Internet verbunden sind. Auch die Sicherheitsrisiken künftiger KI-Systeme unterscheiden sich nicht wesentlich von den Risiken der Vorläufertechnologien wie automatischen Entscheidungssystemen (ADM), lernenden Algorithmen beziehungsweise Machine Learning. Die Risiken nehmen jedoch mit steigender Verbreitung und Nutzung dieser Technologien und ihrer wachsenden Leistungsfähigkeit zu. Bevor man von der Sicherheit der KI spricht, sollte man sich fragen, was KI ist. Auch wenn das Thema für Industrie wie Politik „höchste Bedeutung“hat, gibt es derzeit keine einheitliche, allgemein akzeptierte Definition künstlicher Intelligenz. Alles, was „lernt“, „komplex“ist oder einfach viele Daten verwendet, scheint sich sogleich als KI zu qualifizieren.
Bei Machine Learning handelt es sich um eine bestimmte Art von Algorithmus, der eine Maschine (einen Computer) anweist, große Datenmengen auszuwerten, und angibt, wann die Aufgabe richtig oder falsch beziehungsweise besser oder schlechter ausgeführt wurde. Auf dieser Grundlage modifiziert sich der Algorithmus selbst, um die gestellte Aufgabe immer besser zu lösen (obwohl immer zuerst definiert werden muss, was „besser“ist). Dennoch arbeiten die meisten Maschinen oder Roboter noch per Vorgabe. Der Algorithmus gibt für bestimmte Aktionen konkrete Reaktionen vor.
Komplexität als größter Feind der Sicherheit
Bei ML, ADM-Systemen oder KI handelt es sich um sehr komplexe Software. Und die Komplexität, so der US-amerikanische Sicherheitsexperte Bruce Schneier, sei der größte Feind der Sicherheit. Algorithmen benötigen präzise Angaben, Maschinen oder Computer brauchen konkrete Vorgaben und Daten, um ordnungsgemämäß zu funktionieren. Diese Daten müssen integer, verfügbar und korrekt sein.
Um sicherzustellen, dass Software tut, was sie soll, ist Testen beziehungsweise Penetrations-Testing eine populäre Methode. Solche Pentests reichen aber nicht aus, um Softwarequalität und -sicherheit hinreichend zu prüfen. Sie bieten unvollkommene Beweise und sind unentbehrlich dort, wo der Entwicklungsprozess – wie der Quellcode – verborgen bleibt.
Pentests sollten deswegen um Kriterien für Softwareentwicklung, insbesondere für die
Softwarequalität und -sicherheit, sinnvoll ergänzt werden, um aussagekräftige Ergebnisse zu gewährleisten. Da KI-Systeme nicht statisch sind, hat die Gesellschaft für Informatik in der Studie „Technische und rechtliche Betrachtungen algorithmischer Entscheidungsverfahren“verfügbare Testmethoden für ADMSysteme ausgewertet und Forschungsbedarf an neuen Testverfahren identifiziert. Ausgedrückt mit den Worten des Computerpioniers Edsger Dijkstra: „[...] program testing can be a very effective way to show the presence of bugs, but it is hopelessly inadequate for showing their absence. The only effective way to show the confidence level of a program significantly is to give a convincing proof of its correctness.“
Software als „Bananenprodukt“
Sicherheit beginnt für KI-Systeme und die Vorläufertechnologien dort, wo die Software entwickelt wird. Dieser Software bescheinigen Experten schon heute keine gute Qualität. Software werde in unreifem Zustand auf den Markt gebracht und „reife“bei den Kunden. Sie sei instabil, müsse gepatcht, gewartet und upgegradet werden oder entwickle ein Eigenleben, indem sie – zu Wartungszwecken – Daten ohne Wissen des Nutzers an die Hersteller übermittle. Man spricht von Software als „Bananenprodukt“. Der Autor von „Novacene“, James Lovelock, bescheinigte dem Computercode sogar, er sei „absolute junk“.
Jeder Fehler in der Software von heute ist eine potenzielle Sicherheitslücke von morgen. Dies rückt den Aspekt der Softwaresicherheit langsam in den Fokus der Diskussion über die Sicherheit der KI-Systeme. Es gibt bereits Standards wie ISO 9001 oder ISO 9126 sowie ergänzende Standards für Applikationen (ISO 90003: 2018), um sichere und hochwertige Software zu entwickeln. Allerdings sind diese Standards weder verbindlich noch verpflichtend. Verbindliche Kontrollsysteme sind nötig
Sollen Automation und KI das Leben der Menschen erleichtern, gilt es jetzt, die Kontrollfähigkeit der Systeme vorzuschreiben und sicherzustellen – oder wenigstens verbindlich zu machen. Dies gelingt mit Zertifikaten, Prüfungstestaten, Sicherheitsgütesiegeln oder IT-Kennzeichen für Sicherheit, wie vom Bundesinnenministerium vorgeschlagen. Die viel diskutierte Transparenz reicht hierfür vermutlich nicht aus – bis auf ihre Rolle als notwendige Bedingung für die Prüffähigkeit.
Viele Standards für Softwareentwicklung und -qualität sind nicht für komplexe Software ausgelegt oder wurden nicht dafür entwickelt. Dies bedarf weiterer Forschung. Wissenschaftler wie Professor Sabine Radomski von der Hochschule für Telekommunikation Leipzig arbeiten an der Entwicklung von Qualitäts- und Sicherheitsindikatoren (wie der „Obsoleszenz“) und an Methoden für Bewertung und Prüfung der Softwarequalität während des Entwicklungsprozesses.
Bei der Überführung der Forschungsergebnissen in die Anwendung spielen Normen und Standards eine wichtige Rolle. Eine im August vom Wirtschaftsministerium und dem Deutschen Institut für Normung (DIN) etablierte Steuerungsgruppe für die Normung zu künstlicher Intelligenz wird 2020 eine KI-NormungsRoadmap entwickeln, mit der die Qualität von KI sichergestellt werden sollte.
Cyborgs machen es besser
Und wenn man die Arbeit richtig gemacht hat, dann wird sich die KI bald selbst programmieren können. Das werden die Cyborgs dann sowieso viel besser können als die Menschen – davon zumindest ist James Lovelock überzeugt, nachdem er sich viele Proben von heute entwickelten Softwarecodes angesehen hat.