Computerwoche

Bessere Sicherheit­sregeln für KI

Gibt es eine sichere künstliche Intelligen­z? Bevor diese Frage bejaht werden kann, brauchen wir neue Standards für Entwicklun­g und Qualität komplexer KI-Systeme. Diese Normen sollten verbindlic­h sein.

- Von Aleksandra Sowa, Senior Manager bei PwC und Buchautori­n

Um komplexe KI-Systeme vorantreib­en zu können, brauchen Entwickler neue Standards für Sicherheit und Qualität. Diese Normen sollten verbindlic­h sein.

Beim Thema Sicherheit von künstliche­r Intelligen­z (KI) denken viele an potenziell­e Gefahren durch selbstfahr­ende Autos. Oft wird vergessen, dass viele Gefahren bereits in heutigen Fahrzeugen vorhanden sind, sobald diese mit dem Internet verbunden sind. Auch die Sicherheit­srisiken künftiger KI-Systeme unterschei­den sich nicht wesentlich von den Risiken der Vorläufert­echnologie­n wie automatisc­hen Entscheidu­ngssysteme­n (ADM), lernenden Algorithme­n beziehungs­weise Machine Learning. Die Risiken nehmen jedoch mit steigender Verbreitun­g und Nutzung dieser Technologi­en und ihrer wachsenden Leistungsf­ähigkeit zu. Bevor man von der Sicherheit der KI spricht, sollte man sich fragen, was KI ist. Auch wenn das Thema für Industrie wie Politik „höchste Bedeutung“hat, gibt es derzeit keine einheitlic­he, allgemein akzeptiert­e Definition künstliche­r Intelligen­z. Alles, was „lernt“, „komplex“ist oder einfach viele Daten verwendet, scheint sich sogleich als KI zu qualifizie­ren.

Bei Machine Learning handelt es sich um eine bestimmte Art von Algorithmu­s, der eine Maschine (einen Computer) anweist, große Datenmenge­n auszuwerte­n, und angibt, wann die Aufgabe richtig oder falsch beziehungs­weise besser oder schlechter ausgeführt wurde. Auf dieser Grundlage modifizier­t sich der Algorithmu­s selbst, um die gestellte Aufgabe immer besser zu lösen (obwohl immer zuerst definiert werden muss, was „besser“ist). Dennoch arbeiten die meisten Maschinen oder Roboter noch per Vorgabe. Der Algorithmu­s gibt für bestimmte Aktionen konkrete Reaktionen vor.

Komplexitä­t als größter Feind der Sicherheit

Bei ML, ADM-Systemen oder KI handelt es sich um sehr komplexe Software. Und die Komplexitä­t, so der US-amerikanis­che Sicherheit­sexperte Bruce Schneier, sei der größte Feind der Sicherheit. Algorithme­n benötigen präzise Angaben, Maschinen oder Computer brauchen konkrete Vorgaben und Daten, um ordnungsge­mämäß zu funktionie­ren. Diese Daten müssen integer, verfügbar und korrekt sein.

Um sicherzust­ellen, dass Software tut, was sie soll, ist Testen beziehungs­weise Penetratio­ns-Testing eine populäre Methode. Solche Pentests reichen aber nicht aus, um Softwarequ­alität und -sicherheit hinreichen­d zu prüfen. Sie bieten unvollkomm­ene Beweise und sind unentbehrl­ich dort, wo der Entwicklun­gsprozess – wie der Quellcode – verborgen bleibt.

Pentests sollten deswegen um Kriterien für Softwareen­twicklung, insbesonde­re für die

Softwarequ­alität und -sicherheit, sinnvoll ergänzt werden, um aussagekrä­ftige Ergebnisse zu gewährleis­ten. Da KI-Systeme nicht statisch sind, hat die Gesellscha­ft für Informatik in der Studie „Technische und rechtliche Betrachtun­gen algorithmi­scher Entscheidu­ngsverfahr­en“verfügbare Testmethod­en für ADMSysteme ausgewerte­t und Forschungs­bedarf an neuen Testverfah­ren identifizi­ert. Ausgedrück­t mit den Worten des Computerpi­oniers Edsger Dijkstra: „[...] program testing can be a very effective way to show the presence of bugs, but it is hopelessly inadequate for showing their absence. The only effective way to show the confidence level of a program significan­tly is to give a convincing proof of its correctnes­s.“

Software als „Bananenpro­dukt“

Sicherheit beginnt für KI-Systeme und die Vorläufert­echnologie­n dort, wo die Software entwickelt wird. Dieser Software bescheinig­en Experten schon heute keine gute Qualität. Software werde in unreifem Zustand auf den Markt gebracht und „reife“bei den Kunden. Sie sei instabil, müsse gepatcht, gewartet und upgegradet werden oder entwickle ein Eigenleben, indem sie – zu Wartungszw­ecken – Daten ohne Wissen des Nutzers an die Hersteller übermittle. Man spricht von Software als „Bananenpro­dukt“. Der Autor von „Novacene“, James Lovelock, bescheinig­te dem Computerco­de sogar, er sei „absolute junk“.

Jeder Fehler in der Software von heute ist eine potenziell­e Sicherheit­slücke von morgen. Dies rückt den Aspekt der Softwaresi­cherheit langsam in den Fokus der Diskussion über die Sicherheit der KI-Systeme. Es gibt bereits Standards wie ISO 9001 oder ISO 9126 sowie ergänzende Standards für Applikatio­nen (ISO 90003: 2018), um sichere und hochwertig­e Software zu entwickeln. Allerdings sind diese Standards weder verbindlic­h noch verpflicht­end. Verbindlic­he Kontrollsy­steme sind nötig

Sollen Automation und KI das Leben der Menschen erleichter­n, gilt es jetzt, die Kontrollfä­higkeit der Systeme vorzuschre­iben und sicherzust­ellen – oder wenigstens verbindlic­h zu machen. Dies gelingt mit Zertifikat­en, Prüfungste­staten, Sicherheit­sgütesiege­ln oder IT-Kennzeiche­n für Sicherheit, wie vom Bundesinne­nministeri­um vorgeschla­gen. Die viel diskutiert­e Transparen­z reicht hierfür vermutlich nicht aus – bis auf ihre Rolle als notwendige Bedingung für die Prüffähigk­eit.

Viele Standards für Softwareen­twicklung und -qualität sind nicht für komplexe Software ausgelegt oder wurden nicht dafür entwickelt. Dies bedarf weiterer Forschung. Wissenscha­ftler wie Professor Sabine Radomski von der Hochschule für Telekommun­ikation Leipzig arbeiten an der Entwicklun­g von Qualitäts- und Sicherheit­sindikator­en (wie der „Obsoleszen­z“) und an Methoden für Bewertung und Prüfung der Softwarequ­alität während des Entwicklun­gsprozesse­s.

Bei der Überführun­g der Forschungs­ergebnisse­n in die Anwendung spielen Normen und Standards eine wichtige Rolle. Eine im August vom Wirtschaft­sministeri­um und dem Deutschen Institut für Normung (DIN) etablierte Steuerungs­gruppe für die Normung zu künstliche­r Intelligen­z wird 2020 eine KI-NormungsRo­admap entwickeln, mit der die Qualität von KI sichergest­ellt werden sollte.

Cyborgs machen es besser

Und wenn man die Arbeit richtig gemacht hat, dann wird sich die KI bald selbst programmie­ren können. Das werden die Cyborgs dann sowieso viel besser können als die Menschen – davon zumindest ist James Lovelock überzeugt, nachdem er sich viele Proben von heute entwickelt­en Softwareco­des angesehen hat.

 ??  ?? Der Terminator ist für die Mehrheit der Deutschen das bekanntest­e KI-Vorbild, gefolgt von R2-D2 aus Star Wars und K.I.T.T. Das fand das Institut für Demoskopie Allensbach in einer von der Gesellscha­ft für Informatik in Auftrag gegebenen Studie über „KI und Popkultur“im Mai 2019 heraus. Solange keine Einigkeit darüber herrscht, was künstliche Intelligen­z eigentlich ist, werden unsere Vorstellun­gen durch Science-Fiction-Filme oder -Literatur geprägt.
Der Terminator ist für die Mehrheit der Deutschen das bekanntest­e KI-Vorbild, gefolgt von R2-D2 aus Star Wars und K.I.T.T. Das fand das Institut für Demoskopie Allensbach in einer von der Gesellscha­ft für Informatik in Auftrag gegebenen Studie über „KI und Popkultur“im Mai 2019 heraus. Solange keine Einigkeit darüber herrscht, was künstliche Intelligen­z eigentlich ist, werden unsere Vorstellun­gen durch Science-Fiction-Filme oder -Literatur geprägt.

Newspapers in German

Newspapers from Germany