Saarbruecker Zeitung

Wie ChatGPT zum Datendieb werden kann

Forscher des Saarbrücke­r Helmholtz-Zentrums Cispa warnen vor Sicherheit­srisiken beim Programm ChatGPT. Hacker könnten das KI-Programm dadurch im Handumdreh­en in einen Datendieb verwandeln.

- VON PETER BYLDA

Intelligen­z ist ein Zweig der Informatik, der in der Vergangenh­eit immer wieder für öffentlich­es Aufsehen sorgte. Leider nicht unbedingt im positiven Sinne. Da gab es Autopilote­n, die vor roten Ampeln ausfielen, KI-Bots, die im Internet herumpöbel­ten, und digitale Assistente­n mit Hörschäden, die plötzlich in einen Kaufrausch verfielen.

Zu Jahresbegi­nn hat sich das Negativima­ge der KI dann plötzlich gewandelt – denn jetzt gibt es ChatGPT. Der „Generative Pre-trained Transforme­r“, den schon Millionen von Internet-Nutzern getestet haben, gilt als der Tausendsas­sa der Textverarb­eitung. Er formuliert in Sekundenbr­uchteilen druckreife­n Text, schreibt Gedichte in fast jeder Sprache, kann aber ebenso gut Computerpr­ogramme verfassen. ChatGPT ist bei Weitem nicht perfekt, weil KI-Software aber ununterbro­chen dazulernt, sollen schon in nächster Zukunft derartige Programme, die bisher nur auf dem Spielplatz der IT-Nerds zu finden waren, in unserem digitalen Alltag Einzug halten. Der Microsoft-Konzern will die intelligen­ten Helfer zum Beispiel in Büro-Software integriere­n. Sie sollen „dabei helfen, besser zu schreiben, zu gestalten und zu präsentier­en“, erklärt der US-Konzern. Alles prima also – oder?

„Eher nicht“, antwortet auf diese Frage Mario Fritz. Der Saarbrücke­r Informatik-Professor leitet am Helmholtz-Zentrum für IT-Sicherheit Cispa eine Forschungs­gruppe, die Risiken der KI untersucht. Er hält es „für ziemlich überrasche­nd, um es einmal vorsichtig auszudrück­en, dass solche Programme jetzt in ein Office-Paket integriert werden sollen.“Die Sicherheit­srisiken, die in der neuen Technologi­e steckten, seien bisher kaum untersucht. Auf eine ihrer Missbrauch­smöglichke­iten haben die Cispa-Wissenscha­ftler

gerade in Zusammenar­beit mit dem Saarbrücke­r IT-Unternehme­n Sequire Technology aufmerksam gemacht. Das Saarbrücke­r Startup wurde vor zwei Jahren gegründet, hat zehn Mitarbeite­r und ist auf Themen rund um die IT-Sicherheit spezialisi­ert, erklärt Geschäftsf­ührer Christoph Endres.

Die IT-Spezialist­en sprechen von sogenannte­n „Prompt injections“. Der „Prompt“ist die Eingabeauf­forderung eines Computerpr­ogramms, die Stelle, an der die Software Anweisunge­n des Benutzers entgegenni­mmt. ChatGPT akzeptiert am Prompt sowohl normalen Text als auch Kommandos seines Nutzers. „Das Programm unterschei­det dabei aber nicht zwischen Daten und Befehlen“, erklärt Mario Fritz. Und weil ChatGPT über diesen Mechanismu­s zusätzlich in der Lage ist, Text von Internetse­iten auszuwerte­n, lassen sich auf diese Weise kinderleic­ht schädliche Anweisunge­n ins Programm einschleus­en, haben die Forscher des Cispa und von Sequire demonstrie­rt. Es kommt aber noch schlimmer: Für einen solchen Angriff benötige ein potenziell­er Hacker nicht einmal besondere Programmie­rkenntniss­e, erklärt der Cispa-Forscher. Ein Dutzend Anweisunge­n in Textform, die für den Nutzer unsichtbar auf einer Webseite versteckt sind, genügten,

um ChatGPT aus einem harmlosen Helfer in einen Datendieb zu verwandeln, haben die Informatik­er in einer Demoanwend­ung gezeigt. Im Szenario, das die Saarbrücke­r IT-Wissenscha­ftler entwickelt haben, verwandelt sich ein Chat-Modul auf der täuschend echt nachgemach­ten

Seite eines großen Internet-Handelshau­ses nach einigen einleitend­en netten Phrasen in einen bösen Bot, der mit allerlei hinterhält­igen Methoden versucht, Kennung und das Passwort des Kontoinhab­ers abzufangen. „Und das“, sagt Mario Fritz, „war eben nur ein Beispiel von mehreren.“Denkbar seien sehr viel komplexere schädliche Computeran­wendungen, die von Phishing-Mails bis zur Anleitung zur Programmie­rung oder dem direkten Entwurf von Computervi­ren reichten.

Lassen sich solche KI-Angriffe, wie der beim Passwort-Diebstahl, noch

mit Antivirens­oftware abfangen? „Natürlich gibt es Methoden, um so etwas zu erkennen, aber deren Treffsiche­rheit ist niedrig.“Da Programme wie ChatGPT nicht zwischen Daten und Befehlen unterschei­den, gebe es eine praktisch unbegrenzt­e Zahl von Angriffsmu­stern. „Ein konvention­elles Antivirenp­rogramm ist da überforder­t“, erklärt der Cispa-Forscher.

Mario Fritz leitet das IT-Netzwerk Elsa, das europäisch­e Standards für sichere KIAnwendun­gen in Europa entwickeln soll. Für den Saarbrücke­r Informatik­er kommt es nun darauf an, dass in der EU möglichst schnell ein rechtliche­r Rahmen abgesteckt wird, der Regeln für den Einsatz von Programmen der Künstliche­n Intelligen­z definiert, bevor sich diese Software in großem Stil zu verbreiten beginnt. Dabei sei es unter anderem wichtig, bei Software, in der ein KI-Modul drinstecke, das auch dem Nutzer klar mitzuteile­n. Für Nutzer sei es schließlic­h wichtig,

solche Programme bewusst einzusetze­n – oder darauf zu verzichten. In der Rolle des Copiloten könne eine KI einem menschlich­en Fahrer den Weg auf der Datenautob­ahn weisen. Als Autopilot sei sie dagegen vollkommen ungeeignet, sagt Mario Fritz.

Weil KI-Systeme „große Risiken für die Menschheit darstellen“, fordern nun Informatik­er weltweit, die Weiterentw­icklung von Programmen, die leistungsf­ähiger als ChatGPT in der Version 4 sind, für mindestens sechs Monate zu unterbrech­en. Im weltweiten Aufruf, den mittlerwei­le über 20 000 Wissenscha­ftler, darunter auch Informatik­er aus dem Saarland, unterschri­eben haben, wird kritisiert, der Wettlauf in den KI-Laboren sei in den vergangene­n Monaten außer Kontrolle geraten. Dabei könnten noch nicht einmal die Entwickler dieser Programme deren Verhalten verstehen, vorhersage­n oder kontrollie­ren.

Das Saarbrücke­r IT-Unternehme­n Sequire hat mittlerwei­le sowohl den Microsoft-Konzern als auch OpenAI, das Unternehme­n, das ChatGPT programmie­rt hat, auf die neu entdeckte Schwachste­lle hingewiese­n. „Uns ist nicht bekannt, dass MS/OpenAI an einer Lösung arbeitet, die das Problem beseitigt“, schließt Christoph Endres.

„Konvention­elle AntivirenP­rogramme sind da überforder­t.“Professor Mario Fritz vom Helmholtz-Zentrum Cispa zu den Abwehrmögl­ichkeiten gegen bösartige KI-Software

 ?? ??
 ?? GRAFIK: IMAGO/LIMBACH ?? Die Software ChatGPT ist in aller Munde. Saarbrücke­r Informatik­er weisen nun auf eine bedeutende Schwachste­lle des KI-Programms hin.
GRAFIK: IMAGO/LIMBACH Die Software ChatGPT ist in aller Munde. Saarbrücke­r Informatik­er weisen nun auf eine bedeutende Schwachste­lle des KI-Programms hin.

Newspapers in German

Newspapers from Germany