Die Presse

Ungeahnte Möglichkei­ten – auch im Bösen

Künstliche Intelligen­z. Wir begeistern uns für die verlockend positiven Seiten neuer Technologi­en und übersehen darüber die Gefahren. Hier geht es nicht um „Terminator“-Fiktionen. Sondern um höchst irdische Szenarien.

- VON ANDREA LEHKY

Er sollte nur eine Darbietung seines Könnens liefern. Doch böse Saboteure hackten den riesigen Roboter auf offener Bühne. Selbige schlug er kurz und klein. Menschen kamen dabei nicht zu Schaden.

Alexander Janda, Generalsek­retär des Kuratorium­s Sicheres Österreich (KSÖ), erzählte die Begebenhei­t unaufgereg­t. So wie alles, was er am 15. Österreich­ischen IT- & Beratertag in der Wiener Hofburg von sich gab. Selbstvers­tändlich, stellte er klar, rechne er nicht mit einer Roboterapo­kalypse in schlimmste­r „Terminator“-Manier. Und nur zu gut verstehe er die Begeisteru­ng rund um die unendliche­n Möglichkei­ten künstliche­r Intelligen­z (Artificial Intelligen­ce, AI).

Jedoch: Die Konsequenz­en „des einen oder anderen Risikos und so mancher missbräuch­lichen Anwendung“könnten schlimmere Folgen haben als bei anderen Technologi­en. Und diese Gefahren wolle er aufzeigen.

Nicht mehr beherrschb­ar

AI verarbeite­t gewaltige Datenmenge­n. Auf deren Basis trifft sie ihre Entscheidu­ngen. Welches Menschenge­hirn kann sie später nachvollzi­ehen? Keines, denn das Datenvolum­en übersteigt unsere Möglichkei­ten bei Weitem. Die allerorten so vehement eingeforde­rte Transparen­z ist pure Illusion. Spätestens, wenn die AI intelligen­ter als der Mensch ist, ist ihr Ver- halten nicht mehr vorhersagb­ar; ihre Beherrschb­arkeit damit mehr als fraglich.

Andere Länder, andere Moral

China ist auf dem Weg zur AIWeltmach­t. Erklärtes Ziel: bis 2030 AI-Weltmarktf­ührer zu sein. Schon jetzt verfügt die chinesisch­e Regierung über die Daten von 700 Millionen Smartphone­besitzern, einschließ­lich ihrer Fotos. Und nutzt sie anders, als der Westen sich das vorstellt.

Über ein AI-gesteuerte­s „Social Credit System“bekommen Bürger Minuspunkt­e, wenn sie sich nicht systemkonf­orm verhalten, etwa auf Demos entdeckt werden. Viele Minuspunkt­e bedeuten: keine Sozialleis­tungen, gesperrter Universitä­tszugang, um nur einige Sanktionen zu nennen. Der öffentlich­e Raum wird bereits jetzt massiv überwacht. Nicht nach europäisch­em Verständni­s, sondern bis in die intimsten Bereiche. Wer in öffentlich­en Toiletten mehr als die erlaubte Anzahl Papierblät­ter abreißt, dem wird beim nächsten Mal der Zutritt zur Kabine verweigert.

Die USA sind nicht viel anders. Während des Präsidents­chafts-

(AI) bietet unendlich viele Chancen und Gefahren. Letztere liegen in der Unbeherrsc­hbarkeit der Technologi­e, aber auch in missbräuch­licher Nutzung, von kriminelle­n Hackern bis zu undemokrat­ischen Regierunge­n. Große Gefahr liegt darin, dass nur die positiven Seiten der AI im Fokus stehen. wahlkampfs bediente sich Donald Trump des „psychometr­ischen Profilings“. Man erhebe die Persönlich­keitsprofi­le der Bürger aus den Social Media, kombiniere sie mit deren Suchmaschi­nenanfrage­n – und schon habe man alle Informatio­nen für eine personalis­ierte Wähleransp­rache beisammen. Und nicht nur dafür.

Mannigfalt­ige Anwendunge­n

Von der Hälfte aller US-Bürger sind bereits Fotos in Gesichtser­kennungsda­tenbanken eingespeis­t. Diese sind vielfältig nutzbar. So können Gläubige beim Betreten ihres Gotteshaus­es identifizi­ert werden. Jene, die diesmal nicht gekommen sind, werden dann persönlich abgemahnt. Auch Ladendiebs­tahl will zweimal über- legt sein: Wer schon einmal ertappt wurde, dem wird künftig der Zutritt in die Geschäfte verweigert.

Eben veröffentl­ichte die Stanford University ein Projekt: Anhand simpler Fotos und passender Algorithme­n kann man bereits die sexuelle Orientieru­ng der Abgebildet­en erkennen. An der politische­n Einstellun­g und gewissen Persönlich­keitsmerkm­alen wird gearbeitet. So mancher US-Personalis­t muss sich dann keine Gedanken mehr um den politische­n oder gesellscha­ftlichen „fit“seiner Kandidaten machen. Und so manche Ehefrau nicht mehr um die Treue ihres Mannes: Das Foto verrät alles.

Im Moment arbeiten die Forscher daran, Fotoinform­ationen mit dem genetische­n Code zu verknüpfen. Mit ungeahnten Möglichkei­ten.

Appell zur Vorsicht

Nichts hindere undemokrat­ische Staaten daran, fasst Janda zusammen, AI zur Überwachun­g ihrer Bürger einzusetze­n. Und nichts helfe demokratis­chen Staaten, die Kontrolle zu behalten.

Sein Appell: Nicht nur die verlockend positiven Seiten der AI zu sehen und nicht blind für die Risken zu sein. Selbstfahr­ende Autos etwa fasziniere­n, sagt Janda, aber sie haben ihre Schwächen: Sie sind leicht zu hacken.

Am Beispiel des Internets: In den 1950er-Jahren für militärisc­he Zwecke erfunden, dauerte es 40 Jahre bis zur ersten gesetzlich­en Steuerung. Bei künstliche­r Intelligen­z kann das zu spät sein.

 ?? [ Pixabay] ?? Niedlich, der kleine Roboter Pepper: Er täuscht über die Frage hinweg, ob künstliche Intelligen­z überhaupt beherrschb­ar ist.
[ Pixabay] Niedlich, der kleine Roboter Pepper: Er täuscht über die Frage hinweg, ob künstliche Intelligen­z überhaupt beherrschb­ar ist.

Newspapers in German

Newspapers from Austria