Ungeahnte Möglichkeiten – auch im Bösen
Künstliche Intelligenz. Wir begeistern uns für die verlockend positiven Seiten neuer Technologien und übersehen darüber die Gefahren. Hier geht es nicht um „Terminator“-Fiktionen. Sondern um höchst irdische Szenarien.
Er sollte nur eine Darbietung seines Könnens liefern. Doch böse Saboteure hackten den riesigen Roboter auf offener Bühne. Selbige schlug er kurz und klein. Menschen kamen dabei nicht zu Schaden.
Alexander Janda, Generalsekretär des Kuratoriums Sicheres Österreich (KSÖ), erzählte die Begebenheit unaufgeregt. So wie alles, was er am 15. Österreichischen IT- & Beratertag in der Wiener Hofburg von sich gab. Selbstverständlich, stellte er klar, rechne er nicht mit einer Roboterapokalypse in schlimmster „Terminator“-Manier. Und nur zu gut verstehe er die Begeisterung rund um die unendlichen Möglichkeiten künstlicher Intelligenz (Artificial Intelligence, AI).
Jedoch: Die Konsequenzen „des einen oder anderen Risikos und so mancher missbräuchlichen Anwendung“könnten schlimmere Folgen haben als bei anderen Technologien. Und diese Gefahren wolle er aufzeigen.
Nicht mehr beherrschbar
AI verarbeitet gewaltige Datenmengen. Auf deren Basis trifft sie ihre Entscheidungen. Welches Menschengehirn kann sie später nachvollziehen? Keines, denn das Datenvolumen übersteigt unsere Möglichkeiten bei Weitem. Die allerorten so vehement eingeforderte Transparenz ist pure Illusion. Spätestens, wenn die AI intelligenter als der Mensch ist, ist ihr Ver- halten nicht mehr vorhersagbar; ihre Beherrschbarkeit damit mehr als fraglich.
Andere Länder, andere Moral
China ist auf dem Weg zur AIWeltmacht. Erklärtes Ziel: bis 2030 AI-Weltmarktführer zu sein. Schon jetzt verfügt die chinesische Regierung über die Daten von 700 Millionen Smartphonebesitzern, einschließlich ihrer Fotos. Und nutzt sie anders, als der Westen sich das vorstellt.
Über ein AI-gesteuertes „Social Credit System“bekommen Bürger Minuspunkte, wenn sie sich nicht systemkonform verhalten, etwa auf Demos entdeckt werden. Viele Minuspunkte bedeuten: keine Sozialleistungen, gesperrter Universitätszugang, um nur einige Sanktionen zu nennen. Der öffentliche Raum wird bereits jetzt massiv überwacht. Nicht nach europäischem Verständnis, sondern bis in die intimsten Bereiche. Wer in öffentlichen Toiletten mehr als die erlaubte Anzahl Papierblätter abreißt, dem wird beim nächsten Mal der Zutritt zur Kabine verweigert.
Die USA sind nicht viel anders. Während des Präsidentschafts-
(AI) bietet unendlich viele Chancen und Gefahren. Letztere liegen in der Unbeherrschbarkeit der Technologie, aber auch in missbräuchlicher Nutzung, von kriminellen Hackern bis zu undemokratischen Regierungen. Große Gefahr liegt darin, dass nur die positiven Seiten der AI im Fokus stehen. wahlkampfs bediente sich Donald Trump des „psychometrischen Profilings“. Man erhebe die Persönlichkeitsprofile der Bürger aus den Social Media, kombiniere sie mit deren Suchmaschinenanfragen – und schon habe man alle Informationen für eine personalisierte Wähleransprache beisammen. Und nicht nur dafür.
Mannigfaltige Anwendungen
Von der Hälfte aller US-Bürger sind bereits Fotos in Gesichtserkennungsdatenbanken eingespeist. Diese sind vielfältig nutzbar. So können Gläubige beim Betreten ihres Gotteshauses identifiziert werden. Jene, die diesmal nicht gekommen sind, werden dann persönlich abgemahnt. Auch Ladendiebstahl will zweimal über- legt sein: Wer schon einmal ertappt wurde, dem wird künftig der Zutritt in die Geschäfte verweigert.
Eben veröffentlichte die Stanford University ein Projekt: Anhand simpler Fotos und passender Algorithmen kann man bereits die sexuelle Orientierung der Abgebildeten erkennen. An der politischen Einstellung und gewissen Persönlichkeitsmerkmalen wird gearbeitet. So mancher US-Personalist muss sich dann keine Gedanken mehr um den politischen oder gesellschaftlichen „fit“seiner Kandidaten machen. Und so manche Ehefrau nicht mehr um die Treue ihres Mannes: Das Foto verrät alles.
Im Moment arbeiten die Forscher daran, Fotoinformationen mit dem genetischen Code zu verknüpfen. Mit ungeahnten Möglichkeiten.
Appell zur Vorsicht
Nichts hindere undemokratische Staaten daran, fasst Janda zusammen, AI zur Überwachung ihrer Bürger einzusetzen. Und nichts helfe demokratischen Staaten, die Kontrolle zu behalten.
Sein Appell: Nicht nur die verlockend positiven Seiten der AI zu sehen und nicht blind für die Risken zu sein. Selbstfahrende Autos etwa faszinieren, sagt Janda, aber sie haben ihre Schwächen: Sie sind leicht zu hacken.
Am Beispiel des Internets: In den 1950er-Jahren für militärische Zwecke erfunden, dauerte es 40 Jahre bis zur ersten gesetzlichen Steuerung. Bei künstlicher Intelligenz kann das zu spät sein.