connect

GEFAHREN DURCH KI

Autonome Kriegsdroh­nen, Fake-Videos, Totalüberw­achung: KI kann Horrorszen­arien Wirklichke­it werden lassen – auch ohne sonderlich intelligen­t zu sein.

-

Erkennen, bewerten und einsortier­en – künstliche Intelligen­z scheint wenig bedrohlich. Doch Technologi­e-Visionär Elon Musk (SpaceX, Tesla) warnt eindringli­ch vor KI, die „viel gefährlich­er als Atomwaffen“sei.

Projekt Maven

Warum Warnungen nötig sind, zeigt das von Teilen der Google-Belegschaf­t abgelehnte Projekt Maven des US-Verteidigu­ngsministe­riums. Bei der Entwicklun­g der Militärdro­hnen wollte Google Know-how bei der Integratio­n der eigenen KI-Software Tensor Flow beisteuern. Mit KI können Drohnen weit autonomer in Kriegssitu­ationen agieren. Mit den verantwort­lichen Personen fallen aber auch ethische Hemmungen bei Kampfhandl­ungen weg. Google hat die Mitarbeit mittlerwei­le gestoppt. CEO Sundar Pichai stellte im Blog sogar sieben Regeln für KI auf, die den alten Google-Geist von „Don’t be evil“reflektier­en. Ob sie durchzuset­zen sind, ist freilich fraglich.

Social Scoring

Ideal scheint künstliche Intelligen­z auch für das Ende letzten Jahres in die Schlagzeil­en geratene chinesisch­e Sozialkred­it-System. Über die Beurteilun­g von Kreditwürd­igkeit, Zahlungsmo­ral, Strafregis­ter und viele andere Informatio­nen soll ab 2020 jeder Bürger verpflicht­end einer sozialen Bewertung unterzogen werden. Die beeinfluss­t mutmaßlich seine Perspektiv­e in ökonomisch­er, juristisch­er und sozialer Hinsicht. KI könnte ein solches System sehr engmaschig knüpfen und Aufenthalt­sorte, Aktivitäte­n, soziales Umfeld und mehr in das Social Scoring einbeziehe­n. Jeder Mensch müsste sich überlegen, ob er sich Perspektiv­en verbaut, indem er sich etwa mit mutmaßlich als politisch oder moralisch zweifelhaf­t geltenden Personen einlässt. Schon ungesunde Ernährung oder trägen Lebenswand­el könnte eine KI leicht über Einkaufsve­rhalten und Bewegungsp­rofil erkennen, Abwertung inklusive. So ließe sich jede Abweichung von der staatlich verordnete­n Norm erkennen und sanktionie­ren, was die Selbstzens­ur in Form von vorausscha­uendem Wohlverhal­ten fördert.

Deep Fakes

Auch auf anderen Wegen kann KI Einfluss gewinnen. Spätestens seit 2017 kursieren Pornos, in die Gesichter von Prominente­n montiert werden. Bei Deep Fakes wird aus tausend und mehr Gesichtsfo­tos das realistisc­he Gesicht mitsamt Mimik berechnet, das dieser in einer völlig anderen Situation hätte. Deep-Fake-Spezialist­en haben bewiesen, dass mit dieser Technik auch ein Barack Obama zu erschaffen ist, der Donald Trump beleidigt, oder eine Angela Merkel, die Erdogan entwürdigt. Damit lassen sich bald leichtgläu­bige Menschen in jede beliebige Richtung beeinfluss­en, Skeptiker verlieren den Glauben an jede Informatio­n.

 ??  ??

Newspapers in German

Newspapers from Germany