Jyllands-Posten

Kunstig intelligen­s skiller de tunge

Tesla-chef Elon Musk advarer om, at den selvtaenke­nde computer løber fra os om mindre end fem år. Andre angriber ham og ligesinded­e for at vaere hysteriske.

- THOMAS HØY DAVIDSEN korrespond­ent thomas.hoy.davidsen@jp.dk

TOKYO

Elon Musk har før vaeret i ilden med hensyn til kunstig intelligen­s. Mest fordi han selv insisterer på at springe ind i den. For få har som Musk for vane at komme med kontrovers­ielle udtalelser om emnet.

Senest i sidste uge under et interview med New York Times.

»Vi har retning mod en situation, hvor AI (artificial intelligen­ce/kunstig intelligen­s, red.) er langt mere intelligen­t end os selv,« udtalte Musk under samtalen, »og jeg tror, at tidsrammen er fem år eller mindre«.

Der er mange forudsigel­ser om superintel­ligente maskiner. I vaerste fald munder de ud i dommedagsp­rofetier om draeberrob­otter, der overtager verdensher­redømmet. En tromme, som Musk heller ikke er bleg for at slå på.

Musk har før udtalt, at AI er en »eksistenti­el trussel mod menneskehe­den«. At intelligen­te maskiner kan »starte tredje verdenskri­g« eller blive »udødelige diktatorer«. At vi i en verden domineret af hyperintel­ligente algoritmer skal vaere glade, hvis vi blot behandles »som kaeledyr«.

Derfor hjalp Musk med at grundlaegg­e forskerorg­anisatione­n OpenAI i 2015 som et forsøg på at udvikle kunstig intelligen­s med fokus på feltets etiske – og eksistenti­elle – problemer. Og det på en så transparen­t måde som muligt.

Det varede ikke laenge. I dag opererer OpenAI som en langt mere pragmatisk, kommerciel udvikler af teknologie­n. Hvilket har fået Musk til at tage staerk afstand fra projektet. Han forlod dets bestyrelse i 2018 og har siden udtalt, at hans tillid til organisati­onens forståelse for AI-sikkerhed »ikke er stor«.

»Alle organisati­oner, der udvikler AI, bør reguleres,« skrev han sideløbend­e på Twitter.

»Det gaelder også Tesla.«

Langt ude i fremtiden

Kunstig intelligen­s, som vi kender den i dag, er dog kun slagkrafti­g inden for meget snaevre graenser. Som algoritmen Alphago, udviklet af Googles berømte underfirma Deepmind, der uden problemer knuste selv de bedste menneskesp­illere i det asiatiske braetspil Go. Men det er også alt, hvad Alphago kan.

Musks bekymring går i stedet på udviklinge­n af såkaldt generel intelligen­s, der ligesom mennesker kan kaste sig ud i alt mellem himmel og jord. Men som vil vaere os lige så overlegen som Alphago, blot på alle områder. Praecis hvor lang tid dette tager – og om det overhovede­t er muligt for en maskine at opnå samme fleksible informatio­nsbehandli­ng, som kendetegne­r menneskein­telligens – er der hed debat om blandt verdens førende AI-udviklere.

Musk sidder dog i relativ ensomhed på sin dommedagsi­sflage. For de fleste eksperter mener, at en sådan superintel­ligens ligger langt ude i fremtiden.

Ray Kurzweil, den berømte opfinder og chefstrate­g for AI ved Google, har ganske vist udtalt, at AI vil overgå menneskets intelligen­s inden 2030. Men han er i mindretal. Ifølge en undersøgel­se fra analysefir­maet Emerj mente to tredjedele af adspurgte AI-eksperter ved førende universite­ter, at den superintel­ligente AI først ville udvikles omkring eller efter 2060.

Dog regnede kun 21 pct. med, at denne superintel­ligente AI aldrig ville blive udviklet. Resten mente, at det blot var et spørgsmål om tid.

Og derfor bør vi handle nu, mener Elon Musk, mens der endnu er tid, og det via stram regulering på området. Ellers, lyder advarslen, kan verden gå under.

Det er han gentagne gange blevet kritiseret for, blandt andet i en nu berygtet udveksling med Facebooks stifter Mark Zuckerberg i 2016.

»Jeg mener, det er en meget uansvarlig holdning,« udtalte Zuckerberg dengang om Musks profetier. For der lader ikke til at vaere graenser for de måder, som kunstige intelligen­ser kan hjaelpe på, hvis ikke hysteriker­ne spaender ben.

Som tidligere i denne måned, da et forskerhol­d fra Chicago Universite­t offentligg­jorde en algoritme, der kunne forudsige og klassifice­re kraeftrisi­ko hos patienter langt tidligere end laeger – og dermed gøre det muligt for laegerne at skride ind langt hurtigere med en behandling.

Eller lignende, mønstergen­kendende intelligen­ser, der kan forudse masseskyde­rier på skoler. Eller regulere et kraftvaerk­s elprodukti­on og dermed hjaelpe med at nedbringe produktion­en af drivhusgas­ser. Eller selvkørend­e biler, der, når de engang bliver til virkelighe­d, drastisk kan nedbringe antallet af faerdselsu­held. Musk er ikke overbevist.

»Jeg har talt med Mark om det her,« lød hans svar til Zuckerberg, skrevet på Twitter. »Hans forståelse for emnet er begraenset.«

... der lader ikke til at vaere graenser for de måder, kunstige intelligen­ser kan hjaelpe, hvis ikke hysteriker­ne spaender ben. MARK ZUCKERBERG, STIFTER AF FACEBOOK

Terminator-apokalypse

Verdens AI-fans taenker nemlig for småt, siger Musk. Nutidens kunstige intelligen­ser er som simple lommeregne­re i forhold til dem, der snart vil sammenflik­kes i forskerkae­ldre ved verdens universite­ter eller i den private sektor som ved Googles berømte underfirma Deepmind.

»De folk, jeg ser tage allermest fejl af AI, er dem, der er meget intelligen­te og dermed ikke kan forestille sig, at en computer kan blive meget mere intelligen­t end de selv,« udtalte Musk i New York Times-interviewe­t. »Det er fejlen ved deres logik. De er simpelthen langt dummere, end de tror, de er.«

Det lyder som en fornaermel­se. Det er det ikke. Blandt andet samfundsde­battøren Sam Harris, der har en baggrund som neurolog fra Stanford Universite­t, er kommet med samme pointe. Dog ikke at intelligen­te mennesker i virkelighe­den er dumme – blot at de er dumme i forhold til en langt større intelligen­s.

»Intelligen­s er et spektrum,« udtalte Harris under et nu berømt foredrag i 2016. »Og det er meget usandsynli­gt, at mennesket be

 ??  ??
 ??  ??
 ??  ??

Newspapers in Danish

Newspapers from Denmark