Teknologi og etikk
I 1932 skrev Aldous Huxley boken Den vidunderlige nye verden, hvor mennesker blir produsert etter hvilket formål de skal tjene i samfunnet. Fra Alpha + mennesker eller lederne, til Epsilon – mennesker som knapt kan sies å ha menneskelige egenskaper, arbeidere på laveste nivå. Alle produsert på flasker.
Nå produserer Russland soldat-roboter. Riktignok ikke på flasker, men i laboratorier og i verksteder og om ikke lenge i fabrikker. Og USA konstruerer sine kamp-roboter med kunstig intelligens som de sier vil gjøre det mulig for autonome (selvstyrende) systemer å bestemme og utføre kamphandlinger uten input fra mennesker. Altså at roboten eller systemene foretar selvstendige valg i en krigssituasjon. Man kan jo tenke seg hvilke verdier som legges inn i kamp/soldat-roboter for å fatte «riktige» beslutninger. De er neppe etisk høyverdige.
FN har derfor besluttet å opprette en internasjonale ekspertgruppen med regjeringsrepresentanter for å diskutere både de teknologiske, militaere, juridiske og etiske implikasjonene ved å utvikle autonome våpen. De gir dessverre ikke mye lyd fra seg.
Hva blir det neste i den teknologiske utviklingen? Autonome maskiner som sjåfører, flygere, sykepleiere, laerere? Med selvstendige valg og avgjørelser? Finnes det grenser for hva vår kreativitet og skaperevne kan produsere av skapninger som gjøres uavhengig av påvirkning fra mennesker? Som i neste instans kanskje reproduserer seg selv? Som etter å ha blitt produsert og programmert beslutter og bestemmer sine egne handlinger, gjør sine egne valg som kosten gjør i diktet Trollmannens laeregutt.
I Goethes dikt fra 1797 setter trollmannen sin laeregutt til å utføre et arbeid på en viss måte. Noe likt kamp-roboter eller droner gjør i dag. Laeregutten finner denne måten lite hensiktsmessig, og overprøver trollmannens påbud ved å gjøre det på sin egen måte. Laeregutten setter i sving krefter han ikke er i stand til å kontrollere, og resultatet er katastrofalt. Hos Goethe var konsekvensen selvsagt en syndeflod. Hvis man i den pågående revolusjonen, lar teknologien utvikle seg ukontrollert, kan konsekvensen bli selve ragnarokk. For nå er det ikke bare etikken som styringsredskap og veiviser for mennesket, man må vaere oppmerksom på. Nå er det også overføring av etiske holdninger og handlinger til roboter som må diskuteres og som det må tas beslutninger om. Hvordan få en robot til å handle etisk riktig i valgsituasjoner? For valg blir foretatt av robotene. Og hva er etisk riktige valg? Ved tidligere teknologiske revolusjoner så er det det menneskelige muskelarbeid som er overtatt av maskiner. Men denne gangen kan det vaere den menneskelige hjerne; vår tenkemåte, vår moral, vårt verdisett som skal programmeres inn i en maskin med kunstig intelligens. Og etter hvert vil vi få roboter som selv skaper roboter. Autonomt. Naermere en ny skapelse har vi aldri vaert. Nå skal robotens kropp og sjel utformes. Og robotene kan gjøre det selv.
For hva skal robotenes hjerner utstyres med, og hvem skal stå for programmeringen og algoritmene? Akkurat dette er tidens viktigste spørsmål. Vil det bli slik at hver nasjon vil lage sine egne program og dermed sine egne roboter? Hva vil dette si for Norge, for verden. For menneskeheten. Skal regjeringen, Stortinget, FN, kapitalen, styre utviklingen? Vil det bli et marked for etiske roboter? For roboter med forskjellig verdisyn? Gode roboter? Onde roboter? Terror-roboter?
Hvilke ideologier skal programmeres inn i robotene? Hvilke religioner skal med? Skal menneskerettighetene inn, de 10 bud, rettsstaten, velferdssamfunnet?
Andre politikerne må høre på Knut Arild Hareide som flere ganger har sagt at etikken må styre teknologien. De må også la humanistene slippe til. Sammen må de kontrollere realistene og teknologifundamentalistene. Og det er saerlig viktig å poengtere dette i vår tids realfagshysteri og ureflekterte opphausing av realfagene. Og vi må skynde oss før kunstig intelligens blir mer intelligent enn den menneskelig. På alle områder.