Die etiese sy van kunsmatige-intelligensie (KI)
In ‘n vorige artikel het ek verduidelik dat kunsmatige-intelligensie (KI) hoofsaaklik rekenaarprogramme is wat geprogrammeer word om inligting te versamel, dit te gebruik in ‘n algoritme en dan ‘n voorspelling te maak, ‘n besluit te neem of ‘n aksie te bewerkstelling.
Ek die voorbeeld van "slimvoertuie" bespreek wat outonoom is en hulself bestuur. Die meganiese werking van die voertuig gaan grootliks wees soos voertuie vandag, maar die beheer van die voertuig is nou grotendeels of totaal onafhanklik van ‘n bestuurder.
Tipies sal ek die bestemming waarheen ek wil reis insleutel of aan die voertuig bekend maak. Die voertuig sal dan self die nodige aksies neem en begin ry na die bestemming. ‘n Klomp sensors gaan voordurend inligting inwin oor die omgewing en omstandighede rondom die voertuig. Hierdie
inligting sal dan gevoer word aan die rekenaaralgoritmes wat dan weer seine aan meganiese komponente van die voertuig sal stuur om sekere meganiese aksies te neem totdat ek (hopelik) veilig by my bestemming arriveer.
Veronderstel nou dat sekere sensors bepaal dat ‘n ander voertuig skielik regvoor my voertuig indraai en dat ‘n ongeluk ophande is. Hierdie inligting word nou aan die rekenaaralgoritme gestuur wat nou moet bepaal hoe my voertuig gaan reageer. Verskeie opsies is moontlik, soos byvoorbeeld:
1) Die rekenaaralgoritme kan sodanig geprogrammeer wees om my en my medeinsittendes optimaal te beskerm en geensins om te gee vir die insittendes in die ander voertuig of ander mense wat langs die pad loop nie, of
2) om die insittendes in die ander voertuig optimaal te beskerm en dalk tussen ‘n klomp kinders in te ry wat langs die pad loop, of
3) om persone wat langs die pad loop optimaal te beskerm en geensins uit te swaai nie. Hoe bepaal my voertuig watter aksie om te neem?
Hierdie aksies word natuurlik bepaal deur die rekenaaralgoritmes, wat deur mense geprogrammeer word. Die rekenaarprogrammeerder gaan bepaal of my voertuig moet uitswaai vir ‘n hond in die pad en moontlik in ‘n groep skoolkinders langs die pad inploeg. Dus, die voorkeure van die rekenaarprogrammeerder kan bepaal hoe my voertuig gaan reageer in so ‘n noodsituasie. Is dit reg, of behoort ek ook enigsins seggenskap te hê in die situasie?
So is daar vele etiese vraagstukke rondom kunsmatige-intelligensie en die outonome aksies wat voertuie en ander robotte, wapens, ensovoorts (gaan) neem in sekere situasies. Enige leser wat enige nietegniese vrae het omtrent veiligheid in die kuberwêreld, is welkom om my te kontak by rossouw.vonsolms@gmail.com
*
Prof Rossouw von Solms is 'n emeritus professor en lid van die Sentrum vir Navorsing in Inligting en Kubersekerheid aan die Nelson Mandela Universiteit.