Als je leven in handen van algoritmes ligt
Wat als artificiële intelligentie je leven bepaalt? Als ze beslist of de politie je arresteert, de bank je een lening geeft, de inspectie je belastingaangifte controleert? Europese experts buigen zich nu al over de ethische kwesties, voor als het (binnenkort) zover is.
‘Deep learning’, zoals de nieuwste vorm van artificiële intelligentie heet, wordt steeds vaker naar voren geschoven als de oplossing voor haast elk technisch, economisch of maatschappelijk probleem. Deep learning moet haatberichten van onze sociale media verwijderen, robots moeten onze bejaarden helpen te verzorgen en slimme algoritmes moeten de politie helpen om misdaden te voorkomen. Ook Vlaanderen wil dringend werk maken van AI, om tot het ‘koppeloton’ te behoren. Antwerpen heeft bijvoorbeeld plannen om de misdaad te voorspellen via predictive policing, als onderdeel van het nieuwe computersysteem iPolice. De VDAB wil het klikgedrag van werkzoekenden op zijn website met AI analyseren – onder meer om te verifiëren of je naar de ‘juiste’ jobs zoekt.
Om na te denken over de ethische problemen die AI kan veroorzaken, riep de Europese Commissie vorig jaar een expertengroep samen, met 52 vertegenwoordigers uit de academische wereld en de AIindustrie. De werkgroep leverde een ontwerprapport af, waarop nu commentaren worden verzameld. Een definitief rapport is voor maart.
Zwarte doos
Kernidee in het rapport is vertrouwen: de Europese burger moet er vertrouwen in kunnen hebben dat artificiële intelligentie basisprincipes zoals de mensenrechten en onze democratische waarden niet bedreigt. Maar hoe bouw je dat vertrouwen? Het rapport tekent een aantal grote principes uit rond transparantie, controle en aansprakelijkheid.
‘Het had een schaamlapje kunnen worden, een bureaucratische oefening’, zegt de Belgische technologiefilosoof Mark Coeckelbergh over het document. Hij is lid van de expertengroep. ‘Ik denk dat het een goed werkdocument is’, vindt hij.
Als we het over de gevaren van AI en robotica hebben, duiken vaak een aantal
extreme scenario’s op. Autonome wapens die beslissingen nemen over leven en dood. Zelfsturende auto’s die kiezen tussen het overleven van de chauffeur versus dat van een overstekende oude man. Robots die jobs van mensen inpikken met massale werkloosheid tot gevolg. En zelfs artificieel intelligente systemen die de macht grijpen. Maar over dat soort gevaren, staat er weinig in het rapport. Een mogelijke machtsgreep door AIsystemen wordt simpelweg afgedaan als een risico dat ‘tot de heel verre toekomst’ behoort.
Het rapport gaat vooral over veel minder spectaculaire maar misschien wel ingrijpende toepassingen van AI. ‘Er is in de eerste plaats regulering nodig voor de AI die we niet zien, maar die wel ons leven bepaalt’, zegt Coeckelbergh. Of je door de politie wordt gearresteerd, of de bank je een lening geeft, of de belastinginspectie je aangifte extra grondig onder de loep neemt, of een werkgever je uitnodigt voor een jobinterview: dat alles wordt steeds vaker (mee) bepaald door geautomatiseerde systemen, door algoritmes. Niet al die algoritmes zijn gebaseerd op AI, maar steeds vaker zijn ze dat wel.
Terwijl een ‘klassiek’ algoritme door een mens is geschreven, ontstaat een deep lear
ningsysteem door een zogenoemd ‘model’ (of neuraal netwerk) te ‘trainen’ met data. Het model kan bij aanvang niets, maar ‘leert’ gaandeweg. Bijvoorbeeld: het onderscheid maken tussen een hond en een kat. Of – al heel wat controversiëler – tussen een gevangene die zich na vervroegde vrijlating goed zal gedragen, en eentje die dreigt te recidiveren. Tussen een wijk waar het vanavond waarschijnlijk veilig blijft, en een wijk waar een combi naartoe moet. Tussen een belastingdossier dat waarschijnlijk in orde zal zijn, en eentje dat een grondige inspectie vraagt.
Gegevens worden geacht ‘objectief ’ te zijn, en een model dat met data is getraind, zou dat dan ook zijn. Maar daar loopt het fout, is al herhaaldelijk aangetoond. Rosamunde Van Brakel, onderzoeker aan de VUB: ‘Er hangt een waas van objectiviteit rond, omdat er geen mens aan te pas kwam. Terwijl de data waarmee het systeem getraind werd, altijd op een of andere manier gekleurd zijn’. Vooroordelen uit het verleden – dat mensen uit bepaalde minderheidsgroepen vaker worden gearresteerd, onder meer omdat ze vaak opgroeiden in probleemwijken – worden zo bestendigd.
Hoe los je dat op? Het Europese rapport legt daarvoor eerst en vooral een aantal principes op tafel. Een sleutelbegrip is transparantie. Je moet kunnen uitleggen hoe het systeem werkt, en van een bepaalde beslissing moet stap voor stap kunnen worden uitgelegd hoe het systeem die beslissing heeft genomen. De werkgroep suggereert ook dat burgers steeds op de hoogte moeten worden gebracht als een geautomatiseerd systeem een beslissing over hen neemt, en ze moeten kunnen weten hoe dat gebeurt.
Een ander heel belangrijk principe is aansprakelijkheid: iemand moet verantwoordelijk zijn voor de beslissingen die een AIsysteem neemt, onder meer om slachtoffers te vergoeden als het fout loopt. Er moet ook altijd menselijk toezicht blijven op geautomatiseerde beslissingen.
Maar hoe moeten die principes in de praktijk worden gebracht? Het rapport stelt al een aantal technieken voor, maar erg gedetailleerd wordt het niet. Als een AIsysteem ‘getraind’ wordt op een grote hoeveelheid data, moet precies worden bijgehouden waar de data vandaan komen. En er moeten audits komen die verifiëren of het systeem vrij is van vooringenomenheid.
Over sommige onderwerpen bereikte de groep geen consensus. Zo’n pijnpunt is gezichtsherkenning: mogen mensen door een AIsysteem worden geïdentificeerd, als ze daarvoor hun toestemming niet hebben gegeven? Het rapport laat dat in het midden. Voor Coeckelbergh is duidelijk dat die toestemming er wél moet zijn: ‘Als ik in de supermarkt loop, wil ik niet dat mijn gezicht wordt geanalyseerd’.
En hebben mensen het recht om te weten of ze aan het chatten zijn met een mens dan wel met een geautomatiseerd systeem? Google toonde vorig jaar al aan dat AI intussen in staat is om bijvoorbeeld via de telefoon een tafel in een restaurant te boeken. Na een golf van kritiek besloot Google dat zijn Google Duplexsysteem zichzelf eerst zal identificeren.
In de expertengroep zaten heel wat vertegenwoordigers van de technologiesector, en die hebben duidelijk een flink stuk van het laken naar zich toe getrokken. De richtlijnen in het rapport zijn weinig meer dan suggesties die de technologieindustrie vrijwillig zou kunnen onderschrijven. Van wetten is er voorlopig geen sprake. En evenmin van een officieel organisme dat zou toekijken of die principes wel in de praktijk worden gebracht. De expertengroep heeft als opdracht ook nog wel om een aantal politieke aanbevelingen te doen, maar dat is voor later: een tweede document zal er pas tegen volgende zomer zijn.
Rosamunde Van Brakel vindt dat het rapport voorbij gaat aan een aantal fundamentele vragen. ‘De vraag wordt niet gesteld of zulke AIsystemen eigenlijk wel nodig zijn, men gaat daar gewoon van uit. En is het wel ethisch om aan profiling te doen? Er wordt ook nergens over proportionaliteit gepraat.’ Nog een probleem: ‘Dergelijke systemen worden sneller ingezet tegen bepaalde groepen in de samenleving die het al moeilijk hebben. Eerder tegen sociale fraude van werklozen, dan tegen fraude bij grote bedrijven’.
Bij het ontstaan van de interneteconomie heeft de mens de technologie grotendeels op haar beloop gelaten. Twintig jaar later heeft dat geleid tot fake news en Cambridge Analytica. Het duurde tot 2018 alvorens Europa een privacywetgeving met tanden kreeg: de GDPR. Met vooral ook een gegevensbeschermingsautoriteit die toekijkt op de naleving van de wet, en strenge straffen kan uitspreken. Zo’n GDPR voor AI lijkt nog niet op komst.
‘Zo’n document is een startpunt, geen eindpunt’, zegt Coeckelbergh over het rapport. Volgens hem zal ook op het vlak van AI uiteindelijk wetgeving ontstaan, net zoals met de GDPR gebeurde.
‘Er hangt een waas van objectiviteit rond, omdat er geen mens aan te pas komt. Terwijl de data waarmee het systeem getraind wordt, altijd op een of andere manier gekleurd zijn’
ROSAMUNDE VAN BRAKEL
Onderzoeker VUB