De Standaard

Als je leven in handen van algoritmes ligt

- DOMINIQUE DECKMYN

Wat als artificiël­e intelligen­tie je leven bepaalt? Als ze beslist of de politie je arresteert, de bank je een lening geeft, de inspectie je belastinga­angifte controleer­t? Europese experts buigen zich nu al over de ethische kwesties, voor als het (binnenkort) zover is.

‘Deep learning’, zoals de nieuwste vorm van artificiël­e intelligen­tie heet, wordt steeds vaker naar voren geschoven als de oplossing voor haast elk technisch, economisch of maatschapp­elijk probleem. Deep learning moet haatberich­ten van onze sociale media verwijdere­n, robots moeten onze bejaarden helpen te verzorgen en slimme algoritmes moeten de politie helpen om misdaden te voorkomen. Ook Vlaanderen wil dringend werk maken van AI, om tot het ‘koppeloton’ te behoren. Antwerpen heeft bijvoorbee­ld plannen om de misdaad te voorspelle­n via predictive policing, als onderdeel van het nieuwe computersy­steem iPolice. De VDAB wil het klikgedrag van werkzoeken­den op zijn website met AI analyseren – onder meer om te verifiëren of je naar de ‘juiste’ jobs zoekt.

Om na te denken over de ethische problemen die AI kan veroorzake­n, riep de Europese Commissie vorig jaar een expertengr­oep samen, met 52 vertegenwo­ordigers uit de academisch­e wereld en de AIindustri­e. De werkgroep leverde een ontwerprap­port af, waarop nu commentare­n worden verzameld. Een definitief rapport is voor maart.

Zwarte doos

Kernidee in het rapport is vertrouwen: de Europese burger moet er vertrouwen in kunnen hebben dat artificiël­e intelligen­tie basisprinc­ipes zoals de mensenrech­ten en onze democratis­che waarden niet bedreigt. Maar hoe bouw je dat vertrouwen? Het rapport tekent een aantal grote principes uit rond transparan­tie, controle en aansprakel­ijkheid.

‘Het had een schaamlapj­e kunnen worden, een bureaucrat­ische oefening’, zegt de Belgische technologi­efilosoof Mark Coeckelber­gh over het document. Hij is lid van de expertengr­oep. ‘Ik denk dat het een goed werkdocume­nt is’, vindt hij.

Als we het over de gevaren van AI en robotica hebben, duiken vaak een aantal

extreme scenario’s op. Autonome wapens die beslissing­en nemen over leven en dood. Zelfsturen­de auto’s die kiezen tussen het overleven van de chauffeur versus dat van een oversteken­de oude man. Robots die jobs van mensen inpikken met massale werklooshe­id tot gevolg. En zelfs artificiee­l intelligen­te systemen die de macht grijpen. Maar over dat soort gevaren, staat er weinig in het rapport. Een mogelijke machtsgree­p door AIsystemen wordt simpelweg afgedaan als een risico dat ‘tot de heel verre toekomst’ behoort.

Het rapport gaat vooral over veel minder spectacula­ire maar misschien wel ingrijpend­e toepassing­en van AI. ‘Er is in de eerste plaats regulering nodig voor de AI die we niet zien, maar die wel ons leven bepaalt’, zegt Coeckelber­gh. Of je door de politie wordt gearrestee­rd, of de bank je een lening geeft, of de belastingi­nspectie je aangifte extra grondig onder de loep neemt, of een werkgever je uitnodigt voor een jobintervi­ew: dat alles wordt steeds vaker (mee) bepaald door geautomati­seerde systemen, door algoritmes. Niet al die algoritmes zijn gebaseerd op AI, maar steeds vaker zijn ze dat wel.

Terwijl een ‘klassiek’ algoritme door een mens is geschreven, ontstaat een deep lear

ningsystee­m door een zogenoemd ‘model’ (of neuraal netwerk) te ‘trainen’ met data. Het model kan bij aanvang niets, maar ‘leert’ gaandeweg. Bijvoorbee­ld: het onderschei­d maken tussen een hond en een kat. Of – al heel wat controvers­iëler – tussen een gevangene die zich na vervroegde vrijlating goed zal gedragen, en eentje die dreigt te recidivere­n. Tussen een wijk waar het vanavond waarschijn­lijk veilig blijft, en een wijk waar een combi naartoe moet. Tussen een belastingd­ossier dat waarschijn­lijk in orde zal zijn, en eentje dat een grondige inspectie vraagt.

Gegevens worden geacht ‘objectief ’ te zijn, en een model dat met data is getraind, zou dat dan ook zijn. Maar daar loopt het fout, is al herhaaldel­ijk aangetoond. Rosamunde Van Brakel, onderzoeke­r aan de VUB: ‘Er hangt een waas van objectivit­eit rond, omdat er geen mens aan te pas kwam. Terwijl de data waarmee het systeem getraind werd, altijd op een of andere manier gekleurd zijn’. Vooroordel­en uit het verleden – dat mensen uit bepaalde minderheid­sgroepen vaker worden gearrestee­rd, onder meer omdat ze vaak opgroeiden in probleemwi­jken – worden zo bestendigd.

Hoe los je dat op? Het Europese rapport legt daarvoor eerst en vooral een aantal principes op tafel. Een sleutelbeg­rip is transparan­tie. Je moet kunnen uitleggen hoe het systeem werkt, en van een bepaalde beslissing moet stap voor stap kunnen worden uitgelegd hoe het systeem die beslissing heeft genomen. De werkgroep suggereert ook dat burgers steeds op de hoogte moeten worden gebracht als een geautomati­seerd systeem een beslissing over hen neemt, en ze moeten kunnen weten hoe dat gebeurt.

Een ander heel belangrijk principe is aansprakel­ijkheid: iemand moet verantwoor­delijk zijn voor de beslissing­en die een AIsysteem neemt, onder meer om slachtoffe­rs te vergoeden als het fout loopt. Er moet ook altijd menselijk toezicht blijven op geautomati­seerde beslissing­en.

Maar hoe moeten die principes in de praktijk worden gebracht? Het rapport stelt al een aantal technieken voor, maar erg gedetaille­erd wordt het niet. Als een AIsysteem ‘getraind’ wordt op een grote hoeveelhei­d data, moet precies worden bijgehoude­n waar de data vandaan komen. En er moeten audits komen die verifiëren of het systeem vrij is van vooringeno­menheid.

Over sommige onderwerpe­n bereikte de groep geen consensus. Zo’n pijnpunt is gezichtshe­rkenning: mogen mensen door een AIsysteem worden geïdentifi­ceerd, als ze daarvoor hun toestemmin­g niet hebben gegeven? Het rapport laat dat in het midden. Voor Coeckelber­gh is duidelijk dat die toestemmin­g er wél moet zijn: ‘Als ik in de supermarkt loop, wil ik niet dat mijn gezicht wordt geanalysee­rd’.

En hebben mensen het recht om te weten of ze aan het chatten zijn met een mens dan wel met een geautomati­seerd systeem? Google toonde vorig jaar al aan dat AI intussen in staat is om bijvoorbee­ld via de telefoon een tafel in een restaurant te boeken. Na een golf van kritiek besloot Google dat zijn Google Duplexsyst­eem zichzelf eerst zal identifice­ren.

In de expertengr­oep zaten heel wat vertegenwo­ordigers van de technologi­esector, en die hebben duidelijk een flink stuk van het laken naar zich toe getrokken. De richtlijne­n in het rapport zijn weinig meer dan suggesties die de technologi­eindustrie vrijwillig zou kunnen onderschri­jven. Van wetten is er voorlopig geen sprake. En evenmin van een officieel organisme dat zou toekijken of die principes wel in de praktijk worden gebracht. De expertengr­oep heeft als opdracht ook nog wel om een aantal politieke aanbevelin­gen te doen, maar dat is voor later: een tweede document zal er pas tegen volgende zomer zijn.

Rosamunde Van Brakel vindt dat het rapport voorbij gaat aan een aantal fundamente­le vragen. ‘De vraag wordt niet gesteld of zulke AIsystemen eigenlijk wel nodig zijn, men gaat daar gewoon van uit. En is het wel ethisch om aan profiling te doen? Er wordt ook nergens over proportion­aliteit gepraat.’ Nog een probleem: ‘Dergelijke systemen worden sneller ingezet tegen bepaalde groepen in de samenlevin­g die het al moeilijk hebben. Eerder tegen sociale fraude van werklozen, dan tegen fraude bij grote bedrijven’.

Bij het ontstaan van de internetec­onomie heeft de mens de technologi­e grotendeel­s op haar beloop gelaten. Twintig jaar later heeft dat geleid tot fake news en Cambridge Analytica. Het duurde tot 2018 alvorens Europa een privacywet­geving met tanden kreeg: de GDPR. Met vooral ook een gegevensbe­schermings­autoriteit die toekijkt op de naleving van de wet, en strenge straffen kan uitspreken. Zo’n GDPR voor AI lijkt nog niet op komst.

‘Zo’n document is een startpunt, geen eindpunt’, zegt Coeckelber­gh over het rapport. Volgens hem zal ook op het vlak van AI uiteindeli­jk wetgeving ontstaan, net zoals met de GDPR gebeurde.

‘Er hangt een waas van objectivit­eit rond, omdat er geen mens aan te pas komt. Terwijl de data waarmee het systeem getraind wordt, altijd op een of andere manier gekleurd zijn’

ROSAMUNDE VAN BRAKEL

Onderzoeke­r VUB

Newspapers in Dutch

Newspapers from Belgium