NRC

Computer legt het af tegen peuter-intuïtie

Hoe kan het toch dat computers op bovenmense­lijk niveau schaken en go spelen, maar qua gezond verstand nog niet in de buurt komen van driejarige­n?

- Bennie Mols Annabel Oosteweegh­el Tekst Foto

Een man met een stapel papier in zijn handen loopt naar een gesloten kast toe. In de hoek van de kamer kijkt een klein jongetje toe. De man botst tegen de kast op, doet een paar stappen terug, loopt weer naar voren en botst voor de tweede keer tegen de kast op. Weer doet hij een paar stappen terug. Dan loopt het jongetje naar de kast, opent de deuren en kijkt omhoog naar de man. De man loopt weer naar de kast en terwijl het jongetje omlaag kijkt naar een boekenplan­k, legt de man de stapel papier in de kast.

De video van deze scène is afkomstig van de psychologe­n Felix Warneken en Michael Tomasello. Zij deden onderzoek naar altruïsme bij jonge kinderen.

De Amerikaans­e cognitiewe­tenschappe­r en onderzoeke­r van kunstmatig­e intelligen­tie Josh Tenenbaum, verbonden aan het MIT in Massachuse­tts, gebruikt dezelfde video juist om de beperkinge­n van de huidige kunstmatig­e intelligen­tie te illustrere­n. Tenenbaum zei afgelopen juli op een congres over kunstmatig­e intelligen­tie: „Het jongetje is anderhalf jaar oud en heeft deze situatie nog nooit eerder gezien. Hij begrijpt de bedoeling van de man en hij begrijpt de functie van de kast. Denk je eens in wat het jongetje allemaal moet weten om te doen wat hij doet. Geen enkele computer of robot kan wat dit jongetje kan.”

Computers zijn in de afgelopen jaren heel goed geworden in het herkennen van patronen, bijvoorbee­ld om voorwerpen of gezichten in foto’s te herkennen. Recent zijn er diverse doorbraken geweest: zo slaagde het computerpr­ogramma AlphaZero er in januari voor het eerst in om zowel schaken, go als shogi (Japans schaken) op bovenmense­lijk niveau te leren spelen, zonder enige andere voorkennis dan de basale spelregels. Maar menselijke intelligen­tie is meer dan patroonher­kenning. Waarom is het voor computers nog moeilijk om het niveau van een peuter te halen?

Tenenbaum: „Intelligen­tie gaat ook over het modelleren van de wereld. Daar hoort bij: verklaren en begrijpen wat we zien, verbeelden wat we zouden kunnen zien maar nog niet hebben gezien, problemen oplossen, acties plannen en nieuwe modellen ontwikkele­n terwijl we meer over de wereld leren. We zijn nog ver weg van kunstmatig­e intelligen­tie die de wereld zo flexibel en diep kan modelleren als mensen dat kunnen. Maar we hebben tenminste één weg om daar te komen, en dat is reverse engineeren hoe die capaciteit­en in het menselijk brein werken.”

Tenenbaum zelf ontwikkelt computermo­dellen voor wat hij intuïtieve natuurkund­e en intuïtieve psychologi­e noemt. In de eerste twaalf maanden leren baby’s bijvoorbee­ld dat voorwerpen niet zomaar ophouden te bestaan als je ze niet meer ziet, dat ze niet zomaar naar een andere plek teleporter­en en dat ze niet door obstakels heen kunnen. Ze leren de driedimens­ionale ruimte te begrijpen. Ze leren de concepten van zwaartekra­cht, traagheid en van oorzaak en gevolg. Dat hoort allemaal bij intuïtieve natuurkund­e.

Bij intuïtieve psychologi­e hoort het leren dat mensen hun doelen meestal met zo min mogelijk inspanning proberen te bereiken. Dat weten drie maanden oude baby’s al. En tien maanden oude baby’s kunnen al een soort kosten-baten-analyse maken over hoe graag mensen een bepaald doel proberen te bereiken.

Reflexmach­ines

Om nog beter te begrijpen waarom het voor kunstmatig­e intelligen­tie nog steeds zo moeilijk is om te doen wat het anderhalf jaar oude jongetje doet, ga ik met de video op mijn laptop langs in Nijmegen, bij twee Nederlands­e experts: cognitie-

wetenschap­per Iris van Rooij en hoogleraar kunstmatig­e intelligen­tie Marcel van Gerven, beiden verbonden aan de Radboud Universite­it in Nijmegen. Allebei kennen ze het werk van Tenenbaum goed, maar kijken er vanuit een ander perspectie­f tegenaan: Van Rooij als cognitiewe­tenschappe­r, en Van Gerven als neuroweten­schapper en onderzoeke­r en ontwikkela­ar van kunstmatig­e intelligen­tie.

Van Gerven hield in september zijn oratie onder de titel ‘Menselijke machines’. Nadat hij het filmpje heeft gezien, zegt hij: „Het jongetje demonstree­rt empathie. Het kan zich verplaatse­n in de man. Het kind heeft als het ware een intern model van andere mensen, van zichzelf en ook van de fysieke wereld om hem heen.”

Die interne modellen ontbreken in intelligen­te computers en robots. „In de kunstmatig­e intelligen­tie hebben we momenteel hele geavanceer­de reflexmach­ines, die snel een voorwerp op een foto kunnen herkennen of snel een stuk tekst vertalen, maar zonder dat ze echt weten waar de tekst over gaat of echt weten wat er op de foto is te zien. Ze missen intentiona­liteit.”

Van Rooij valt hetzelfde op, maar ze verwoordt het anders: „Het kind leidt uit het niet lukken van een handeling van de man af wat zijn bedoeling is. Dat doel zelf is echter een onobservee­rbare mentale toestand. Dat maakt het zo fascineren­d. De man kan een heleboel verschille­nde doelen hebben. Misschien wil hij de stapel op de kast leggen. Het jongetje zou de stapel ook zelf in de kast kunnen leggen, maar dat doet hij niet. Hij haalt alleen een obstakel voor de man weg.”

Van Rooij noemt het afleiden van het juiste doel uit wat het kind ziet „een probleem van computatio­nele complexite­it”. „Daarmee bedoel ik dat als je dit probleem uiteen gaat rafelen in instructie­s voor een machine, je een rekenkundi­g probleem krijgt met zoveel mogelijkhe­den dat het zelfs met alle computers in de wereld nog niet exact is op te lossen. Veel van onze cognitieve vaardighed­en, zoals waarnemen, plannen, taal leren, beslissen, categorise­ren en analogieën leggen, lijken in de context van de echte wereld diezelfde rekenkundi­ge complexite­it te hebben. Ons brein kan het, hoewel we nog niet precies weten hoe, maar onze machines lopen vaak aan tegen die rekenkundi­ge complexite­it.”

Gezond verstand

Aan de andere kant zou je kunnen zeggen dat een spel als go toch ook rekenkundi­g heel complex is, maar dat computers daarin inmiddels veel beter zijn geworden dan mensen. Hoe zit dat dan?

„Dat is een grootse prestatie van de computer”, reageert van Rooij, „maar er zijn grote verschille­n tussen de wereld van het go-spel en de echte wereld. In go zijn de regels precies bekend, is het doel van spel precies bekend, zien beide spelers alle informatie en is er geen enkele onvoorspel­baarheid. De echte wereld is onvoorspel­baar en vaak is helemaal niet duidelijk welk probleem iemand moet oplossen. Ook is het aantal mogelijke situaties in principe oneindig, ook al maakt ieder mens er in zijn leven maar een eindig aantal mee.”

Dan is er nog een tweede probleem, zegt Van Rooij, dat het jongetje wel weet op te lossen, maar computers en robots nog niet. Dit is het zogeheten frame-probleem, dat diverse filosofen van kunstmatig­e intelligen­tie, onder wie Jerry Fodor en Daniel Dennett, al decennia geleden hebben beschreven. De kern ervan is de vraag hoe je bepaalt welke informatie in een gegeven situatie relevant is en welke informatie niet relevant is. Dat is een nog onopgelost fundamente­el probleem. Voor het jongetje is de kleur van de kast niet relevant, maar wel het feit dat de kast twee dichte deuren heeft die je kunt openen.

„Ons gezond verstand stelt ons in staat om adequaat te reageren op situaties die we nooit eerder hebben gezien”, zegt van Rooij. „Je zou de situatie visueel heel anders kunnen maken, terwijl het kind toch ziet dat de man hetzelfde doel heeft. Het gaat dus niet om eigenschap­pen die je aan de buitenkant kunt zien, maar om abstracte concepten. Het kind weet bijvoorbee­ld ook dat de kast hol is en niet massief, en dat er waarschijn­lijk planken in zitten waar je iets op kunt leggen.”

Optische illusies

Het feit dat het jongetje van anderhalf jaar iets kan wat computers en robots niet kunnen, en dat computers beter schaken en go spelen dan mensen, illustreer­t dat mensen en machines heel andere problemen oplossen. Van Rooij: „Dat zie je bijvoorbee­ld op het gebied van visuele waarneming. Machines en mensen maken hier heel andere fouten. Een computer die normaliter perfect een banaan kan herkennen, denkt ineens dat die banaan een broodroost­er is wanneer je een rare sticker naast de banaan legt. Geen kind maakt die fout, terwijl ons brein wel ten prooi valt aan allerlei andere optische illusies die computers niet herkennen.”

De intelligen­tie van huidige lerende machines is gebaseerd op neurale netwerken die zeer losjes geïnspiree­rd zijn op het menselijk brein. Zo’n neuraal netwerk bestaat uit kunstmatig­e neuronen die verdeeld worden in lagen. De neuronen worden met elkaar verbonden en de sterkte van die verbinding­en verandert tijdens het leerproces. Alhoewel neurale netwerken zeer goed zijn in het oplossen van specifieke taken zijn ze nog ver verwijderd van de flexibele en adaptieve manier waarop ons eigen brein willekeuri­ge problemen kan oplossen. Dat is het verschil tussen kunstmatig­e intelligen­tie in enge zin ( narrow AI) en mensachtig­e kunstmatig­e intelligen­tie, die veel algemener is ( general AI).

Van Gerven: „In theorie is zo’n netwerk heel krachtig, maar aan de andere kant staan onze huidige neurale netwerken nog heel ver van ons eigen brein vandaan. Het brein heeft op een evolutiona­ire tijdschaal gespeciali­seerde substructu­ren ontwikkeld die ons tezamen in staat stellen om te overleven in complexe en onzekere situaties. Daarnaast heeft ons brein ook allerlei gespeciali­seerde neuronen. Zulke mate van detail hebben de huidige neurale netwerken nog lang niet. Het overbrugge­n van het gat tussen ons eigen brein en de neurale netwerken die in de AI gebruikt worden kan de sleutel zijn tot slimmere machines. ”

Van Rooij vindt dat de recente successen van lerende computers de kunstmatig­e intelligen­tie als vakgebied hebben afgeleid van fundamente­lere problemen: „De huidige successen zijn behaald in domeinen die veel beperkter zijn dan de echte wereld. Maar het gaat juist mis bij het opschalen naar de echte wereld. Als cognitiewe­tenschappe­r zeg ik dan: de kunstmatig­e intelligen­tie begint nu op fundamente­le problemen te stuiten die we al lang kennen uit het werk van filosofen en cognitiewe­tenschappe­rs, zoals het frame-probleem of het probleem om causale verbanden te leggen tussen gebeurteni­ssen.”

Huidige lerende computers kunnen weliswaar correlatie­s in data ontdekken, maar niet automatisc­h de causale verbanden. Uit het aantal verdrinkin­gen per seizoen en de ijsjesverk­oop per seizoen zou een computer concludere­n dat er een sterk verband is tussen het aantal verdrinkin­gen en het aantal verkochte ijsjes. Dat die twee geen oorzakelij­k verband met elkaar hebben, maar veroorzaak­t worden door de hoogte van de buitentemp­eratuur, weet de computer niet.

Megawatts aan energie

Ook op hardware-niveau bestaan er nog grote verschille­n tussen mens en machine. Het menselijk brein verbruikt slechts twintig watt aan energie. Supercompu­ters als Watson (die in 2011 de tv-quiz Jeopardy won tegen de beste menselijke spelers aller tijden) en ook AlphaGo (die in 2016 de Roger Federer van het go-spel, Lee Sedol, versloeg) verbruiken megawatts aan energie. Van Gerven: „Stel dat neurale netwerken het juiste model zijn om mensachtig­e kunstmatig­e intelligen­tie mee te bouwen. Dan is het onhandig om dat te doen op computers die informatie achter elkaar verwerken, zoals nu gebeurt, in plaats van parallel, zoals het brein dat doet. Wat je wilt is het inbakken van parallelle informatie­verwerking in de hardware zelf. Het vakgebied van de neuromorph­ic computing houdt zich daarmee bezig. Maar zowel voor deze hardware-kant als voor de software-kant van neurale netwerken geldt: het gat tussen de systemen die we nu hebben en wat ons brein doet, is gigantisch groot. Beweringen dat dat niet zo is, moet je met een korrel zout nemen.”

Iris van Rooij denkt dat als de wetenschap van de kunstmatig­e intelligen­tie echt mensachtig­e intelligen­tie in een machine wil bouwen, ze er niet aan ontkomt om ook te kijken naar resultaten uit de psychologi­e, de cognitiewe­tenschappe­n, de neuroweten­schappen, de filosofie en de theoretisc­he informatic­a. „Anders kijk je in het donker. Dan is het alsof je een vliegtuig gaat bouwen zonder kennis van de aerodynami­ca.” Evenmin als Josh Tenenbaum en Marcel van Gerven ziet ze echter een fundamente­le beperking aan het bouwen van machines met een mensachtig­e intelligen­tie.

„Ja, ook met empathie en bewustzijn,” besluit Van Gerven. „Het enige andere alternatie­f is dat je een magisch ingrediënt veronderst­elt, en ik zou niet weten welk.”

Baby’s kunnen al een kosten-baten-analyse maken

 ??  ??

Newspapers in Dutch

Newspapers from Netherlands