Com­pu­ter legt het af te­gen peu­ter-in­tu­ï­tie

Hoe kan het toch dat com­pu­ters op bo­ven­men­se­lijk ni­veau scha­ken en go spe­len, maar qua ge­zond ver­stand nog niet in de buurt ko­men van drie­ja­ri­gen?

NRC Handelsblad - - In Het Nieuws - Ben­nie Mols An­na­bel Oos­te­weeg­hel Tekst Fo­to

Een man met een sta­pel pa­pier in zijn han­den loopt naar een ge­slo­ten kast toe. In de hoek van de ka­mer kijkt een klein jon­ge­tje toe. De man botst te­gen de kast op, doet een paar stap­pen te­rug, loopt weer naar vo­ren en botst voor de twee­de keer te­gen de kast op. Weer doet hij een paar stap­pen te­rug. Dan loopt het jon­ge­tje naar de kast, opent de deu­ren en kijkt om­hoog naar de man. De man loopt weer naar de kast en ter­wijl het jon­ge­tje om­laag kijkt naar een boe­ken­plank, legt de man de sta­pel pa­pier in de kast.

De vi­deo van de­ze scè­ne is af­kom­stig van de psy­cho­lo­gen Felix War­ne­ken en Mi­chael To­ma­sel­lo. Zij de­den on­der­zoek naar al­tru­ïs­me bij jon­ge kin­de­ren.

De Ame­ri­kaan­se cog­ni­tie­we­ten­schap­per en on­der­zoe­ker van kunst­ma­ti­ge in­tel­li­gen­tie Josh Te­nen­baum, ver­bon­den aan het MIT in Mas­sa­chu­setts, ge­bruikt de­zelf­de vi­deo juist om de be­per­kin­gen van de hui­di­ge kunst­ma­ti­ge in­tel­li­gen­tie te il­lu­stre­ren. Te­nen­baum zei af­ge­lo­pen ju­li op een con­gres over kunst­ma­ti­ge in­tel­li­gen­tie: „Het jon­ge­tje is an­der­half jaar oud en heeft de­ze si­tu­a­tie nog nooit eer­der ge­zien. Hij be­grijpt de be­doe­ling van de man en hij be­grijpt de func­tie van de kast. Denk je eens in wat het jon­ge­tje al­le­maal moet we­ten om te doen wat hij doet. Geen en­ke­le com­pu­ter of ro­bot kan wat dit jon­ge­tje kan.”

Com­pu­ters zijn in de af­ge­lo­pen ja­ren heel goed ge­wor­den in het her­ken­nen van pa­tro­nen, bij­voor­beeld om voor­wer­pen of ge­zich­ten in fo­to’s te her­ken­nen. Re­cent zijn er di­ver­se door­bra­ken ge­weest: zo slaag­de het com­pu­ter­pro­gram­ma Alp­haZe­ro er in ja­nu­a­ri voor het eerst in om zo­wel scha­ken, go als sho­gi (Ja­pans scha­ken) op bo­ven­men­se­lijk ni­veau te le­ren spe­len, zon­der eni­ge an­de­re voor­ken­nis dan de ba­sa­le spel­re­gels. Maar men­se­lij­ke in­tel­li­gen­tie is meer dan pa­troon­her­ken­ning. Waar­om is het voor com­pu­ters nog moei­lijk om het ni­veau van een peu­ter te ha­len?

Te­nen­baum: „In­tel­li­gen­tie gaat ook over het mo­del­le­ren van de we­reld. Daar hoort bij: ver­kla­ren en be­grij­pen wat we zien, ver­beel­den wat we zou­den kun­nen zien maar nog niet heb­ben ge­zien, pro­ble­men op­los­sen, ac­ties plan­nen en nieu­we mo­del­len ont­wik­ke­len ter­wijl we meer over de we­reld le­ren. We zijn nog ver weg van kunst­ma­ti­ge in­tel­li­gen­tie die de we­reld zo flexi­bel en diep kan mo­del­le­ren als men­sen dat kun­nen. Maar we heb­ben ten­min­ste één weg om daar te ko­men, en dat is re­ver­se en­gi­neeren hoe die ca­pa­ci­tei­ten in het men­se­lijk brein wer­ken.”

Te­nen­baum zelf ont­wik­kelt com­pu­ter­mo­del­len voor wat hij in­tu­ï­tie­ve na­tuur­kun­de en in­tu­ï­tie­ve psy­cho­lo­gie noemt. In de eerste twaalf maan­den le­ren ba­by’s bij­voor­beeld dat voor­wer­pen niet zo­maar op­hou­den te be­staan als je ze niet meer ziet, dat ze niet zo­maar naar een an­de­re plek te­le­por­te­ren en dat ze niet door ob­sta­kels heen kun­nen. Ze le­ren de drie­di­men­si­o­na­le ruim­te te be­grij­pen. Ze le­ren de con­cep­ten van zwaar­te­kracht, traag­heid en van oor­zaak en ge­volg. Dat hoort al­le­maal bij in­tu­ï­tie­ve na­tuur­kun­de.

Bij in­tu­ï­tie­ve psy­cho­lo­gie hoort het le­ren dat men­sen hun doe­len meest­al met zo min mo­ge­lijk in­span­ning pro­be­ren te be­rei­ken. Dat we­ten drie maan­den ou­de ba­by’s al. En tien maan­den ou­de ba­by’s kun­nen al een soort kos­ten-ba­ten-ana­ly­se ma­ken over hoe graag men­sen een be­paald doel pro­be­ren te be­rei­ken.

Re­flex­ma­chi­nes

Om nog be­ter te be­grij­pen waar­om het voor kunst­ma­ti­ge in­tel­li­gen­tie nog steeds zo moei­lijk is om te doen wat het an­der­half jaar ou­de jon­ge­tje doet, ga ik met de vi­deo op mijn lap­top langs in Nij­me­gen, bij twee Ne­der­land­se ex­perts: cog­ni­tie-

we­ten­schap­per Iris van Rooij en hoog­le­raar kunst­ma­ti­ge in­tel­li­gen­tie Mar­cel van Ger­ven, bei­den ver­bon­den aan de Rad­boud Uni­ver­si­teit in Nij­me­gen. Al­le­bei ken­nen ze het werk van Te­nen­baum goed, maar kij­ken er van­uit een an­der per­spec­tief te­gen­aan: Van Rooij als cog­ni­tie­we­ten­schap­per, en Van Ger­ven als neu­ro­we­ten­schap­per en on­der­zoe­ker en ont­wik­ke­laar van kunst­ma­ti­ge in­tel­li­gen­tie.

Van Ger­ven hield in sep­tem­ber zijn ora­tie on­der de ti­tel ‘Men­se­lij­ke ma­chi­nes’. Na­dat hij het film­pje heeft ge­zien, zegt hij: „Het jon­ge­tje de­mon­streert em­pa­thie. Het kan zich ver­plaat­sen in de man. Het kind heeft als het wa­re een in­tern mo­del van an­de­re men­sen, van zich­zelf en ook van de fy­sie­ke we­reld om hem heen.”

Die in­ter­ne mo­del­len ont­bre­ken in in­tel­li­gen­te com­pu­ters en ro­bots. „In de kunst­ma­ti­ge in­tel­li­gen­tie heb­ben we mo­men­teel he­le ge­a­van­ceer­de re­flex­ma­chi­nes, die snel een voor­werp op een fo­to kun­nen her­ken­nen of snel een stuk tekst ver­ta­len, maar zon­der dat ze echt we­ten waar de tekst over gaat of echt we­ten wat er op de fo­to is te zien. Ze mis­sen in­ten­ti­o­na­li­teit.”

Van Rooij valt het­zelf­de op, maar ze ver­woordt het anders: „Het kind leidt uit het niet luk­ken van een han­de­ling van de man af wat zijn be­doe­ling is. Dat doel zelf is ech­ter een onob­ser­veer­ba­re men­ta­le toe­stand. Dat maakt het zo fas­ci­ne­rend. De man kan een he­le­boel ver­schil­len­de doe­len heb­ben. Mis­schien wil hij de sta­pel op de kast leg­gen. Het jon­ge­tje zou de sta­pel ook zelf in de kast kun­nen leg­gen, maar dat doet hij niet. Hij haalt al­leen een ob­sta­kel voor de man weg.”

Van Rooij noemt het af­lei­den van het juis­te doel uit wat het kind ziet „een pro­bleem van com­puta­ti­o­ne­le com­plexi­teit”. „Daar­mee be­doel ik dat als je dit pro­bleem uit­een gaat ra­fe­len in in­struc­ties voor een ma­chi­ne, je een re­ken­kun­dig pro­bleem krijgt met zo­veel mo­ge­lijk­he­den dat het zelfs met al­le com­pu­ters in de we­reld nog niet exact is op te los­sen. Veel van on­ze cog­ni­tie­ve vaar­dig­he­den, zo­als waar­ne­men, plan­nen, taal le­ren, be­slis­sen, ca­te­go­ri­se­ren en ana­lo­gie­ën leg­gen, lij­ken in de con­text van de ech­te we­reld die­zelf­de re­ken­kun­di­ge com­plexi­teit te heb­ben. Ons brein kan het, hoe­wel we nog niet pre­cies we­ten hoe, maar on­ze ma­chi­nes lo­pen vaak aan te­gen die re­ken­kun­di­ge com­plexi­teit.”

Ge­zond ver­stand

Aan de an­de­re kant zou je kun­nen zeg­gen dat een spel als go toch ook re­ken­kun­dig heel com­plex is, maar dat com­pu­ters daar­in in­mid­dels veel be­ter zijn ge­wor­den dan men­sen. Hoe zit dat dan?

„Dat is een groot­se pres­ta­tie van de com­pu­ter”, re­a­geert van Rooij, „maar er zijn gro­te ver­schil­len tus­sen de we­reld van het go-spel en de ech­te we­reld. In go zijn de re­gels pre­cies be­kend, is het doel van spel pre­cies be­kend, zien bei­de spe­lers al­le in­for­ma­tie en is er geen en­ke­le on­voor­spel­baar­heid. De ech­te we­reld is on­voor­spel­baar en vaak is he­le­maal niet dui­de­lijk welk pro­bleem ie­mand moet op­los­sen. Ook is het aan­tal mo­ge­lij­ke si­tu­a­ties in prin­ci­pe on­ein­dig, ook al maakt ie­der mens er in zijn le­ven maar een ein­dig aan­tal mee.”

Dan is er nog een twee­de pro­bleem, zegt Van Rooij, dat het jon­ge­tje wel weet op te los­sen, maar com­pu­ters en ro­bots nog niet. Dit is het zo­ge­he­ten fra­me-pro­bleem, dat di­ver­se fi­lo­so­fen van kunst­ma­ti­ge in­tel­li­gen­tie, on­der wie Jer­ry Fo­dor en Da­niel Den­nett, al de­cen­nia ge­le­den heb­ben be­schre­ven. De kern er­van is de vraag hoe je be­paalt wel­ke in­for­ma­tie in een ge­ge­ven si­tu­a­tie re­le­vant is en wel­ke in­for­ma­tie niet re­le­vant is. Dat is een nog on­op­ge­lost fun­da­men­teel pro­bleem. Voor het jon­ge­tje is de kleur van de kast niet re­le­vant, maar wel het feit dat de kast twee dich­te deu­ren heeft die je kunt ope­nen.

„Ons ge­zond ver­stand stelt ons in staat om ade­quaat te re­a­ge­ren op si­tu­a­ties die we nooit eer­der heb­ben ge­zien”, zegt van Rooij. „Je zou de si­tu­a­tie vi­su­eel heel anders kun­nen ma­ken, ter­wijl het kind toch ziet dat de man het­zelf­de doel heeft. Het gaat dus niet om ei­gen­schap­pen die je aan de bui­ten­kant kunt zien, maar om ab­strac­te con­cep­ten. Het kind weet bij­voor­beeld ook dat de kast hol is en niet mas­sief, en dat er waar­schijn­lijk plan­ken in zit­ten waar je iets op kunt leg­gen.”

Op­ti­sche il­lu­sies

Het feit dat het jon­ge­tje van an­der­half jaar iets kan wat com­pu­ters en ro­bots niet kun­nen, en dat com­pu­ters be­ter scha­ken en go spe­len dan men­sen, il­lu­streert dat men­sen en ma­chi­nes heel an­de­re pro­ble­men op­los­sen. Van Rooij: „Dat zie je bij­voor­beeld op het ge­bied van vi­su­e­le waar­ne­ming. Ma­chi­nes en men­sen ma­ken hier heel an­de­re fou­ten. Een com­pu­ter die nor­ma­li­ter per­fect een ba­naan kan her­ken­nen, denkt in­eens dat die ba­naan een brood­roos­ter is wan­neer je een ra­re stic­ker naast de ba­naan legt. Geen kind maakt die fout, ter­wijl ons brein wel ten prooi valt aan al­ler­lei an­de­re op­ti­sche il­lu­sies die com­pu­ters niet her­ken­nen.”

De in­tel­li­gen­tie van hui­di­ge le­ren­de ma­chi­nes is ge­ba­seerd op neu­ra­le net­wer­ken die zeer los­jes ge­ïn­spi­reerd zijn op het men­se­lijk brein. Zo’n neu­raal net­werk be­staat uit kunst­ma­ti­ge neu­ro­nen die ver­deeld wor­den in la­gen. De neu­ro­nen wor­den met el­kaar ver­bon­den en de sterk­te van die ver­bin­din­gen ver­an­dert tij­dens het leer­pro­ces. Al­hoe­wel neu­ra­le net­wer­ken zeer goed zijn in het op­los­sen van spe­ci­fie­ke ta­ken zijn ze nog ver ver­wij­derd van de flexi­be­le en adap­tie­ve ma­nier waar­op ons ei­gen brein wil­le­keu­ri­ge pro­ble­men kan op­los­sen. Dat is het ver­schil tus­sen kunst­ma­ti­ge in­tel­li­gen­tie in en­ge zin ( nar­row AI) en mens­ach­ti­ge kunst­ma­ti­ge in­tel­li­gen­tie, die veel al­ge­me­ner is ( ge­ne­ral AI).

Van Ger­ven: „In the­o­rie is zo’n net­werk heel krach­tig, maar aan de an­de­re kant staan on­ze hui­di­ge neu­ra­le net­wer­ken nog heel ver van ons ei­gen brein van­daan. Het brein heeft op een evo­lu­ti­o­nai­re tijd­schaal ge­spe­ci­a­li­seer­de sub­struc­tu­ren ont­wik­keld die ons te­za­men in staat stel­len om te over­le­ven in com­plexe en on­ze­ke­re si­tu­a­ties. Daar­naast heeft ons brein ook al­ler­lei ge­spe­ci­a­li­seer­de neu­ro­nen. Zul­ke ma­te van de­tail heb­ben de hui­di­ge neu­ra­le net­wer­ken nog lang niet. Het over­brug­gen van het gat tus­sen ons ei­gen brein en de neu­ra­le net­wer­ken die in de AI ge­bruikt wor­den kan de sleu­tel zijn tot slim­me­re ma­chi­nes. ”

Van Rooij vindt dat de re­cen­te suc­ces­sen van le­ren­de com­pu­ters de kunst­ma­ti­ge in­tel­li­gen­tie als vak­ge­bied heb­ben af­ge­leid van fun­da­men­te­le­re pro­ble­men: „De hui­di­ge suc­ces­sen zijn be­haald in do­mei­nen die veel be­perk­ter zijn dan de ech­te we­reld. Maar het gaat juist mis bij het op­scha­len naar de ech­te we­reld. Als cog­ni­tie­we­ten­schap­per zeg ik dan: de kunst­ma­ti­ge in­tel­li­gen­tie be­gint nu op fun­da­men­te­le pro­ble­men te stui­ten die we al lang ken­nen uit het werk van fi­lo­so­fen en cog­ni­tie­we­ten­schap­pers, zo­als het fra­me-pro­bleem of het pro­bleem om cau­sa­le ver­ban­den te leg­gen tus­sen ge­beur­te­nis­sen.”

Hui­di­ge le­ren­de com­pu­ters kun­nen wel­is­waar cor­re­la­ties in da­ta ont­dek­ken, maar niet au­to­ma­tisch de cau­sa­le ver­ban­den. Uit het aan­tal ver­drin­kin­gen per sei­zoen en de ijs­jes­ver­koop per sei­zoen zou een com­pu­ter con­clu­de­ren dat er een sterk ver­band is tus­sen het aan­tal ver­drin­kin­gen en het aan­tal ver­koch­te ijs­jes. Dat die twee geen oor­za­ke­lijk ver­band met el­kaar heb­ben, maar ver­oor­zaakt wor­den door de hoog­te van de bui­ten­tem­pe­ra­tuur, weet de com­pu­ter niet.

Me­ga­watts aan ener­gie

Ook op hard­wa­re-ni­veau be­staan er nog gro­te ver­schil­len tus­sen mens en ma­chi­ne. Het men­se­lijk brein ver­bruikt slechts twin­tig watt aan ener­gie. Su­per­com­pu­ters als Wat­son (die in 2011 de tv-quiz Je­o­par­dy won te­gen de bes­te men­se­lij­ke spe­lers al­ler tij­den) en ook Alp­haGo (die in 2016 de Ro­ger Fe­de­rer van het go-spel, Lee Se­dol, ver­sloeg) ver­brui­ken me­ga­watts aan ener­gie. Van Ger­ven: „Stel dat neu­ra­le net­wer­ken het juis­te mo­del zijn om mens­ach­ti­ge kunst­ma­ti­ge in­tel­li­gen­tie mee te bou­wen. Dan is het on­han­dig om dat te doen op com­pu­ters die in­for­ma­tie ach­ter el­kaar ver­wer­ken, zo­als nu ge­beurt, in plaats van pa­ral­lel, zo­als het brein dat doet. Wat je wilt is het in­bak­ken van pa­ral­lel­le in­for­ma­tie­ver­wer­king in de hard­wa­re zelf. Het vak­ge­bied van de neu­ro­morp­hic com­pu­ting houdt zich daar­mee be­zig. Maar zo­wel voor de­ze hard­wa­re-kant als voor de soft­wa­re-kant van neu­ra­le net­wer­ken geldt: het gat tus­sen de sys­te­men die we nu heb­ben en wat ons brein doet, is gi­gan­tisch groot. Be­we­rin­gen dat dat niet zo is, moet je met een kor­rel zout ne­men.”

Iris van Rooij denkt dat als de we­ten­schap van de kunst­ma­ti­ge in­tel­li­gen­tie echt mens­ach­ti­ge in­tel­li­gen­tie in een ma­chi­ne wil bou­wen, ze er niet aan ont­komt om ook te kij­ken naar re­sul­ta­ten uit de psy­cho­lo­gie, de cog­ni­tie­we­ten­schap­pen, de neu­ro­we­ten­schap­pen, de fi­lo­so­fie en de the­o­re­ti­sche in­for­ma­ti­ca. „Anders kijk je in het don­ker. Dan is het als­of je een vlieg­tuig gaat bou­wen zon­der ken­nis van de ae­ro­dy­na­mi­ca.” Even­min als Josh Te­nen­baum en Mar­cel van Ger­ven ziet ze ech­ter een fun­da­men­te­le be­per­king aan het bou­wen van ma­chi­nes met een mens­ach­ti­ge in­tel­li­gen­tie.

„Ja, ook met em­pa­thie en be­wust­zijn,” be­sluit Van Ger­ven. „Het eni­ge an­de­re al­ter­na­tief is dat je een ma­gisch in­gre­di­ënt ver­on­der­stelt, en ik zou niet we­ten welk.”

Ba­by’s kun­nen al een kos­ten-ba­ten-ana­ly­se ma­ken

Newspapers in Dutch

Newspapers from Netherlands

© PressReader. All rights reserved.