Hoe slim is GPT2?
‘Computer schrijft nieuw Harry Potterverhaal’, lazen we een jaar geleden. Bij nader toezien ging het om een paragraaf tekst met woorden die ergens in de Harry Potter romans voorkomen, door een algoritme gecombineerd tot min of meer grammaticale zinnen. Met passages als: ‘Ron stond daar en deed een waanzinnige tapdans. Hij zag Harry en begon onmiddellijk de familie van Hermelien op te eten’.
Zoek die tekst op. En ga daarna kijken op de blog van OpenAI, naar de tekst die hun AIsysteem GPT2 heeft geproduceerd: een fictief nieuwsartikel over de ontdekking van eenhoorns in de Andes. Het vertrekpunt is hetzelfde: een computersysteem wordt eerst ‘gevoed’ met een hoeveelheid bestaande tekst. Vervolgens krijgt het een paar woorden voorgeschoteld, en moet het daar een vervolg op ‘verzinnen’. Maar verder is er haast geen vergelijking mogelijk. GPT2 heeft het Engels schijnbaar perfect onder de knie, en vertelt bovendien een coherent verhaal. De professor die de eenhoorns ontdekt, begint niet plots zijn familie op te eten maar speculeert wel dat de eenhoorns mogelijk van buitenaardse oorsprong zijn, wat dan geverifieerd zou kunnen worden door hun DNA te onderzoeken.
Een deep learningsysteem als dit is in wezen gewoon een patroonherkenner. Toon het systeem duizend foto’s van katten en duizend foto’s van honden, en het leert haast feilloos het onderscheid te maken. Gebruik je honderdduizend foto’s, dan wordt het systeem nog beter. Maar het systeem weet niet wat een kat is, of een hond, laat staan dat het katten zou verkiezen boven honden of omgekeerd. Ook de meest geavanceerde deep learning systemen blijven vormen van ‘gespeci aliseerde’ intelligentie: ze kunnen één ding erg goed, en daarbuiten kunnen ze niets. Maar lees de teksten van GPT2, en je zou zweren dat de auteur ‘weet’ hoe de wereld in elkaar zit. En dan praten we eigenlijk over de heilige graal van de artificiële intelligentie: ‘algemene’ intelligentie.
De meeste AIexperts gaan ervan uit dat algemene AI pas over enkele decennia mogelijk zal worden, misschien pas over een eeuw. Een van de grootste uitdagingen is juist, dat we niet weten hoe we zo’n AIsysteem kunnen voorzien van voldoende inzicht in onze leefwereld.
Ze zeggen het zelf niet met zoveel woorden, maar het klinkt alsof de onderzoekers van OpenAI misschien wel een olifantenpaadje hebben ontdekt naar algemene AI: als je er maar voldoende tekst en voldoende rekenkracht tegenaan gooit, gaat het systeem praten alsof het die kennis van de wereld heeft. Al is het eigenlijk gewoon de patronen aan het herhalen die het in de teksten heeft ontdekt. Opgelet: OpenAI publiceerde waar schijnlijk alleen de meest geslaagde voorbeelden – wie weet was die tekst over eenhoorns een toevalstreffer.
De grote Alan Turing vroeg zich in 1950 af hoe we ooit kunnen weten of een computer echt kan denken. Hij bedacht het ‘imitatiespel’, dat we intussen de Turingtest noemen: als we, in een gesprek via tekstberichten, het onderscheid niet meer kunnen maken tussen een mens en een computer, moeten we die computer ‘intelligent’ noemen. GPT2 geeft in een wat andere situatie (het afwerken van een coherente tekst) een indrukwekkende imitatie van een intelligente mens.
Dus? Tja, het blogbericht van OpenAI over de ontdekking roept massaal veel vragen op, waar we voorlopig geen antwoord op krijgen. Want Open AI wil GPT2 niet delen met ander onderzoekers. Daarmee schijnt de organisatie een statement te willen maken: zij zijn voorstanders van ethische praktijken in de ontwikkeling van AI, en daar hoort bij dat je misbruik van de technologie probeert te vermijden. Tegelijk spreekt hier natuurlijk een ongelofelijke arrogantie uit: ‘onze technologie is zo goed dat we haar geheim moeten houden, in het belang van de mensheid’. Die combinatie van arrogantie, idealisme en ongebreidelde ambitie kan natuurlijk maar van één man komen: Elon Musk, de oprichter en belangrijkste financier van OpenAI.
De grote Alan Turing vroeg zich in 1950 af hoe we ooit kunnen weten of een computer echt kan denken