ChatGPT in de les getest: onder het klasgemiddelde
Er waart enige paniek door onderwijskringen over ChatGPT. ONDERWIJS Benno Wauters probeert de ‘Big Brother AI’ net te omarmen in zijn lessen Nederlands. Of toch als experiment bij één leerling.
Toegegeven, het idee kwam van de leerling zelf: ‘Meneer, nu wij ook in de les met een laptop en het internet mogen werken, mag ik dan ook niet met ChatGPT uw opdrachten voor Nederlands te lijf gaan?’ Tja, Berend heeft gelijk: die evolutie is onomkeerbaar, en bovendien past het in de strategie van de school om de leerlingen steeds meer hun leerproces in eigen handen te laten nemen, ook als die handen niet meer schrijven, maar tokkelen op het klavier van hun laptop.
Vooruit dan maar, bijdehante Berend mag met ChatGPT aan de slag, navigerend op het kompas van AI, ‘prompts’ (opdrachten) proberend, om zo ‘zelflerend’ te zijn als die modernste machines.
Als eerste klasopdracht laat ik mijn leerlingen nadenken over klachten die je als klant kunt hebben over een product of dienstverlening, en hoe je die kunt formuleren om tot een vorm van compensatie te komen. Daarna volgt de concrete taak, af te werken binnen het resterende lesuur: schrijf in eigen naam een klachtenbrief. Kies je klacht en je bedrijf zelf, maar upload je tekst in Smartschool.
Na twee minuten floept Berends opdracht mijn laptop binnen. Die ik behandel als een toets op tien punten. Ai! (niet van AI, maar van ai, dat doet pijn): Berend is meteen een punt kwijt, want al in de titelopgave van zijn werkstukje staat een fout: ‘klachtbrief’. Dat is niet wat ik gevraagd had. In de formele brief zelf is de (artificieel intelligente?) leerling vergeten om zijn adres en dat van de geadresseerde op te geven. Goed voor nog een min 1, en verder lees ik ook nog een ‘Januari’ (met hoofdletter), ‘de gebrek’, en heeft hij het over ‘een geschenk voor mijn vrouw’s verjaardag’, naar ‘my wife’s birthday’, een knoert van een anglicisme. ChatGPT is duidelijk op Angelsaksische leest geschoeid. Sorry Berend: 6,5 op 10, één punt lager dan het klasgemiddelde.
Trots als een bergtop
Goed, we gaan een stevige stap verder. Naar jaarlijkse traditie doen alle laatstejaars aso van onze school mee aan de ‘Junior Journalist’-wedstrijd van het Davidsfonds, een opiniestuk van om en bij de duizend woorden, met als thema #trots#lokalehelden.
Berend geeft prompt een prompt in: ‘Schrijf een essay over trots, maak in de (sic) essay gebruik van metaforen, alliteraties, intertekstualiteit en beeldspraak.’ Enkele tellen later mag ik een weinig verrassende, maar correct geformuleerde eerste alinea lezen over ‘de complexe emotie trots, die ons kan drijven om grootse prestaties te leveren en ons zelfvertrouwen te versterken’. Maar ‘als het ongecontroleerd groeit, kan het ons eigenzinnig en arrogant maken’. In de volgende alinea’s loopt het fout, en wel omdat AI zich gedraagt als een ongetalenteerd schrijver. Die houdt zich namelijk meestal niet aan het adagium ‘show, don’t tell’. Want inderdaad, ChatGPT zegt letterlijk wat het doet: ‘Een metafoor die vaak gebruikt wordt om trots te beschrijven, is die van een bergtop.’ In de uitwerking van die metafoor zegt het systeem nog eens wat het zonet gedaan heeft: ‘De alliteratie van “top” en “te veel” versterkt de beeldspraak van de vergelijking tussen trots en een bergtop.’ Ook in de alinea daarna gaat de AI met de opdracht aan de haal: ‘Intertekstualiteit wordt ook gebruikt wanneer we trots vergelijken met de hybris van de Griekse mythologie, waar overmatige trots tot de val van de held leidt.’ In de slotalinea verdwijnen die letterlijke ‘prompts’ weer en maken ze plaats voor gemeenplaatsen over trots ‘die we in toom moeten houden en op een constructieve manier gebruiken’, of over trots die ‘net als een vlam ons licht kan geven, maar ons ook kan verbranden’.
Leopold II in Max Havelaar?
Berend, zelflerend, ziet hoe flauw het licht van die artificiële vlam schijnt, en vijlt de opdracht bij. Deze keer gebruikt hij informatie die hij als aanloop naar deze schrijfopdracht van mij heeft meegekregen: een mogelijke titel met een meer specifieke insteek: ‘Van trots tot schaamte – van standbeeld tot schandbeeld’, en hij vraagt aan ChatGPT om een essay te schrijven over de standbeelden van slavenhouders in de Verenigde Staten en van de meer lokale held Leopold II in België. Een extraatje uit eerdere lessen Nederlands geeft Berend ook nog mee: ‘verwerk Multatuli in de tekst’. Dat lijkt goed uit te pakken, want die standbeelden ‘zijn een weerspiegeling van ons verleden’, en ‘net zoals een spiegel ons laat zien wie we zijn, laten deze standbeelden zien we waren. (…) En zoals de spiegel laat zien waar we nog aan onszelf moeten werken, kunnen die standbeelden ons aanzetten om het anders aan te pakken.’ Niet slecht, niet slecht, al bezondigt AI zich op zijn A4’tje toch weer aan bespiegelingen over ‘intertekstualiteit’ en ‘alliteraties’, en gaat het ronduit in de fout wanneer het Max Havelaar omschrijft als ‘een bron van kritiek op het koloniale beleid van Leopold II’. Onze Leopold kreeg pas
Allicht is dat de crux: hoe kun je een non-persoon vanuit zichzelf laten schrijven? Besmet hem met je condition humaine
25 jaar na de uitgave van Max Havelaar zeggenschap over Congo!
Samenvattend (of ‘In conclusie’, zoals Chat GPT het met alweer een anglicisme formuleert): er is nog werk aan de AI-winkel. ChatGPT moet werk maken van zijn Nederlands; daarnaast moet hij opdrachten minder letterlijk nemen (meer metaforisch dus, maar dan zonder ‘metaforisch’ woordelijk neer te schrijven), en hij moet minder met gemeenplaatsen uitpakken en meer persoonlijk te werk gaan.
Al is dat allicht de crux: hoe kun je een non-persoon vanuit zichzelf laten schrijven? Misschien door heel specifieke, persoonlijke ‘prompts’ op te geven. Ligt daar dan toch de creatieve opdracht van de schrijver-leerling achter ChatGPT? Leer de gevoeligheden van je artificiële vriend, deel er je diepste wensen, angsten, twijfels en vertwijfeling mee. Maak die hem eigen. Besmet AI met je condition humaine. Dat maakt het ding paradoxaal genoeg minder feilbaar.