Hé ChatGPT, wat zeg je?

De laatste weken is er een kleine storm aan de gang: de ‘plotselinge’ opkomst van ChatGPT.

Een bot die teksten kan schrijven op basis van prompts. En die teksten zijn goed. Eng goed. 

Je hoeft LinkedIn maar te openen of de opiniestukken spoelen over je heen. De reacties zitten op ’t spectrum van ‘houd het tegen’ tot ‘omarm het’ en alles daar tussenin. Ik zit in kamp ‘omarm het’, overigens. Maar de ontwikkeling van dergelijke technologie heeft wel (grote) gevolgen voor de inrichting van ons onderwijs. 

Eerst maar eens terug naar het begin. Hoe werkt ChatGPT? Zonder je te vervelen met technische uitleg die ik zelf ook maar half begrijp, gaat het ongeveer als volgt: in het programma zit zo’n beetje het hele openbare internet tot 2020. De software heeft al deze teksten geanalyseerd en kan op basis daarvan griezelig goed voorspellen hoe een nieuw te maken tekst eruit moet zien. En maakt die tekst vervolgens ook. 

Hoe ziet dat eruit? Ik voerde een stukje van mijn oude tentamenopdracht van Academische Vaardigheden in en kreeg dit: 

Niet slecht, toch? We onderwijzen dat een inleiding altijd een aanleiding, onderwerp en doel moet hebben, en die elementen zijn hier duidelijk aanwezig. Er is zelfs een leeswijzer toegevoegd. Zou ChatGPT Tekstzinnig ook hebben gelezen misschien? 

Maar goed, wij vinden dat je in een zakelijk betoog niet vanuit ‘ik’ mag schrijven, dus ik corrigeer de bot: 

Niet heel sprankelend, maar ik zou het als beoordelend docent een voldoende geven. Eens kijken wat de bot doet als ik vraag de eerste alinea te schrijven: 

Welke bron is dat? Ik vraag de bot de hele verwijzing te geven:

En nu gebeurt er iets interessants. De website waar dit artikel moet staan, bestaat wel, maar de url werkt niet. De bron die wordt genoemd, blijkt niet te bestaan: 

Sterker, Jensen en Chen hebben nog nooit een artikel samen geschreven, aldus Google.

Dit is een interessante vorm van plagiaat. Er wordt een bron verzonnen die er heel echt uitziet. Als beoordelend docent was ik hier vrijwel zeker ingetrapt. 

De bot weet overigens echt niet beter, zo blijkt als ik vraag een bestaande bron te noemen:

Engels of Nederlands door elkaar? De bot kan er prima mee dealen.

Eerst was ik opgelucht. Okay, ChatGPT kan dus teksten voor je schrijven, maar als het gaat om bronnen valt de bot genadeloos door de mand. Gelukkig. Kritisch informatie analyseren en selecteren blijft dus een mensentaak. Tot mijn collega me wees op Perplexity. De tekstbot die wél met bronnen uit de voeten kan: 

En, check, de aangehaalde informatie bij [1] staat, met een beetje fantasie, in de bron:

Oei. Dit had ik eerlijk gezegd niet verwacht, en ik moet toegeven dat mijn eerste reactie er eentje van lichte paniek was. Overigens blijkt bij controle dat het tweede argument in dit voorbeeld eveneens nauwelijks herkenbaar terug te vinden is in de bron, maar dan nog.

Nu wordt het tentamen zoals ik dat hier invoerde niet meer afgenomen, maar als dit wel was geweest, hadden we een interessante uitdaging gehad. De tekst, die wel synchroon moest worden geschreven, was ‘open boek’. Ofwel: Google is je vriend. In dit geval zou dit dus waarschijnlijk worden: ChatGPT is je vriend. Hoe grappig was het geweest trouwens als studenten massaal hun tentamen in minder dan tien minuten hadden kunnen maken. En wij met nakijken een ongenadige hoeveelheid tijd waren kwijt geweest aan het nalopen van de aangehaalde bronnen. Want het is dus niet alleen een kwestie van klikken, maar van doorgronden: staat de aangehaalde informatie echt in de bron?

Precies… dat is wat de studenten bij deze opdracht hadden moeten doen.

Natuurlijk zijn er oplossingen. Het tentamen in een gesloten omgeving afnemen en de bronnen die gebruikt moeten worden, aanreiken. De toets met de hand laten schrijven. Alles mondeling doen. Het zijn draconische maatregelen die verstrekkende gevolgen kunnen hebben. Ik vraag me dan af of we nog wel meten wat we willen meten.

Maa, de bot zet me wel aan het denken. Technologie is helpend, maar er is ook onrust. Dat is trouwens niet nieuw; toen de radio werd geïntroduceerd, waren er al zorgen dat het concentratievermogen van kinderen zou worden aangetast. De komst van de tv en later het internet riep vergelijkbare reacties op, maar, merkte schrijver Douglas Adams op: die weerstand zit vooral bij mensen boven de 35. Ik was over de komst van de iPhone ook minder bezorgd dan over die van ChatGPT, dus je kunt wel raden hoe oud ik dan ongeveer ben. 

Anyway. 

ChatGPT bestaat al langer, maar staat ineens vol in de aandacht. Scholieren geven aan dat ze het nu al inzetten om opdrachten te maken. Docenten zien het verschil niet of nauwelijks. En die onrust? Die zit echt niet alleen bij docenten, maar bij alle mensen die met (schriftelijke) communicatie hun brood verdienen.

Contentschrijvers zien hun baan en daarmee hun inkomen verdampen (hoewel CNET op het gebruik van AI terugkomt, omdat veel artikelen toch teveel fouten bleken te bevatten). Menselijke helpdesken worden overbodig. Instructieteksten? Zo gepiept. Wie weet hoeveel studieboeken er in de toekomst door AI worden gegenereerd. Oef.

Maar wat je ook van ChatGPT (of een variant ervan) vindt, het is er, en het gaat niet meer weg. Dus laten we kijken hoe we het kunnen omarmen. Of het echt zoveel minder energie kost om met een bot een goede tekst te schrijven, weet ik niet. Je moet altijd nog verifiëren, bijsturen, bijschaven. De denkkracht wordt wel op een ander moment ingezet.

Want daar zit de zegen en de vloek: de bot genereert alleen teksten op basis van concrete prompts. Je moet dus goed weten wat je wil vertellen, want zonder opdracht dat de software je niet helpen. Er is dan ook (nog) weinig sprake van creativiteit. ChatGPT kan je wel helpen door een eerste aanzet te geven of je vertellen wat eerder al op een bepaald vlak is gemaakt of gedaan. Tenminste, als je daar om vraagt. Vanuit daar kun je dan verder.

Veel opdrachten in het onderwijs zijn gericht op het analyseren en verwerken van informatie. Dat is een kritisch denkvermogen dat belangrijk is om een leven lang te leren. Hoe houdt dit stand als er een programma is dat deze taak voor je vervult? Wat wordt de nieuwe definitie van authenticiteit in een context waarin software unieke dingen kan genereren? Dit geldt overigens ook voor beeld; websites als dall-e en artssy zorgen ervoor dat zelfs ik iets visueels kan maken. Of wat dacht je van muziek?

Verbieden is zinloos. Je verzandt in regels die belemmerend werken en waarbij je het doel van het onderwijs waarschijnlijk voorbij schiet. Van mij mogen studenten ChatGPT gebruiken. Als ze er maar eerlijk over zijn. En ze moeten in een gesprek met mij kunnen uitleggen welke keuzes ze hebben gemaakt en waarom. Screenshot wat mij betreft het hele proces. Om een bot iets te laten maken, moet je namelijk goede input hebben. En die input, die komt vooralsnog echt alleen uit een menselijk brein. Als je een goede tekst kunt schrijven, moet je ook uit kunnen leggen waarom de geschreven tekst goed is: doelgericht, doelgroepgericht, met een duidelijke centrale boodschap. 

Overigens helpt het niet dat ChatGPT gewoon de eigen tekst kan analyseren: 

Het is weinig sprankelend, maar inhoudelijk klopt het als een bus. Nu zou ik me wel achter de oren krabben als een student dit zou inleveren, maar ja, een plagiaatscanner slaat er niet op uit. We hebben dus een interessante weg te gaan, en we houden het niet tegen. Dat hoeft ook niet. Ik ga veel liever met mijn studenten in gesprek over hoe deze software ze kan helpen. Ze gaan er later toch mee werken, of we het nu krampachtig buiten de schoolmuren willen houden of niet.

Er zijn wel ethische issues waar we rekening mee moeten houden. Podcast De Dag had hier op 16 januari een toffe aflevering over. Ik noem er een paar: 

  • ChatGPT (of andere bots) gebruiken teksten die op het internet staan. Hiervoor is niet per se toestemming gegeven. Je gebruikt dus materiaal van anderen zonder dat zij het weten, en zonder dat zij het goed vinden. 
  • Alles wat je in ChatGPT stopt, is gelijk voer voor het algoritme. Je moet dus enorm opletten dat je er geen (privacy-)gevoelige informatie in verwerkt. Het venster waarin je werkt voelt privé, maar eigenlijk zit je in een propvolle kantoortuin te werken… en iedereen kan meekijken op je scherm. 
  • ChatGPT kan teksten maken die potentieel gevaarlijk zijn. Zo kun je een hackerscode laten genereren, of opruiende teksten. De bot heeft geen moreel kompas. 
  • Waar Google je een lijst aan antwoorden geeft die je zelf kunt selecteren op kwaliteit, geeft ChatGPT je één antwoord. Fijn, als je snel wil opzoeken hoe je in Adobe Première ook alweer een fade-to-black wil maken. Minder fijn als je op zoek bent naar informatie waarbij het juist van belang is dat je meerdere perspectieven te zien krijgt. Als je je oriënteert op verkiezingen, bijvoorbeeld. (Niet dat Google dan per se de beste optie is, maar dat terzijde). 
  • Dat ene antwoord dat ChatGPT voor je maakt, is niet altijd juist. Hierboven noemde ik al CNET, die door de vele fouten in de gegenereerde artikelen heeft besloten geen AI meer te gebruiken voorlopig. Of wat te denken van de niet-bestaande bron die in mijn eigen gegenereerde tekst werd gefabriceerd. Ook met AI moet je dus zeer kritisch blijven en altijd controleren of wat er staat wel klopt.  
  • En dat ene antwoord wordt ook wel spannend als straks blijkt dat er op bepaalde informatie wordt bestuurd. Dus als er commerciële belangen gaan spelen. De bot is nu nog gratis; ze zullen ergens een keer aan moeten gaan verdienen. 

Genoeg om over na te denken dus. Ja, ik maak me zorgen, maar ik ben vastberaden om de ontwikkelingen met een open perspectief te volgen. 

Disclaimer: deze tekst is door mijzelf geschreven 😉

Featured foto: Shubham Dhage op Unsplash