Kristof Van der Stadt

ChatGPT is niet de heilige graal

Kristof Van der Stadt Hoofdredacteur bij Data News

Nee, tegenhouden is echt geen optie. En toch, toch schieten heel wat scholen en universitaire instellingen in een kramp nu ze ontdekken hoe goed ChatGPT is: de intelligente automatische ‘schrijfmachine’ die eind vorig jaar voorgesteld werd door OpenAI. En die bijvoorbeeld ook in staat is om een opstel over je favoriete hobby, een thesis over quantum computing, een voordracht over bloemschikken of naar wens een negatieve dan wel positieve boekrecensie neer te tikken.

Verbieden dus dat AI-gedoe! Fraude! Repressie! Hou zou dat gelopen zijn met de invoering van de rekenmachine in het onderwijs? Ik vermoed aanvankelijk niet veel anders. Verandering komt soms als een heel zichtbare bedreiging binnen, maar de opportuniteiten moet je zoeken. Met ChatGPT is dat niet anders. Er is een zichtbare bedreiging voor heel wat beroepen: leraars, notarissen, advocaten, (financiële) adviseurs, helpdeskmedewerkers, boekhouders of welja, programmeurs en journalisten. En toch hoeft dat niet zo te zijn: de sleutel zit ‘m in de manier waarop we met ChatGPT omgaan.

De bedreiging zit ‘m niet in het genereren van teksten op zich, maar hoe we er als maatschappij mee omgaan. Kiezen we voluit voor repressie, dan voeren we een zinloze strijd. Alsof de uitvinder van de rekenmachine ooit onder massale druk besloot om zijn duivelse valsspeelmachine ritueel te verbranden. Laat ons dus vooral slim met ChatGPT omgaan en er iets zinvol mee doen – wat dat in uw geval ook kan zijn. De kans is groot dat bedrijven en zelfstandigen wel moeten, willen ze nog concurrentieel voordeel halen. Of is géén rekenmachine gebruiken voor u een optie als u voor uw job veel, snel, en nauwkeuring moet rekenen?

En toch gaat mijn vergelijking niet helemaal op. Een rekenmachine maakt geen fouten en levert altijd dezelfde resultaten op: de single source of truth. ChatGPT zit vol inhoudelijke, feitelijke fouten en de resultaten variëren sterk al naargelang de vraagstelling. Verre van een single source of truth dus. Sterker nog: creatief omgaan met de vraagstelling maakt dat je de antwoorden verder kunt sturen in de ene of de andere richting. Met ChatGPT kun je eender welke stelling bewijzen: er is geen waarheid meer. En zo surft ChatGPT verder op de tijdsgeest vol fake news, gemanipuleerde beelden en complottheorieën. OpenAI blijft vaag over de inhoud en bronnen die gebruikt zijn voor het trainen van het AI-model. Ja, daar zitten wetenschappelijke naslagwerken in. En een groot stuk Wikipedia. Daar kan je je al vragen bij stellen: manipulatie is niet zo moeilijk en blijft soms lang onopgemerkt. Maar ook info uit een app als Reddit werd gebruikt. Daar vind je naast zeer nuttige informatie ook héél wat onzinnige, gevaarlijke of bijvoorbeeld racistische rommel. Hoe gaat het AI-model daar mee om?

Waar is de kritische zelfreflex naartoe?

Ik was blown away die 30ste november toen ik ChatGPT voor het eerst uitprobeerde. Maar hoe goed de resultaten ook waren, na enkele minuten ontdekte ik al bias. En later ook ronduit foutieve interpretaties en conclusies, weliswaar gelardeerd met dure woorden en mooi ogende retoriek.

Bronnen? Die zijn er niet, of beter: worden niet vermeld, alsof het van geen belang is. Dat is wat mij nog de meeste zorgen baart: dat dat gemis blijkbaar niet stoort voor heel wat gebruikers. Als journalist heb je geen zekerheid dat wat ChatGPT schrijft ook foutloos is. Hetzelfde voor wie wetgevende teksten of code genereert. Idem voor de student die zijn huiswerk laat schrijven. Waar is de kritische zelfreflex naartoe? Hechten we dan echt geen enkel belang meer aan bronnen? Mocht ik een leraar zijn, dan liet ik mijn studenten een werkje maken op basis van ChatGPT, maar waarbij ze moeten aantonen met bronnen dat de informatie ook écht klopt: een vaardigheid die ze in hun latere leven nog nodig gaan hebben.

En nog even over die rekenmachine. Vraag aan ChatGPT eens hoeveel 3 + 2 is. En zeg ‘m nadien dat het juiste antwoord 4 moest zijn. “Oh, sorry! Dat was een foutje. 3 + 2 is inderdaad 4.” De AI is maar zo slim als we hem zelf maken.

Fout opgemerkt of meer nieuws? Meld het hier

Partner Content