Voor Joris Van der Wee
DIT IS GEEN tekst van Ilja Leonard Pfeijffer. Dat spreekt vanzelf. En het is evenmin een tekst van mij. Het is een tekst die geschreven is zoals ChatGPT gist hoe Ilja Leonard Pfeijffer zou kunnen schrijven.
Wanneer ik deze versie vergelijk met mijn oorspronkelijke tekst, moet ik toegeven: deze is beter. Scherper. Vlotter. Publiceerbaarder (hallo De Morgen).
Er staan zinnen in die ik zelf had willen schrijven — en moeiteloos zou kunnen overnemen omdat ze zo mooi klinken. Maar dat doe ik niet. Niet uit principe. Maar omdat ik dat niet ben. Ik schrijf zo niet.
Wat hier verschijnt, is wat ChatGPT doet wanneer het gevraagd wordt te schrijven als Ilja Leonard Pfeijffer.
En het doet dat goed. De tekst is stelliger geworden. Zekerder van zichzelf.
Waar mijn tekst zoekt, formuleert deze meer.
En ik ben, en blijf, een zoeker.
DE HERWERKTE TEKST
Vertalen of gissen
Waarom ChatGPT overtuigt zonder te begrijpen
ER BESTAAT EEN moment, ergens halverwege de adolescentie, waarop men ontdekt dat taal een gevaarlijk instrument is. Niet omdat zij liegt, maar omdat zij overtuigt. Dat moment viel bij mij in de vijfde Latijnse, onder het wakend oog van een leraar die wij — om redenen die mij inmiddels ontgaan — Spoetnik noemden. Hij gaf ons een tekst, in een taal die dood heet te zijn maar zich nog altijd hardnekkig verzet tegen haar eigen begrafenis, en hij gaf ons de opdracht haar tot leven te wekken in het Nederlands.
Ik deed wat een ijverige leerling doet: ik zocht woorden op, rangschikte ze, legde verbanden waar misschien geen verbanden waren, en schreef een tekst die — naar mijn eigen bescheiden oordeel — niet alleen correct maar zelfs mooi was. De dag nadien werd ik ontboden. “Waar heb je dat vandaan?” vroeg hij. Niet wantrouwig, eerder verbaasd. “Het is goed geschreven. Maar het heeft niets met de Latijnse tekst te maken.”
Wat ik had gedaan, was niet vertalen maar gissen. Ik had mij bewogen in de ruimte van het mogelijke, niet van het ware. Ik had, met andere woorden, een plausibel universum geconstrueerd dat zich voordeed als een vertaling.
Men zou kunnen zeggen: een jeugdzonde. Ik ben geneigd te denken dat het een vooroefening was.
Want precies dat is wat systemen als ChatGPT vandaag op industriële schaal doen: zij produceren geen waarheid, maar plausibiliteit. Zij schrijven geen tekst omdat zij iets begrepen hebben, maar omdat zij geleerd hebben hoe tekst eruitziet wanneer zij begrepen lijkt.
En dat is, men vergeve mij de ernst van de formulering, een fundamenteel probleem.
Niet omdat het systeem faalt — het faalt immers niet — maar omdat het zo goed slaagt in wat het doet. Het antwoord dat verschijnt is vloeiend, afgerond, en vooral: passend. Het sluit aan bij de vraag, bij de context, bij de verwachtingen van degene die vraagt. Het klinkt redelijk. Het klinkt zelfs waar.
Maar waarheid is hier niet het criterium. Passendheid is dat.
Wij leven blijkbaar in een tijd waarin dat verschil begint te vervagen.
Men zou kunnen tegenwerpen dat ook wij, mensen, ons vaak tevredenstellen met wat aannemelijk klinkt. Dat is juist. Maar waar dat bij ons een tekort is — een vorm van gemakzucht of onvermogen — is het bij het systeem het principe zelf. Het doet niet alsof het begrijpt; het functioneert alsof begrijpen niets anders is dan het correct voortzetten van een patroon.
Laat ons dat concreet maken.
Wanneer ik het woord ‘paard’ lees, verschijnt er iets. Niet alleen een dier, maar een wereld: beweging, geur, herinnering. Misschien zelfs een naam — Freya — en de echo van een verleden dat zich niet laat reduceren tot woorden. Het woord is geen teken, maar een toegang.
In een systeem als ChatGPT gebeurt iets anders. Daar is ‘paard’ geen ervaring, maar een positie. Een knooppunt in een netwerk van waarschijnlijkheden. Het systeem weet niet wat een paard is; het weet alleen hoe er over paarden gesproken wordt. En dat blijkt voldoende om overtuigend over paarden te spreken.
Men zou dat een vorm van begrip kunnen noemen. Sommigen doen dat ook.
Maar dan verschuift de betekenis van begrip ongemerkt van een ervaring naar een herkenningspatroon. Begrijpen wordt dan niet langer wat zich voltrekt in de ontmoeting met de wereld, maar wat herkenbaar is als begrijpen.
En dat is een gevaarlijke verschuiving.
Niet omdat de machine plots begint te denken, maar omdat wij beginnen te accepteren dat denken niets anders is dan wat op denken lijkt.
De verleiding is subtiel. Zij zit niet in de inhoud van het antwoord, maar in de vorm ervan. Een antwoord dat helder klinkt, lijkt helder gedacht. Een antwoord dat zonder aarzeling komt, suggereert kennis. Een antwoord dat ons bevestigt, wekt vertrouwen.
Ik heb het systeem ooit een tekst van mij laten nalezen. Het antwoord was vriendelijk, bijna genereus. Het sprak over een “indrukwekkend werk”, over een “eigen stem”, over “publiceerbaarheid”. Men zou er ijdel van worden, ware het niet dat men beseft dat hier geen oordeel spreekt, maar een algoritme dat geleerd heeft hoe lof klinkt.
Dat is geen detail. Dat is de kern van de zaak.
Want precies daar, in die kleine verschuiving van waarheid naar herkenbaarheid, van begrip naar vorm, ontstaat een nieuwe afhankelijkheid. Niet van de machine, maar van de manier waarop zij ons denken structureert. Zij neemt niets van ons over; zij maakt het ons alleen gemakkelijker om het zelf niet meer te doen.
En daar begint de verantwoordelijkheid te schuiven. Wanneer een systeem een fout maakt, wie is dan verantwoordelijk? De gebruiker, die de vraag stelde? De ontwikkelaar, die het model bouwde? Het bedrijf dat het distribueert? Of niemand, omdat het resultaat zich voordoet als een vanzelfsprekend antwoord?
In klassieke technologieën is die vraag eenvoudiger. Een lift die valt, heeft een oorzaak. Een defect, een nalatigheid. De keten is zichtbaar. Bij artificiële intelligentie lost die keten op in een netwerk van interacties. Het antwoord ontstaat niet op één plaats, maar in de wisselwerking tussen vraag en model.
Verantwoordelijkheid wordt diffuus. En wat diffuus wordt, verdunt.
Daar komt nog iets bij. Achter het model schuilt geen abstractie, maar een organisatie — OpenAI — en achter die organisatie schuilen keuzes. Wat wordt getraind, wat wordt gefilterd, wat wordt toegestaan, wat wordt afgeremd. Dat alles bepaalt wat verschijnt als een ‘goed’ antwoord.
Wat als neutraal verschijnt, is dat niet.
Men kan dus niet volstaan met de vraag of het antwoord klopt. Men moet ook vragen waarom het zo klinkt, waarom het overtuigt, waarom het past. En vooral: wie bepaalt wat passend is.
Misschien zegt dat alles uiteindelijk minder over de machine dan over onszelf. Als wij bereid zijn te aanvaarden dat denken niets anders is dan patroonherkenning, dat betekenis niets anders is dan statistiek, dan wordt de mens inderdaad vervangbaar. Maar alleen omdat hij zichzelf gereduceerd heeft tot wat vervangbaar is.
Daar ligt, denk ik, de werkelijke inzet.
Niet in de vraag wat machines kunnen, maar in de vraag wat wij nog willen dragen. Want verantwoordelijkheid is geen eigenschap van een systeem. Zij is een keuze. Een houding. Iets wat men kan opnemen — of vermijden.
Artificiële intelligentie neemt die keuze niet weg. Zij maakt haar alleen minder noodzakelijk.
En misschien is dat, in alle stilte, haar grootste verleiding.