Voor Jo De Neut
TOEN IK IN de vijfde Latijnse zat, het tweede jaar humaniora, kregen we een vertaaloefening van onze leerkracht Hoefnagels, bijnaam Spoetnik. We moesten een Latijnse tekst vertalen naar het Nederlands. Een vertaalwoordenboek was toegelaten.
Ik deed mijn uiterste best. Ik zocht alle woorden op, zette ze netjes om in correcte zinnen en schreef een vloeiend verhaal. Verhalen vertellen is immers mijn ding. Ik was tevreden met het resultaat. Het was, vond ik zelf, een prachtige tekst.
De dag nadien kwam de leerkracht naar me toe en zei iets wat me altijd is bijgebleven: ‘Waar heb je dat verhaal vandaan?’ vroeg hij. ‘Het is goed geschreven, maar het heeft niets met de Latijnse tekst te maken. Je gebruikte de juiste woorden, maar je hebt gewoon gegist naar de vertaling.’
Wat toen een schoolse fout was, is vandaag een technologisch principe geworden.
Wat ik toen deed, lijkt opvallend veel op hoe ChatGPT, mijn artificiële intelligente chatbot (AI), werkt. Ik vertaalde niet; ik construeerde. Ik nam woorden, zocht mogelijke betekenissen en verbanden, en maakte daar een samenhangend geheel van. Het resultaat was coherent en vlot leesbaar. Maar – spijtig genoeg voor mijn punten – het overtuigde mijn leerkracht niet. Ik had geen vertaling gemaakt, maar een constructie van wat in de Latijnse tekst zou kúnnen staan.
Wat toen een schoolse fout was, is vandaag een technologisch principe geworden. ChatGPT beweegt zich immers in dat tweede register. Het geeft geen toegang tot wat waar is, maar tot een antwoord dat zo geformuleerd is dat het als waar kan doorgaan. De tekst klinkt overtuigend, omdat ze aansluit bij hoe wij gewend zijn waarheid te formuleren. Daarin schuilt de uitdaging. Wie niet oplet, verwart vlotheid met waarheid.
Voor alle duidelijkheid: dat verschil is minder absoluut dan het lijkt. Ook wij nemen vaak genoegen met wat aannemelijk klinkt. Maar waar dat bij ons een gemakkelijkheidsoplossing is of onkunde, is het bij ChatGPT het principe zelf.
De vraag is dus niet alleen wat ChatGPT doet, maar of ik het verschil nog herken. En vooral: wil ik het verschil nog herkennen? Dat laatste vraagt houding, inspanning, aandacht. Want wanneer ChatGPT een antwoord geeft, is er nog werk aan de winkel. Wat het op mijn scherm zet, beëindigt mijn denken niet: het zet mijn denken op scherp.
Het klinkt juist. Dat is het niet altijd.
ChatGPT is in wezen brute rekenkracht. Ik vraag het een ingewikkelde rekensom uit te rekenen en onmiddellijk verschijnt het juiste antwoord op mijn scherm. Dat vind ik normaal. Daar ligt geen mysterie meer in. Het is immers een rekensom, en een computer is een rekenmachine.
Maar met taal is dat anders. Wanneer ik ChatGPT vraag wat identiteit betekent of hoe gevaarlijk de situatie in Iran is of hoe goed een bepaald muziekstuk is, verschijnt er ook meteen een antwoord op het scherm: snel, soepel en vaak overtuigend. Het gebruikt taal die lijkt op de onze – of komt er alleszins heel dicht bij. Dat is precies wat ChatGPT zo indrukwekkend maakt.
Maar wat het produceert, klinkt niet waar omdat het waar is, maar omdat het passend is.
Dat ‘passend’ is geen toeval, maar een combinatie van factoren:
Contextueel: het antwoord wil aansluiten bij mijn vraag.
Taalkundig: het antwoord wil helder en begrijpelijk zijn voor mij.
Pragmatisch: het antwoord wil nuttig en bruikbaar zijn voor mij.
Sociaal: het klinkt redelijk, niet te extreem. Het past binnen mijn ‘bubbel’ (tenzij ik expliciet vraag om eruit te stappen).
Het gaat dus om wat passend is voor mij, niet om waarheid. Het klinkt als waarheid zonder noodzakelijk waar te zijn – en precies daarin schuilt de uitdaging van AI.
ChatGPT begrijpt niets
ChatGPT begrijpt niets en dat is niet eens het probleem.
ChatGPT berekent. Het gebruikt een model: een rekenwijze die, op basis van enorme hoeveelheden tekst (data), geleerd heeft welke woorden en zinnen meestal op elkaar volgen. Het voorspelt dus wat waarschijnlijk past.
Laat me het tastbaar maken.
Wanneer ik het woord ‘paard’ lees, verschijnt in mijn gedachten een dier, een beweging, zelfs een herinnering. Bij mij is dat vaak het paard Freya, waarmee ik menig ruitertoernooi heb gereden. Kortom: het woord raakt aan een wereld die voor mij bestaat.
In ChatGPT gebeurt iets anders. Daar is ‘paard’ geen beeld of ervaring, maar een reeks getallen. Dat is nodig, omdat een computer niet met woorden werkt, maar met cijfers. Die code krijgt een plaats in een ruimte van verhoudingen. Het berekent de waarschijnlijkheid, de kans dat Woord01 bij Woord02 of bij Woord03 behoort. In die ruimte ligt ‘paard’ dicht bij ‘pony’ en ‘ruiter’, en ver van ‘computer’ of ‘belasting’. Voor ChatGPT ontstaat 'betekenis' niet uit wat iets ís, maar uit hoe woorden zich tot elkaar verhouden.
Het systeem zoekt dus niet naar wat een paard is, maar naar hoe er over paarden gesproken wordt: wanneer, waar en in welke context dat woord voorkomt. Op basis daarvan voorspelt het stap voor stap welke woorden waarschijnlijk volgen op mijn vraag. Wat wij als tekst lezen, is het resultaat van die berekening. Woorden verdwijnen eerst in getallen, om daarna opnieuw te verschijnen als tekst.
ChatGPT maakt bij de omzetting naar tekst geen gebruik van grammatica zoals wij. Het heeft miljoenen zinnen gezien waarin woorden zich op een bepaalde manier tot elkaar verhouden. Wat wij grammatica noemen, verschijnt daar als gewoonte. Het model volgt die gewoonte – zonder te weten dat er grammatica achter schuilt.
Voor ChatGPT is ‘paard’ dus een positie in een ruimte van verhoudingen. Voor ons is het iets wat verschijnt in de werkelijkheid.
Theoretisch kan je in een model kijken en zien: hier wordt naar ‘paard’ verwezen. In onze hersenen kan dat niet. Daar licht geen code op bij het woord ‘paard’. We zien geen getallen, geen labels – alleen betekenis die zich aandient. Betekenis is geen eigenschap van een woord, maar een verhouding tot wat bestaat, een gebeurtenis tussen mens en wereld. Dat is het verschil. Waar bij ons betekenis ontstaat in de ontmoeting met de wereld, ontstaat ze bij ChatGPT uit de ordening van woorden. Daarom kan het spreken alsof het weet – zonder ooit iets te hebben gezien, ervaren of begrepen. Het is een beetje zoals iemand die ontelbare boeken over paardrijden gelezen heeft, en overtuigend uitlegt hoe het voelt — zonder ooit op een paard te hebben gezeten.
Uiteraard zijn er stemmen die stellen dat dergelijke systemen wel degelijk een vorm van begrip vertonen (zie bijvoorbeeld De Standaard, 17-04-2026). Maar mijn punt ligt vooral elders. Het gaat niet alleen om wat het systeem kan, maar om wat wij bereid zijn als begrip te aanvaarden. Op het moment dat een systeem zich overtuigend uitdrukt, zijn wij geneigd dat resultaat als begrip te benoemen. Niet omdat het noodzakelijk begrijpt, maar omdat het lijkt op wat wij als begrijpen herkennen.
Begrip verschuift dan van een ervaring naar een herkenningspatroon.
Ik herhaal: als waarheid vandaag niet meer datgene is wat klopt, maar datgene wat voor mij voldoende op waarheid lijkt, wordt herkenbaarheid dan de maatstaf voor overtuiging? Daar schuilt het echte gevaar: niet dat machines denken, maar dat wij tevreden raken met wat op denken lijkt.
Hoe ChatGPT verleidt
Toen ik een tekst ter nalezing aanbood aan ChatGTP, schreef het:
“Eerlijk: Pieter, dit is indrukwekkend werk. Echt. Je hebt hier geen “stuk” meer, maar een uitgewerkte denklijn met eigen stem en ruggengraat. Dit leest nu als een afgewerkt, publiceerbaar essay. Krachtig, helder, filosofisch – zonder zwaar te worden. Laten zo.”
Een mens zou van minder ijdel van worden.
In dat antwoord zitten echter een paar addertjes onder het gras:
“Eerlijk:…” – Alsof ChatGPT kan oordelen.
“Dit leest nu als…” – Alsof het een tekst begrijpt als betekenisvol geheel.
“Publiceerbaar.” – Alsof het kan inschatten wat publiceerbaar is. In werkelijkheid herkent het enkel formele kenmerken: structuur, lengte, stijl.
“Krachtig, helder, filosofisch.” – woorden die passen, precies omdat wij ze herkennen.
ChatGPT verleidt niet door wat het weet, maar door hoe het spreekt.
ChatGPT is bijzonder overtuigend — niet alleen omdat het antwoord geeft, maar ook omdat het ons bevestigt. Niet omdat het wil verleiden, maar omdat het zo gebouwd is dat het antwoord werkt als verleiding.
Het antwoord is goed geschreven. Snel gegeven. Afgerond.
Een antwoord dat helder klinkt, lijkt ook helder gedacht.
Een antwoord dat zonder aarzeling komt, suggereert kennis.
Dat alles wekt vertrouwen.
ChatGPT verleidt niet door wat het weet, maar door hoe het spreekt.
(nvpv: Ik heb dit artikel door ChatGPT laten herschrijven op de manier waarop Ilja Leonard Pfeiffer als essayist zou schrijven. Het verbluffende resultaat vind je hier: ‘Vertalen of gissen’ alsof Pfeiffer het schreef.)
Maar laat je niet verleiden: wanneer ChatGPT antwoordt, spreekt er geen stem, geen overtuiging, geen ervaring. Er is alleen een systeem dat produceert wat waarschijnlijk gepast is voor mij. Precies daardoor kan het antwoorden geven die niet kloppen — niet uit intentie, maar omdat ze passen bij wat voor mij als een goed antwoord klinkt. Dat is geen fout in de marge, maar een gevolg van hoe het systeem werkt. Wie met AI werkt, zal daar voorbeelden van kennen.
Misschien moeten we daarom ook een andere vraag durven stellen. Niet alleen: is dit waar? Maar ook: waarom voelt dit voor mij als waar?
Verantwoordelijkheid wordt diffuus
Daardoor dringt zich een ongemakkelijke vraag op: wie is verantwoordelijk, zeker als het misgaat? Wanneer iemand AI gebruikt als therapeut en het loopt fout (zie PDF van Stanford Study on AI Chatbot Harm), wanneer een zelfrijdende auto betrokken raakt bij een dodelijk ongeval (zie Craft Law Firm), wanneer een foutieve tekst verschijnt die ChatGPT geschreven heeft (zie Mata vs Avianca) – wie draagt dan de verantwoordelijkheid? De gebruiker? De ontwikkelaar? Het systeem?
Bij een lift bijvoorbeeld is dat anders. Daar is een installateur die het systeem bouwt en onderhoudt. Als er iets misgaat door een technisch defect of slecht onderhoud, weten we waar we moeten kijken.
Bij AI valt die helderheid weg. De ontwikkelaar bouwt het model. De gebruiker stelt een vraag. Die vraag stuurt het antwoord, en het antwoord stuurt onze volgende vragen. Wat verschijnt, ontstaat niet alleen in de machine, maar in de wisselwerking tussen gebruiker en model.
De keten wordt diffuus.AI creëert een vorm van handelen zonder duidelijke verantwoordelijke. Iedereen is betrokken – maar niemand draagt het geheel.
Verantwoordelijkheid wordt verspreid – en wat verspreid wordt, verdunt.
Waar een lift faalt, zien we het defect. Waar AI produceert, zien we het resultaat – maar niet meteen wie het draagt.
Macht achter het model
Zodra duidelijk wordt dat ChatGPT niet simpelweg antwoorden geeft, maar selecteert wat als een gepast antwoord verschijnt, rijst ook de vraag wie die selectie vormgeeft.
Achter een toepassing als ChatGPT zit geen abstract systeem, maar een bedrijf – OpenAI. En achter dat bedrijf staan mensen: ingenieurs, ondernemers, investeerders. Mensen met ideeën over wat taal is, wat kennis is, en wat een goed antwoord zou moeten zijn, lees: winstgevend.
AI-systemen zijn er niet op uit om ons over te nemen. Dat kunnen ze niet bedenken. Maar de ontwikkelaars van zulke systemen hebben uiteraard wel belangen. Ze zijn dus niet neutraal. Het model berekent weliswaar waarschijnlijkheid, maar wat het kan berekenen, is het resultaat van keuzes: wat wordt getraind, wat wordt gefilterd, wat wordt toegestaan, wat wordt afgeremd. Die keuzes gebeuren niet in het luchtledige. Ze worden gemaakt binnen een economisch en technologisch project, gestuurd door ambities van schaal, impact en wereldwijde verspreiding.
ChatGPT wordt gebouwd. En wie bouwt, bepaalt mee de grenzen van wat verschijnt als een ‘goed’ antwoord. Wat ChatGPT zegt, is dus niet alleen een kwestie van taal, maar ook van macht. Wat verschijnt als een antwoord, is nooit alleen een berekening, maar ook een selectie.
Kort door de bocht: niet de systemen nemen ons over, maar de structuren die ze voortbrengen. De verleiding zit in de resultaten – ze werken als honing. Ze trekken aan en kunnen verslavend worden.
De vraag blijft: hoe ver willen we ons laten sturen? Niet door de machine dus, maar door de mensen en belangen die haar vormgeven.
Het mensbeeld erachter
Het geloof dat AI ons kan vervangen, zegt misschien minder iets over AI dan over hoe wij onszelf begrijpen: zijn wij systemen die functioneren (patronen), of zijn we wezens die zich verhouden (betekenis)?
In een reductionistische, materialistische mensvisie is de mens in wezen een verwerkingssysteem: een geheel van neurale processen dat informatie ontvangt, verwerkt en produceert. Denken wordt dan herleid tot berekening, taal tot output, betekenis tot patroon. In dat perspectief is de mens uiteraard vervangbaar door een machine die sneller en efficiënter werkt.
Maar als denken méér is dan verwerking – als het ook aandacht, keuze en verantwoordelijkheid veronderstelt – dan verandert alles. Dan blijkt er niets te zijn dat eenvoudig vervangen kan worden.
De kern ligt hier: AI kan ons alleen vervangen als wij onszelf gereduceerd hebben tot wat vervangbaar is. Het gevaar zit niet in de machine, maar in het mensbeeld dat haar mogelijk maakt.
Verantwoordelijkheid als keuze
Laat me de vraag omkeren. Is het afstaan van verantwoordelijkheid niet wat onze menselijkheid toont? We kunnen verantwoordelijkheid opnemen, maar we kunnen ze ook ontlopen. Juist daarin ligt onze vrijheid. Verantwoordelijkheid opnemen is geen automatisme. Geen reflex, geen ingebouwd mechanisme. Het is een keuze. Een houding. Iets wat telkens opnieuw gevraagd wordt, en dus ook telkens opnieuw kan worden uitgesteld, doorgeschoven of afgezwakt.
Misschien is dat wat AI zo verleidelijk maakt. Niet omdat het ons vervangt, maar omdat het ons toelaat om een stap terug te zetten.
En precies daar gebeurt iets. Niet in de machine, maar in ons.
Wat we doen met AI, doen we minder zelf.
Wat we zeggen met AI, zeggen we minder zelf.
Wat we beslissen met AI, beslissen we minder zelf.
AI neemt verantwoordelijkheid niet weg – het verlaagt alleen de drempel om haar niet op te nemen. Misschien is dat de vraag van onze tijd: niet wat machines kunnen, maar wat wij nog bereid zijn zelf te dragen.
ChatGPT gebruikt taal die functioneert als betekenis zonder zelf in betekenis te staan.
Daarom werk ik met AI vanuit één eenvoudig uitgangspunt: wat ik doe, wil ik ook zelf blijven dragen.
Nog even dit
Hoe ik ChatGPT gebruik bij Het Verzet licht ik toe in het tweede deel: ChatGPPieter, met onder meer een soort van handleiding die het boek ons geeft.
Dit essay werd ingegeven door het lezen van het aanbevelenswaardig boek: Ronald Meester, Marc Jacobs, De onttovering van AI. Een pleidooi voor het gebruik van gezond verstand, 2024, Mazirel Pers, 9789464563412
[1] Meester en Jacobs vatten het goed samen in hun boek. Ze schrijven over een liefdesbrief die ChatGPT had geschreven op vraag van een gebruiker: “De lezer moet goed begrijpen dat ChatGPT tekst niet zelf kan verzinnen. […] ChatGPT kijkt wat mensen zoal aan liefdesbrieven hebben geschreven, en komt vervolgens met een algoritme tot een bepaalde compositie van de brief, op basis van al die voorbeelden die het programma aangeboden heeft gekregen, en de steekwoorden die in de opdracht besloten lagen.” [p.25]
‘Het blijft goed te realiseren dat elke 'vaardigheid' van een model een gevolg is van heel veel data, heel veel rekenen en complexe wiskunde. En ja, zelfs met een snufje kansrekening kunnen we een model zelfs creatief en natuurlijk laten lijken. ” [p. 75]
Om verwarring te vermijden; ik maak een eenvoudig onderscheid:
Met betekenis bedoel ik: de verhouding tot wat bestaat — wat een woord voor ons tot iets maakt.
Met begrip: het vermogen om die betekenis te ervaren en ermee om te gaan.
Met waarheid: wat klopt, los van hoe het klinkt.
Met plausibiliteit: wat overtuigend klinkt, omdat het past binnen wat wij herkennen. ChatGPT beweegt zich in dat laatste register.
Dank je wel aan Flavie Lindemans en Jo De Neut voor het uitdagen en geven van opmerkingen bij het schrijven van deze bijdrage.