aiscendo logo
OpleidingenOver Aiscendo
Aiscendo logo

AI begrijpelijk en toepasbaar maken voor organisaties. Van basisconcepten tot geavanceerde toepassingen.

Opleidingen

  • Alle opleidingen

Kennisbank

  • Alle onderwerpen
  • Blog

Actueel

  • Overzicht
  • Laatste nieuws
  • AI Tijdlijn

Over ons

  • Over Aiscendo
  • Contact

© 2026 Aiscendo.nl — Alle rechten voorbehouden.

PrivacybeleidAlgemene voorwaardenCookiebeleid
Gemaakt in Utrecht🇳🇱
  1. Home
  2. Kennisbank
  3. Wat AI niet is
  4. AI is geen waarheidsmachine
Wat AI niet is

AI is geen waarheidsmachine

Het gevaarlijkste aan AI-output is niet wanneer die er duidelijk naast zit. Het is wanneer de output er professioneel uitziet, vloeiend leest en precies klinkt als het antwoord dat je zocht. Want op dat moment verdwijnt de neiging om te controleren. En precies daar zit het risico: een AI-model heeft geen onafhankelijke toegang tot de werkelijkheid. Het kan niet buiten zijn eigen patronen treden om vast te stellen of wat het genereert ook klopt.

R

Roland Bieleveldt

In Dit Artikel

01De verleiding van een goed antwoord02Patronen zonder waarheidstoets03Waarom zekerheid niets bewijst04Voorbeelden05Veelgestelde vragen06Verder lezen

Meer over Wat AI niet is?

Bekijk de complete gids en alle gerelateerde artikelen.

Bekijk gids

01De verleiding van een goed antwoord

Vraag een AI-model om een samenvatting van een jaarverslag en je krijgt een helder gestructureerde tekst, met kopjes, kernpunten en een afgewogen conclusie. Vraag om een analyse van klantfeedback en het resultaat leest alsof een analist er een ochtend aan heeft besteed. De taal is correct, de structuur is logisch, de toon is professioneel.

Dat is precies het probleem.

De toon van zekerheid

AI-output komt zonder twijfel. Geen vraagtekens, geen voorbehouden, geen “ik ben hier niet zeker van.” Een correct antwoord over de omzet van een beursgenoteerd bedrijf en een volledig verzonnen juridische uitspraak lezen op exact dezelfde manier. Dezelfde vloeiende zinnen, dezelfde overtuigende toon, hetzelfde zelfvertrouwen.

Er zit in de output zelf geen signaal dat onderscheid maakt tussen feit en fictie. Niet omdat het model iets verbergt, maar omdat het model dat onderscheid niet maakt. Het genereert taal. Of die taal overeenkomt met de werkelijkheid, is iets dat buiten het proces valt.

02Patronen zonder waarheidstoets

Wat gebeurt er wanneer je een vraag stelt aan een AI-model? Het model heeft tijdens de training miljarden stukken tekst verwerkt: boeken, artikelen, websites, handleidingen, wetenschappelijke papers, forumposts. Uit die teksten heeft het statistische patronen geleerd. Welke woorden volgen op welke andere woorden, in welke volgorde, in welke context.

Wanneer je een vraag stelt, genereert het model de reeks woorden die statistisch het meest waarschijnlijk past bij jouw vraag, gegeven alles wat het heeft geleerd. Vaak is dat een correct antwoord. Veel van de patronen in die miljarden teksten komen overeen met de werkelijkheid. Een model dat geleerd heeft uit duizenden teksten over fotosynthese, genereert waarschijnlijk een correcte uitleg van fotosynthese. Het patroon klopt, en dus klopt het antwoord.

Maar soms kloppen de patronen niet, of zijn ze onvolledig, of is het onderwerp zeldzaam in de trainingsdata. En dan genereert het model alsnog de meest waarschijnlijke voortzetting. Het resultaat ziet er hetzelfde uit. Dezelfde toon, dezelfde structuur, dezelfde vloeiendheid. Het enige verschil is dat de inhoud niet klopt.

Geen onafhankelijke toegang tot de werkelijkheid

Hier zit het inzicht dat het verschil maakt. Er bestaan mechanismen die de betrouwbaarheid van AI-output verhogen. Redeneermodellen evalueren hun eigen tussenstappen. Systemen kunnen worden gekoppeld aan externe bronnen. Post-training leert modellen om wetenschappelijke consensus te prefereren boven onzin. Die mechanismen helpen. Maar ze veranderen niets aan het fundamentele punt: het model kan niet buiten zijn eigen patronen treden om onafhankelijk vast te stellen of iets waar is.

Een concreet voorbeeld maakt dit zichtbaar. Vraag een AI-model naar een bekende historische figuur, Winston Churchill of Marie Curie, en je krijgt een correcte biografie. De trainingsdata bevatten duizenden teksten over deze personen, de patronen zijn sterk en consistent. Vraag datzelfde model naar een relatief onbekende historische figuur, een negentiende-eeuwse provinciale politicus of een vergeten uitvinder, en er gebeurt iets anders. Het model genereert een even geloofwaardige biografie: geboortejaar, studie, carrière, belangrijkste bijdrage. De structuur is identiek. De toon is identiek. Maar de helft van de details is verzonnen. Niet omdat er verkeerde informatie in de trainingsdata zat, maar omdat er te weinig was. Het model vulde de gaten op met patronen van hoe biografieën eruitzien.

Vergelijk het met iemand die fenomenaal belezen is en over elk onderwerp vloeiend kan spreken. Die persoon vertelt je vol overtuiging over een historische gebeurtenis, een wetenschappelijk onderzoek of een juridisch precedent. Soms klopt het. Soms is het een herinnering aan een roman in plaats van aan een feitenboek. En het probleem is: die persoon kan het verschil zelf niet zien. De vloeiendheid is in beide gevallen identiek, omdat de vloeiendheid niet voortkomt uit kennis van de feiten, maar uit kennis van de taal.

03Waarom zekerheid niets bewijst

Je zou verwachten dat een model op zijn minst minder stellig klinkt wanneer het minder zeker is. Dat er iets van aarzeling doorschemert. Onderzoekers van MIT ontdekten in 2025 het tegenovergestelde. Wanneer modellen onjuiste informatie genereren, gebruiken ze juist stelliger taal dan wanneer ze correcte informatie geven.

Dat is geen toeval. Het patroon is logisch als je het mechanisme kent. In de trainingsdata zijn stellige formuleringen statistisch waarschijnlijker dan voorzichtige formuleringen. Een tekst die zegt “de rechtbank oordeelde dat…” klinkt waarschijnlijker dan “de rechtbank oordeelde mogelijk dat…” Het model optimaliseert voor waarschijnlijkheid, niet voor nauwkeurigheid. En waarschijnlijke taal is zelfverzekerde taal.

Het gevolg is ongemakkelijk. De momenten waarop je het meest op je hoede zou moeten zijn, zijn precies de momenten waarop de output het meest overtuigend klinkt. Het signaal dat je zoekt, de aarzeling die waarschuwt, is er niet. En als het er niet is, verschuift de verantwoordelijkheid voor controle volledig naar de mens die de output leest.

04Voorbeelden

05Veelgestelde vragen

Elke nieuwe generatie modellen presteert beter op gestructureerde taken. Op samenvattingen van documenten liggen de hallucinatiepercentages van de beste modellen inmiddels onder de twee procent. Maar op complexere taken, zoals het beantwoorden van open vragen of het uitvoeren van meerstapsredeneringen, blijven de foutpercentages aanzienlijk hoger. In medische contexten zijn zonder aanvullende maatregelen percentages boven de zestig procent gemeten. Die getallen verschuiven met elke nieuwe generatie, maar het patroon blijft: op gestructureerde taken worden modellen steeds beter, op open taken blijft het risico substantieel. Wiskundig onderzoek uit 2025 concludeert dat hallucinaties inherent zijn aan de architectuur van taalmodellen. Het is geen bug die je kunt repareren, maar een eigenschap van hoe deze systemen werken.

Ja, tot op zekere hoogte. Gestructureerde prompts die het model vragen om alleen antwoorden te geven op basis van een meegegeven tekst, verlagen het hallucinatiepercentage met ruwweg een derde. Dat is een reële verbetering. Maar het elimineert het probleem niet. Een model dat expliciet wordt gevraagd om “alleen te antwoorden op basis van het document” kan alsnog informatie genereren die niet in het document staat. De instructie is geen garantie, het is een statistisch duwtje in de goede richting. Wie AI inzet in een context waar fouten consequenties hebben, kan niet leunen op prompts alleen. Daar is een combinatie nodig van gestructureerde invoer, afgebakende bronnen en menselijke controle.

De vuistregel is: hoe verifiëerbaarder de taak, hoe veiliger de inzet. Een samenvatting van een document dat je zelf hebt gelezen, is controleerbaar. Een analyse van data die je kent, is toetsbaar. Een feitelijke bewering over een onderwerp dat je niet kent, is dat niet. Het risico zit niet in het gebruik van AI, maar in het overnemen van output zonder controle. De werkwijze die het beste resultaat oplevert, is om AI-output te behandelen als het werk van een capabele maar feilbare medewerker: altijd nakijken, nooit klakkeloos overnemen. Dat kost tijd. Het is nog steeds sneller dan alles zelf doen. En het voorkomt de situaties waarin een enkel ongecontroleerd antwoord meer kost dan alle tijdwinst bij elkaar.

06Verder lezen

Wie wil begrijpen hoe het mechanisme achter onjuiste AI-output precies werkt en waarom het hallucinatie heet, leest verder bij Wat is een hallucinatie? (pagina 1.4b).

Wie wil weten hoe je AI-output structureel betrouwbaarder maakt door een model te koppelen aan externe kennisbronnen, vindt dat bij Kennislaag en RAG (cluster 4.2).

Wie wil begrijpen hoe je als organisatie toezicht houdt op AI-output, leest verder bij Menselijke sturing en toezicht (cluster 6.2).

Terug naar Wat AI niet is: De Complete Gids