Hallucinatie

Een AI-hallucinatie is wanneer een AI-model foutieve informatie presenteert met dezelfde zelfverzekerdheid als correcte feiten. Een van de belangrijkste beperkingen van huidige AI — elke gebruiker moet dit kennen.
SNELLE WEETJES
TypeAI-beperking
OplossingRAG + verificatie
RisicoAltijd aanwezig
TrendAfnemend per gen.

Wat is een AI-hallucinatie?

Een hallucinatie is wanneer een AI-model iets beweert dat feitelijk onjuist is, maar het presenteert met dezelfde zelfverzekerde toon als correcte informatie. Het model verzint feiten, bronnen, namen, datums of statistieken — en doet alsof ze kloppen.

Hoe ontstaat het?

Het model voorspelt de meest waarschijnlijke volgende woorden op basis van zijn trainingsdata, zonder een ingebouwd verificatiemechanisme. Als de juiste informatie niet sterk aanwezig was in de trainingsdata, “vult het model de gaten in” met plausibel klinkende maar verzonnen informatie.

Waarom relevant?

Controleer altijd specifieke claims, statistieken, namen en bronnen die een AI geeft — zeker voor klantcommunicatie, rapporten of officiële documenten. Nieuwere modellen hallucineren minder maar het risico verdwijnt nooit volledig. Voor feitenkritische toepassingen is RAG de aangewezen oplossing.