HallucinatieIn de context van AI verwijst hallucinatie naar het verschijnsel dat een AI-model vol vertrouwen reageert op een manier die niet wordt gerechtvaardigd door de trainingsdata. Dit betekent dat het model op dat moment een antwoord verzint. ChatGPT kan bijvoorbeeld een zelfverzekerd antwoord geven dat volledig fout is als iemand een vraag stelt waarop het model het antwoord niet weet.
Hallucinatie is een emergent behavior en het gedrag is waargenomen in verschillende LLM-aangedreven chatbots. Het lijkt het gevolg te zijn van het feit dat deze modellen slechts waarschijnlijke antwoorden voorspellen en deze niet kunnen toetsen aan betrouwbare bronnen. Aangezien ze worden aangemoedigd om nuttige antwoorden te geven, proberen ze dat ook te doen als ze de gevraagde informatie niet hebben.
Hallucinatie is een probleem dat wordt besproken door AI-veiligheidsonderzoekers, die vrezen dat AI-systemen onbedoeld verkeerde informatie kunnen verspreiden.