Directiesecretariaat — Agents & AI
Agents · prompting · veiligheid · praktijk
WORKSHOP
RISICO

Hallucinaties
waarom gebeurt dit?

Een LLM geeft altijd “iets”. Dat is logisch bij volgend‑token voorspelling. Als het gat groot is (te weinig context), kan het gaan gokken.

Symptoom

Klinkt overtuigend, maar klopt niet. Vooral bij feiten, namen, cijfers, beleid.
  • Nieuwe details die niet in de input staan.
  • “Zeker klinken” zonder bron/citaat.
  • AVG/beleid claims zonder link naar officiële bron.

Voorkomen? Ja — deels.

Data
  • Complete brondata in scope.
  • Filter op relevantie (zoek/metadata).
  • Score snippets: “past dit bij de vraag?”
Prompt
  • “Reageer alleen als je het zeker weet.”
  • Laat het model vragen stellen bij gaten.
  • Verplicht: citeer uit de input.
Vraag + bron→ antwoord met onderbouwing
Vraag zonder bron→ kans op gok/“zeker klinken”