Nieuwe studie: hallucinaties zijn wiskundig inherent aan de huidige AI-aanpak

Deel dit artikel

,

Cartoon over hallicunerende AI: robot zegt dat hij aan het halluniceren is en vrouw en man antwoorden dat dat onderdeel van zijn benaderingen is (in het Engels). Oranje achtergrond

Een recent rapport van onderzoekers van OpenAI en Georgia Tech schetst een verontrustend maar helder beeld van waarom grote taalmodellen (Large Language Models, LLM) blijven hallucineren, oftewel: geloofwaardig klinkende, maar feitelijk onjuiste uitspraken blijven doen. Volgens de auteurs komt dit vanwege fundamentele kenmerken van de huidige trainings- en evaluatiemethoden.

Lees verder op de website van HCC!ai.

'Meld je aan voor de nieuwsbrief'

'Abonneer je nu op een of meerdere van onze nieuwsbrieven en blijf op de hoogte van onze activiteiten!'

Aanmelden