ChatGPT beschuldigt onschuldige Noor ten onrechte van kindermoord

Deel dit artikel

,

Vlag van Noorwegen

Een Noorse man, Arve Hjalmar Holmen, is recent het middelpunt geworden van een opvallend incident waarbij kunstmatige intelligentie op pijnlijke wijze de plank missloeg. Tijdens een eenvoudige zoektocht naar informatie over zichzelf stelde hij via ChatGPT de vraag: "Wie is Arve Hjalmar Holmen?" Het antwoord dat volgde, was ronduit schokkend.

De chatbot beweerde dat Holmen twee van zijn kinderen zou hebben vermoord en daarvoor 21 jaar gevangenisstraf had gekregen. Deze zware beschuldiging is volledig verzonnen. Desondanks presenteerde het AI-model de informatie op zodanige wijze dat het leek alsof het ging om vaststaande feiten.

Holmen gaf in een reactie aan BBC News aan dat hij vooral bezorgd is over het risico dat anderen het onjuiste verhaal zouden geloven. “Het feit dat iemand dit zou kunnen lezen en denken dat het waar is, is wat mij het meest beangstigt,” aldus Holmen in een verklaring tegenover de privacyorganisatie NOYB (None of Your Business).

NOYB heeft inmiddels namens Holmen een officiële klacht ingediend bij de Noorse privacytoezichthouder. Volgens de organisatie is er sprake van laster en een duidelijke schending van de Europese privacywetgeving. Deze wetgeving stelt strenge eisen aan de manier waarop met persoonsgegevens wordt omgegaan, zeker wanneer het gaat om informatie die potentieel schadelijk is voor iemands reputatie of welzijn.

Hoewel ChatGPT standaard een disclaimer toont waarin wordt vermeld dat het model fouten kan maken en dat informatie door gebruikers zelf gecontroleerd moet worden, vindt NOYB deze waarschuwing onvoldoende. Joakim Söderberg, juridisch vertegenwoordiger van NOYB, benadrukt: “Je kunt niet zomaar feitelijke onjuistheden verspreiden en je vervolgens beroepen op een vage disclaimer. Dat is simpelweg onverantwoord.”

De organisatie roept de Noorse toezichthouder op om OpenAI, het Amerikaanse bedrijf achter ChatGPT, te verplichten de onjuiste en schadelijke informatie over Holmen te verwijderen. Daarnaast pleit NOYB ervoor dat het AI-model zodanig wordt aangepast dat dit soort ‘hallucinaties’ – het onterecht genereren van fictieve informatie – in de toekomst beter voorkomen kunnen worden. Ook wordt aangedrongen op het opleggen van een boete als signaal dat nauwkeurigheid en zorgvuldigheid in AI-communicatie essentieel zijn.

Het incident rond Holmen is een duidelijk voorbeeld van een breder probleem binnen de ontwikkeling van kunstmatige intelligentie. AI-modellen kunnen zogeheten hallucinaties vertonen, waarbij feit en fictie door elkaar lopen. Eerder viel Google’s AI-systeem Gemini op door gebruikers aan te raden om lijm op een pizza te smeren zodat de kaas beter zou blijven zitten – een suggestie die duidelijk laat zien hoe ver AI van de realiteit kan afdwalen.

Hoewel de technologie grote voordelen biedt, onderstrepen dergelijke incidenten het belang van menselijk toezicht en regelgeving. Wanneer AI-systemen steeds vaker worden ingezet in de maatschappij, wordt het van essentieel belang dat de betrouwbaarheid van de informatie gewaarborgd is – zeker als het gaat om persoonlijke en potentieel schadelijke gegevens.

'Meld je aan voor de nieuwsbrief'

'Abonneer je nu op een of meerdere van onze nieuwsbrieven en blijf op de hoogte van onze activiteiten!'

Aanmelden