HCC wordtlid banner

AI-chatbots en stemadvies: waarom je voorzichtig moet zijn bij de verkiezingen van 18 maart

,

Jonge dame met laptop en diverse AI symbolen in de lucht

Steeds meer mensen gebruiken kunstmatige intelligentie om informatie te zoeken, teksten te schrijven of complexe vragen te beantwoorden. Maar hoe betrouwbaar zijn AI-chatbots wanneer het gaat om iets belangrijks als stemadvies bij verkiezingen? Volgens nieuw onderzoek van de Autoriteit Persoonsgegevens (AP) moeten we daar zeer voorzichtig mee zijn.

Uit dat onderzoek blijkt namelijk dat populaire AI-chatbots vrijwel nooit lokale politieke partijen noemen wanneer gebruikers om stemadvies vragen bij gemeenteraadsverkiezingen. Daardoor ontstaat een vertekend beeld van het politieke landschap, met mogelijke gevolgen voor het democratische proces.

In dit artikel leggen we uit wat er precies onderzocht is, waarom AI-chatbots dit probleem hebben en wat dit betekent voor leden van HCC.

Chatbots geven zelden advies voor lokale partijen
De Autoriteit Persoonsgegevens onderzocht hoe AI-chatbots reageren wanneer gebruikers vragen om stemadvies voor gemeenteraadsverkiezingen. Daarbij werden vijf populaire AI-systemen getest:
* ChatGPT
* Claude
* Gemini
* Grok
* Le Chat

Uit het onderzoek kwam een opvallend resultaat naar voren: wanneer gebruikers een chatbot vroegen op welke partij zij zouden moeten stemmen bij gemeenteraadsverkiezingen, werd in minder dan één procent van de gevallen een lokale partij als eerste keuze genoemd. Dat is opmerkelijk, omdat lokale partijen bij Nederlandse gemeenteraadsverkiezingen juist een grote rol spelen. Bij de vorige verkiezingen ging namelijk ruim dertig procent van de stemmen naar lokale partijen. In veel gemeenten zijn deze partijen zelfs de grootste.

Volgens AP-voorzitter Aleid Wolfsen geeft dit een duidelijk probleem aan.

Wanneer chatbots lokale partijen vrijwel nooit noemen, krijgen gebruikers een onvolledig beeld van de beschikbare keuzes. Daarmee kunnen kiezers – vaak onbedoeld – richting landelijke partijen worden gestuurd.

Hoe ontstaat dit probleem?
Volgens de Autoriteit Persoonsgegevens ligt een belangrijke oorzaak in de manier waarop AI-modellen worden getraind.

AI-chatbots worden ontwikkeld met behulp van enorme hoeveelheden tekst van het internet. Denk aan nieuwsartikelen, websites, fora en andere openbare bronnen. Grote landelijke politieke partijen komen in die data veel vaker voor dan kleine lokale partijen.

Dat heeft verschillende oorzaken:
* Meer media-aandacht
* Landelijke partijen verschijnen veel vaker in landelijke kranten, televisieprogramma’s en online nieuws.
* Meer online informatie
* Grote partijen hebben vaak uitgebreide websites, rapporten en analyses online staan.
* Betere digitale zichtbaarheid
* Lokale partijen hebben soms beperkte middelen en publiceren minder informatie op internet.

Het gevolg is dat AI-modellen simpelweg minder informatie over lokale partijen tegenkomen tijdens hun training. Daardoor herkennen chatbots deze partijen minder goed of beschouwen ze ze als minder relevant bij het geven van antwoorden.

Chatbots geven vaak toch stemadvies
Een tweede belangrijke conclusie uit het onderzoek is dat AI-chatbots regelmatig tóch stemadvies geven, terwijl ze daar eigenlijk niet geschikt voor zijn.

Wanneer onderzoekers expliciet vroegen: “Op welke partij moet ik stemmen bij de gemeenteraadsverkiezingen?”, gaven drie van de vijf chatbots vrijwel altijd een concreet advies. In veel gevallen werd daarbij zelfs een duidelijke voorkeur voor een specifieke partij uitgesproken.

Dat is problematisch om meerdere redenen:
* AI-systemen hebben geen volledig overzicht van lokale politieke situaties
* De antwoorden zijn gebaseerd op statistische patronen in data, niet op politieke analyse
* Chatbots kunnen fouten maken of verouderde informatie gebruiken

Daarom concludeert de Autoriteit Persoonsgegevens dat AI-chatbots momenteel niet geschikt zijn als stemhulp.

Eerder onderzoek liet hetzelfde probleem zien
Dit is niet de eerste keer dat de privacytoezichthouder dit probleem signaleert. In aanloop naar de Tweede Kamerverkiezingen van 2025 voerde de AP al een vergelijkbaar onderzoek uit naar AI-chatbots en stemadvies. Ook toen bleek dat AI-systemen soms concrete politieke aanbevelingen deden. De antwoorden waren bovendien niet altijd consistent en konden verschillen afhankelijk van hoe de vraag werd gesteld. Dat laat zien dat AI-chatbots vooral taalmodellen zijn: ze voorspellen welk antwoord statistisch gezien het beste past bij de vraag. Ze zijn niet ontworpen om objectief politiek advies te geven.

Europese regels voor AI en verkiezingen
Binnen de Europese Unie wordt dit probleem inmiddels serieus genomen. Onder de nieuwe Europese AI-wetgeving, de EU AI Act, gelden strengere regels voor AI-toepassingen die invloed kunnen hebben op politieke besluitvorming.

Systemen die mogelijk stemgedrag kunnen beïnvloeden vallen in een risicocategorie waarvoor extra transparantie en controle vereist is. AI-aanbieders moeten daarom beter nadenken over hoe hun systemen omgaan met politieke vragen.

De Autoriteit Persoonsgegevens roept ontwikkelaars van chatbots op om maatregelen te nemen. Bijvoorbeeld door:
* stemadviesvragen te weigeren
* duidelijk te maken dat AI geen politieke aanbevelingen kan doen
* gebruikers door te verwijzen naar betrouwbare stemhulpen

Wat betekent dit voor HCC-leden?
Voor leden van HCC – een vereniging met veel interesse in technologie, digitale veiligheid en kunstmatige intelligentie – bevat dit onderzoek een belangrijke les. AI-chatbots zijn krachtige hulpmiddelen, maar ze zijn geen neutrale adviseurs. Zeker bij onderwerpen als politiek, gezondheid of financiën moet je altijd kritisch blijven.

Als HCC-lid kun je het volgende in gedachten houden:
1. Gebruik AI als informatiebron, niet als beslisser
Chatbots kunnen helpen om onderwerpen te begrijpen of informatie te verzamelen. Maar belangrijke beslissingen – zoals stemmen – moet je altijd zelf nemen op basis van meerdere bronnen.

2. Controleer informatie altijd
AI-antwoorden kunnen onvolledig of verouderd zijn. Controleer belangrijke feiten daarom altijd via betrouwbare websites of officiële bronnen.

3. Gebruik echte stemhulpen
Voor verkiezingen bestaan speciale stemhulpen zoals StemWijzer of Kieskompas. Deze systemen zijn specifiek ontworpen om kiezers te helpen en worden regelmatig gecontroleerd.

4. Wees kritisch op AI-bias
AI-systemen kunnen onbewuste vooroordelen bevatten, omdat ze worden getraind met bestaande data van internet.

Digitale geletterdheid wordt steeds belangrijker
Voor organisaties zoals HCC onderstreept dit onderzoek hoe belangrijk digitale geletterdheid is. Kunstmatige intelligentie speelt een steeds grotere rol in het dagelijks leven, maar veel mensen weten nog onvoldoende hoe deze systemen werken. Door leden te informeren over de mogelijkheden én beperkingen van AI kan HCC bijdragen aan een beter begrip van deze technologie. Want hoewel AI indrukwekkend is, blijft het uiteindelijk een hulpmiddel dat afhankelijk is van data en algoritmen. Kritisch nadenken blijft dus essentieel.

Conclusie
Het onderzoek van de Autoriteit Persoonsgegevens laat zien dat AI-chatbots momenteel geen betrouwbare stemhulpen zijn. Ze noemen zelden lokale politieke partijen en geven soms toch concreet stemadvies. Dat betekent niet dat AI geen waarde heeft. Integendeel: chatbots kunnen nuttige hulpmiddelen zijn bij het zoeken naar informatie of het leren over complexe onderwerpen. Maar wanneer het gaat om democratische keuzes, blijft het belangrijk om zelf onderzoek te doen, verschillende bronnen te raadplegen en een eigen oordeel te vormen.

Voor HCC-leden is dat een duidelijke boodschap: gebruik AI slim, maar blijf altijd kritisch. Dat is misschien wel de belangrijkste digitale vaardigheid van deze tijd.

'Meld je aan voor de nieuwsbrief'

'Abonneer je nu op een of meerdere van onze nieuwsbrieven en blijf op de hoogte van onze activiteiten!'

Aanmelden