ChatGPT en andere AI-chatbots zijn razendsnel onderdeel geworden van ons dagelijks leven. Steeds meer mensen gebruiken ze om boodschappenlijstjes te maken, samenvattingen te genereren, technische vragen te beantwoorden of vakantieplannen uit te werken. Maar niet alle vragen zijn even onschuldig of verstandig. Sommige onderwerpen leveren onbetrouwbare antwoorden op of brengen onbedoelde gevaren met zich mee.
Hieronder lees je de drie belangrijkste soorten vragen die je beter niet aan ChatGPT (of soortgelijke AI’s) moet stellen — én waarom.
1. Politiek stemadvies of partijvoorkeur
In aanloop naar verkiezingen stellen steeds meer mensen ChatGPT de vraag: “Op welke partij moet ik stemmen?”. Dat lijkt handig — maar is geen goed idee. AI-chatbots kunnen geen neutraal of volledig stemadvies geven. Ze zijn niet ontworpen om de complexiteit van politieke standpunten eerlijk of representatief te wegen.
Uit onderzoek blijkt dat AI-modellen niet alle partijen meenemen in hun antwoorden. Sommige modellen neigen naar bepaalde partijen of thema’s, andere geven te simplistische adviezen. De Autoriteit Persoonsgegevens (AP) waarschuwt expliciet om niet te vertrouwen op politieke adviezen van chatbots zoals ChatGPT.
Politieke voorkeuren zijn bovendien sterk contextafhankelijk: AI heeft geen toegang tot jouw waarden of stemgeschiedenis.
Wat wél doen: Gebruik een onafhankelijke stemwijzer of partijprogramma’s om te bepalen welke partij bij jou past. Laat AI hooguit helpen om informatie samen te vatten — maar niet om je keuze te bepalen.
2. Medisch advies of zelfdiagnose
Ook medisch advies vragen aan AI is riskant. Hoewel chatbots vaak zelf netjes aangeven dat ze geen arts zijn, onderschatten veel gebruikers hoe onnauwkeurig zulke antwoorden kunnen zijn.
AI-modellen gebruiken grote hoeveelheden tekst van het internet, waaronder ook verouderde of foutieve medische informatie.
ChatGPT kan plausibele maar verkeerde diagnoses of behandeladviezen geven.
AI kent jouw medische voorgeschiedenis niet, heeft geen toegang tot betrouwbare medische dossiers en kan symptomen verkeerd interpreteren.
Een chatbot kan wél gebruikt worden voor:
* algemene achtergrondinformatie,
* uitleg van medische termen,
* het voorbereiden van een gesprek met een arts.
Maar AI mag nooit een professionele arts of hulpverlener vervangen.
Wat wél doen: Heb je fysieke of mentale klachten? Ga altijd naar je huisarts of medisch specialist. Vertrouw niet op AI voor diagnoses, behandeladviezen of medicijngebruik.
3. Wachtwoorden of gevoelige persoonsgegevens invoeren
Dit is misschien wel de grootste valkuil: persoonlijke gegevens invoeren bij een chatbot.
Wat veel gebruikers niet weten, is dat alles wat je invoert bij een AI-dienst kan worden opgeslagen en gebruikt voor trainingsdoeleinden.
Dat betekent:
* Je weet niet precies waar je gegevens terechtkomen.
* Gevoelige informatie (zoals wachtwoorden of e-mailadressen) kan in theorie terechtkomen in datasets.
* Bij een eventueel datalek kan dit leiden tot ernstige beveiligingsproblemen.
Het lijkt misschien handig om ChatGPT te vragen:
* “Bewaar mijn wachtwoord voor later” of
* “Wat was mijn inlog nog maar?”
* Maar AI-chatbots zijn hier niet voor gemaakt en zijn ook niet beveiligd als wachtwoordkluis.
Wat wél doen: Gebruik betrouwbare en beveiligde wachtwoordmanagers, zoals:
* de ingebouwde Wachtwoorden-app van Apple,
* een password manager als Bitwarden of 1Password,
*of een beveiligd document dat je zelf beheert.
Nooit via een AI-chatbot.
Waarom dit belangrijk is voor HCC-leden
Als HCC zien we dat steeds meer leden dagelijks AI gebruiken — van hobbyprojecten tot professionele toepassingen. Maar AI-modellen zoals ChatGPT zijn geen magische orakels. Ze werken op basis van taalpatronen en training, niet op waarheid of feitelijke kennis in real time.
AI weet niet alles en kan fouten maken.
AI heeft geen geheimhouding — alles wat je invoert, kan elders worden opgeslagen.
AI kan onbedoeld beïnvloeden — bijvoorbeeld bij politieke of gevoelige onderwerpen.
Door kritisch te blijven over welke vragen je stelt, bescherm je je privacy én voorkom je verkeerde beslissingen op basis van onjuiste of onvolledige informatie.