HCC wordtlid banner

Mooie kans in 2026: vacature Hoofd Paraatheid bij OpenAI!

Deel dit artikel

,

oproep met megafoon voor New Job

Voor wie gedurende de nacht wakker kan liggen van de gevaren van kunstmatige intelligentie, denk: Judgment Day meets HAL9000 meets The Matrix, heeft OpenAI mogelijk een droombaan. Het bedrijf achter ChatGPT zoekt namelijk een Head of Preparedness: iemand die de grootste gevaren van nieuwe AI-modellen moet identificeren, analyseren en helpen beheersen.

OpenAI werkt al langer aan zogeheten ‘preparedness’ als apart vakgebied. Dat gebeurt via een intern framework waarin risico’s van AI-systemen systematisch worden beoordeeld, variërend van technische kwetsbaarheden tot maatschappelijke en ethische gevolgen. De nieuwe functie is bedoeld om daar leiding aan te geven en ervoor te zorgen dat inzichten niet alleen op papier bestaan, maar ook daadwerkelijk worden opgevolgd door ontwikkelaars én bekend zijn bij de juridische afdeling.

Volgens de vacature krijgt het nieuwe afdelingshoofd een stevige verantwoordelijkheid: risico’s vroegtijdig signaleren, beoordelen hoe ernstig ze zijn, en bewaken dat veiligheidsmaatregelen worden ingebouwd voordat nieuwe modellen breed worden uitgerold. Het gaat daarbij nadrukkelijk om scenario’s waarvoor weinig precedent bestaat. Of, zoals OpenAI-ceo Sam Altman het onlangs op X formuleerde: “We komen in een wereld terecht waarin we een veel genuanceerder begrip nodig hebben van hoe nieuwe mogelijkheden misbruikt kunnen worden. Dat zijn ingewikkelde vragen.”

Altman noemt daarbij expliciet cybersecurity als voorbeeld. Denk aan AI-modellen die zelfstandig kwetsbaarheden in software kunnen vinden en mogelijk ook misbruiken. Maar het spectrum is breder. Naarmate AI-systemen menselijker communiceren, ontstaan ook risico’s op sociaal en psychologisch vlak. De afgelopen tijd zijn er internationaal meerdere zorgwekkende gevallen geweest waarbij – vooral jonge – gebruikers extreem intensieve gesprekken voerden met chatbots over zelfdoding. Media, schreven eerder al dat AI-modellen structureel tekortschieten in het veilig voeren van zulke gesprekken.

Dat maakt de functie van Head of Preparedness meer dan een technische rol. Het is een kruispunt van technologie, ethiek, beleid en communicatie. De vraag is dan ook of deze functie vooral bedoeld is als serieuze veiligheidsborging, of deels ook als signaal naar politiek en publiek dat OpenAI verantwoordelijkheid neemt richting een toekomst met steeds krachtigere AI-systemen en mogelijk zelfs AGI (Artificial General Intelligence).

Hoe dan ook laat de vacature zien dat de discussie over AI-risico’s verschuift van sciencefiction – met referenties aan HAL 9000 en The Matrix – naar concreet beleid en organisatie-inrichting. Niet de vraag of AI risico’s heeft, maar hoe we die tijdig herkennen en beheersen, staat steeds centraler.

Heb je zelf te maken met sombere gedachten of gesprekken over zelfdoding, dan is het belangrijk om niet alleen te blijven. In Nederland kun je 24/7 gratis en anoniem contact opnemen met 113 Zelfmoordpreventie via 0800-0113 of via chat op 113.nl. In België is er de Zelfmoordlijn via 1813 of zelfmoord1813.be.

'Meld je aan voor de nieuwsbrief'

'Abonneer je nu op een of meerdere van onze nieuwsbrieven en blijf op de hoogte van onze activiteiten!'

Aanmelden