
OpenAI zoekt een Head of Preparedness, iemand die zich bezighoudt met de vraag hoe AI ernstig kan ontsporen.
CEO Sam Altman kondigde de functie aan op X en erkende dat de snelle ontwikkeling van AI ‘echte uitdagingen’ met zich meebrengt, waaronder gevolgen voor mentale gezondheid en misbruik van AI in enge, dystopische cyberwapens.
Wat de baan behelst
De functie richt zich op het in kaart brengen van toekomstige AI-capaciteiten die grote schade kunnen veroorzaken, meldt The Verge. De nieuwe verantwoordelijke moet risicoanalyses, dreigingsmodellen en veiligheidsmaatregelen opzetten en coördineren. Ook krijgt diegene de taak om OpenAI’s zogeheten preparedness framework uit te voeren, een proces waarmee het bedrijf dus geavanceerde AI-capaciteiten volgt en voorbereidt op nieuwe risico’s van ernstige schade. Dat houdt in: AI-modellen beveiligen rond gevoelige toepassingen zoals biologische kennis en grenzen te stellen aan zelfverbeterende systemen.
Altman noemt het zelf een stressvolle baan. De timing roept vragen op, nu er al meerdere incidenten zijn geweest waarbij chatbots in verband werden gebracht met zelfdoding onder jongeren. Zorgen over ‘AI-psychose’ nemen toe, doordat chatbots waanideeën kunnen versterken, complottheorieën voeden en schadelijk gedrag kunnen opwekken.
Meer lezen over AI? Download dan onze app!