OpenAI ha avviato la ricerca di una nuova figura chiave per rafforzare il proprio approccio alla sicurezza: un Head of Preparedness incaricato di anticipare e mitigare i potenziali rischi legati ai modelli di intelligenza artificiale più avanzati.
L'annuncio arriva in un momento delicato, segnato da un intenso dibattito pubblico sugli impatti sociali e psicologici dell'IA generativa, in particolare di ChatGPT, e da un crescente scrutinio regolatorio. Il CEO Sam Altman ha spiegato che le capacità sempre più sofisticate dei modelli stanno facendo emergere "sfide reali", tra cui effetti imprevisti sul benessere mentale degli utenti.
Per Sam Altman di OpenAI, il 2025 ha dato un'anticipazione dei problemi che causerà l'IA
Secondo Altman, il 2025 ha rappresentato una sorta di "anteprima" di questi problemi, rendendo urgente un rafforzamento delle strategie di prevenzione. La nuova posizione viene descritta come cruciale e altamente impegnativa, con la necessità di entrare rapidamente nel merito di questioni tecniche e operative complesse.
Il ruolo prevede la guida della strategia tecnica del Preparedness Framework di OpenAI, un insieme di processi e strumenti pensati per monitorare lo sviluppo di capacità di frontiera e i rischi di danni gravi che potrebbero derivarne, come l'uso improprio dei sistemi o conseguenze sociali non intenzionali. Il compenso annunciato (555 mila dollari annui più equity) riflette l'importanza e la pressione associate all'incarico.
Com'è cambiato l'assetto dei team di sicurezza di OpenAI?
Negli ultimi anni, l'assetto dei team di sicurezza di OpenAI ha subito diversi cambiamenti. L'ex Head of Preparedness, Aleksander Madry, è stato riallocato nel luglio 2024, e la responsabilità è passata temporaneamente a due dirigenti senior. Tuttavia, anche questa soluzione si è rivelata transitoria: una delle figure ha lasciato l'azienda pochi mesi dopo, mentre l'altra, nel 2025, ha assunto un ruolo differente, allontanandosi dal team di preparedness.
Questo contesto evidenzia quanto sia complesso strutturare una governance efficace della sicurezza nell'era dell'IA avanzata. OpenAI si trova a bilanciare una rapida innovazione tecnologica con la necessità di prevenire abusi, proteggere gli utenti e mantenere la fiducia dell'opinione pubblica.