OpenAI ha recentemente confermato lo scioglimento del suo Superalignment Team, un gruppo di ricerca dedicato a sviluppare strategie per controllare e guidare intelligenze artificiali superintelligenti. Questo sviluppo arriva dopo una serie di partenze chiave, inclusa quella di Ilya Sutskever, co-fondatore e scienziato capo di OpenAI, che era uno dei co-leader del team.
Il Superalignment Team era stato annunciato da OpenAI nel luglio dello scorso anno con l'obiettivo di prepararsi per l'arrivo di IA superintelligenti, capaci di superare e potenzialmente sopraffare i loro creatori. La formazione del team era stata vista come un passo significativo verso la gestione dei rischi a lungo termine associati all'intelligenza artificiale. OpenAI aveva destinato il 20 percento della sua potenza di calcolo a questo gruppo, segnalando l'importanza della sua missione.
Cambiamenti di Leadership in OpenAI
Il recente scioglimento del team è stato preceduto dalla partenza di diversi ricercatori di spicco. La notizia che Ilya Sutskever avrebbe lasciato OpenAI ha fatto scalpore, poiché oltre ad essere uno dei fondatori, era uno dei quattro membri del consiglio che avevano licenziato il CEO Sam Altman lo scorso novembre. Altman è stato reintegrato dopo cinque giorni caotici, grazie a una rivolta del personale e a un accordo che ha visto Sutskever e altri due direttori lasciare il consiglio.
Poche ore dopo l'annuncio della partenza di Sutskever, anche Jan Leike, l'altro co-leader del Superalignment Team, ha annunciato le sue dimissioni. In un post su X (ex Twitter), Leike ha spiegato che la sua decisione è stata causata da disaccordi sulle priorità aziendali e sulla quantità di risorse allocate al suo team. "Negli ultimi mesi, il mio team ha navigato controvento. A volte lottavamo per ottenere potenza di calcolo ed era sempre più difficile portare avanti questa ricerca cruciale," ha scritto Leike.
E adesso?
La ricerca sui rischi associati ai modelli di IA più potenti sarà ora guidata da John Schulman, che coordinerà il team responsabile della messa a punto dei modelli di IA dopo il training. OpenAI ha rifiutato di commentare sulle partenze di Sutskever o degli altri membri del Superalignment Team, o sul futuro del suo lavoro sui rischi a lungo termine dell'IA.
A prescindere, OpenAI continua a fare progressi significativi nello sviluppo dell'IA. Recentemente, l'azienda ha presentato un nuovo modello di IA multimodale chiamato GPT-4ochiamato GPT-4o, che permette a ChatGPT di vedere il mondo e conversare in modo più naturale e umano. Questo modello solleva nuove questioni etiche riguardanti la privacy, la manipolazione emotiva e i rischi per la sicurezza informatica, sottolineando la necessità di una regolamentazione adeguata.