OpenAI, l'azienda pioniera nel campo dell'intelligenza artificiale, ha abituato il pubblico a progressi significativi e costanti. Anche per questo, e per i proclami di vari esponenti dell'azienda, l'annuncio di Orion, il nuovo modello linguistico destinato a succedere a GPT-4, ha generato grandi aspettative, alimentando la speranza di un ulteriore passo avanti nella comprensione e generazione del linguaggio naturale.
Tuttavia, recenti indiscrezioni riportate da The Information gettano ombre sul reale potenziale di Orion.
I problemi di Orion
Contrariamente alle previsioni iniziali, che lo dipingevano come un modello in grado di surclassare GPT-4 in molteplici ambiti, sembra che i miglioramenti si limitino alla sfera linguistica, senza estendersi ad altri domini come la programmazione.
A questo si aggiungono le sfide operative che Orion pone. Il modello, infatti, richiederebbe maggiori risorse per l'esecuzione e la manutenzione nei data center, con un conseguente aumento dei costi. OpenAI giustifica questo rallentamento nel progresso dei modelli linguistici con la crescente difficoltà di reperire dati di addestramento di alta qualità.
La maggior parte dei dati disponibili pubblicamente è già stata sfruttata, costringendo l'azienda a cercare nuove fonti di informazione. Per questo, è stato creato un team dedicato, guidato da Nick Ryder, con l'obiettivo di individuare dati unici e innovativi per addestrare i modelli linguistici e superare gli attuali limiti dell'IA.
Il problema della scarsità di dati di addestramento non riguarda solo OpenAI, ma sembra essere un ostacolo comune a tutto il settore. Questa situazione solleva un interrogativo cruciale: l'IA sta forse raggiungendo un punto di stagnazione? È possibile che l'AGI, l'intelligenza artificiale generale, rappresenti la chiave per sbloccare nuove potenzialità e portare a progressi significativi? Fateci sapere la vostra opinione nei commenti qua sotto.