OpenAI, l'azienda dietro ChatGPT, sta ampliando le proprie risorse infrastrutturali per sostenere la crescente domanda dei suoi servizi. Secondo fonti consultate dall'agenzia di stampa Reuters, la startup sta collaborando con Broadcom e Taiwan Semiconductor Manufacturing Company (TSMC) per la realizzazione del suo primo chip progettato internamente, destinato a potenziare le sue capacità di elaborazione AI.
Questo nuovo progetto rappresenta una strategia di diversificazione dell'approvvigionamento di chip, che vede OpenAI includere anche i prodotti di AMD insieme alle GPU Nvidia, attualmente dominanti sul mercato. L'obiettivo finale? Ridurre i costi operativi e ottimizzare la disponibilità di hardware per addestrare e far funzionare complessi modelli di intelligenza artificiale.
La nuova strategia di OpenAI
Da tempo, OpenAI valuta diverse opzioni per ridurre la sua dipendenza da un singolo produttore e attenuare i costi dell'infrastruttura. In passato l'azienda aveva considerato la possibilità di costruire una rete di fonderie per la produzione di chip, ma per ora avrebbe abbandonato l'idea a causa delle ingenti risorse economiche e del tempo necessario per portare a termine un progetto simile. L'approccio attuale, basato su una combinazione di progettazione interna e partnership strategiche, dimostra come OpenAI stia esplorando soluzioni a lungo termine per potenziare le sue capacità.
La collaborazione di OpenAI con Broadcom e TSMC, svelata ora per la prima volta, evidenzia l'importanza di consolidare una rete di approvvigionamento variegata e resiliente per gestire le risorse di calcolo necessarie ai suoi progetti. La startup di San Francisco, che insieme a colossi come Google, Microsoft e Meta rientra tra i maggiori acquirenti di chip, intende così contrastare i problemi di approvvigionamento e i costi associati alla carenza di GPU Nvidia. Con l'obiettivo di lanciare il primo chip progettato internamente entro il 2026, OpenAI si è già assicurata la capacità produttiva presso TSMC grazie alla collaborazione con Broadcom.
Per far fronte alla domanda crescente, OpenAI ha anche rafforzato il proprio team interno di ingegneri specializzati nella progettazione di chip, contando su esperti che hanno precedentemente lavorato allo sviluppo dei Tensor Processing Unit (TPU) per Google. Un altro elemento cruciale della strategia di OpenAI è l'inserimento di chip AMD tramite la piattaforma cloud Azure di Microsoft, come indicato dalle stime di mercato per il 2024. Questa collaborazione non solo diversifica le fonti di approvvigionamento per OpenAI ma si inserisce in un contesto di competizione crescente tra produttori di chip.
Il fabbisogno di OpenAI per i suoi progetti di intelligenza artificiale rimane significativo, sia per l'addestramento di modelli sia per le applicazioni di inferenza, in cui i sistemi elaborano nuovi dati per produrre risposte o previsioni. Broadcom, con la sua esperienza nella produzione e ottimizzazione di componenti per chip, sta già collaborando con OpenAI per progettare un chip dedicato principalmente all'inferenza, che sarà determinante per l'efficienza di applicazioni AI in continua espansione.
Le azioni di Broadcom e AMD hanno registrato significativi rialzi in seguito alle notizie di questa collaborazione. I titoli Broadcom sono saliti del 4,5%, mentre quelli di AMD hanno chiuso con un aumento del 3,7% nella stessa giornata, a riprova dell'importanza che il settore e gli investitori attribuiscono a queste partnership. Le fonti hanno indicato che le relazioni di OpenAI con NVIDIA rimangono comunque fondamentali, vista la possibilità di continuare ad accedere alla nuova generazione di chip Nvidia Blackwell. L'azienda di Jensen Huang, però, ha rifiutato di commentare la notizia.