Apple ha mantenuto un profilo basso riguardo ai propri progetti sull'intelligenza artificiale.
Tuttavia, ora sembra che vi siano dei progressi tangibili: i ricercatori dell'azienda hanno presentato OpenELM, una serie di quattro modelli linguistici molto compatti ospitati sulla piattaforma Hugging Face.
Apple ha spiegato che OpenELM, acronimo di "Open-source Efficient Language Models", si è dimostrato notevolmente efficiente in compiti testuali, come la composizione di email, lasciando intendere l'intenzione di concentrarsi sull'esecuzione dell'IA direttamente sui dispositivi Apple.
Questi modelli, disponibili come open source, sono pronti per essere utilizzati dagli sviluppatori.
Parametri contenuti
OpenELM si distingue per il suo innovativo metodo di distribuzione efficiente dei parametri attraverso i vari strati del modello transformer, il che si traduce in una maggiore precisione con una quantità di dati di addestramento inferiore.
Ad esempio, con un bilancio di parametri di circa un miliardo, OpenELM ha dimostrato un miglioramento del 2,36% nella precisione rispetto ai modelli precedenti, come OLMo, pur richiedendo la metà dei token di pre-addestramento.
Oltre a ciò, riesce a distinguersi per le sue dimensioni compatte, risultando persino più piccolo rispetto alla maggior parte dei modelli di intelligenza artificiale "leggeri" attualmente disponibili.
La divisione in quattro versioni rispetta differenti quantità di parametri, rispettivamente 270 milioni, 450 milioni, 1,1 miliardi e 3 miliardi.
Questi numeri riflettono la complessità del modello nel prendere decisioni basate sui dati di addestramento.
Per confronto, il modello Phi-3 di Microsoft dispone di almeno 3,8 miliardi di parametri.
La scelta di modelli più piccoli da parte di Apple risulta non solo economica, ma anche ottimizzata per il funzionamento su dispositivi come telefoni e laptop.
Nel segno della mela
Il CEO Tim Cook aveva già accennato all'integrazione delle funzionalità di intelligenza artificiale generativa sui dispositivi dell'azienda, sottolineando il forte impegno di Apple in questo settore già a febbraio, sebbene persista al momento l'assenza di dettagli specifici sull'utilizzo previsto della sua IA.
Con OpenELM, l'azienda offre l'intero framework per l'addestramento e la valutazione del modello su dataset pubblicamente disponibili, includendo log di addestramento, checkpoint multipli e configurazioni di pre-addestramento.
Inoltre, è stato reso disponibile il codice per convertire i modelli per l'utilizzo nella libreria MLX, semplificando così l'inferenza e il fine-tuning su dispositivi Apple.
Con il lancio di OpenELM, Apple non solo rafforza la sua posizione nel settore dell'IA, ma offre anche strumenti preziosi alla comunità di ricerca aperta, stimolando ulteriori sviluppi e innovazioni. Attraverso questi progressi, Apple continua a definire il futuro dell'intelligenza artificiale, con un focus su privacy, efficienza e accessibilità.