Google ha iniziato a distribuire nuove funzionalità di intelligenza artificiale per Gemini Live. L'assistente è ora in grado di "vedere" lo schermo o attraverso la fotocamera dello smartphone e rispondere alle domande in tempo reale.
Questa novità arriva a quasi un anno di distanza dalla prima dimostrazione del "Project Astra", la tecnologia che alimenta queste funzioni.
Le nuove capacità di Gemini Live per capire il mondo
Si tratta di una delle due funzionalità annunciate da Google all'inizio di marzo, che "avrebbero iniziato a essere distribuite agli abbonati a Gemini Advanced come parte del piano Google One AI Premium" nel corso del mese. Un utente di Reddit ne ha segnalato la comparsa sul suo telefono Xiaomi, come riportato da 9to5Google. Lo stesso utente ha poi pubblicato un video che mostra la nuova capacità di lettura dello schermo di Gemini.
You can now share your screen (mobile) to Gemini Live?
byu/Kien_PS inBard
L'altra capacità di Astra in fase di distribuzione è il video live. Questa funzione permette a Gemini di interpretare il flusso video dalla fotocamera dello smartphone in tempo reale e rispondere alle domande relative. In un video dimostrativo pubblicato da Google, una persona utilizza la funzionalità per chiedere a Gemini un consiglio sulla scelta del colore della vernice per la ceramica appena smaltata.
La distribuzione di queste funzionalità da parte di Google evidenzia il vantaggio dell'azienda nel settore degli assistenti IA. Amazon si sta preparando al debutto in accesso anticipato limitato del suo aggiornamento Alexa Plus, mentre Apple ha ritardato l'aggiornamento di Siri. Entrambi dovrebbero avere capacità simili a quelle che Astra sta iniziando a rendere disponibili. Samsung, invece, ha ancora Bixby, ma Gemini è l'assistente predefinito sui suoi telefoni.
E voi che cosa ne pensate di queste nuove funzioni di Gemini? Ritenete possano esservi utili? Diteci la vostra nei commenti qua sotto.