Da oggi anche gli utenti italiani possono sfruttare una delle funzioni più avanzate e attese degli occhiali smart Ray-Ban Meta: si tratta di "Meta AI with Vision", la capacità dell'assistente intelligente di analizzare e interpretare il contenuto visivo delle foto scattate con gli occhiali. La funzione, già disponibile in altri Paesi, è stata abilitata anche in Italia attraverso un aggiornamento dell'app Meta AI (ex Meta View), che molti utenti hanno già trovato attiva dopo l'ultimo popup informativo.
Grazie a questa tecnologia, è possibile interagire direttamente con ciò che si vede, semplicemente scattando una foto e ponendo una domanda vocale agli occhiali. L'intelligenza artificiale analizza l'immagine e restituisce una risposta vocale immediata, sfruttando i microfoni e gli altoparlanti integrati nella montatura.
Come funziona “Meta AI with Vision”
Il cuore del sistema è l'AI multimodale basata su LLaMA 3.2, in grado di interpretare informazioni visive e testuali in modo combinato. Quando si scatta una foto, questa viene elaborata in cloud (in formato leggero per velocizzare l'analisi), e in pochi secondi l'utente riceve una risposta vocale che spiega o approfondisce ciò che è stato fotografato. Il tutto avviene tramite l'app Meta AI installata sullo smartphone connesso agli occhiali.
La varietà di utilizzo è già ampia: si possono identificare segnali, tradurre poster o insegne, riconoscere edifici oppure chiedere suggerimenti su un prodotto visibile in vetrina. L'idea è trasformare gli occhiali smart in una guida intelligente e personale, in grado di fornire informazioni contestuali sul mondo che ci circonda.
Traduzione in tempo reale e interazione naturale
L'arrivo della visione artificiale si aggiunge a un'altra funzione introdotta di recente: la traduzione in tempo reale. I Ray-Ban Meta sono sempre più strumenti di comunicazione e comprensione del mondo, capaci di elaborare in tempo reale stimoli visivi e linguistici. L'interazione con l'AI diventa naturale, quasi invisibile: si guarda qualcosa, si fa una domanda, e la risposta arriva senza dover toccare lo smartphone.
Meta ha curato con attenzione anche l'esperienza d'uso, rendendo l'interfaccia vocale fluida, immediata e integrata nella quotidianità. Non si tratta di un assistente passivo, ma di un compagno attivo che legge l'ambiente e restituisce valore informativo.