Gli occhiali Ray-Ban Meta ricevono un importante aggiornamento software (v11) che li rende ancora più intelligenti e funzionali. Tra le novità più rilevanti spiccano l’AI live, la traduzione in tempo reale e l’integrazione con Shazam.
Grazie al programma Early Access, gli utenti in USA e Canada potranno sperimentare l’AI live, che aggiunge la componente video all’AI Meta degli occhiali. Durante una sessione di AI live, l’assistente virtuale può “vedere” ciò che vede l’utente e interagire in modo più naturale, offrendo aiuto e ispirazione in attività quotidiane come cucinare, fare giardinaggio o esplorare nuovi luoghi. L’interazione è più fluida, permettendo di porre domande senza dover pronunciare “Hey Meta”, fare riferimento a conversazioni precedenti e interrompere per chiedere chiarimenti. In futuro, l’AI live fornirà suggerimenti utili anche prima che vengano poste domande.
Un’altra novità significativa è la traduzione in tempo reale, mostrata in anteprima da Mark Zuckerberg. Gli occhiali saranno in grado di tradurre simultaneamente conversazioni tra inglese e spagnolo, francese o italiano. L’utente sentirà la traduzione in inglese attraverso gli altoparlanti open-ear o potrà visualizzare le trascrizioni sul telefono, e viceversa. Questa funzione è pensata per i viaggi e per superare le barriere linguistiche.
Infine, arriva l’integrazione con Shazam, che permette di riconoscere le canzoni in riproduzione semplicemente chiedendo “Hey Meta, che canzone è?”. Questa funzione è disponibile in USA e Canada.
L’azienda ricorda che, trattandosi di funzionalità in fase di test, l’AI potrebbe commettere errori e che il feedback degli utenti sarà fondamentale per migliorare l’esperienza.