Google ha iniziato a testare le capacità video in tempo reale di Gemini, permettendo all’intelligenza artificiale di analizzare schermi e feed live delle videocamere per alcuni utenti di Google One AI Premium.
Google ha annunciato l’espansione delle funzionalità del suo assistente AI, Gemini, integrando l’analisi video in tempo reale. Disponibile per ora solo per una selezione di utenti abbonati al piano Google One AI Premium, la nuova funzione consente a Gemini di “vedere” ciò che accade su schermi e feed delle telecamere, aprendo nuove possibilità nell’assistenza smart.
Questa innovazione permette a Gemini di interpretare visivamente ciò che accade, come ad esempio analizzare una schermata complessa di dati o assistere l’utente nella configurazione di un’applicazione. Secondo Google, Gemini è in grado di riconoscere contenuti, fornire spiegazioni contestuali e suggerire azioni pertinenti in tempo reale.
La tecnologia si basa sull’integrazione con l’app Android di Gemini e sfrutta la fotocamera del dispositivo per accedere alle immagini live, sempre previo consenso dell’utente. È un passo verso un’interazione uomo-macchina più immersiva, in linea con le ambizioni di Google nel campo dell’AI multimodale.
Nonostante l’entusiasmo, restano aperte alcune questioni legate alla privacy e alla sicurezza dei dati, soprattutto in contesti sensibili. Google ha dichiarato che i dati non vengono conservati e che tutte le elaborazioni avvengono in ambienti protetti.
Con questa mossa, Google entra in concorrenza diretta con altre aziende AI che stanno sperimentando funzionalità simili, posizionandosi in prima linea nella corsa all’AI visiva.
Fonti:
