Google ha annunciato la nuova famiglia di modelli di intelligenza artificiale, PaliGemma 2, capace di analizzare immagini e, secondo l’azienda, identificare emozioni umane. Una caratteristica innovativa, ma che ha suscitato preoccupazioni tra gli esperti.
Secondo Google, PaliGemma 2 va oltre la semplice analisi visiva: il sistema genera descrizioni dettagliate delle immagini, compresa l’interpretazione delle emozioni e del contesto narrativo. Tuttavia, il riconoscimento delle emozioni richiede un’ulteriore fase di addestramento specifico, e questa possibilità preoccupa molti ricercatori.
Sandra Wachter, docente di etica dei dati presso l’Oxford Internet Institute, ha definito “problematico” il tentativo di leggere emozioni attraverso l’IA, paragonandolo a un’illusione da palla magica. Mike Cook del King’s College di Londra ha evidenziato l’impossibilità di un rilevamento emotivo accurato su larga scala, dati i complessi fattori culturali e personali che influenzano le emozioni.
Anche i pregiudizi algoritmici rappresentano un rischio. Studi precedenti hanno mostrato come i modelli di analisi facciale possano discriminare gruppi razziali, assegnando emozioni negative ai volti delle persone nere più frequentemente rispetto a quelli delle persone bianche. Google afferma di aver condotto test per limitare tali distorsioni, utilizzando benchmark come FairFace, ma alcuni esperti considerano questi standard insufficienti.
Heidy Khlaaf, dell’AI Now Institute, ha sottolineato che interpretare le emozioni richiede un contesto complesso, difficilmente replicabile da un’intelligenza artificiale. Inoltre, l’uso improprio di questa tecnologia potrebbe alimentare discriminazioni in ambiti sensibili come il lavoro, le forze dell’ordine e l’immigrazione.
Nonostante le rassicurazioni di Google sulla sicurezza del modello, molti ricercatori chiedono una maggiore responsabilità nello sviluppo e nell’implementazione di tecnologie così controverse.