l 2 febbraio 2025, la Commissione Europea ha introdotto le prime linee guida vincolanti dell’AI Act, una normativa che regola lo sviluppo e l’utilizzo dell’intelligenza artificiale (IA) negli Stati membri dell’Unione Europea. Particolare attenzione è rivolta ai sistemi di IA avanzati capaci di riconoscere le emozioni umane, considerati “pratiche ad alto rischio”. Di conseguenza, è stato vietato l’uso di tali tecnologie in contesti lavorativi e scolastici per scopi non medici o non legati alla sicurezza.
Le linee guida dell’AI Act proibiscono l’impiego dell’IA per inferire emozioni durante colloqui di lavoro o periodi di prova, monitorare le emozioni degli studenti durante le lezioni, valutare lo stress dei lavoratori o le loro interazioni con i clienti. Tuttavia, sono previste eccezioni per sistemi utilizzati nel rilevamento di stati fisici come stanchezza o affaticamento, ad esempio per prevenire incidenti nel settore dei trasporti.
Il concetto di emozioni è definito in senso ampio, includendo stati come felicità, tristezza, rabbia, sorpresa, disgusto, imbarazzo, eccitazione, vergogna, disprezzo, soddisfazione e divertimento. Non rientrano in questa categoria gli stati fisici come dolore o affaticamento. Inoltre, la semplice rilevazione di espressioni, gesti o movimenti osservabili non è vietata, a meno che non venga utilizzata per dedurre emozioni.
L’AI Act vieta anche l’uso di sistemi di IA che impiegano tecniche subliminali o manipolative con l’obiettivo di distorcere il comportamento di una persona o di un gruppo, causando o potenzialmente causando danni significativi. Questo divieto si applica sia ai fornitori che agli utilizzatori dei sistemi di IA, con possibili sanzioni in caso di violazione.
Queste misure riflettono l’approccio dell’UE nel bilanciare l’innovazione tecnologica con la tutela dei diritti fondamentali, garantendo che lo sviluppo dell’IA avvenga in modo etico e responsabile.