Nel mondo dell’intelligenza artificiale, più di cinquecento esperti hanno sottoscritto una lettera aperta chiedendo una rigorosa regolamentazione delle impersonificazioni generate dall’IA, note come deepfake. Sebbene ciò difficilmente porterà a una legislazione reale (nonostante il nuovo task force della Camera), agisce come un indicatore delle opinioni degli esperti su questa controversa questione.
La lettera, firmata da oltre 500 persone nel campo dell’IA e settori adiacenti al momento della pubblicazione, dichiara che “i deepfake rappresentano una minaccia crescente per la società e i governi devono imporre obblighi lungo tutta la catena di approvvigionamento per fermare la proliferazione dei deepfake”.
Si chiede la piena criminalizzazione dei materiali di abuso sessuale su minori creati tramite deepfake (CSAM, alias pornografia minorile), indipendentemente dal fatto che le figure rappresentate siano reali o fittizie. Sono previste sanzioni penali in ogni caso in cui qualcuno crei o diffonda deepfake dannosi. E si chiede ai produttori di impedire che vengano creati deepfake dannosi utilizzando i loro prodotti in primo luogo, con sanzioni se le loro misure preventive sono insufficienti.
Tra i firmatari più noti della lettera ci sono:
Jaron Lanier Frances Haugen Stuart Russell Andrew Yang Marietje Schaake Steven Pinker Gary Marcus Oren Etzioni Genevieve Smith Yoshua Bengio Dan Hendrycks Tim Wu
Presenti anche centinaia di accademici provenienti da tutto il mondo e da molte discipline. Nel caso foste curiosi, una persona di OpenAI ha firmato, un paio di Google DeepMind, e nessuno al momento della pubblicazione da Anthropic, Amazon, Apple o Microsoft (tranne Lanier, il cui ruolo là è non standard). Curiosamente, sono elencati nella lettera per “Notorietà”.
Questo è molto lontano dal primo appello per tali misure; infatti, sono stati dibattuti nell’UE per anni prima di essere formalmente proposti questo mese. Forse è la volontà dell’UE di deliberare e seguire che ha attivato questi ricercatori, creatori ed esecutivi a parlare.
O forse è la lenta marcia del KOSA (Kids Online Safety Act) verso l’accettazione – e la sua mancanza di protezioni per questo tipo di abuso.
O forse è la minaccia (come abbiamo già visto) delle chiamate truffa generate dall’IA che potrebbero influenzare le elezioni o truffare persone ingenuo fuori dal loro denaro.
O forse è il task force di ieri annunciato senza una particolare agenda se non forse scrivere un rapporto su quali potrebbero essere alcune minacce basate sull’IA e come potrebbero essere legislative restritte.
Come potete vedere, non mancano le ragioni per coloro che fanno parte della comunità dell’IA di alzare le braccia e dire, “Forse dovremmo, sapete, fare qualcosa?!”
Se qualcuno presterà attenzione a questa lettera è un’incognita: nessuno ha davvero dato importanza a quella famigerata che chiedeva a tutti di “mettere in pausa” lo sviluppo dell’IA, ma ovviamente questa lettera è un po’ più pratica. Se i legislatori decidessero di affrontare la questione, un evento improbabile dato che è un anno di elezioni con un Congresso nettamente diviso, avranno questa lista da cui attingere per valutare la temperatura della comunità accademica e di sviluppo dell’IA a livello mondiale.
______
Hundreds of AI luminaries sign letter calling for anti-deepfake legislation