L’Indice di Sicurezza AI 2024, pubblicato dal Future of Life Institute (FLI), ha esaminato le pratiche di sicurezza di sei aziende leader nel campo dell’intelligenza artificiale generale. Un panel di esperti indipendenti, tra cui Yoshua Bengio e Stuart Russell, ha valutato le aziende sulla base di 42 indicatori, assegnando voti e fornendo raccomandazioni.
I risultati sono allarmanti. Nonostante le ambizioni delle aziende di sviluppare intelligenze artificiali generali, le strategie di sicurezza attuali sono state giudicate inadeguate. Il rapporto evidenzia inoltre una grave disparità nella gestione del rischio, con alcune aziende che non hanno ancora adottato nemmeno le misure di sicurezza più basilari.
Un altro punto critico riguarda la vulnerabilità dei modelli AI agli attacchi avversariali, noti come “jailbreak”. Inoltre, il rapporto sottolinea la necessità di un maggiore controllo esterno sulle aziende, per evitare che la ricerca della profittabilità possa compromettere la sicurezza.
L’Indice FLI mira a promuovere la trasparenza e a responsabilizzare le aziende nel campo dell’IA. I risultati di questa valutazione sono fondamentali per indirizzare lo sviluppo dell’intelligenza artificiale verso un percorso sicuro e responsabile.