L’Intelligenza Artificiale (AI) rappresenta una delle più grandi rivoluzioni tecnologiche del nostro tempo, capace di apportare benefici senza precedenti all’umanità. Tuttavia, i rischi associati a queste tecnologie sono altrettanto significativi. Un gruppo di attuali ed ex dipendenti delle aziende di AI di frontiera ha recentemente pubblicato una dichiarazione, sottolineando le minacce potenziali, che vanno dall’ulteriore consolidamento delle disuguaglianze esistenti, alla manipolazione e disinformazione, fino alla perdita di controllo dei sistemi autonomi di AI, con conseguenze potenzialmente catastrofiche.
Secondo il gruppo, le aziende di AI possiedono informazioni sostanziali e non pubbliche riguardo alle capacità e ai limiti dei loro sistemi, nonché sull’adeguatezza delle loro misure protettive. Tuttavia, attualmente, hanno obblighi deboli di condividere alcune di queste informazioni con i governi e nessuno con la società civile. Ciò solleva preoccupazioni circa la trasparenza e la responsabilità di queste aziende.
Per affrontare questi problemi, il gruppo propone che le aziende di AI adottino diversi principi chiave. Innanzitutto, non dovrebbero entrare in accordi che proibiscano la critica per preoccupazioni legate ai rischi, né dovrebbero ritorsioni contro chi solleva tali critiche. Inoltre, dovrebbero facilitare un processo anonimo verificabile per consentire ai dipendenti di sollevare preoccupazioni ai consigli di amministrazione, ai regolatori e a organizzazioni indipendenti con competenze rilevanti.
Infine, il gruppo sostiene che le aziende debbano promuovere una cultura di critica aperta e permettere ai dipendenti di sollevare preoccupazioni pubblicamente, proteggendo al contempo i segreti commerciali e gli interessi di proprietà intellettuale. Solo attraverso un’adeguata supervisione governativa e la trasparenza interna, i rischi associati all’AI possono essere mitigati, garantendo che i benefici di queste tecnologie rivoluzionarie possano essere realizzati in modo sicuro ed equo.