In vista delle elezioni 2024 negli Stati Uniti e in altre democrazie mondiali, OpenAI ha intensificato le misure per garantire sicurezza e trasparenza nell’uso della sua tecnologia AI, puntando su fonti affidabili, prevenzione delle manipolazioni e contrasto alla disinformazione. Attraverso una collaborazione con la National Association of Secretaries of State, ChatGPT indirizza gli utenti a fonti come CanIVote.org per informazioni sul voto. Solo nel mese pre-elettorale, circa un milione di risposte di ChatGPT hanno fornito questo supporto.
Inoltre, OpenAI ha implementato misure per prevenire la creazione di immagini deepfake. DALL·E 3, il suo strumento di generazione di immagini, è stato impostato per rifiutare richieste di rappresentazione di personaggi pubblici, con particolare attenzione a evitare manipolazioni di immagini di politici come Trump e Biden. Si stima che oltre 250.000 richieste di generazione di immagini di personalità pubbliche siano state rifiutate.
A livello globale, OpenAI monitora e contrasta operazioni di influenza che mirano a sfruttare la sua tecnologia per scopi manipolativi. La società ha attivamente condiviso rapporti sugli interventi, intensificando la sorveglianza durante le fasi elettorali critiche. Inoltre, OpenAI ha sostenuto il “Protect Elections from Deceptive AI Act”, un disegno di legge statunitense volto a vietare l’uso di contenuti AI ingannevoli in pubblicità politica.
Con queste iniziative, OpenAI mira a proteggere l’integrità del processo elettorale, promuovendo un uso etico e trasparente dell’intelligenza artificiale. La società si impegna a collaborare con istituzioni e organizzazioni per affrontare le sfide di una tecnologia che, sebbene innovativa, richiede vigilanza per evitare abusi e garantire che non comprometta la fiducia degli elettori.