Il Consiglio di Amministrazione di OpenAI ha annunciato la formazione di un Comitato per la Sicurezza e la Salvaguardia, guidato dai direttori Bret Taylor (Presidente), Adam D’Angelo, Nicole Seligman e Sam Altman (CEO). Questo nuovo comitato avrà il compito di formulare raccomandazioni al Consiglio su decisioni critiche riguardanti la sicurezza e la salvaguardia dei progetti e delle operazioni di OpenAI.
Negli ultimi tempi, OpenAI ha iniziato l’addestramento del suo modello di frontiera successivo, che si prevede porterà le capacità dell’intelligenza artificiale a un livello superiore nel percorso verso l’intelligenza artificiale generale (AGI). Mentre l’organizzazione è orgogliosa di sviluppare e rilasciare modelli all’avanguardia in termini di capacità e sicurezza, accoglie con favore un dibattito robusto in questo momento cruciale.
Il primo compito del Comitato per la Sicurezza e la Salvaguardia sarà valutare e sviluppare ulteriormente i processi e le misure di sicurezza di OpenAI nei prossimi 90 giorni. Al termine di questo periodo, il comitato condividerà le proprie raccomandazioni con il Consiglio di Amministrazione. Successivamente, OpenAI fornirà un aggiornamento pubblico sulle raccomandazioni adottate in modo coerente con la sicurezza e la salvaguardia.
Oltre ai direttori, anche esperti tecnici e politici di OpenAI come Aleksander Madry (Responsabile della Preparazione), Lilian Weng (Responsabile dei Sistemi di Sicurezza), John Schulman (Responsabile della Scienza dell’Allineamento), Matt Knight (Responsabile della Sicurezza) e Jakub Pachocki (Scienziato Capo) faranno parte del comitato. OpenAI si avvarrà inoltre della consulenza di altri esperti di sicurezza, tra cui ex funzionari della cybersecurity come Rob Joyce e John Carlin.