Il Consiglio di Amministrazione di OpenAI ha annunciato la formazione di un Comitato per la Sicurezza e la Protezione, guidato dai direttori Bret Taylor (Presidente), Adam D’Angelo, Nicole Seligman e dal CEO Sam Altman. Questo comitato avrà il compito di formulare raccomandazioni al Consiglio su decisioni critiche riguardanti la sicurezza e la protezione dei progetti e delle operazioni di OpenAI.
Negli ultimi mesi, OpenAI ha avviato l’addestramento del suo modello di frontiera, anticipando che i sistemi risultanti porteranno a nuove capacità nel percorso verso l’Intelligenza Artificiale Generale (AGI). Pur essendo orgogliosi di sviluppare e rilasciare modelli all’avanguardia in termini di capacità e sicurezza, OpenAI accoglie con favore un dibattito robusto in questo momento cruciale.
Il primo compito del Comitato per la Sicurezza e la Protezione sarà valutare e sviluppare ulteriormente i processi e le salvaguardie di OpenAI nei prossimi 90 giorni. Al termine di questo periodo, il comitato presenterà le proprie raccomandazioni all’intero Consiglio. Dopo la revisione del Consiglio, OpenAI condividerà pubblicamente un aggiornamento sulle raccomandazioni adottate in modo coerente con i principi di sicurezza e protezione.
Esperti tecnici e di policy di OpenAI, tra cui Aleksander Madry (Responsabile della Preparazione), Lilian Weng (Responsabile dei Sistemi di Sicurezza), John Schulman (Responsabile della Scienza dell’Allineamento), Matt Knight (Responsabile della Sicurezza) e Jakub Pachocki (Scienziato Capo) faranno parte del comitato. Inoltre, OpenAI consulterà altri esperti di sicurezza, inclusi ex funzionari della cybersecurity come Rob Joyce e John Carlin, per supportare questo lavoro cruciale.