Fuga di Cervelli da OpenAI

OpenAI ha creato un team per controllare l’intelligenza artificiale “superintelligente” — poi lo ha lasciato appassire, afferma una fonte

Illustration of Sam Altman and Ilya Sutskever Image Credits: Darrell Etherington with files from Getty under license

Il team Superalignment di OpenAI, incaricato di sviluppare metodi per governare e dirigere i sistemi di intelligenza artificiale “superintelligenti”, aveva ricevuto la promessa del 20% delle risorse computazionali dell’azienda, secondo una persona interna al team. Tuttavia, le richieste per una frazione di quelle risorse venivano spesso negate, impedendo al team di svolgere il proprio lavoro.

Questo problema, tra gli altri, ha portato diversi membri del team a dimettersi questa settimana, incluso il co-leader Jan Leike, un ex ricercatore di DeepMind che, durante la sua permanenza in OpenAI, ha contribuito allo sviluppo di ChatGPT, GPT-4 e del predecessore di ChatGPT, InstructGPT.

Leike ha reso pubbliche alcune delle ragioni delle sue dimissioni venerdi

mattina. “Da tempo non sono d’accordo con la leadership di OpenAI riguardo alle priorità fondamentali dell’azienda, fino a raggiungere un punto di rottura,” ha scritto Leike in una serie di post su X. “Credo che dovremmo dedicare molte più risorse a prepararci per le prossime generazioni di modelli, sulla sicurezza, il monitoraggio, la preparazione, la robustezza contro attacchi, l’allineamento (super), la riservatezza, l’impatto sociale e argomenti correlati. Questi problemi sono estremamente complessi e sono preoccupato che non siamo sulla strada giusta per risolverli.”

OpenAI non ha risposto immediatamente alla richiesta di commento riguardo alle risorse promesse e assegnate a quel team.

Il team Superalignment era stato formato lo scorso luglio, guidato da Leike e dal co-fondatore di OpenAI Ilya Sutskever, che ha anch’egli rassegnato le dimissioni questa settimana. Il team aveva l’ambizioso obiettivo di risolvere le principali sfide tecniche del controllo della superintelligenza artificiale nei successivi quattro anni. Supportato da scienziati e ingegneri della precedente divisione di allineamento di OpenAI e da ricercatori di altre organizzazioni, il team doveva contribuire alla sicurezza sia dei modelli interni che di quelli esterni ad OpenAI, attraverso iniziative come un programma di sovvenzioni per la ricerca.

Il team Superalignment è riuscito a pubblicare una serie di ricerche sulla sicurezza e a destinare milioni di dollari in sovvenzioni a ricercatori esterni. Tuttavia, con il crescente impegno della leadership di OpenAI verso il lancio di nuovi prodotti, il team ha dovuto lottare per ottenere investimenti iniziali più consistenti, investimenti ritenuti fondamentali per la missione dichiarata dell’azienda di sviluppare intelligenza artificiale superintelligente a beneficio dell’umanità.

“La costruzione di macchine più intelligenti degli esseri umani è un’impresa intrinsecamente pericolosa,” ha continuato Leike. “Ma negli ultimi anni, la cultura della sicurezza e i processi sono stati messi in secondo piano rispetto ai prodotti di tendenza.”

La lotta di Sutskever con il CEO di OpenAI, Sam Altman, ha rappresentato una significativa distrazione aggiuntiva. Sutskever, insieme al vecchio consiglio di amministrazione di OpenAI, aveva cercato di licenziare Altman improvvisamente lo scorso anno, citando preoccupazioni sulla trasparenza del CEO. Sotto pressione da parte degli investitori di OpenAI, inclusa Microsoft, e di molti dipendenti dell’azienda, Altman è stato infine reintegrato, gran parte del consiglio si è dimesso e Sutskever non è mai tornato al lavoro.

Secondo la fonte, Sutskever era fondamentale per il team di Superalignment, non solo per il contributo alla ricerca ma anche come ponte tra le varie divisioni di OpenAI. Dopo la partenza di Leike, Altman ha scritto su X che concorda sul fatto che “c’è molto altro da fare” e che si sono “impegnati a farlo.”

Greg Brockman, co-fondatore di OpenAI, ha aggiunto sabato che “dobbiamo avere un ciclo di feedback molto stretto, test rigorosi, considerazione attenta ad ogni passo, sicurezza di livello mondiale e armonia tra sicurezza e capacità.”

Dopo le dimissioni di Leike e Sutskever, John Schulman, un altro co-fondatore di OpenAI, ha assunto la guida dei lavori del team Superalignment, che non sarà più un team dedicato ma un gruppo di ricercatori integrati in varie divisioni dell’azienda. Un portavoce di OpenAI ha descritto questa mossa come un’integrazione più profonda del team.

La paura è che, di conseguenza, lo sviluppo dell’intelligenza artificiale di OpenAI non sarà così focalizzato sulla sicurezza come avrebbe potuto essere.

_____
OpenAI created a team to control ‘superintelligent’ AI — then let it wither, source says

NEWS AIopenmind su:

3D (5)6G (1)Accademia di Comunicazione (4)Acer (1)Adobe (30)Aeronautica (9)Africa (2)Agenzia delle Entrate (1)Agenzia Spaziale Europea (ESA) (1)Agenzia viaggi (1)AGI (Intelligenza artificiale generalizzata) (4)AGID (1)Amazon (25)Ambiente (1)AMD (1)Android (5)Animali (6)Animazione (4)Anthropic (3)Anziani (1)App (10)Apple (50)Archeologia (3)Architettura (4)Armi (3)Arredamento interni (2)Arte (26)Assistente vocale (3)Astronomia (2)Asus (1)AT&T (1)Audi (1)Audio (50)Autoapprendimento (1)Avatar (3)Aviazione (1)Avvocati (2)Aziende (18)Banca (3)Bard (3)Biblioteca (1)Bill Gates (2)Bing (9)Biologia (1)Birra (1)Blockchain (2)Boston Dynamics (2)Calcio (2)Canva (4)Cattolicesimo (3)Certificazioni (1)Cesintes (1)chataudio (1)Chatbot IA (41)Chip (3)Cina (52)Cinema (4)Claude (16)Clima (3)CNR (1)Coca-Cola (1)Commercio (2)Commissione Europea (1)Compagnie aeree (1)Computer (2)Computer quantistici (30)Computer Vision (3)Comuni italiani (1)Comunicazione (9)Comunicazioni vocali (2)Concorso bellezza AI (1)Consiglio d'Europa (1)Contabilità (1)Convegno (13)Copilot (5)Copyright (11)Criptovalute (1)Cybersecurity (1)Dalle-2 (3)Dark web (2)Dating (1)Deepfake (2)Design automobilistico (2)Design Industriale (6)Diritti Autore (1)Doppiaggio (1)Drone (1)Droni (1)Dropbox (1)E-commerce (1)eBay (1)Editing fotografico (2)Editoria (9)Email (1)ENEA (2)Esercito (2)Etica (117)Europol (1)Eventi (5)Evento (7)Facebook (3)FakeNews (18)Falegnameria (1)Fauna selvatica (1)Film (2)Finanza (7)Finanziamenti Italia (3)Firefly (3)Fondo Monetario Internazionale (1)Formazione (11)Fotografia (94)Francia (1)Free lance (1)G7 (1)Gaming (1)Garante privacy (19)Giappone (9)Giochi (6)Giornalismo (10)Giustizia (1)Google (228)Governo (7)Governo Italiano (2)Grafica (5)Guerra (12)Guida autonoma (3)Hong Kong (1)Hugging Face (3)IBM (6)Illustrazioni (1)iMessage (1)Immobiliare (1)India (3)Indossabili (2)Influencer (1)Informazione (9)Inghilterra (6)INPS (2)Intel (5)ISO (1)Istruzione (16)Jailbreaking (1)Kamala Harris (1)Lavoro (43)Libri (3)Linguistica computazionale (7)Linkedin (6)Linux (1)Luma AI (1)Maltrattamento infantile (1)Marina (1)Marketing (37)Medicina (23)Mercedes-Benz (1)Meta (56)Metaverso (15)Microsoft (146)Midjourney (15)Mobilità sostenibile (1)Moda (5)Modelli AI (22)Motori di Ricerca (11)Mozilla (2)Musica (32)NASA (1)Nato (2)Natura (2)Natural Language Processing (2)Nazioni Unite (1)NBA (1)NFT (3)Nvidia (31)Occhiali (2)Occhiali Intelligenti (1)Occhiali Smart (1)Oculistica (1)OMS (1)ONU (1)Open Source (2)OpenAI (193)Opera (8)Opera Browser (1)Oppo (3)Oracle (2)Orologio (1)Parlamento Europeo (4)Patente di guida (1)Pensieri (1)Perplexity (5)Pianeta (1)Plugin (1)Polizia (2)Ponti (1)Presentazioni aziendali (2)Privacy (21)Programmazione (10)Prompt (5)Pubblicazione (1)Pubblicità (18)QR Code (1)



AI open mind

Insieme per riflettere sull’intelligenza - umana e artificiale - tra studi, esperienze, democrazia e innovazione.

Il Governo dell’Intelligenza Artificiale

Gestione dei rischi e innovazione responsabileRuben Razzante Cacucci editore, pp.121 Mercoledì 18 settembre ore 11 Esperienza Europa - David Sassoli Piazza Venezia 6c, Roma...

AI Privata per Tutti: Sicurezza e Privacy su Android

Google ha annunciato un approccio rivoluzionario alla privacy e alla sicurezza su Android, presentando Gemini, il nuovo assistente AI integrato nella piattaforma. Con una...

Mi sono imparato la scienza?

Fahrenheit.iit e il potere della narrazione. Mercoledì 13 marzo, ore 17:00 in Accademia di Comunicazione e in streaming Registrati La narrazione può essere la lama...

Iscrizione NEWSLETTER

I dati da Lei forniti non saranno comunicati ad altri soggetti terzi e non saranno trasferiti né in Stati membri dell’Unione Europea né in paesi terzi extra UE.

Visita le sezioni del sito

Link utili

Casi studio, contributi

AI governance: A research agenda, Governance of AI program, Future of Umanity Institute, University of Oxford, Dafoe A., 2017 Artificial intelligence (AI) is a po-tent...

Libri

Ricerche

Piattaforme Corsi Gratuiti

White paper, guidelines