Un gruppo di esperti di intelligenza artificiale ha scritto una lettera aperta ai laboratori di ricerca, chiedendo loro di fermare immediatamente l’addestramento di sistemi di intelligenza artificiale più potenti del GPT-4 per almeno sei mesi. La ragione? Secondo gli autori, l’intelligenza artificiale con capacità umane può rappresentare rischi profondi per la società e l’umanità, come dimostrato da ampie ricerche e riconosciuto dai principali laboratori di AI.
Gli attuali sistemi di AI stanno diventando competitivi a livello umano in compiti generali, e gli esperti chiedono se dovremmo permettere alle macchine di sommergere i nostri canali di informazione con propaganda e menzogne, automizzare tutti i lavori, compresi quelli gratificanti, sviluppare menti non umane che potrebbero alla fine superare, superare in astuzia, obsoletare e sostituirci.
La lettera aperta chiede una pausa pubblica e verificabile nell’addestramento di AI più potenti del GPT-4 e invita gli sviluppatori di AI a lavorare con i responsabili politici per accelerare lo sviluppo di sistemi di governance dell’AI robusti.
Questi dovrebbero includere nuove e capaci autorità regolamentari dedicate all’AI, il monitoraggio dei sistemi di AI altamente capaci e dei grandi pool di capacità computazionale, sistemi di provenienza e watermarking per aiutare a distinguere il reale dal sintetico e per tracciare le perdite di modello, un ecosistema di audit e certificazione robusto, la responsabilità per il danno causato dall’AI, il finanziamento pubblico robusto per la ricerca tecnica sulla sicurezza dell’AI e istituzioni ben finanziate per far fronte alle drammatiche interruzioni economiche e politiche (in particolare per la democrazia) che l’AI causerà.
La lettera aperta afferma che l’AI ha il potenziale per portare a una società più prospera e che il mondo può godere di un “estate dell’AI” in cui gli sviluppatori possono godere dei benefici, ingegnerizzare questi sistemi per il chiaro beneficio di tutti e dare alla società la possibilità di adattarsi.
La società ha già fatto una pausa su altre tecnologie con effetti potenzialmente catastrofici sulla società, e gli autori della lettera affermano che possiamo farlo anche qui. Invitano gli sviluppatori di AI a concentrarsi sul rendere i sistemi di AI attuali più precisi, sicuri, interpretabili, trasparenti, robusti, allineati, affidabili e fedeli.
Da ricerca su ChatGPT:
Ecco un elenco di alcune delle principali alternative a OpenAI e i loro modelli di intelligenza artificiale:
- Google DeepMind:
- AlphaGo
- AlphaGo Zero
- AlphaZero
- MuZero
- Google Brain:
- BERT (Bidirectional Encoder Representations from Transformers)
- T5 (Text-to-Text Transfer Transformer)
- Facebook AI Research (FAIR):
- RoBERTa (Robustly optimized BERT approach)
- BART (Bidirectional and Auto-Regressive Transformers)
- GPT-NeoX (sviluppato in collaborazione con EleutherAI)
- Microsoft:
- Turing-NLG (Natural Language Generation)
- Microsoft Vision Transformer
- IBM Watson:
- IBM Watson Assistant
- IBM Watson Discovery
- NVIDIA:
- Megatron (un framework per addestrare modelli di linguaggio su larga scala)
- EleutherAI:
- GPT-3.5-turbo (una versione migliorata di GPT-3)
- GPT-Neo (una famiglia di modelli basati su transformer)
Si prega di notare che, poiché l’addestramento di chatGPT si è concluso a settembre 2021, potrebbero esserci stati sviluppi più recenti e nuovi modelli di intelligenza artificiale che non sono inclusi in questo elenco.