Modelli AI più sicuri: la Rivoluzione di OpenAI

OpenAI ha introdotto un metodo innovativo per migliorare la sicurezza dei modelli di intelligenza artificiale (AI) utilizzando le Ricompense Basate su Regole (RBR). Questo approccio permette ai modelli di comportarsi in modo sicuro senza la necessità di una raccolta intensiva di dati umani. Tradizionalmente, la regolazione dei modelli AI si è basata sull’apprendimento tramite feedback umano (RLHF), una tecnica che, sebbene efficace, risulta inefficiente per compiti ripetitivi e soggetta a obsolescenza con il cambiamento delle politiche di sicurezza.

Le RBR introducono un sistema di regole chiare e semplici che valutano se le risposte del modello rispettano gli standard di sicurezza prefissati. Questo sistema, integrato nella pipeline RLHF standard, permette di mantenere un equilibrio tra l’essere utile e prevenire comportamenti dannosi, senza la necessità di continui input umani. OpenAI ha implementato le RBR nei suoi modelli fin dal lancio di GPT-4, incluso GPT-4o mini, e prevede di estenderne l’uso in futuro.

Il processo delle RBR prevede la definizione di proposizioni semplici riguardanti aspetti desiderati o indesiderati delle risposte del modello. Queste proposizioni formano regole che catturano le sfumature delle risposte sicure e appropriate in vari scenari. Ad esempio, una regola può stabilire che il modello dovrebbe rifiutare richieste pericolose con un breve rifiuto e una scusa.

Negli esperimenti, i modelli addestrati con RBR hanno dimostrato prestazioni di sicurezza comparabili a quelli addestrati con feedback umano, riducendo al contempo le risorse necessarie per la raccolta di dati. Questo rende il processo di addestramento più veloce e conveniente. Le RBR possono essere rapidamente aggiornate per riflettere nuove politiche di sicurezza, senza bisogno di un addestramento estensivo.

Le Ricompense Basate su Regole rappresentano una svolta significativa per garantire la sicurezza e l’affidabilità dei modelli AI, mantenendo un equilibrio tra utilità e prevenzione di danni.

NEWS AIopenmind su:

3D (5)6G (1)Accademia di Comunicazione (4)Acer (1)Adobe (30)Aeronautica (9)Africa (2)Agenzia delle Entrate (1)Agenzia Spaziale Europea (ESA) (1)Agenzia viaggi (1)AGI (Intelligenza artificiale generalizzata) (4)AGID (1)Amazon (25)Ambiente (1)AMD (1)Android (5)Animali (6)Animazione (4)Anthropic (3)Anziani (1)App (10)Apple (50)Archeologia (3)Architettura (4)Armi (3)Arredamento interni (2)Arte (26)Assistente vocale (3)Astronomia (2)Asus (1)AT&T (1)Audi (1)Audio (50)Autoapprendimento (1)Avatar (3)Aviazione (1)Avvocati (2)Aziende (18)Banca (3)Bard (3)Biblioteca (1)Bill Gates (2)Bing (9)Biologia (1)Birra (1)Blockchain (2)Boston Dynamics (2)Calcio (2)Canva (4)Cattolicesimo (3)Certificazioni (1)Cesintes (1)chataudio (1)Chatbot IA (41)Chip (3)Cina (52)Cinema (4)Claude (16)Clima (3)CNR (1)Coca-Cola (1)Commercio (2)Commissione Europea (1)Compagnie aeree (1)Computer (2)Computer quantistici (30)Computer Vision (3)Comuni italiani (1)Comunicazione (9)Comunicazioni vocali (2)Concorso bellezza AI (1)Consiglio d'Europa (1)Contabilità (1)Convegno (13)Copilot (5)Copyright (11)Criptovalute (1)Cybersecurity (1)Dalle-2 (3)Dark web (2)Dating (1)Deepfake (2)Design automobilistico (2)Design Industriale (6)Diritti Autore (1)Doppiaggio (1)Drone (1)Droni (1)Dropbox (1)E-commerce (1)eBay (1)Editing fotografico (2)Editoria (9)Email (1)ENEA (2)Esercito (2)Etica (117)Europol (1)Eventi (5)Evento (7)Facebook (3)FakeNews (18)Falegnameria (1)Fauna selvatica (1)Film (2)Finanza (7)Finanziamenti Italia (3)Firefly (3)Fondo Monetario Internazionale (1)Formazione (11)Fotografia (94)Francia (1)Free lance (1)G7 (1)Gaming (1)Garante privacy (19)Giappone (9)Giochi (6)Giornalismo (10)Giustizia (1)Google (228)Governo (7)Governo Italiano (2)Grafica (5)Guerra (12)Guida autonoma (3)Hong Kong (1)Hugging Face (3)IBM (6)Illustrazioni (1)iMessage (1)Immobiliare (1)India (3)Indossabili (2)Influencer (1)Informazione (9)Inghilterra (6)INPS (2)Intel (5)ISO (1)Istruzione (16)Jailbreaking (1)Kamala Harris (1)Lavoro (43)Libri (3)Linguistica computazionale (7)Linkedin (6)Linux (1)Luma AI (1)Maltrattamento infantile (1)Marina (1)Marketing (37)Medicina (23)Mercedes-Benz (1)Meta (56)Metaverso (15)Microsoft (146)Midjourney (15)Mobilità sostenibile (1)Moda (5)Modelli AI (22)Motori di Ricerca (11)Mozilla (2)Musica (32)NASA (1)Nato (2)Natura (2)Natural Language Processing (2)Nazioni Unite (1)NBA (1)NFT (3)Nvidia (31)Occhiali (2)Occhiali Intelligenti (1)Occhiali Smart (1)Oculistica (1)OMS (1)ONU (1)Open Source (2)OpenAI (193)Opera (8)Opera Browser (1)Oppo (3)Oracle (2)Orologio (1)Parlamento Europeo (4)Patente di guida (1)Pensieri (1)Perplexity (5)Pianeta (1)Plugin (1)Polizia (2)Ponti (1)Presentazioni aziendali (2)Privacy (21)Programmazione (10)Prompt (5)Pubblicazione (1)Pubblicità (18)QR Code (1)



AI open mind

Insieme per riflettere sull’intelligenza - umana e artificiale - tra studi, esperienze, democrazia e innovazione.

Il Governo dell’Intelligenza Artificiale

Gestione dei rischi e innovazione responsabileRuben Razzante Cacucci editore, pp.121 Mercoledì 18 settembre ore 11 Esperienza Europa - David Sassoli Piazza Venezia 6c, Roma...

AI Privata per Tutti: Sicurezza e Privacy su Android

Google ha annunciato un approccio rivoluzionario alla privacy e alla sicurezza su Android, presentando Gemini, il nuovo assistente AI integrato nella piattaforma. Con una...

Mi sono imparato la scienza?

Fahrenheit.iit e il potere della narrazione. Mercoledì 13 marzo, ore 17:00 in Accademia di Comunicazione e in streaming Registrati La narrazione può essere la lama...

Iscrizione NEWSLETTER

I dati da Lei forniti non saranno comunicati ad altri soggetti terzi e non saranno trasferiti né in Stati membri dell’Unione Europea né in paesi terzi extra UE.

Visita le sezioni del sito

Link utili

Casi studio, contributi

AI governance: A research agenda, Governance of AI program, Future of Umanity Institute, University of Oxford, Dafoe A., 2017 Artificial intelligence (AI) is a po-tent...

Libri

Ricerche

Piattaforme Corsi Gratuiti

White paper, guidelines