AI Responsabile: Il Nuovo Framework di Sicurezza di Google

Google DeepMind ha annunciato oggi l’introduzione del Frontier Safety Framework, un insieme di protocolli progettati per identificare e mitigare proattivamente i rischi futuri associati alle capacità avanzate dei modelli di intelligenza artificiale (AI). Questa iniziativa nasce dalla consapevolezza che, mentre la tecnologia AI continua a evolversi, emergono anche nuovi rischi che potrebbero comportare danni significativi.

Il framework si concentra su rischi severi legati a capacità potenti a livello di modello, come un’agenzia eccezionale o capacità cibernetiche sofisticate. Questo approccio è complementare alla ricerca sull’allineamento dei modelli AI ai valori umani e agli obiettivi societari, e integra le pratiche di responsabilità e sicurezza già esistenti di Google.

La struttura del framework è articolata in tre componenti principali. Prima di tutto, identifica le capacità che un modello potrebbe avere e che potrebbero causare danni severi, definite come “Livelli di Capacità Critiche” (CCL). Successivamente, valuta periodicamente i modelli per rilevare quando raggiungono questi livelli critici tramite una serie di valutazioni di allerta precoce. Infine, applica un piano di mitigazione quando un modello supera queste valutazioni, bilanciando benefici e rischi e tenendo conto dei contesti di implementazione previsti.

Il framework iniziale si concentra su quattro domini di rischio: autonomia, biosicurezza, cybersicurezza e ricerca e sviluppo nell’apprendimento automatico. Google DeepMind prevede che le capacità dei futuri modelli di fondazione possano comportare rischi gravi in questi ambiti. La mitigazione si adatta ai vari livelli di capacità critiche, bilanciando la protezione contro l’esfiltrazione dei modelli e la gestione delle capacità critiche, pur mantenendo l’innovazione e l’accessibilità.

Il Frontier Safety Framework è un’iniziativa esplorativa e si prevede che evolverà con il progredire della ricerca e la collaborazione con l’industria, il mondo accademico e il governo. Google DeepMind spera che questa iniziativa contribuirà a stabilire standard e migliori pratiche per la valutazione della sicurezza delle future generazioni di modelli AI, rimanendo fedele ai principi di AI di Google, che promuovono benefici diffusi mitigando i rischi.

____
Introducing the Frontier Safety Framework

NEWS AIopenmind su:

3D (6)6G (1)Accademia di Comunicazione (4)Acer (1)Adobe (39)Aeronautica (9)Africa (3)Agenti AI (1)Agenti autonomi (1)Agenzia delle Entrate (1)Agenzia Spaziale Europea (ESA) (1)Agenzia viaggi (1)AGI (Intelligenza artificiale generalizzata) (7)AGID (1)Amazon (37)Ambiente (3)AMD (1)Android (6)Animali (6)Animazione (4)Anthropic (17)Anziani (1)App (10)Apple (63)Archeologia (3)Architettura (4)Archivi storici (1)Armi (3)Arredamento interni (2)Arte (28)Assistente vocale (6)Astronomia (2)Asus (2)AT&T (1)Audi (1)Audio (54)Autoapprendimento (1)Avatar (7)Aviazione (1)Avvocati (2)Aziende (19)Banca (3)Bard (3)Biblioteca (1)Bill Gates (2)Bing (9)Biologia (1)Birra (1)Blockchain (2)Boston Dynamics (2)Calcio (2)Canva (7)Cattolicesimo (3)Certificazioni (1)Cesintes (1)chataudio (1)Chatbot IA (52)Chip (3)Cina (54)Cinema (11)Claude (19)Clima (3)CNR (1)Coca-Cola (1)Commercio (2)Commissione Europea (2)Compagnie aeree (1)Computer (3)Computer quantistici (32)Computer Vision (3)Comuni italiani (1)Comunicazione (9)Comunicazioni vocali (2)Concorso bellezza AI (1)Consiglio d'Europa (1)Contabilità (1)Convegno (13)Copilot (5)Copyright (14)Criptovalute (1)Cybersecurity (1)Dalle-2 (3)Dark web (2)Data center (2)Dating (1)Deepfake (2)Design automobilistico (2)Design Industriale (6)Diritti Autore (1)Disney (1)Doppiaggio (1)Drone (1)Droni (1)Dropbox (1)E-commerce (1)eBay (1)Editing fotografico (3)Editoria (10)Email (1)ENEA (2)Esercito (2)Etica (131)Europol (1)Eventi (7)Evento (7)Facebook (4)FakeNews (18)Falegnameria (1)Fauna selvatica (1)Film (5)Finanza (9)Finanziamenti Italia (3)Firefly (3)Firefox (1)Fondo Monetario Internazionale (1)Formazione (19)Fotografia (110)Francia (1)Free lance (1)G7 (1)Gaming (1)Garante privacy (19)Giappone (9)Giochi (7)Giornalismo (17)Giustizia (1)Google (304)Governo (7)Governo Italiano (3)Grafica (6)Guerra (12)Guida autonoma (5)Hong Kong (1)Hugging Face (3)IBM (7)Illustrazioni (1)iMessage (1)Immobiliare (1)India (3)Indossabili (3)Influencer (1)Informazione (9)Inghilterra (7)INPS (2)Intel (7)ISO (1)Istruzione (16)Jailbreaking (1)Kamala Harris (1)Lavoro (44)Libri (3)Linguistica computazionale (7)Linkedin (8)Linux (1)Luma AI (1)Maltrattamento infantile (1)Marina (1)Marketing (71)Medicina (27)Mercedes-Benz (1)Meta (88)Metaverso (17)Microsoft (183)Midjourney (18)Mobilità sostenibile (1)Moda (5)Modelli AI (42)Motori di Ricerca (12)Mozilla (2)Museo (1)Musica (37)NASA (1)Nato (2)Natura (2)Natural Language Processing (2)Nazioni Unite (1)NBA (1)NFT (3)Nvidia (36)Occhiali (7)Occhiali Intelligenti (2)Occhiali Smart (1)Oculistica (1)Odore (1)OMS (1)ONU (1)Open Source (2)OpenAI (252)Opera (12)Opera Browser (1)Oppo (3)Oracle (2)Orologio (1)Parlamento Europeo (4)Patente di guida (1)Pensieri (1)Perplexity (7)Pianeta (2)Plugin (1)Polizia (2)



AI open mind

Insieme per riflettere sull’intelligenza - umana e artificiale - tra studi, esperienze, democrazia e innovazione.

Intelligenza Artificiale: Bruxelles prepara le linee guida contro i rischi inaccettabili

La Commissione Europea ha avviato un processo di consultazione rivolto alle parti interessate per definire le future linee guida sulla regolamentazione dell’Intelligenza Artificiale (IA)....

Occhiali Samsung XR: le nuove lenti intelligenti senza display, ma con tante funzioni avanzate

Samsung sta sviluppando occhiali intelligenti XR in collaborazione con Google, previsti per il lancio nella seconda metà del 2025. Secondo un report proveniente dalla...

Mi sono imparato la scienza?

Fahrenheit.iit e il potere della narrazione. Mercoledì 13 marzo, ore 17:00 in Accademia di Comunicazione e in streaming Registrati La narrazione può essere la lama...

Iscrizione NEWSLETTER

I dati da Lei forniti non saranno comunicati ad altri soggetti terzi e non saranno trasferiti né in Stati membri dell’Unione Europea né in paesi terzi extra UE.

Visita le sezioni del sito

Link utili

Casi studio, contributi

AI governance: A research agenda, Governance of AI program, Future of Umanity Institute, University of Oxford, Dafoe A., 2017 Artificial intelligence (AI) is a po-tent...

Libri

Ricerche

Piattaforme Corsi Gratuiti

White paper, guidelines