Il governo degli Stati Uniti ha annunciato la pubblicazione della “Political Declaration on Responsible Military Use of Artificial Intelligence and Autonomy” sull’IA responsabile nel settore militare (REAIM 2023). La Dichiarazione è stata presentata con l’obiettivo di costruire un consenso internazionale su come le forze armate possono incorporare responsabilmente l’intelligenza artificiale e l’autonomia nelle loro operazioni, in modo da guidare lo sviluppo, il dispiegamento e l’uso di questa tecnologia da parte degli Stati per scopi di difesa.
La Dichiarazione è costituita da una serie di linee guida non giuridicamente vincolanti che descrivono le migliori pratiche per un uso responsabile dell’IA in un contesto di difesa. Tra le raccomandazioni, si evidenzia l’importanza di garantire che i sistemi di intelligenza artificiale militare siano verificabili, abbiano usi espliciti e ben definiti, siano soggetti a test e valutazioni rigorosi durante il loro ciclo di vita e che le applicazioni ad alto impatto siano sottoposte a revisione di alto livello e possano essere disattivate se dimostrano comportamento non responsabile.
La Dichiarazione rappresenta un importante passo avanti verso l’adozione di standard internazionali per l’uso responsabile dell’IA e dell’autonomia nel settore militare. Inoltre, riconosce la necessità di collaborare con altre nazioni per affrontare questa sfida globale e promuove una maggiore trasparenza e responsabilità nell’uso della tecnologia in campo militare.
Il governo degli Stati Uniti ha lodato i Paesi Bassi e la Repubblica di Corea per aver co-ospitato il vertice REAIM e per aver avviato una tempestiva discussione su questo argomento. Ciò dimostra l’importanza di una collaborazione internazionale per promuovere l’adozione di standard comuni per l’uso dell’IA in campo militare.
Il vertice internazionale sull’Intelligenza Artificiale Militare, co-ospitato dai Paesi Bassi e dalla Corea del Sud, ha portato alla firma di un modesto “invito all’azione” da parte di più di 60 paesi, tra cui Stati Uniti e Cina, a favore dell’uso responsabile dell’IA in campo militare. Tuttavia, esperti di diritti umani e accademici hanno notato che la dichiarazione non è legalmente vincolante e non affronta preoccupazioni importanti come l’uso dei droni guidati dall’IA, dei “robot massacratori” che potrebbero uccidere senza intervento umano e il rischio che l’IA possa intensificare un conflitto militare.
La conferenza è arrivata in un momento in cui l’interesse per l’Intelligenza Artificiale è ai massimi storici grazie a programmi come ChatGPT di OpenAI, e anche perché l’Ucraina ha utilizzato il riconoscimento facciale e i sistemi di targeting assistito dall’IA nella sua lotta con la Russia. Tuttavia, la Russia non è stata invitata alla conferenza dopo la sua invasione dell’Ucraina nel 2022, che Mosca definisce una “operazione militare speciale”, e l’Ucraina stessa non ha partecipato.
Israele ha partecipato alla conferenza ma non ha firmato la dichiarazione. Gli Stati Uniti, insieme ad altri paesi potenti, sono stati riluttanti ad accettare qualsiasi limitazione legale sull’uso dell’IA, per paura che ciò potesse metterli in una posizione di svantaggio rispetto ai rivali. Tuttavia, il sottosegretario di Stato americano per il controllo degli armamenti e Bonnie Jenkins ha presentato un quadro statunitense per un uso responsabile dell’IA militare.
Secondo la proposta degli Stati Uniti, i sistemi di armi IA dovrebbero coinvolgere “livelli adeguati di giudizio umano”, in linea con le linee guida aggiornate sulle armi autonome letali emesse dal Dipartimento della Difesa il mese scorso. Tuttavia, Human Rights Watch ha sfidato gli Stati Uniti a definire “appropriato” e a iniziare a negoziare una legge vincolante a livello internazionale, invece di armeggiare con dichiarazioni politiche.
Il rappresentante cinese Jian Tan ha affermato che i paesi dovrebbero “opporsi alla ricerca di vantaggi militari ed egemonia assoluti attraverso l’IA” e lavorare attraverso le Nazioni Unite. Tuttavia, Jessica Dorsey, assistente professore di diritto internazionale all’Università di Utrecht, ha definito la proposta degli Stati Uniti una “occasione persa” per la leadership e ha affermato che la dichiarazione del vertice è troppo debole, aprendo la strada agli stati per sviluppare l’IA per scopi militari in qualsiasi modo ritengano opportuno, purché possano dire che è “responsabile”.
_______
Si riporta traduzione in italiano
“Political Declaration on Responsible Military Use of Artificial Intelligence and Autonomy“
La Dichiarazione politica sull’uso militare responsabile dell’intelligenza artificiale e dell’autonomia rappresenta un importante passo avanti nella definizione di linee guida e standard internazionali per l’uso dell’IA nel settore militare. Il documento promuove la responsabilità e la trasparenza nell’uso della tecnologia e rappresenta un impegno importante da parte degli Stati Uniti e degli altri paesi per garantire la sicurezza e la stabilità internazionale.
Un numero crescente di Stati sta sviluppando capacità di IA militare, che possono includere l’uso dell’IA per abilitare sistemi autonomi.1 L’uso militare dell’IA può e deve essere etico, responsabile e rafforzare la sicurezza internazionale. L’uso dell’intelligenza artificiale nei conflitti armati deve essere conforme al diritto internazionale umanitario applicabile, compresi i suoi principi fondamentali. L’uso militare delle capacità di intelligenza artificiale deve essere responsabile, anche attraverso tale uso durante le operazioni militari all’interno di una catena umana responsabile di comando e controllo. Un approccio di principio all’uso militare dell’IA dovrebbe includere un’attenta considerazione dei rischi e dei benefici e dovrebbe anche ridurre al minimo i pregiudizi e gli incidenti non intenzionali. Gli Stati dovrebbero adottare misure appropriate per garantire lo sviluppo, il dispiegamento e l’uso responsabili delle loro capacità di IA militare, comprese quelle che abilitano i sistemi autonomi. Queste misure dovrebbero essere applicate durante tutto il ciclo di vita delle capacità di IA militare.
Le seguenti dichiarazioni riflettono le migliori pratiche che gli Stati firmatari ritengono debbano essere attuate nello sviluppo, dispiegamento e utilizzo delle capacità di intelligenza artificiale militare, comprese quelle che abilitano i sistemi autonomi:
- Gli Stati dovrebbero adottare misure efficaci, come le revisioni legali, per garantire che le loro capacità di IA militare siano utilizzate solo in conformità con i rispettivi obblighi ai sensi del diritto internazionale, in particolare del diritto internazionale umanitario.
- Gli Stati dovrebbero mantenere il controllo e il coinvolgimento umano per tutte le azioni fondamentali per informare ed eseguire decisioni sovrane riguardanti l’impiego di armi nucleari.
- Gli Stati dovrebbero garantire che gli alti funzionari sovrintendano allo sviluppo e al dispiegamento di tutte le capacità di intelligenza artificiale militare con applicazioni ad alto impatto, inclusi, ma non limitati a, i sistemi d’arma.
- Gli Stati dovrebbero adottare, pubblicare e attuare principi per la progettazione, lo sviluppo, il dispiegamento e l’uso responsabili delle capacità di intelligenza artificiale da parte delle loro organizzazioni militari.
- Gli Stati dovrebbero garantire che il personale interessato eserciti un’attenzione adeguata, inclusi livelli adeguati di giudizio umano, nello sviluppo, dispiegamento e utilizzo delle capacità di IA militare, compresi i sistemi d’arma che incorporano tali capacità.
- Gli Stati dovrebbero garantire che vengano prese misure deliberate per ridurre al minimo i pregiudizi involontari nelle capacità di IA militare.
- Gli Stati dovrebbero garantire che le capacità di IA militare siano sviluppate con metodologie, fonti di dati, procedure di progettazione e documentazione verificabili.
- Gli Stati dovrebbero garantire che il personale che utilizza o approva l’uso delle capacità di IA militare sia addestrato in modo da comprendere a sufficienza le capacità e i limiti di tali capacità e possa formulare giudizi informati sul contesto sul loro utilizzo.
- Gli Stati dovrebbero garantire che le capacità di IA militare abbiano usi espliciti e ben definiti e che siano progettate e progettate per svolgere le funzioni previste.
- Gli Stati dovrebbero garantire che la sicurezza, la protezione e l’efficacia delle capacità di IA militare siano soggette a test e garanzie appropriati e rigorosi all’interno dei loro usi ben definiti e durante l’intero ciclo di vita. Anche le capacità di IA militare di autoapprendimento o aggiornamento continuo dovrebbero essere soggette a un processo di monitoraggio per garantire che le caratteristiche di sicurezza critiche non siano state degradate.
- Gli Stati dovrebbero progettare e progettare capacità di intelligenza artificiale militare in modo che possiedano la capacità di rilevare ed evitare conseguenze indesiderate e la capacità di disattivare o disattivare i sistemi dispiegati che dimostrano comportamenti non intenzionali. Gli Stati dovrebbero inoltre implementare altre adeguate salvaguardie per mitigare i rischi di gravi guasti. Queste salvaguardie possono essere tratte da quelle progettate per tutti i sistemi militari, nonché da quelle per le capacità di intelligenza artificiale non destinate all’uso militare.
- Gli Stati dovrebbero portare avanti discussioni continue su come le capacità di IA militare siano sviluppate, dispiegate e utilizzate in modo responsabile, per promuovere l’effettiva attuazione di queste pratiche e l’istituzione di altre pratiche che gli Stati firmatari ritengano appropriate. Queste discussioni dovrebbero includere la considerazione di come implementare queste pratiche nel contesto delle loro esportazioni di capacità di IA militare.
Gli Stati firmatari:
- attuare queste pratiche durante lo sviluppo, il dispiegamento o l’utilizzo di capacità di intelligenza artificiale militare, comprese quelle che abilitano sistemi autonomi;
- descrivere pubblicamente il loro impegno in queste pratiche;
- sostenere altri sforzi appropriati per garantire che tali capacità siano utilizzate in modo responsabile e legale; E
- impegnare ulteriormente il resto della comunità internazionale a promuovere tali pratiche, anche in altri consessi su argomenti correlati, e fatte salve le discussioni in corso su argomenti correlati in altri consessi.
[1] I concetti di intelligenza artificiale e autonomia sono soggetti a una serie di interpretazioni. Ai fini della presente Dichiarazione, l’intelligenza artificiale può essere intesa come riferita alla capacità delle macchine di eseguire compiti che altrimenti richiederebbero l’intelligenza umana, ad esempio riconoscere modelli, apprendere dall’esperienza, trarre conclusioni, fare previsioni o agire, sia che digitalmente o come software intelligente alla base di sistemi fisici autonomi. Allo stesso modo, l’autonomia può essere intesa come implicante un sistema che funziona senza ulteriore intervento umano dopo l’attivazione
_______
“China attaches great importance to AI security governance: ambassador“
“China attaches great importance to AI security governance: ambassador“
“U.S., China, other nations urge ‘responsible’ use of military AI“
“U.S., China, other nations urge ‘responsible’ use of military AI“
“US, China, other nations urge ‘responsible’ use of military AI“