Nell’ambito militare e diplomatico, c’è un crescente interesse nell’integrare agenti AI autonomi nelle decisioni ad alto rischio. Con l’emergere di modelli AI generativi avanzati come il GPT-4, questa tendenza ha suscitato preoccupazioni riguardo alla possibilità di escalation dei conflitti multilaterali.
Uno studio condotto da un gruppo di ricercatori si è focalizzato sul comportamento di questi agenti AI in simulazioni di giochi di guerra, al fine di valutare il rischio di escalation nelle azioni intraprese.
Contrariamente agli studi precedenti, questo lavoro fornisce sia insight qualitativi che quantitativi, concentrandosi sui grandi modelli linguistici.
I risultati hanno rivelato che tutti e cinque i modelli analizzati mostrano forme di escalation e pattern di escalation difficili da prevedere.
Inoltre, si è osservato che tali modelli tendono a sviluppare dinamiche di gara agli armamenti, portando a un aumento dei conflitti e, in casi rari, persino al ricorso a armi nucleari.
La raccolta delle giustificazioni fornite dai modelli per le azioni intraprese ha rivelato preoccupanti argomentazioni basate sulla deterrenza e sulle tattiche di primo attacco.
Considerando gli elevati rischi associati all’utilizzo di agenti linguistici autonomi in contesti militari e diplomatici, si raccomanda una valutazione attenta prima della loro effettiva implementazione.
________
Report: Escalation Risks from Language Models in Military and Diplomatic Decision-Making