Il Pentagono sta sfruttando l’intelligenza artificiale (IA) per potenziare la propria capacità di identificare e gestire minacce, senza però delegare all’IA decisioni di vita o di morte. La dott.ssa Radha Plumb, responsabile digitale e dell’IA del Dipartimento della Difesa, ha sottolineato come l’IA stia fornendo un “vantaggio significativo” nel processo decisionale, accelerando la cosiddetta “kill chain”.
La “kill chain” descrive il processo militare che include identificazione, tracciamento ed eliminazione delle minacce. Gli strumenti di intelligenza artificiale vengono impiegati nelle fasi di pianificazione e strategia, migliorando la velocità e l’efficacia delle operazioni. Tuttavia, l’impiego dell’IA nelle forze armate rimane strettamente controllato: le aziende come OpenAI, Anthropic e Meta hanno imposto limiti chiari, proibendo l’uso dei loro modelli per scopi letali.
Nonostante le preoccupazioni etiche, il Pentagono ha intensificato le collaborazioni con sviluppatori di IA. Negli ultimi mesi, Anthropic, Meta e OpenAI hanno stretto accordi con colossi della difesa come Lockheed Martin e Anduril. Questi partenariati mirano a migliorare la capacità del Dipartimento di Difesa di simulare scenari complessi e pianificare risposte strategiche.
Il dibattito sull’uso dell’IA in ambito militare è acceso. Da un lato, si sottolinea l’importanza di garantire che le tecnologie siano utilizzate in modo etico e responsabile; dall’altro, si teme che un rifiuto totale di queste applicazioni possa lasciare spazio a sviluppi meno controllati in altre nazioni.
Plumb ha assicurato che le decisioni finali rimarranno nelle mani umane, descrivendo l’uso dell’IA come una collaborazione tra uomo e macchina. “Per noi, affidabilità ed etica sono fondamentali: i comandanti saranno sempre coinvolti nelle decisioni critiche,” ha dichiarato.