Il NIST ha rilasciato il rapporto finale sulle minacce alla sicurezza AI/ML, definendo una nuova tassonomia e strategie di mitigazione per affrontare i rischi crescenti.
Il National Institute of Standards and Technology (NIST) ha pubblicato il documento AI 100-2 E2025, intitolato Adversarial Machine Learning: A Taxonomy and Terminology of Attacks and Mitigations. Il rapporto offre una classificazione completa degli attacchi ai sistemi di intelligenza artificiale e apprendimento automatico, nonché strategie difensive per limitarne l’impatto.
Secondo il NIST, l’intelligenza artificiale predittiva (PredAI) e generativa (GenAI) sono sempre più esposte a minacce come l’avvelenamento dei dati, la manipolazione degli input e l’estrazione di modelli. Questi attacchi compromettono la riservatezza, l’integrità e l’affidabilità dei sistemi, agendo su tutte le fasi del ciclo di vita del machine learning, dalla formazione al deployment operativo.
La tassonomia NIST analizza gli attacchi in base a criteri tecnici e operativi: tipo di sistema, obiettivi dell’attaccante, fase d’attacco, capacità e conoscenze richieste. Inoltre, evidenzia i rischi specifici dell’uso della GenAI in contesti sensibili o connessi a risorse esterne.
Il rapporto si inserisce nel quadro del NIST AI Risk Management Framework, promuovendo pratiche comuni per rafforzare la resilienza dell’AI, con un focus sulla standardizzazione della terminologia tra settori pubblici e privati.
L’obiettivo è offrire una base condivisa per sviluppare policy, strumenti e standard tecnici più efficaci, in linea con la crescente adozione dell’AI in ambito civile, industriale e governativo.
Fonti:
NIST – AI 100-2 E2025 Report
NIST AI Risk Management Framework


