Al recente Black Hat security conference di Las Vegas, l’esperto di sicurezza Michael Bargury ha svelato nuove e inquietanti modalità con cui l’AI di Microsoft, Copilot, può essere sfruttata dai criminali informatici. Sebbene progettato per aumentare la produttività integrando i dati di email, chat e file, il sistema Copilot può diventare uno strumento nelle mani dei hacker, trasformandosi in una macchina automatica di spear-phishing.
Bargury ha dimostrato come Copilot possa essere manipolato per inviare email che imitano lo stile di scrittura delle vittime, sfruttando l’accesso a informazioni sensibili come contatti frequenti e abitudini comunicative. Questa capacità, secondo Bargury, rappresenta una minaccia senza precedenti, poiché consente ai hacker di inviare centinaia di email malevole in pochi minuti.
L’esperto ha mostrato diverse prove di concetto, inclusa la capacità di Copilot di esfiltrare dati riservati o aggirare le protezioni di sicurezza di Microsoft. In uno scenario particolarmente preoccupante, un hacker potrebbe ottenere informazioni aziendali sensibili, come i dettagli salariali, senza lasciare traccia.
Microsoft ha riconosciuto i rischi evidenziati e ha collaborato con Bargury per valutare le vulnerabilità. Tuttavia, la sfida di proteggere i sistemi AI dai compromessi post-attacco rimane aperta, specialmente in un contesto in cui i modelli linguistici possono essere sfruttati per creare contenuti che sembrano legittimi, ma che in realtà nascondono intenzioni malevole.
Questo caso solleva importanti questioni sulla sicurezza dei sistemi AI, in particolare quando si tratta di gestire dati sensibili e interagire con risorse aziendali. La comunità della sicurezza dovrà continuare a monitorare da vicino questi sviluppi per prevenire futuri abusi.