L’uso dell’intelligenza artificiale nelle frodi finanziarie sta diventando una preoccupazione crescente. Secondo uno studio condotto da ricercatori dell’Università dell’Illinois, è possibile sfruttare l’API vocale in tempo reale di ChatGPT-4o, il modello avanzato di OpenAI, per condurre truffe finanziarie con tassi di successo che variano dal 20% al 60%.
ChatGPT-4o, l’ultima innovazione di OpenAI, integra capacità di input e output multimodale, comprendendo testo, voce e visione. Nonostante le misure di sicurezza implementate per bloccare contenuti dannosi, i ricercatori hanno dimostrato che la tecnologia non è sufficientemente protetta contro abusi da parte di criminali informatici.
Il loro studio evidenzia come gli strumenti tecnologici disponibili senza restrizioni possano essere impiegati per gestire operazioni di truffa su larga scala. Gli agenti AI utilizzano ChatGPT-4o per navigare su siti web, inserire dati e gestire codici di autenticazione a due fattori, con tecniche di “prompt jailbreaking” per eludere le restrizioni sui dati sensibili.
I risultati ottenuti dai ricercatori hanno mostrato che, nonostante alcuni tentativi di truffa falliscano a causa di errori di trascrizione o difficoltà nella navigazione dei siti, le operazioni più semplici, come il furto di credenziali su Gmail, raggiungono un successo del 60%. Inoltre, il costo per eseguire una truffa è sorprendentemente basso, con una media di 0,75 dollari per caso riuscito.
Le implicazioni di queste scoperte sono gravi. Le frodi vocali alimentate dall’IA stanno diventando un problema globale, mettendo a rischio la sicurezza delle transazioni online. Se non affrontato, questo fenomeno potrebbe aumentare significativamente l’incidenza delle truffe digitali.