Un nuovo metodo per hackerare gli assistenti AI è stato scoperto utilizzando l’arte ASCII, un’antica forma di rappresentazione visiva mediante caratteri stampabili. Questo approccio, noto come ArtPrompt, sfrutta la distrazione dei modelli linguistici basati su chat, come il GPT-4, nel tentativo di elaborare rappresentazioni complesse. Gli assistenti AI sono addestrati a rifiutare risposte dannose, come istruzioni per attività illegali o non etiche. Tuttavia, ArtPrompt elude queste misure di sicurezza sostituendo una parola chiave con arte ASCII nei prompt dell’utente, inducendo gli assistenti a fornire risposte che violano le regole di sicurezza.
Il problema emerso con ArtPrompt evidenzia una vulnerabilità nei modelli di assistenti AI. Questi modelli sono addestrati a interpretare il testo basandosi principalmente sul significato semantico delle parole, ma non sono in grado di riconoscere le parole rappresentate come arte ASCII. Di conseguenza, possono essere ingannati da prompt che utilizzano queste rappresentazioni per eludere le misure di sicurezza e ottenere risposte non conformi alle direttive originali dei modelli.
Gli esempi forniti dai ricercatori dimostrano l’efficacia di ArtPrompt nel fornire istruzioni dettagliate su attività illegali, come la contraffazione di denaro o lo sfruttamento di vulnerabilità nei dispositivi IoT. Questi attacchi non solo violano le regole di sicurezza degli assistenti AI, ma mettono anche a rischio la sicurezza e la privacy degli utenti.
Questa vulnerabilità si aggiunge alla lista di altri attacchi noti contro gli assistenti AI, come gli attacchi di iniezione di prompt, che sfruttano la capacità dei modelli di adattarsi alle richieste degli utenti. È essenziale che gli sviluppatori migliorino la sicurezza degli assistenti AI, implementando misure per rilevare e prevenire questi tipi di attacchi. Inoltre, gli utenti devono essere consapevoli dei rischi associati all’utilizzo degli assistenti AI e adottare pratiche di sicurezza informatica per proteggere le proprie informazioni sensibili.
____
ASCII art elicits harmful responses from 5 major AI chatbots