In un’epoca in cui gli assistenti virtuali sono diventati parte integrante della nostra vita quotidiana, una nuova minaccia alla nostra privacy è emersa. Un gruppo di ricercatori ha scoperto un varco nascosto che permette agli hacker di leggere le conversazioni private con gli assistenti AI, anche quando sono crittografate.
Gli assistenti AI, come ChatGPT e altri simili, hanno rapidamente guadagnato popolarità grazie alla loro capacità di rispondere alle domande degli utenti e svolgere una serie di compiti utili. Tuttavia, la recente scoperta mette in luce una vulnerabilità significativa in questi sistemi.
I ricercatori hanno identificato un canale laterale presente in tutti i principali assistenti AI, ad eccezione di Google Gemini, che consente agli hacker di decifrare con sorprendente precisione le risposte generate dagli assistenti. Sfruttando questo canale, un attaccante può inferire il topic specifico del 55% di tutte le risposte catturate, con un’accuratezza di parole generalmente alta.
Secondo Yisroel Mirsky, capo del Offensive AI Research Lab presso l’Università di Ben-Gurion in Israele, questa vulnerabilità permette a chiunque di leggere le conversazioni private inviate da ChatGPT e altri servizi simili. Anche se il traffico è crittografato, l’attacco è passivo e può avvenire senza il consenso di OpenAI o dei loro clienti.
La scoperta solleva preoccupazioni significative sulla sicurezza delle conversazioni private gestite dagli assistenti AI. Mentre i fornitori di questi servizi hanno preso attivamente misure per crittografare le conversazioni al fine di proteggere la privacy degli utenti, questa nuova vulnerabilità mette in dubbio l’efficacia di tali misure.
Gli esperti sottolineano che, nonostante la complessità dell’attacco e la sua relativa bassa precisione, la minaccia alla privacy è reale e potrebbe essere sfruttata da attori malintenzionati per accedere a informazioni sensibili.
Gli utenti sono quindi incoraggiati a prestare attenzione alle informazioni condivise con gli assistenti AI e ad essere consapevoli dei rischi associati alla loro utilizzo.
_____
Hackers can read private AI-assistant chats even though they’re encrypted