Nell’era dell’intelligenza artificiale, i modelli linguistici multimodali integrati stanno guadagnando sempre più popolarità. Questi modelli, noti come Speech-Language Models (SLM), sono in grado di seguire istruzioni vocali e generare risposte testuali pertinenti. Tuttavia, la sicurezza e la robustezza di questi modelli rimangono in gran parte sconosciute.
Un recente studio intitolato “SpeechGuard: Exploring the Adversarial Robustness of Multimodal Large Language Models” ha esplorato le potenziali vulnerabilità di questi modelli a attacchi adversariali e tentativi di “jailbreaking”. I ricercatori hanno progettato algoritmi capaci di generare esempi adversariali per compromettere gli SLM sia in contesti di attacco white-box che black-box, senza intervento umano.
I modelli studiati sono stati addestrati su dati di dialogo con istruzioni vocali, ottenendo prestazioni all’avanguardia nel compito di domanda-risposta parlata, con un punteggio superiore all’80% sia nelle metriche di sicurezza che di utilità. Nonostante queste protezioni, gli esperimenti di jailbreaking hanno dimostrato la vulnerabilità degli SLM a perturbazioni adversariali e attacchi di trasferimento, con tassi di successo medi del 90% e 10% rispettivamente, quando valutati su un dataset di domande dannose progettate in 12 diverse categorie tossiche.
Per fronteggiare queste minacce, lo studio propone contromisure che riducono significativamente il successo degli attacchi. Questo lavoro rappresenta un passo importante verso una maggiore sicurezza e robustezza dei modelli linguistici multimodali, sottolineando l’importanza di continuare a sviluppare difese più efficaci contro le minacce emergenti.
_____
SpeechGuard: Exploring the Adversarial Robustness of Multimodal Large Language Models