L’uso di modelli linguistici di grandi dimensioni (LLM) per scopi malevoli è in aumento, e sta trasformando rapidamente il panorama delle minacce informatiche. Questi modelli, progettati per generare testi complessi e naturali, vengono ora sfruttati dagli attori criminali per una serie di attività illegali, come la creazione di codici malevoli, phishing e truffe online.
Secondo un recente studio condotto su 212 casi reali, questa pratica, denominata “Malla” (Malicious LLM Applications), è in forte espansione sui mercati clandestini. L’indagine ha rivelato che sono stati individuati otto modelli linguistici di base utilizzati per alimentare tali attività illecite, oltre a 182 prompt specifici che consentono di aggirare le misure di sicurezza presenti nelle API pubbliche. Questo dimostra come i malintenzionati riescano a sfruttare i punti deboli dei modelli linguistici per finalità illegali.
Il fenomeno Malla rappresenta una sfida crescente per la sicurezza informatica globale. L’accessibilità di questi strumenti avanzati permette anche a chi ha scarse competenze tecniche di orchestrare attacchi complessi, aumentando così il numero di minacce e la loro sofisticatezza. Le piattaforme di AI pubblicamente accessibili sono particolarmente vulnerabili a tali abusi, mettendo in discussione la fiducia nelle tecnologie avanzate di oggi.
Gli esperti chiedono un intervento immediato per contrastare la diffusione di Malla e proteggere le piattaforme di intelligenza artificiale. La sfida principale sarà trovare un equilibrio tra l’innovazione tecnologica e la necessità di misure di sicurezza robuste per prevenire abusi su larga scala.