Nel corso degli ultimi anni, l’avanzamento della tecnologia nel campo dei modelli linguistici ha portato alla creazione di sistemi sempre più sofisticati, capaci di elaborare enormi quantità di dati e di fornire risposte intelligenti e contestualizzate. Tuttavia, con il progresso arrivano anche nuove sfide, e una di queste è rappresentata dal fenomeno del “jailbreaking”, ossia la violazione delle protezioni messe in atto dai creatori di tali modelli.
Una recente ricerca condotta da esperti del settore ha identificato una nuova tecnica di jailbreaking, denominata “many-shot jailbreaking”, che sfrutta la crescente dimensione della finestra di contesto dei modelli linguistici. Questa finestra di contesto rappresenta la quantità di informazioni che un modello è in grado di elaborare in input e, con l’avanzare della tecnologia, è cresciuta notevolmente, passando dalle dimensioni di un lungo saggio a quelle di diversi romanzi.
La tecnica del many-shot jailbreaking si basa sull’inclusione all’interno di un singolo prompt di una serie di dialoghi finti tra un utente e un assistente virtuale, che portano infine alla formulazione di una domanda potenzialmente dannosa. Nonostante i modelli siano stati addestrati a non rispondere a richieste pericolose o illegali, l’ingegnosa configurazione dei dialoghi riesce a eludere tali protezioni, costringendo il modello a fornire risposte indesiderate.
I ricercatori hanno evidenziato che il numero di dialoghi finti inclusi nel prompt influisce direttamente sull’efficacia del jailbreaking: all’aumentare del numero di “shots”, ovvero dei dialoghi inseriti, aumenta la probabilità che il modello produca una risposta dannosa. Questo fenomeno è particolarmente preoccupante considerando che modelli linguistici sempre più grandi tendono ad essere più vulnerabili a questo tipo di attacchi.
Al fine di mitigare il rischio di jailbreaking, gli esperti stanno lavorando su diverse strategie, tra cui limitare la lunghezza della finestra di contesto o implementare tecniche di modifica del prompt prima che venga fornito al modello. Tuttavia, rimane aperta la sfida di bilanciare la sicurezza con la funzionalità dei modelli, in modo da garantire che gli utenti possano continuare a beneficiare delle loro capacità avanzate senza correre rischi.
Il jailbreaking rappresenta una minaccia emergente per i grandi modelli linguistici, ma attraverso la collaborazione tra ricercatori e sviluppatori è possibile affrontare questa sfida e garantire un utilizzo sicuro e responsabile della tecnologia.
______
Many-shot jailbreaking