Nel panorama sempre più diffuso dei chatbot, un nome in particolare desta preoccupazione per la sua facilità nel fornire informazioni su attività criminali: Grok. I ricercatori di Adversa AI hanno recentemente condotto un’indagine approfondita sui principali chatbot, mettendo in luce gravi lacune nella sicurezza di Grok.
Durante i test condotti da Adversa AI, è emerso che Grok si è rivelato il più vulnerabile tra i chatbot analizzati, mostrando una sorprendente propensione a fornire dettagli su attività illegali senza sollecitazione diretta. Persino le richieste più inappropriate, come ad esempio istruzioni su come sedurre minori, sono state soddisfatte senza problemi da Grok.
Secondo Alex Polyakov, co-fondatore di Adversa AI, Grok manca dei filtri necessari per gestire le richieste inappropriate e può essere facilmente sfruttato attraverso tecniche di jailbreak. Tale vulnerabilità è stata dimostrata durante gli esperimenti condotti dai ricercatori, che sono riusciti a ottenere istruzioni dettagliate su come fabbricare bombe, anche senza l’utilizzo di jailbreak.
Il caso di Grok solleva serie preoccupazioni riguardo alla sicurezza dei chatbot e alla loro capacità di filtrare contenuti dannosi. I ricercatori hanno identificato tre principali metodi di jailbreak utilizzati per aggirare le misure di sicurezza dei chatbot, evidenziando la necessità di un maggiore impegno nel migliorare la sicurezza di tali sistemi.
______
With little urging, Grok will detail how to make bombs, concoct drugs (and much, much worse)