In risposta alla crescente attenzione pubblica verso ChatGPT, il laboratorio di innovazione di Europol ha organizzato una serie di workshop con esperti del settore provenienti da tutta l’Europa per esplorare come i criminali possano abusare dei grandi modelli linguistici (LLM) come ChatGPT e come questi possano assistere gli investigatori nel loro lavoro quotidiano. Le loro osservazioni sono state raccolte nel primo rapporto Tech Watch Flash di Europol, pubblicato oggi, dal titolo “ChatGPT: l’impatto dei grandi modelli linguistici sulle forze dell’ordine”, che fornisce una panoramica sul potenziale abuso di ChatGPT e offre una prospettiva su quello che potrebbe ancora venire.
Lo scopo di questo rapporto è quello di sensibilizzare sull’eventuale abuso dei LLM, aprire un dialogo con le aziende di intelligenza artificiale (AI) per aiutarle a costruire migliori salvaguardie e promuovere lo sviluppo di sistemi AI sicuri e affidabili.
Un rapporto più lungo e approfondito è stato prodotto solo per le forze dell’ordine.
Cosa sono i grandi modelli linguistici?
Un grande modello linguistico è un tipo di sistema AI che può elaborare, manipolare e generare testo. L’addestramento di un LLM comporta l’alimentazione di grandi quantità di dati, come libri, articoli e siti web, in modo che possa apprendere i modelli e le connessioni tra le parole per generare nuovi contenuti.
ChatGPT è un LLM sviluppato da OpenAI e rilasciato al pubblico come parte di una preview di ricerca nel novembre 2022. Il modello attualmente accessibile al pubblico è in grado di elaborare e generare testo simile a quello umano in risposta alle richieste dell’utente. In particolare, il modello può rispondere a domande su una vasta gamma di argomenti, tradurre testo, scambiare conversazioni (‘chatting’), generare nuovi contenuti e produrre codice funzionale.
Il lato oscuro dei grandi modelli linguistici
Poiché le capacità dei LLM come ChatGPT stanno attivamente migliorando, l’abuso potenziale di questi tipi di sistemi AI da parte dei criminali rappresenta un quadro preoccupante. I seguenti tre settori criminali sono tra i molti di preoccupazione identificati dagli esperti di Europol:
Frode e ingegneria sociale: la capacità di ChatGPT di elaborare testi altamente realistici lo rende uno strumento utile per il phishing. La capacità dei LLM di riprodurre modelli linguistici può essere utilizzata per impersonare lo stile di discorso di individui.