Un nuovo studio ha sollevato preoccupazioni riguardo alla crescente minaccia rappresentata dall’uso dell’intelligenza artificiale nell’hacking dei siti web. Secondo la ricerca condotta da un team di esperti informatici, GPT-4, la più recente iterazione del modello di lingua di OpenAI, è in grado di eseguire attacchi hacker autonomi con un tasso di successo del 73%.
I ricercatori hanno testato dieci modelli di intelligenza artificiale su quindici siti web differenti, senza fornire istruzioni specifiche riguardo alle vulnerabilità da sfruttare. Mentre modelli precedenti come GPT-3.5 e LLaMA hanno registrato un tasso di successo inferiore, GPT-4 ha sorpassato le aspettative, riuscendo con successo in undici dei quindici test condotti.
Daniel Kang, uno degli esperti coinvolti nella ricerca, ha dichiarato: “Non è necessario comprendere nulla – si può semplicemente lasciare che l’agente IA vada a hackerare il sito web da solo.” Questa facilità d’uso dell’intelligenza artificiale per condurre attacchi informatici solleva serie preoccupazioni riguardo alla sicurezza online.
Uno degli aspetti più inquietanti è il costo relativamente basso associato a questi attacchi. Mentre un analista esperto in cybersicurezza potrebbe richiedere fino a 80 dollari per attacco, l’utilizzo di un’intelligenza artificiale come GPT-4 può costare meno di 10 dollari, rendendo gli attacchi più accessibili anche a individui senza particolari competenze tecniche.
Nonostante gli sforzi delle aziende per implementare misure di sicurezza, la ricerca suggerisce che finora gli sforzi sono stati insufficienti nel contrastare questa nuova minaccia. È evidente che occorre un approccio più robusto per proteggere i siti web dall’hacking autonomo dell’intelligenza artificiale.
_______
GPT-4 ora fa anche l’hacker: buca il 73% dei siti web in questa ricerca