Sul noto sito di intelligenza artificiale, Hugging Face, è stato scoperto un insidioso problema di sicurezza che ha scosso la comunità online. Almeno cento modelli di machine learning con intenti maliziosi sono stati individuati sulla piattaforma, sollevando preoccupazioni riguardo alla sicurezza dei dati e agli attacchi informatici.
Il team di sicurezza di JFrog ha rivelato che numerosi modelli ospitati su Hugging Face presentano funzionalità dannose, mettendo a rischio la sicurezza degli utenti. Questo nonostante le misure di sicurezza implementate dalla stessa Hugging Face, che comprendono la scansione per malware, pickle e segreti, oltre alla scrutinizzazione delle funzionalità dei modelli per individuare comportamenti rischiosi.
JFrog ha sviluppato e implementato un sistema di scansione avanzato per esaminare i modelli PyTorch e Tensorflow Keras ospitati su Hugging Face, individuando un centinaio di modelli con qualche forma di funzionalità dannosa. Questo include un caso di un modello PyTorch caricato da un utente, noto come “baller423”, che conteneva un payload in grado di stabilire una shell inversa verso un host specifico.
Nonostante l’ipotesi che alcuni di questi caricamenti maliziosi possano essere parte della ricerca sulla sicurezza, il rischio per gli utenti è concreto e non può essere sottovalutato. I modelli dannosi, una volta pubblicati, possono causare gravi danni e rappresentare una minaccia per la sicurezza informatica.
JFrog sottolinea l’importanza di un approccio proattivo nella protezione del sistema da attori malintenzionati e invita a una maggiore attenzione da parte degli sviluppatori e degli utenti nei confronti della sicurezza online.
____
Malicious AI models on Hugging Face backdoor users’ machines