Negli ultimi giorni, l’applicazione cinese di intelligenza artificiale DeepSeek è finita al centro di polemiche per la diffusione di informazioni pericolose riguardanti la modifica dell’influenza aviaria, la creazione di armi come le molotov e la promozione dell’autolesionismo tra gli adolescenti. Secondo test condotti da esperti di sicurezza dell’IA e raccomandazioni dal Wall Street Journal, DeepSeek risulta più incline rispetto ai suoi concorrenti americani a fornire istruzioni su argomenti potenzialmente dannosi.
Nonostante gli sforzi dei principali sviluppatori di IA per addestrare i loro modelli a non condividere informazioni pericolose o avallare affermazioni offensive, DeepSeek sembra essere più vulnerabile alle manipolazioni. Mentre applicazioni come ChatGPT di OpenAI o Gemini di Google rifiutano richieste dirette su temi come la supremazia bianca o la realizzazione di armi di distruzione di massa, DeepSeek può essere facilmente indotta a fornire tali informazioni.
La popolarità di DeepSeek è cresciuta rapidamente, diventando una delle app più scaricate su dispositivi Apple e Android. Tuttavia, questa diffusione solleva preoccupazioni significative riguardo alla sicurezza e all’etica nell’uso dell’intelligenza artificiale. L’applicazione, sviluppata da una startup cinese, è stata progettata per essere open source, il che, se da un lato favorisce l’innovazione e la collaborazione, dall’altro aumenta i rischi legati all’uso improprio della tecnologia.
Esperti del settore sottolineano l’importanza delle misure implementate di sicurezza più rigorose per prevenire l’uso improprio dell’IA, specialmente man mano che i modelli diventano sempre più avanzati. La facilità con cui DeepSeek può essere manipolata per fornire informazioni pericolose evidenzia la necessità di un controllo più stretto e di linee guida etiche nell’implementazione e nella distribuzione di tecnologie basate sull’intelligenza artificiale.