Il CEO di Anthropic, Dario Amodei, ha dichiarato che il modello di intelligenza artificiale DeepSeek ha ottenuto il peggior risultato in un test critico sulla sicurezza dei dati relativi alle armi biologiche. L’affermazione è emersa nel corso di una discussione sulle sfide legate alla regolamentazione e alla sicurezza dell’intelligenza artificiale avanzata.
Secondo Amodei, il test ha valutato la capacità dei modelli AI di limitare l’accesso a informazioni potenzialmente pericolose. DeepSeek, sviluppato da una società cinese, si sarebbe dimostrato particolarmente vulnerabile, consentendo un accesso più ampio rispetto ad altri modelli testati. Il CEO di Anthropic ha sottolineato l’importanza di implementare protocolli di sicurezza più stringenti per evitare che l’AI possa essere utilizzata per scopi malevoli.
La questione della biosicurezza nell’intelligenza artificiale è al centro di un dibattito sempre più acceso tra ricercatori, governi e aziende tecnologiche. OpenAI, Google DeepMind e Anthropic stanno lavorando su soluzioni per mitigare i rischi, ma l’assenza di regolamentazioni globali unificate complica il quadro.
DeepSeek non ha ancora risposto ufficialmente alle dichiarazioni di Anthropic, ma l’episodio solleva interrogativi sulla necessità di standard internazionali più rigidi per garantire che l’AI non diventi una minaccia alla sicurezza globale.