OpenAI, l’azienda statunitense nota per lo sviluppo di ChatGPT, ha recentemente dichiarato di aver avviato colloqui con funzionari governativi riguardo a un’indagine su DeepSeek, una startup cinese nel settore dell’intelligenza artificiale. Secondo OpenAI, DeepSeek avrebbe utilizzato in modo improprio dati provenienti dalla sua API per addestrare i propri modelli AI, una pratica che potrebbe violare le normative sulla proprietà intellettuale.
La tecnica al centro della controversia è nota come “distillazione”, un metodo attraverso il quale un modello AI viene addestrato interrogando ripetutamente un altro modello, come ChatGPT, per raccogliere informazioni e migliorare le proprie prestazioni. Microsoft, partner di OpenAI, ha rilevato che DeepSeek potrebbe aver estratto una quantità significativa di dati tramite l’API di OpenAI, superando i limiti consentiti e violando i termini di servizio.
Chris Lehane, responsabile degli affari globali di OpenAI, ha confermato in un’intervista a Bloomberg TV che l’azienda sta collaborando con le autorità governative per approfondire la questione. Lehane ha sottolineato l’importanza di proteggere la proprietà intellettuale e di garantire una concorrenza legale nel settore dell’intelligenza artificiale.
DeepSeek, dal canto suo, ha recentemente lanciato il modello R1, che ha attirato l’attenzione per le sue avanzate capacità di ragionamento e per l’efficienza nell’uso delle risorse computazionali. Tuttavia, le accuse mosse da OpenAI sollevano interrogativi sull’origine dei dati utilizzati per l’addestramento di R1 e sulla legittimità delle pratiche adottate dalla startup cinese.
Questa vicenda evidenzia le crescenti tensioni nel panorama globale dell’intelligenza artificiale, dove la protezione della proprietà intellettuale e l’etica nello sviluppo tecnologico sono diventate questioni di primaria importanza. Mentre l’indagine è in corso, le implicazioni per il settore potrebbero essere significative, influenzando le future collaborazioni e la regolamentazione nell’ambito dell’AI.