Il nuovo modello di intelligenza artificiale di DeepSeek, DeepSeek V3, sta suscitando curiosità per un comportamento inatteso: si identifica come ChatGPT. Test e post sui social media mostrano come, interrogato sulla sua identità, DeepSeek V3 affermi di essere una versione del modello GPT-4 di OpenAI. Questo fenomeno solleva interrogativi sulle modalità di addestramento del modello di DeepSeek.
DeepSeek non ha fornito dettagli precisi sui dati utilizzati per l’addestramento di V3. Tuttavia, esistono numerosi dataset pubblici contenenti testo generato da GPT-4 tramite ChatGPT. L’ipotesi più accreditata è che DeepSeek V3 sia stato addestrato su questi dati, memorizzando e riproducendo output di GPT-4.
Esperti come Mike Cook del King’s College di Londra suggeriscono che questa pratica, se intenzionale, potrebbe essere dannosa per la qualità del modello, portando ad allucinazioni e risposte fuorvianti. Inoltre, potrebbe violare i termini di servizio di OpenAI, che vietano l’utilizzo degli output dei suoi modelli per sviluppare concorrenti.
Il CEO di OpenAI, Sam Altman, ha implicitamente criticato DeepSeek e altri concorrenti, sottolineando la difficoltà di creare qualcosa di veramente nuovo rispetto alla semplice copia di soluzioni esistenti. Questo caso evidenzia un problema crescente: la “contaminazione” del web con contenuti generati dall’IA, che rende sempre più difficile filtrare i dati di addestramento. La possibilità che DeepSeek V3 abbia inavvertitamente appreso bias e difetti di GPT-4 è un’ulteriore preoccupazione.
- Errata autoidentificazione: DeepSeek V3 si identifica come ChatGPT/GPT-4.
- Ipotesi sull’addestramento: Utilizzo di dataset contenenti output di GPT-4.
- Rischi: Allucinazioni, risposte fuorvianti, violazione dei termini di servizio di OpenAI.
- Contaminazione del web: Difficoltà nel filtrare i dati di addestramento a causa dell’aumento di contenuti generati dall’IA.
- Critiche di Sam Altman: Sottolineata la difficoltà di innovare rispetto alla copia.