Uno studio pubblicato dal Tow Center for Digital Journalism mette in luce le difficoltà di ChatGPT nel fornire citazioni accurate, generando preoccupazione tra gli editori. La ricerca, condotta dalla Columbia Journalism School, ha analizzato 200 citazioni basate su articoli di 20 editori, tra cui il New York Times, il Washington Post e il Financial Times. I risultati mostrano che il chatbot di OpenAI, nonostante gli accordi di licenza con alcuni editori, spesso inventa o distorce le fonti.
Secondo i ricercatori, Klaudia Jaźwińska e Aisvarya Chandrasekar, solo una minoranza di citazioni era corretta, mentre la maggior parte conteneva errori parziali o totali. Inoltre, ChatGPT ha mostrato una tendenza a presentare risposte sbagliate con assoluta sicurezza, senza ammettere lacune o incertezze.
Un caso emblematico evidenziato dallo studio riguarda la citazione errata di un sito che aveva plagiato un articolo del New York Times. Questo episodio sottolinea i limiti di ChatGPT nel validare l’autenticità delle fonti e i rischi di favorire la diffusione di contenuti non autorizzati.
Nonostante i tentativi di OpenAI di migliorare l’accuratezza delle citazioni, lo studio dimostra che né gli accordi di licenza né il blocco dei crawler garantiscono una rappresentazione fedele dei contenuti editoriali. Questa situazione crea rischi reputazionali e commerciali per gli editori, mentre solleva interrogativi sul trattamento delle notizie come “contenuti decontestualizzati.”
In una nota, OpenAI ha definito “atipico” il test condotto dal Tow Center, assicurando impegni futuri per migliorare la trasparenza e la precisione. Tuttavia, i ricercatori concludono che gli editori, al momento, hanno scarso controllo sul modo in cui i loro contenuti vengono utilizzati dall’IA.