Un recente studio condotto dalla BBC ha evidenziato come gli assistenti AI, tra cui ChatGPT, Google Gemini, Microsoft Copilot e Perplexity, presentino significative distorsioni e inesattezze nel riassumere le notizie. Su 100 articoli analizzati, oltre la metà delle risposte generate da questi strumenti conteneva errori rilevanti.
In particolare, il 19% delle risposte includeva dati o affermazioni errate, mentre il 13% riportava citazioni modificate o inesistenti.
Ad esempio, Google Gemini ha erroneamente affermato che il Servizio Sanitario Nazionale britannico sconsiglia l’uso delle sigarette elettroniche per smettere di fumare, quando in realtà le raccomanda come metodo efficace.
Deborah Turness, CEO di BBC News, ha sottolineato i potenziali pericoli derivanti dalla diffusione di informazioni distorte da parte delle AI, invitando le aziende tecnologiche a collaborare con le organizzazioni giornalistiche per garantire maggiore accuratezza.