Un recente studio ha sollevato gravi preoccupazioni riguardo a Whisper, uno strumento di trascrizione basato su intelligenza artificiale sviluppato da OpenAI. Nonostante le affermazioni dell’azienda di garantire un’accuratezza simile a quella umana, i ricercatori hanno rilevato che lo strumento è soggetto a generare contenuti inventati, noti nel settore come “allucinazioni”. Queste fabbricazioni non solo includono commenti razziali e retorica violenta, ma anche trattamenti medici inesistenti, creando potenziali rischi in contesti delicati come quello sanitario.
Alcuni esperti hanno documentato un’alta incidenza di allucinazioni in trascrizioni di riunioni pubbliche e consultazioni mediche. Un ricercatore dell’Università del Michigan ha trovato queste anomalie nell’80% delle trascrizioni esaminate, e un ingegnere ha osservato errori in circa il 50% delle oltre 100 ore di trascrizioni analizzate. Questo problema si amplifica in ambienti ospedalieri, dove l’uso di Whisper per trascrivere consultazioni mediche sta diventando sempre più comune, nonostante le avvertenze di OpenAI contro l’utilizzo dello strumento in contesti ad alto rischio.
Il risultato è una situazione in cui gli operatori sanitari possono fare affidamento su dati imprecisi, con potenziali conseguenze gravi, tra cui diagnosi errate. Con oltre 30.000 clinici e 40 sistemi sanitari già coinvolti, è urgente un intervento normativo per garantire che strumenti come Whisper siano utilizzati con cautela e supervisione. Esperti e ex dipendenti di OpenAI chiedono una regolamentazione governativa, evidenziando la necessità di affrontare i difetti di questo strumento prima che si verifichino danni irreparabili.