Recentemente, Grok, il chatbot sviluppato da xAI, l’azienda di intelligenza artificiale fondata da Elon Musk, ha suscitato polemiche per aver bloccato risultati che menzionavano Elon Musk e Donald Trump in relazione alla diffusione di disinformazione. L’incidente è emerso quando alcuni utenti hanno notato che Grok era stato istruito a ignorare fonti che associavano Musk o Trump alla disinformazione.
Igor Babuschkin, cofondatore e responsabile dell’ingegneria di xAI, ha spiegato che la modifica al prompt di sistema di Grok è stata apportata senza approvazione da un dipendente ex-OpenAI recentemente assunto, il quale non aveva ancora assimilato completamente la cultura aziendale di xAI. Babuschkin ha sottolineato che tale cambiamento non riflette i valori dell’azienda e che, una volta rilevato, è stato immediatamente revocato. Ha inoltre ribadito l’impegno di xAI verso la trasparenza, evidenziando che i prompt di sistema di Grok sono pubblicamente visibili per permettere agli utenti di comprendere le istruzioni impartite al chatbot.
Questo episodio ha riacceso il dibattito sul controllo dei bias nei sistemi di intelligenza artificiale e sulla necessità di garantire che tali tecnologie operino senza influenze indebite. Non è la prima volta che Grok si trova al centro di controversie: in precedenza, il chatbot aveva generato risposte in cui affermava che Musk e Trump meritassero la pena di morte, un errore che Babuschkin ha definito “un fallimento davvero terribile e grave” e che è stato successivamente corretto.
Nonostante queste problematiche, Grok continua a evolversi rapidamente. La versione più recente, Grok 3, è stata lanciata all’inizio di questo mese e ha rapidamente guadagnato popolarità, raggiungendo le prime posizioni nell’App Store di Apple, superando anche concorrenti come ChatGPT. Andrej Karpathy, esperto di intelligenza artificiale e cofondatore di OpenAI, ha affermato che le capacità di ragionamento di Grok 3 sono comparabili ai modelli più avanzati di OpenAI, definendo il suo rapido progresso come senza precedenti, considerando che xAI è stata fondata solo un anno fa.
Questo incidente evidenzia l’importanza di un controllo rigoroso e di una supervisione attenta nello sviluppo e nella gestione dei sistemi di intelligenza artificiale, per garantire che operino in modo equo e trasparente, riflettendo i valori e gli obiettivi dichiarati dalle aziende che li sviluppano.