Un recente studio ha esaminato le reazioni umane alle risposte morali generate dall’intelligenza artificiale (IA), in particolare dai grandi modelli linguistici come GPT-4. L’indagine, condotta su un campione rappresentativo di 299 adulti negli Stati Uniti, ha applicato un test noto come Modified Moral Turing Test (m-MTT), che mette a confronto le risposte morali date da esseri umani con quelle generate da un modello di IA.
In una prima fase, ai partecipanti è stato chiesto di valutare la qualitĂ delle risposte senza sapere se fossero state generate da umani o da IA. Sorprendentemente, il giudizio complessivo è stato a favore dell’intelligenza artificiale, che è stata percepita come piĂą virtuosa, intelligente e affidabile. Questo risultato ha indicato che, in termini di qualitĂ percepita, l’IA potrebbe superare l’essere umano, un aspetto che può sollevare questioni etiche riguardanti l’accettazione senza critica delle risposte generate da macchine.
Nella fase successiva, ai partecipanti è stato chiesto di distinguere se ogni risposta provenisse da un essere umano o da un’IA. In questo caso, hanno dimostrato di poter identificare l’origine delle risposte meglio del caso, suggerendo che vi sono caratteristiche distintive nelle risposte generate dagli esseri umani.
Questo studio evidenzia alcune preoccupazioni relative all’uso diffuso di grandi modelli linguistici. Se le persone iniziano a considerare l’IA come fonte di consigli morali, potrebbero essere inclini ad accettare risposte che potrebbero non avere una solida base etica. Gli autori dello studio sottolineano la necessitĂ di sviluppare regolamenti e linee guida per evitare che le persone si affidino ciecamente a consigli generati da IA.
________
Attributions toward artificial agents in a modified Moral Turing Test