Il Massachusetts Institute of Technology aveva sollevato interrogativi sull’effettiva capacità dell’intelligenza artificiale di sostituire l’uomo, evidenziando gli elevati costi per lo sviluppo e la gestione degli algoritmi.
Oggi, l’istituto pubblica i risultati di una ricerca, apparsi sulla rivista Patterns, che mettono in luce un nuovo scenario: le IA sono diventate capaci di comportarsi come gli esseri umani, utilizzando il bluff per raggiungere i loro obiettivi.
Lo studio ha analizzato l’utilizzo dell’IA in contesti specifici, come i giochi online, esaminando Cicero, un’intelligenza artificiale presentata nel 2022 da Meta. Quest’ultima è stata addestrata su un sottoinsieme ‘veritiero’ del suo set di dati, ma secondo i ricercatori del Mit, ha agito in modo diverso, utilizzando il bluff e l’inganno per vincere le partite.
Lo studio ha esaminato AlphaStar, un’intelligenza artificiale sviluppata da Google DeepMind per il videogioco StarCraft II, che ha dimostrato una tale abilità nell’inganno da sconfiggere il 99,8% dei giocatori umani.
Il report ha evidenziato come anche ChatGpt sia stato coinvolto, inducendolo a comportarsi come insider trading per influenzare il mercato azionario.
Per il Mit, la soluzione a questo problema potrebbe risiedere in regolamenti internazionali e organi di monitoraggio dedicati a ogni software di IA destinato al pubblico.