Francesca Rossi, Ibm Fellow e AI Ethics Global Leader, ha spiegato a Wired perché non ha firmato l’appello del Future of Life Institute, che propone di sospendere per sei mesi lo sviluppo di sistemi di intelligenza artificiale più potenti di GPT-4. Secondo Rossi, una pausa alla formazione dei nuovi algoritmi sarebbe dannosa, perché concentrarsi sui sistemi futuri implicherebbe che quelli attualmente in uso non hanno bisogno di miglioramenti.
Inoltre, bloccare lo sviluppo della formazione degli algoritmi impedirebbe l’evoluzione e la ricerca dell’AI “by design”, ovvero inserendo azioni concrete relative all’etica dell’AI in tutta la filiera dello sviluppo. Il suo modo di affrontare i possibili scenari futuri è invece quello di individuare e risolvere concretamente i problemi nella tecnologia attuale e di evolvere con le soluzioni a mano a mano che la tecnologia si evolve.
La lettera del Future of Life Institute sembra concentrarsi troppo sugli scenari apocalittici dell’AI, senza affrontare i problemi concreti del deep learning, come le discriminazioni, la sorveglianza e gli errori. Rossi sottolinea che questa tendenza deriva dalla nostra tendenza a umanizzare le entità con cui interagiamo.
Il suo approccio prevede di evolvere la tecnologia per risolvere i problemi etici a mano a mano che emergono, invece di fermare lo sviluppo e concentrarsi sui problemi futuri.
_____________
“Perché una pausa allo sviluppo dell’intelligenza artificiale è dannosa“