Il presidente di Google & Alphabet, Kent Walker, ha sottolineato l’importanza di una riflessione sulla responsabilità dell’utilizzo dell’Intelligenza Artificiale (AI). La tecnologia, che ormai ci accompagna da anni, sta aprendo nuove possibilità in diversi campi scientifici, come la medicina personalizzata, l’agricoltura di precisione, la fusione nucleare, la desalinizzazione dell’acqua e la scienza dei materiali. Tuttavia, il progresso verso una AI benefica per la società richiede l’impegno di cittadini, educatori, accademici, società civile e governi per plasmare lo sviluppo e l’uso dell’AI.
La responsabilità dell’AI è spesso associata alla semplice prevenzione dei rischi, ma deve includere anche la promozione del benessere sociale e la soluzione di problemi scientifici. La definizione di “AI responsabile” non è ancora universalmente accettata, anche se vi è un ampio consenso sulla necessità di incorporare valori sociali importanti, come la precisione, la privacy, l’equità e la trasparenza. Tuttavia, trovare il giusto equilibrio tra questi valori può essere complicato.
Google, in particolare, ha pubblicato un set di principi per l’AI nel 2018. Il primo principio afferma che l’AI dovrebbe “essere socialmente benefica”. L’azienda si è impegnata nella ricerca sulle implicazioni dell’AI e sulla gestione dei rischi, nella valutazione di nuove proposte di ricerca e applicazioni AI per garantire che siano conformi ai propri principi e nella pubblicazione di quasi 200 studi per sviluppare norme industriali. Inoltre, Google cerca costantemente di aumentare l’accountability e la sicurezza del proprio lavoro e di pubblicare i progressi.
L’adozione di tecnologie AI all’avanguardia richiede una valutazione attenta dei benefici e dei rischi sia nell’implementazione che nell’abbandono di un prodotto. Google ha scelto di non rilasciare un API generale per il riconoscimento facciale e di eseguire una rigorosa revisione prima della pubblicazione di un articolo sulla lettura del labiale che potrebbe essere utilizzato per la sorveglianza di massa. Inoltre, Google ha impostato limiti di interazione per la sua nuova tecnologia generativa AI “Bard”, che fornisce un’esperienza di dialogo per gli utenti, per garantire interazioni utili e sul tema.
Google riconosce che lo sviluppo dell’AI è una tecnologia emergente e che l’apprendimento di come valutare i rischi e le capacità della tecnologia va oltre la semplice programmazione di regole. Pertanto, l’azienda è impegnata a lavorare insieme ad altri soggetti per plasmare lo sviluppo dell’AI in un modo responsabile, sicuro e socialmente benefico.