Don Fabio Pasqualetti, decano della Facoltà di Scienze della comunicazione sociale dell’Università pontificia salesiana e consultore del Dicastero per la Comunicazione, ha lanciato l’allarme sulle conseguenze di un uso non regolamentato dell’intelligenza artificiale (IA). Secondo il professore, le grandi multinazionali del digitale, che dispongono di dati asimmetrici rispetto ai governi e agli utenti, stanno provocando danni sociali, politici ed economici. La mancanza di regole ha permesso alle aziende di utilizzare l’IA per i loro interessi, senza tutelare la privacy degli utenti o prevenire l’insorgere di manipolazioni e disinformazione.
Per questo motivo, don Pasqualetti ha espresso il suo sostegno alla richiesta di una moratoria di sei mesi per l’addestramento di sistemi avanzati di IA, avanzata da mille esperti del settore. Il dibattito sull’utilizzo di ChatGpt, un sistema di intelligenza artificiale che ha sollevato polemiche per le sue possibili violazioni della privacy, ha indotto il Garante della privacy a sospendere il sistema in Italia.
Secondo il decano della Facoltà di Scienze della comunicazione sociale, l’IA non rappresenta di per sé una minaccia per la sopravvivenza umana, ma il problema riguarda l’utilizzo che se ne fa. Il rischio è che l’IA diventi uno strumento nelle mani di gruppi di potere, in grado di manipolare l’informazione e condizionare l’opinione pubblica. Inoltre, l’asimmetria di conoscenza tra le grandi multinazionali del digitale e i cittadini rappresenta un ostacolo alla regolamentazione di un settore cruciale per il futuro.
Il dibattito sull’intelligenza artificiale assume anche una dimensione geopolitica. La gara tra Stati Uniti e Cina per il primato nella ricerca e sviluppo dell’IA può avere conseguenze sulla sopravvivenza delle nazioni e sulle dinamiche di potere a livello mondiale. Secondo don Pasqualetti, la posta in gioco è enorme e le guerre attuali sono anche geopolitiche, con l’utilizzo di sistemi ad altissima tecnologia come i droni o le cyberwar.
In questo scenario, il controllo delle dinamiche dell’IA rappresenta una sfida per il futuro. Al momento, non esiste un organismo in grado di regolamentare l’utilizzo dell’IA e prevenire le sue possibili conseguenze negative. L’aspetto più preoccupante riguarda il futuro delle nuove generazioni, esposte a un ambiente digitale in cui la competizione economica e l’uso distorto dell’IA possono avere effetti negativi sulla loro formazione e crescita.