L’intelligenza artificiale (AI), celebrata come pilastro del progresso, nasconde un costo ambientale significativo legato al suo consumo energetico e alla necessità di infrastrutture fisiche sempre più grandi. I data center, veri e propri colossi tecnologici, sono alla base del funzionamento dell’AI e richiedono enormi quantità di energia per operare e per mantenere stabili le temperature, tramite sofisticati sistemi di raffreddamento. Secondo Jensen Huang, CEO di Nvidia, la dimensione dei data center raddoppierà nei prossimi cinque anni, evidenziando una crescente pressione sulle risorse naturali.
Il problema non si limita al consumo di elettricità. Per raffreddare i server, i data center richiedono anche grandi quantità di acqua, creando un impatto ambientale soprattutto in aree soggette a siccità. Un recente studio della Cornell University stima che l’AI potrebbe richiedere tra 4,2 e 6,6 miliardi di metri cubi d’acqua entro il 2027, una quantità superiore al consumo annuale della Danimarca.
Oltre all’energia e all’acqua, anche l’hardware per l’AI, come le GPU, contribuisce all’impronta di carbonio. L’estrazione delle materie prime e la produzione di componenti causano emissioni e generano rifiuti elettronici difficili da smaltire. La rapidità con cui l’AI evolve, infatti, induce frequenti aggiornamenti dell’hardware, aggravando il problema dei rifiuti elettronici.
L’espansione dell’AI pone il rischio di un circolo vizioso in cui maggiore è la potenza di calcolo necessaria, maggiore è il consumo di risorse. Per evitare un impatto irreversibile, diventa essenziale pianificare uno sviluppo tecnologico più sostenibile, ottimizzando le tecnologie di raffreddamento e ricorrendo a fonti energetiche alternative, con l’obiettivo di conciliare innovazione e sostenibilità ambientale.