Recenti studi hanno evidenziato che l’impatto energetico di ChatGPT potrebbe essere inferiore a quanto stimato in precedenza. Secondo una ricerca condotta da Epoch AI, le interazioni con ChatGPT basate sul modello GPT-4 consumano circa 0,3 wattora per richiesta, un valore dieci volte inferiore rispetto alle stime precedenti.
In passato, si riteneva che l’addestramento e l’utilizzo di modelli di linguaggio avanzati richiedessero ingenti quantità di energia. Ad esempio, per l’addestramento del modello GPT-3, OpenAI avrebbe consumato circa 78.437 kWh di elettricità, equivalenti al consumo energetico di una casa media in Spagna per 23 anni.
Tuttavia, le nuove analisi suggeriscono che l’efficienza energetica di ChatGPT è stata sottovalutata. Il consumo per una singola richiesta sarebbe paragonabile all’energia necessaria per tenere accesa una lampadina da 10 watt per circa 15 ore o per caricare un telefono cellulare per cinque ore.
Nonostante queste nuove evidenze, è importante considerare l’impatto ambientale complessivo dell’uso diffuso di tali tecnologie. Se un numero significativo di utenti interagisse regolarmente con ChatGPT, il consumo energetico totale potrebbe diventare rilevante. Pertanto, è fondamentale continuare a monitorare e ottimizzare l’efficienza energetica di questi sistemi.
Le aziende tecnologiche stanno già adottando misure per ridurre l’impatto ambientale dei loro modelli di intelligenza artificiale. Ad esempio, Microsoft ha annunciato iniziative per migliorare l’efficienza dei propri centri dati e ridurre il consumo di risorse naturali.
In conclusione, sebbene le stime iniziali sull’impatto energetico di ChatGPT fossero elevate, le ricerche più recenti indicano un consumo inferiore al previsto. Tuttavia, con la crescente diffusione dell’intelligenza artificiale, è essenziale mantenere alta l’attenzione sull’efficienza energetica e sull’adozione di pratiche sostenibili.