L’impatto ambientale dell’intelligenza artificiale (IA) è diventato uno dei temi più dibattuti degli ultimi anni, tra timori per consumi energetici, uso dell’acqua e sostenibilità dei data center. Durante un intervento pubblico in India, il CEO di OpenAI Sam Altman ha affrontato direttamente queste critiche, cercando di ridimensionare alcune convinzioni diffuse online e distinguere tra problemi reali e percezioni distorte. Le sue dichiarazioni, rilasciate nel corso di un evento organizzato da The Indian Express, riaccendono il confronto globale su quanto l’IA pesi davvero sull’ambiente.
Le accuse sul consumo d’acqua e la risposta di Altman
Uno dei punti più controversi riguarda l’idea che l’utilizzo quotidiano dei chatbot comporti un enorme spreco di acqua. Altman ha respinto con decisione questa narrazione, definendo prive di fondamento le stime che attribuiscono a ogni richiesta ai sistemi di IA un consumo di decine di litri d’acqua. Secondo il dirigente, queste cifre non rifletterebbero la realtà tecnologica attuale.
In passato, ha spiegato, i data center utilizzavano sistemi di raffreddamento evaporativo che effettivamente richiedevano grandi quantità di acqua. Tuttavia, tali soluzioni sarebbero ormai superate e non rappresenterebbero più lo standard operativo delle infrastrutture moderne. Per questo motivo, collegare direttamente l’uso dei chatbot a un elevato impatto idrico sarebbe oggi fuorviante.
Il vero nodo: il fabbisogno energetico globale dell’IA
Se sul fronte idrico Altman invita a ridimensionare le preoccupazioni, sul piano energetico riconosce invece l’esistenza di un problema concreto. La questione non riguarderebbe tanto il consumo associato a una singola richiesta quanto la crescita complessiva dell’intelligenza artificiale su scala mondiale.
L’espansione dei modelli e dei servizi basati sull’IA richiede infatti infrastrutture sempre più estese, rendendo necessario ripensare le fonti di approvvigionamento energetico. Secondo Altman, la soluzione dovrà passare da un mix che includa energia nucleare e rinnovabili, con particolare attenzione allo sviluppo dell’eolico e del solare per sostenere la domanda futura.
Dati difficili da verificare
Un elemento che complica il dibattito riguarda la mancanza di dati ufficiali condivisi. Attualmente non esistono obblighi normativi che impongano alle grandi aziende tecnologiche di pubblicare in modo dettagliato i consumi energetici o idrici dei propri sistemi. Di conseguenza, molte delle analisi circolanti derivano da studi indipendenti realizzati da ricercatori esterni.
Parallelamente, la crescita dei data center viene sempre più spesso associata all’aumento dei prezzi dell’elettricità in alcune aree del mondo, alimentando ulteriormente le discussioni sull’impatto economico e ambientale dell’IA.
Il confronto con la batteria dell’iPhone
Durante l’incontro è riemersa anche una delle stime più citate online: quella secondo cui una singola richiesta a ChatGPT consumerebbe energia equivalente a circa una carica e mezza della batteria di un iPhone. Richiamando un precedente confronto con Bill Gates, l’intervistatore ha chiesto ad Altman se quel dato fosse plausibile.
La replica è stata categorica. Secondo il CEO di OpenAI, il consumo reale non sarebbe nemmeno lontanamente vicino a quelle cifre, suggerendo che tali comparazioni contribuiscano a creare una percezione distorta dell’impatto energetico dei sistemi di IA.
Il paragone tra l’energia consumata dall’IA e quella necessaria per addestrare un essere umano
Altman ha poi criticato l’approccio con cui spesso viene raccontato il costo energetico dell’intelligenza artificiale. A suo avviso, l’attenzione mediatica tende a concentrarsi quasi esclusivamente sull’energia necessaria per addestrare un modello, senza considerare un confronto diretto con il lavoro umano.
Il paragone più corretto, ha spiegato, dovrebbe riguardare l’energia richiesta da un modello già addestrato per fornire una risposta rispetto a quella necessaria a una persona per svolgere lo stesso compito. In questa prospettiva, la valutazione dell’efficienza cambierebbe radicalmente.
L’IA come sistema energeticamente efficiente
Spingendo il ragionamento oltre, Altman ha osservato che anche la formazione di un essere umano comporta un enorme costo energetico distribuito nel tempo. Crescita, istruzione, alimentazione e tutte le risorse necessarie al sostentamento individuale rappresentano un investimento energetico accumulato nell’arco di decenni.
Guardando il problema da questa angolazione, sostiene il CEO di OpenAI, un modello di intelligenza artificiale già addestrato potrebbe risultare oggi più efficiente dal punto di vista energetico per singola risposta rispetto a un essere umano. Una tesi destinata a far discutere, ma che evidenzia come il dibattito sull’impatto ambientale dell’IA sia ancora lontano da conclusioni definitive.
Potrebbe interessarti anche questo articolo: Gemini alla sfida della matematica: intelligenza artificiale alle prese con 700 problemi
