Il lato nascosto dell’IA: perché anche un semplice “grazie” consuma energia

Strumenti di intelligenza artificiale

Strumenti di intelligenza artificiale | Pixabay @Vertigo3d - Cryptohack

Alessandro Bolzani

6 Gennaio 2026

Parlare con l’intelligenza artificiale (IA) come se fosse una persona è diventato ormai naturale. Tra richieste educate, formule di cortesia e ringraziamenti finali, l’interazione con strumenti come ChatGPT o Gemini assomiglia sempre più a una conversazione umana, soprattutto ora che le modalità vocali rendono tutto ancora più spontaneo. Questo modo di comunicare rende l’esperienza più fluida e rassicurante, ma dietro quella semplicità si nasconde un impatto energetico che pochi immaginano.

Ogni parola che inviamo non sparisce nel nulla: finisce in enormi data center, dove migliaia di server lavorano senza sosta per interpretare il messaggio, trasformarlo in calcoli matematici e produrre una risposta coerente. Anche una singola parola in più, come un “grazie” o un “per favore”, allunga il testo da elaborare e aumenta, seppur di poco, il lavoro richiesto alle macchine. Moltiplicato per miliardi di interazioni quotidiane, quel piccolo gesto di cortesia assume dimensioni sorprendenti.

Il costo energetico delle parole, anche di quelle gentili

Il tema è entrato nel dibattito pubblico quando Sam Altman, amministratore delegato di OpenAI, ha commentato con una punta di ironia quanto le formule di cortesia rivolte ai modelli linguistici abbiano inciso sulle spese energetiche dell’azienda, parlando di decine di milioni di dollari. Una cifra che rende l’idea di quanto anche le interazioni più banali, se ripetute su scala globale, abbiano un peso reale.

Quantificare con precisione il consumo dell’IA non è semplice, perché i dati ufficiali sono pochi e frammentari. Tuttavia, alcune stime aiutano a orientarsi. Secondo l’International Energy Agency, la generazione di una singola risposta testuale richiede in media circa 0,3 wattora. Il valore aumenta quando si parla di immagini e cresce in modo drastico nel caso dei video. Per avere un termine di paragone, una ricarica completa di uno smartphone consuma circa 15 wattora, mentre quella di un computer portatile può arrivare a 60 wattora.

Il problema del raffreddamento

Oltre all’energia elettrica, c’è un altro aspetto spesso ignorato: il raffreddamento. I data center devono mantenere temperature controllate per evitare surriscaldamenti e garantire il funzionamento continuo delle macchine. In molti casi, questo raffreddamento avviene tramite sistemi che utilizzano grandi quantità d’acqua.

Uno studio dell’Università della California ha stimato che la generazione di un testo di circa cento parole con un modello avanzato di intelligenza artificiale può comportare un consumo superiore a mezzo litro d’acqua. Rapportato all’enorme volume di contenuti prodotti ogni giorno, questo dato assume una rilevanza ambientale tutt’altro che trascurabile.

Cosa si può fare per usare l’IA in modo più consapevole?

Davanti a questi numeri, verrebbe naturale pensare che la soluzione sia eliminare ogni forma di cortesia e ridurre le richieste allo stretto indispensabile. In realtà, non funziona proprio così. Un approccio troppo brusco o impreciso spesso porta a risposte vaghe, incomplete o bloccate dai sistemi di sicurezza, costringendo l’utente a ripetere la richiesta o a riformularla più volte. Il risultato, paradossalmente, è un consumo ancora maggiore di risorse.

Quando invece la domanda è chiara, ben strutturata e priva di parole superflue, il modello interpreta meglio l’intento e fornisce una risposta più centrata al primo tentativo. Questo riduce il numero complessivo di interazioni e, di conseguenza, anche il consumo energetico. Non è tanto una questione di essere gentili o scortesi, quanto di imparare a scrivere prompt efficaci, una competenza destinata a diventare sempre più importante negli anni a venire.

In fondo, il vero gesto responsabile non è smettere di dire “grazie”, ma imparare a comunicare con l’IA in modo più consapevole.

Change privacy settings
×