L’impatto ambientale dell’AI: quanto costa davvero un prompt?

Giulia Tripaldi
September 12, 2025
5 min read

Negli ultimi due anni abbiamo imparato a convivere con l’intelligenza artificiale. Ogni giorno milioni di persone aprono ChatGPT, Gemini o Copilot e digitano una domanda. In gergo questa richiesta si chiama prompt. È il punto di partenza da cui il sistema elabora un testo, un codice o un’immagine. Ma c’è un dettaglio che spesso non consideriamo: dietro ogni risposta dell’AI c’è un consumo energetico e di risorse naturali. Vale allora la pena chiedersi quanto pesa davvero un prompt sull’ambiente.

Quanta energia serve per una singola domanda?

Gli studi più recenti mostrano che una richiesta fatta a un modello di intelligenza artificiale generativa consuma una quantità di energia simile a quella necessaria per tenere accesa una televisione per pochi secondi. Una cifra che sembra piccola, ma che diventa rilevante se moltiplicata per i miliardi di prompt che ogni giorno vengono elaborati in tutto il mondo. Alcuni ricercatori parlano di circa 0,24 wattora per un prompt, altri stimano valori più alti, fino a decine di wattora per modelli di nuova generazione. È difficile avere numeri univoci, perché i dati variano in base alla complessità del modello usato e alla lunghezza del testo prodotto.

Anche le emissioni di anidride carbonica legate a un singolo prompt sono minime, ma il discorso cambia se osserviamo il sistema nel suo insieme. Quando un modello come GPT o Gemini riceve milioni di richieste in pochi minuti, la somma di tanti piccoli consumi diventa significativa e contribuisce al più ampio problema dell’impatto ambientale dell’AI.

Acqua e raffreddamento dei data center

Oltre all’energia elettrica c’è un altro elemento meno noto ma altrettanto importante: l’acqua. I grandi centri di calcolo che ospitano i server, chiamati data center, hanno bisogno di essere raffreddati per funzionare in sicurezza. Alcune strutture consumano fino a milioni di litri d’acqua al giorno per mantenere basse le temperature. Ogni prompt, quindi non porta solo un consumo energetico, ma anche un impatto indiretto sull’uso delle risorse idriche, un aspetto spesso ignorato quando si parla di sostenibilità digitale.

L’efficienza cresce, ma anche la domanda

Le aziende che sviluppano intelligenze artificiali, come Google o OpenAI, stanno cercando di rendere i loro modelli sempre più efficienti. Negli ultimi mesi Google ha dichiarato di aver ridotto in modo consistente l’energia necessaria per ogni richiesta al suo sistema Gemini. Questo è certamente un segnale positivo, ma non basta da solo. Esiste infatti un effetto ben noto agli economisti, il cosiddetto paradosso di Jevons: quando una tecnologia diventa più efficiente, le persone tendono a usarla di più. È come accade con le automobili: se un motore consuma meno, molti automobilisti si sentono autorizzati a fare più chilometri. Il risultato è che il risparmio viene annullato dall’aumento della domanda.

AI e confronto con la ricerca online

Per capire meglio la portata del fenomeno possiamo confrontare l’uso dell’AI con una semplice ricerca su Google. Una query classica su un motore di ricerca ha un consumo ridotto di energia. Una domanda posta a un modello di intelligenza artificiale è molto più esigente, perché non si limita a cercare tra documenti già indicizzati, ma deve elaborare in tempo reale combinazioni di parole e concetti. Per questo motivo alcuni studi stimano che un prompt consumi fino a dieci volte più di una ricerca tradizionale.

L’impatto invisibile dei data center

La questione non riguarda soltanto i singoli utenti, ma soprattutto la crescita esponenziale dell’uso dell’AI in diversi settori. L’assistenza clienti, la sanità, la pubblica amministrazione e l’industria stanno integrando modelli generativi nelle loro attività quotidiane. Tutto questo si traduce in una domanda enorme di potenza di calcolo. Alcuni scenari prevedono che, se la crescita continuerà con questo ritmo, i data center potrebbero arrivare a consumare entro pochi anni oltre il dieci per cento dell’energia elettrica di interi paesi. È un orizzonte che ci obbliga a riflettere non solo sui benefici dell’AI, ma anche sui costi nascosti della sua adozione.

Cosa può fare il singolo utente

Davanti a numeri tanto grandi si può pensare che le azioni quotidiane non servano a nulla. In realtà qualche margine di scelta esiste. Ad esempio, quando si scrive un prompt, strutturarlo in modo chiaro e conciso riduce i passaggi inutili. Alcuni studi hanno dimostrato che il cosiddetto prompt engineering può diminuire il consumo di risorse senza compromettere la qualità delle risposte. Un altro consiglio è valutare se la richiesta è davvero necessaria: spesso chiediamo all’AI di produrre testi lunghi o ripetuti solo per curiosità, senza un reale bisogno. Infine è utile preferire, quando possibile, modelli più leggeri e locali, che consumano meno risorse rispetto a quelli di scala globale.

Un cambio culturale e la trasparenza delle aziende

Non bisogna però scaricare tutta la responsabilità sull’utente finale. È fondamentale che le aziende forniscano dati trasparenti e completi sui consumi reali dei loro modelli. Alcuni colossi della tecnologia comunicano numeri rassicuranti, ma spesso questi si basano su metodi di calcolo che non tengono conto delle differenze tra i luoghi e delle fonti energetiche utilizzate. Per avere un quadro realistico servono metriche condivise e verificabili, in modo che utenti, istituzioni e sviluppatori possano fare scelte informate e contribuire a una vera Green AI.

L’AI può davvero diventare sostenibile?

Un singolo prompt non è in sé un atto inquinante. È un gesto minuscolo, che a livello individuale pesa pochissimo. Ma quando questo gesto si ripete miliardi di volte ogni giorno, allora diventa un tema da affrontare con serietà. L’intelligenza artificiale è una delle innovazioni più potenti degli ultimi decenni, ma non è immateriale: vive di energia, di acqua, di infrastrutture. Essere consapevoli di questo è il primo passo per usarla in modo più responsabile e per chiedere che venga sviluppata con criteri di sostenibilità digitale chiari e condivisi.

Fonti

  • Washington Post – “AI questions consume up to 10x more energy than Google searches” Link
  • Google Cloud – “Measuring the environmental impact of AI inference” Link
  • Time – “The climate cost of AI prompts” Link
  • ArXiv – “Energy consumption of LLM inference” Link
  • Epoch AI – “How much energy does ChatGPT use?” Link
  • Tom’s Hardware – “GPT-5 power consumption estimates” Link
  • AP News – “The Jevons paradox applied to AI” Link
  • The Verge – “Criticism of Google’s AI energy efficiency claims” Link

Giulia Tripaldi
September 12, 2025
5 min read