Vai al contenuto

Perché i chatbot AI consumano così tanta energia?

| 21 Settembre 2025

ChatGPT consuma enormi quantità di energia: scopri l’impatto ambientale dell’intelligenza artificiale e i rischi per il futuro sostenibile.


chatgpt consumi energetici ai

  • Quanta energia consuma ChatGPT?
  • Perché l’intelligenza artificiale è così energivora?
  • E cosa significa per il futuro dell’ambiente e dei data center?

ChatGPT e l’impatto energetico dell’intelligenza artificiale

Negli ultimi anni ChatGPT ha conosciuto una crescita esponenziale, raggiungendo quasi 200 milioni di utenti e superando il miliardo di richieste (prompt) elaborate ogni giorno. Per chi interagisce con il chatbot, le risposte sembrano arrivare dal nulla. Ma dietro le quinte, il funzionamento dell’intelligenza artificiale generativa richiede enormi quantità di energia.

L’energia consumata dai data center

Nel 2023 i data center, fondamentali per l’addestramento e l’elaborazione dell’AI, hanno rappresentato il 4,4% del consumo elettrico negli Stati Uniti e circa l’1,5% della domanda energetica globale. Secondo le stime, questi numeri sono destinati a raddoppiare entro il 2030, spinti dall’aumento della domanda di servizi basati su intelligenza artificiale.

“Solo tre anni fa ChatGPT non esisteva ancora, e ora parliamo di una tecnologia che potrebbe arrivare a rappresentare quasi la metà dei consumi elettrici dei data center a livello mondiale”, afferma Alex de Vries-Gao, ricercatore di sostenibilità tecnologica alla Vrije Universiteit di Amsterdam e fondatore della piattaforma Digiconomist, che analizza le conseguenze ambientali delle tendenze digitali.

intelligenza artificiale data center
Data center e AI generativa: l’impatto ambientale nascosto dietro ChatGPT e Google Gemini.

Perché i chatbot AI consumano così tanta energia

Il motivo principale è legato alla scala colossale con cui operano i chatbot AI. Le due fasi più energivore sono l’addestramento e l’inferenza.

Durante l’addestramento, i modelli linguistici di grandi dimensioni (LLM) vengono esposti a enormi quantità di dati per imparare a riconoscere schemi e produrre previsioni. “C’è la convinzione che più grande sia il modello, migliori siano le prestazioni”, spiega de Vries-Gao.

Mosharaf Chowdhury, informatico all’Università del Michigan, aggiunge: “Oggi i modelli sono così grandi che non entrano in una singola GPU o in un singolo server”.

Addestramento di un modello: consumi paragonabili a una città

Secondo una stima di de Vries-Gao, un server Nvidia DGX A100 richiede fino a 6,5 kilowatt di potenza. L’addestramento di un LLM necessita di decine di server, ciascuno con una media di otto GPU, attive per settimane o mesi. Complessivamente, l’energia impiegata è enorme: si calcola che l’addestramento di GPT-4 abbia consumato circa 50 gigawattora, l’equivalente dell’energia necessaria ad alimentare San Francisco per tre giorni.

impatto ambientale chatgpt
I consumi energetici di ChatGPT e dell’intelligenza artificiale preoccupano esperti e ricercatori.

Inference: miliardi di richieste ogni giorno

Anche la fase di inferenza, in cui l’AI elabora le richieste degli utenti e produce risposte, è molto dispendiosa. Sebbene richieda meno risorse rispetto all’addestramento, il problema risiede nell’enorme quantità di richieste quotidiane.

A luglio 2025 OpenAI ha dichiarato che gli utenti di ChatGPT inviano oltre 2,5 miliardi di prompt al giorno, ognuno dei quali viene elaborato da server multipli per fornire risposte istantanee. E non si tratta solo di ChatGPT: anche altri chatbot, come Google Gemini, sono già ampiamente diffusi e destinati a crescere ancora di più, con un impatto energetico significativo.

“Anche nell’inferenza non è possibile risparmiare molta energia”, spiega Chowdhury. “Il modello è enorme, e il numero di utenti lo rende ancora più energivoro.”

Mancanza di trasparenza nei dati energetici

Attualmente, i ricercatori come Chowdhury e de Vries-Gao stanno cercando di misurare con precisione i consumi energetici dell’AI. Chowdhury, ad esempio, gestisce una ML Energy Leaderboard, che monitora i consumi dei modelli open-source durante l’inferenza.

Tuttavia, i dati relativi alle piattaforme proprietarie rimangono in gran parte segreti. Aziende come Google, Microsoft e Meta non rendono pubbliche informazioni dettagliate, limitandosi a statistiche generiche che non permettono di comprendere il reale impatto ambientale. Questa opacità rende difficile prevedere l’andamento dei consumi futuri e valutare se la crescita dell’AI sia sostenibile a lungo termine.

Verso maggiore consapevolezza e responsabilità

Secondo gli esperti, gli utenti possono svolgere un ruolo chiave chiedendo maggiore trasparenza energetica. Una maggiore chiarezza sui consumi permetterebbe non solo di fare scelte più consapevoli, ma anche di promuovere politiche pubbliche in grado di responsabilizzare le aziende tecnologiche.

“Uno dei problemi fondamentali delle applicazioni digitali è che il loro impatto non è mai trasparente”, conclude de Vries-Gao. “Spetta ai legislatori incoraggiare la divulgazione dei dati, così che anche gli utenti possano agire di conseguenza.”