Combien consomme ChatGPT ? Électricité, eau et coût réel par question
"Combien consomme ChatGPT ?" est l'une des questions les plus recherchées sur l'IA en 2026. Et pour cause : chaque question posée à une intelligence artificielle a un coût énergétique réel. Entre la consommation électrique des data centers, les litres d'eau nécessaires au refroidissement et l'empreinte carbone globale, nous avons décortiqué les chiffres pour vous donner une réponse claire et honnête.
⚡ Le chiffre clé
Une question à ChatGPT consomme environ 0,001 à 0,01 kWh d'électricité, soit environ 3 à 10 fois plus qu'une recherche Google. En eau, il faut compter environ 500 ml pour 20 à 50 questions (refroidissement des serveurs). Mais l'IA locale change la donne : vous contrôlez votre consommation.
Consommation électrique par question : ChatGPT vs Google
Une recherche Google classique consomme environ 0,0003 kWh (0,3 Wh). C'est très peu. Mais une requête à ChatGPT demande un calcul bien plus complexe : le modèle GPT-4o contient des centaines de milliards de paramètres, et chaque token généré nécessite des millions d'opérations mathématiques.
Résultat : une question à ChatGPT consomme entre 0,001 et 0,01 kWh selon la longueur de la réponse. Pour une réponse courte (100 tokens), on est plutôt à 0,001 kWh. Pour une réponse longue avec raisonnement (2000+ tokens), on monte à 0,01 kWh, voire davantage.
En coût électrique pur, cela représente entre 0,001 et 0,01 centimes d'euro par question (au tarif français de 0,25 €/kWh). Individuellement, c'est dérisoire. Mais multipliez par les 100 millions d'utilisateurs quotidiens de ChatGPT, et l'addition devient colossale.
L'eau : le coût caché de l'IA
Les data centers d'OpenAI, Microsoft et Google utilisent d'immenses quantités d'eau pour refroidir leurs serveurs GPU. Selon les estimations de chercheurs de l'Université de Californie, ChatGPT consomme environ 500 ml d'eau pour 20 à 50 questions.
En 2025, Microsoft a déclaré avoir consommé 6,4 milliards de litres d'eau pour ses data centers, une hausse de 34 % attribuée en grande partie à l'IA. Google affiche des chiffres similaires. Ces data centers sont souvent situés dans des régions où l'eau est déjà une ressource sous tension.
Là encore, l'IA locale offre une alternative : votre GPU domestique est refroidi par un simple ventilateur et ne consomme aucune eau supplémentaire.
Comparatif de consommation : ChatGPT vs Claude vs Gemini vs Mistral vs IA locale
| IA | Énergie / question | Eau / question | Coût élec. / question | Qui paie ? |
|---|---|---|---|---|
| Google Search | 0,0003 kWh | ~0 ml | ~0,00008 € | Google (pubs) |
| ChatGPT (GPT-4o) | 0,001-0,01 kWh | ~10-25 ml | ~0,001-0,01 € | OpenAI |
| Claude (Opus) | 0,002-0,015 kWh | ~10-30 ml | ~0,001-0,01 € | Anthropic |
| Gemini (2.5 Pro) | 0,001-0,008 kWh | ~8-20 ml | ~0,001-0,008 € | |
| Mistral (Le Chat) | 0,0005-0,005 kWh | ~5-15 ml | ~0,0005-0,005 € | Mistral AI |
| IA locale (Ollama) | VOTRE électricité | 0 ml | 0,05-0,30 €/h | Vous |
Les data centers : où sont-ils et combien consomment-ils ?
OpenAI s'appuie principalement sur les data centers de Microsoft Azure, répartis dans le monde entier : États-Unis (Iowa, Virginie, Arizona), Europe (Pays-Bas, Irlande, Suède) et Asie. Ces centres abritent des dizaines de milliers de GPU NVIDIA A100 et H100 qui tournent 24h/24.
À l'échelle mondiale, les data centers dédiés à l'IA consomment désormais environ 100 TWh par an, soit l'équivalent de la consommation électrique de pays comme les Pays-Bas. Ce chiffre devrait doubler d'ici 2028 selon l'Agence internationale de l'énergie.
En France, les data centers représentent environ 3 % de la consommation électrique nationale. L'arrivée de l'IA générative accélère cette croissance, ce qui relance le débat sur la stratégie énergétique du pays.
L'alternative locale : vous contrôlez votre consommation
Avec des outils comme Ollama ou LM Studio, vous pouvez faire tourner des modèles d'IA directement sur votre machine. La consommation dépend alors uniquement de votre matériel :
| Matériel | Puissance (W) | Coût / heure | Coût / mois (8h/jour) |
|---|---|---|---|
| RTX 3060 12 Go | 170 W | 0,04 € | ~10 € |
| RTX 4070 Ti 16 Go | 285 W | 0,07 € | ~17 € |
| RTX 4090 24 Go | 450 W | 0,11 € | ~27 € |
| Mac Mini M4 | 30-60 W | 0,01 € | ~2-4 € |
| Mac Studio M4 Ultra | 60-120 W | 0,02 € | ~4-7 € |
Le calcul est simple : un abonnement ChatGPT Plus coûte 20 $/mois (~19 €). Avec un Mac Mini M4, votre électricité pour l'IA locale coûte 2 à 4 € par mois. Même avec une RTX 4090, vous êtes à 27 €/mois en utilisation intensive — mais vous avez un accès illimité, sans restriction, et vos données restent chez vous.
☀️ Aller encore plus loin : l'IA au solaire
Avec un panneau solaire portable et une batterie EcoFlow, vous pouvez faire tourner votre IA locale à 0 € de coût électrique. Un Mac Mini M4 (30 W) se nourrit facilement d'un panneau 100 W.
→ Lire : Faites tourner votre IA au solaire = 0 €ChatGPT Pro (200 $/mois) vs IA locale : la comparaison qui fait réfléchir
OpenAI propose son abonnement ChatGPT Pro à 200 $ par mois pour un accès illimité à GPT-4o et o1. En un an, cela représente 2 400 $ (environ 2 200 €). Avec ce budget, vous pouvez acheter un Mac Mini M4 Pro (32 Go de RAM) et le faire tourner pendant 5 ans en IA locale, électricité comprise.
Certes, les modèles locaux (Llama 3, Mistral 7B, Gemma) ne sont pas encore au niveau de GPT-4o pour toutes les tâches. Mais pour 80 % des usages quotidiens — rédaction, résumé, code, conversation — ils sont largement suffisants.
L'angle environnemental : faut-il culpabiliser ?
Mettons les choses en perspective. Une question à ChatGPT consomme environ 0,01 kWh dans le pire cas. Un trajet de 10 km en voiture consomme l'équivalent de 1 kWh. Regarder Netflix pendant une heure consomme environ 0,1 kWh. L'IA est énergivore à l'échelle industrielle, pas à l'échelle individuelle.
Le vrai enjeu est systémique : c'est la croissance exponentielle du nombre de requêtes et de la taille des modèles qui pose question. Les entreprises comme OpenAI, Google et Microsoft investissent massivement dans les énergies renouvelables et le nucléaire pour alimenter leurs data centers. Microsoft a même signé un accord pour redémarrer la centrale de Three Mile Island.
En tant qu'utilisateur, le geste le plus concret est de privilégier l'IA locale quand c'est possible : vous consommez votre propre électricité (potentiellement verte) et vous ne sollicitez aucun data center distant.
💡 À retenir
- • ChatGPT consomme 3 à 10x plus d'énergie que Google par requête
- • Le coût individuel reste dérisoire (moins de 0,01 € par question)
- • L'enjeu est collectif : des milliards de requêtes quotidiennes
- • L'IA locale vous donne le contrôle total sur votre consommation
- • Un Mac Mini M4 consomme 30 W — moins qu'une ampoule