Consommation électrique de l'IA : combien coûte votre GPU par mois ?
Vous faites tourner de l'IA en local sur votre PC ou votre Mac ? Bonne idée. Mais savez-vous exactement combien ça vous coûte en électricité ? Nous avons mesuré et calculé la consommation réelle de chaque GPU populaire pour l'inférence IA, avec le coût mensuel au tarif EDF 2026 (0,25 €/kWh). Résultat : certaines configurations coûtent moins cher qu'un café par mois.
🔎 En résumé
Un Mac Mini M4 consomme 2 à 4 € par mois pour faire tourner de l'IA 8h/jour. Une RTX 4090 monte à ~27 €/mois dans les mêmes conditions. Dans tous les cas, c'est moins cher qu'un abonnement ChatGPT Plus (19 €/mois) — et vous avez un accès illimité.
Tableau complet : consommation de chaque GPU pour l'IA
Voici les chiffres réels mesurés sous charge d'inférence IA (Ollama, LM Studio, llama.cpp). Le TDP est la puissance maximale annoncée par le fabricant, mais en pratique l'inférence IA utilise généralement 70 à 90 % du TDP.
| GPU / Machine | VRAM | TDP (W) | Réel IA (W) | Coût/h | Coût/mois* |
|---|---|---|---|---|---|
| GTX 1660 Super | 6 Go | 125 W | 100 W | 0,025 € | ~6 € |
| RTX 3060 12 Go | 12 Go | 170 W | 140 W | 0,035 € | ~10 € |
| RTX 3090 24 Go | 24 Go | 350 W | 300 W | 0,075 € | ~18 € |
| RTX 4060 Ti | 16 Go | 165 W | 135 W | 0,034 € | ~10 € |
| RTX 4070 Ti Super | 16 Go | 285 W | 240 W | 0,060 € | ~17 € |
| RTX 4090 | 24 Go | 450 W | 380 W | 0,095 € | ~27 € |
| RTX 5090 | 32 Go | 575 W | 480 W | 0,120 € | ~35 € |
| Mac Mini M4 | 16-32 Go* | 65 W | 30-50 W | 0,010 € | ~2-4 € |
| Mac Mini M4 Pro | 24-48 Go* | 65 W | 40-60 W | 0,013 € | ~3-5 € |
| MacBook Pro M4 Max | 48-128 Go* | 140 W | 60-100 W | 0,020 € | ~5-7 € |
| Mac Studio M4 Ultra | 192-512 Go* | 295 W | 60-120 W | 0,023 € | ~4-7 € |
* Coût mensuel calculé sur 8h/jour, 30 jours, au tarif de 0,25 €/kWh (tarif réglementé EDF 2026). Pour les Mac, la VRAM est la RAM unifiée partagée entre CPU et GPU.
🔌 Mesurez votre consommation réelle
Les chiffres ci-dessus sont des moyennes. Pour connaître votre consommation exacte, branchez un wattmètre sur prise entre votre PC et la prise murale. C'est le seul moyen d'avoir un chiffre précis.
→ Voir les wattmètres sur AmazonQuand l'IA locale devient-elle moins chère que ChatGPT ?
Comparons le coût total de possession (matériel + électricité) avec un abonnement cloud sur 2 ans :
| Option | Coût matériel | Coût/mois (élec.) | Total sur 2 ans |
|---|---|---|---|
| ChatGPT Plus | 0 € | 19 €/mois | 456 € |
| ChatGPT Pro | 0 € | 185 €/mois | 4 440 € |
| Mac Mini M4 (local) | 700 € | 3 €/mois | 772 € |
| PC + RTX 3060 (local) | 500 € | 10 €/mois | 740 € |
| PC + RTX 4090 (local) | 2 000 € | 27 €/mois | 2 648 € |
Verdict : face à ChatGPT Plus, un Mac Mini M4 est rentabilisé en environ 3-4 mois si vous l'utilisez quotidiennement. Face à ChatGPT Pro, n'importe quelle configuration locale est rentable dès le premier mois — y compris un PC gaming avec RTX 4090.
Bien sûr, les modèles locaux ne sont pas aussi performants que GPT-4o pour les tâches les plus complexes. Mais pour la majorité des usages (rédaction, résumé, code, traduction, conversation), un modèle comme Llama 3 70B ou Mistral Large est excellent.
Comment réduire la consommation de votre IA locale
1. Utilisez des modèles quantifiés (Q4, Q5)
Un modèle en Q4_K_M consomme environ 30 % moins de GPU qu'en FP16, pour une qualité quasiment identique. C'est le meilleur rapport qualité/consommation.
2. Choisissez le bon modèle pour la tâche
Inutile de lancer un modèle 70B pour une simple traduction. Un modèle 7B suffit pour les tâches basiques et consomme 5 à 10 fois moins d'énergie.
3. Éteignez quand vous n'utilisez pas
Ollama libère automatiquement le GPU après quelques minutes d'inactivité. Vérifiez que votre GPU revient bien en mode économie d'énergie (~15-30 W au repos).
4. Préférez Apple Silicon pour l'efficience
Les puces M4, M4 Pro et M4 Max offrent le meilleur rapport tokens/watt du marché. Un Mac Mini M4 génère environ 15-20 tokens/seconde sur un modèle 7B pour seulement 30-40 W.
☀️ L'option radicale : l'IA au solaire
Un panneau solaire portable de 200 W + une batterie EcoFlow Delta peut alimenter un Mac Mini M4 toute la journée. Coût électrique : 0 €. C'est l'option la plus économique et la plus écologique pour faire tourner de l'IA locale.
→ Lire : IA solaire off-grid avec EcoFlowComment mesurer votre consommation exacte
Les chiffres de notre tableau sont des moyennes. Votre consommation réelle dépend du modèle chargé, de la longueur des réponses et de votre alimentation. Pour un chiffre précis :
- Branchez un wattmètre sur prise entre votre PC et la prise murale
- Lancez Ollama avec votre modèle habituel
- Posez quelques questions et notez la consommation affichée
- Multipliez par vos heures d'utilisation quotidienne pour obtenir le coût mensuel
🔌 Wattmètres recommandés
Un bon wattmètre coûte entre 15 et 25 € et vous servira pour mesurer la consommation de tous vos appareils, pas seulement votre PC.
→ Voir les wattmètres sur Amazon (à partir de 15 €)💡 À retenir
- • Un Mac Mini M4 coûte 2 à 4 €/mois en IA locale — imbattable
- • Une RTX 4090 coûte ~27 €/mois (8h/jour) — plus cher que ChatGPT Plus
- • Le break-even vs ChatGPT Plus est atteint en 3-4 mois pour un Mac Mini
- • Les modèles quantifiés (Q4) réduisent la consommation de 30 %
- • Un wattmètre à 15 € vous donne la vérité exacte