Accueil Blog Consommation électrique IA GPU
Guide pratique

Consommation électrique de l'IA : combien coûte votre GPU par mois ?

Par l'équipe OutilsIA avril 2026 8 min de lecture

Vous faites tourner de l'IA en local sur votre PC ou votre Mac ? Bonne idée. Mais savez-vous exactement combien ça vous coûte en électricité ? Nous avons mesuré et calculé la consommation réelle de chaque GPU populaire pour l'inférence IA, avec le coût mensuel au tarif EDF 2026 (0,25 €/kWh). Résultat : certaines configurations coûtent moins cher qu'un café par mois.

🔎 En résumé

Un Mac Mini M4 consomme 2 à 4 € par mois pour faire tourner de l'IA 8h/jour. Une RTX 4090 monte à ~27 €/mois dans les mêmes conditions. Dans tous les cas, c'est moins cher qu'un abonnement ChatGPT Plus (19 €/mois) — et vous avez un accès illimité.

Tableau complet : consommation de chaque GPU pour l'IA

Voici les chiffres réels mesurés sous charge d'inférence IA (Ollama, LM Studio, llama.cpp). Le TDP est la puissance maximale annoncée par le fabricant, mais en pratique l'inférence IA utilise généralement 70 à 90 % du TDP.

GPU / Machine VRAM TDP (W) Réel IA (W) Coût/h Coût/mois*
GTX 1660 Super 6 Go 125 W 100 W 0,025 € ~6 €
RTX 3060 12 Go 12 Go 170 W 140 W 0,035 € ~10 €
RTX 3090 24 Go 24 Go 350 W 300 W 0,075 € ~18 €
RTX 4060 Ti 16 Go 165 W 135 W 0,034 € ~10 €
RTX 4070 Ti Super 16 Go 285 W 240 W 0,060 € ~17 €
RTX 4090 24 Go 450 W 380 W 0,095 € ~27 €
RTX 5090 32 Go 575 W 480 W 0,120 € ~35 €
Mac Mini M4 16-32 Go* 65 W 30-50 W 0,010 € ~2-4 €
Mac Mini M4 Pro 24-48 Go* 65 W 40-60 W 0,013 € ~3-5 €
MacBook Pro M4 Max 48-128 Go* 140 W 60-100 W 0,020 € ~5-7 €
Mac Studio M4 Ultra 192-512 Go* 295 W 60-120 W 0,023 € ~4-7 €

* Coût mensuel calculé sur 8h/jour, 30 jours, au tarif de 0,25 €/kWh (tarif réglementé EDF 2026). Pour les Mac, la VRAM est la RAM unifiée partagée entre CPU et GPU.

🔌 Mesurez votre consommation réelle

Les chiffres ci-dessus sont des moyennes. Pour connaître votre consommation exacte, branchez un wattmètre sur prise entre votre PC et la prise murale. C'est le seul moyen d'avoir un chiffre précis.

→ Voir les wattmètres sur Amazon

Quand l'IA locale devient-elle moins chère que ChatGPT ?

Comparons le coût total de possession (matériel + électricité) avec un abonnement cloud sur 2 ans :

Option Coût matériel Coût/mois (élec.) Total sur 2 ans
ChatGPT Plus 0 € 19 €/mois 456 €
ChatGPT Pro 0 € 185 €/mois 4 440 €
Mac Mini M4 (local) 700 € 3 €/mois 772 €
PC + RTX 3060 (local) 500 € 10 €/mois 740 €
PC + RTX 4090 (local) 2 000 € 27 €/mois 2 648 €

Verdict : face à ChatGPT Plus, un Mac Mini M4 est rentabilisé en environ 3-4 mois si vous l'utilisez quotidiennement. Face à ChatGPT Pro, n'importe quelle configuration locale est rentable dès le premier mois — y compris un PC gaming avec RTX 4090.

Bien sûr, les modèles locaux ne sont pas aussi performants que GPT-4o pour les tâches les plus complexes. Mais pour la majorité des usages (rédaction, résumé, code, traduction, conversation), un modèle comme Llama 3 70B ou Mistral Large est excellent.

Comment réduire la consommation de votre IA locale

1. Utilisez des modèles quantifiés (Q4, Q5)

Un modèle en Q4_K_M consomme environ 30 % moins de GPU qu'en FP16, pour une qualité quasiment identique. C'est le meilleur rapport qualité/consommation.

2. Choisissez le bon modèle pour la tâche

Inutile de lancer un modèle 70B pour une simple traduction. Un modèle 7B suffit pour les tâches basiques et consomme 5 à 10 fois moins d'énergie.

3. Éteignez quand vous n'utilisez pas

Ollama libère automatiquement le GPU après quelques minutes d'inactivité. Vérifiez que votre GPU revient bien en mode économie d'énergie (~15-30 W au repos).

4. Préférez Apple Silicon pour l'efficience

Les puces M4, M4 Pro et M4 Max offrent le meilleur rapport tokens/watt du marché. Un Mac Mini M4 génère environ 15-20 tokens/seconde sur un modèle 7B pour seulement 30-40 W.

☀️ L'option radicale : l'IA au solaire

Un panneau solaire portable de 200 W + une batterie EcoFlow Delta peut alimenter un Mac Mini M4 toute la journée. Coût électrique : 0 €. C'est l'option la plus économique et la plus écologique pour faire tourner de l'IA locale.

→ Lire : IA solaire off-grid avec EcoFlow

Comment mesurer votre consommation exacte

Les chiffres de notre tableau sont des moyennes. Votre consommation réelle dépend du modèle chargé, de la longueur des réponses et de votre alimentation. Pour un chiffre précis :

  1. Branchez un wattmètre sur prise entre votre PC et la prise murale
  2. Lancez Ollama avec votre modèle habituel
  3. Posez quelques questions et notez la consommation affichée
  4. Multipliez par vos heures d'utilisation quotidienne pour obtenir le coût mensuel

🔌 Wattmètres recommandés

Un bon wattmètre coûte entre 15 et 25 € et vous servira pour mesurer la consommation de tous vos appareils, pas seulement votre PC.

→ Voir les wattmètres sur Amazon (à partir de 15 €)

💡 À retenir

  • • Un Mac Mini M4 coûte 2 à 4 €/mois en IA locale — imbattable
  • • Une RTX 4090 coûte ~27 €/mois (8h/jour) — plus cher que ChatGPT Plus
  • • Le break-even vs ChatGPT Plus est atteint en 3-4 mois pour un Mac Mini
  • • Les modèles quantifiés (Q4) réduisent la consommation de 30 %
  • • Un wattmètre à 15 € vous donne la vérité exacte

Questions fréquentes

Une RTX 4090 consomme environ 380 W en inférence IA. À 0,25 €/kWh (tarif EDF 2026) et 8 heures d'utilisation par jour, cela représente environ 27 € par mois. C'est plus qu'un abonnement ChatGPT Plus (19 €/mois), mais vous avez un accès totalement illimité et vos données restent privées. Si vous utilisez l'IA moins de 5h/jour, le coût tombe sous les 17 €/mois.
L'inférence IA est moins exigeante que le minage de cryptomonnaies ou le gaming intensif. Le GPU travaille à 70-90 % de sa charge maximale, avec des températures généralement entre 60 et 75°C — bien dans les limites de fonctionnement normal. Un GPU moderne a une durée de vie de 5 à 10 ans en utilisation quotidienne IA. L'usure n'est pas un souci réel.
En termes de rapport performance/watt, les puces Apple Silicon (M4, M4 Pro, M4 Max) sont imbattables : 30 à 100 W pour des performances d'inférence excellentes. Côté NVIDIA, la RTX 4060 Ti 16 Go offre le meilleur compromis : assez de VRAM pour des modèles 13B, avec une consommation contenue de 135 W en inférence. Pour les budgets serrés, la RTX 3060 12 Go reste un choix solide à ~140 W.