RTX 3090 d'occasion en 2026 : encore le deal du siècle pour l'IA locale ?
Pourquoi la RTX 3090 est revenue sur le devant de la scène en 2026
En 2024, la RTX 3090 valait encore 1 200-1 400€ en occasion. Début 2026, elle s'écroule à 550-700€. Trois facteurs expliquent cette chute :
- La RTX 5090 (32 Go GDDR7) est sortie fin 2024 et la 4090 est passée en milieu de gamme premium
- Le crash mining Ethereum (passage en Proof of Stake) a libéré des stocks massifs de 3090 ex-rigs
- L'arrivée de la RTX 5070 Ti 16 Go a tué l'offre milieu de gamme et poussé les utilisateurs vers le marché de l'occasion VRAM
Conséquence : pour moins de 700€, vous obtenez une carte avec :
- 24 Go GDDR6X — le strict minimum pour les vrais LLM locaux modernes
- 10 496 CUDA cores + 328 Tensor cores 3ème génération
- 936 GB/s de bande passante mémoire (à comparer avec 1 008 GB/s sur la 4090)
- Compatibilité totale CUDA 12.x + cuDNN, support Triton, vLLM, Ollama, llama.cpp
Tests réels : que tourne sur une RTX 3090 en 2026 ?
Inférence LLM avec Ollama
| Modèle | Quantization | VRAM utilisée | Tokens/sec |
|---|---|---|---|
| Llama 3.3 70B | Q4_K_M | 21 Go (+8 Go offload CPU) | 9-12 t/s |
| Mixtral 8x7B | Q5_K_M | 22 Go | 28-35 t/s |
| Qwen 2.5 72B | Q4_0 | 20 Go (+15 Go offload CPU) | 7-10 t/s |
| Mistral Small 24B | Q8_0 | 23 Go | 40-50 t/s |
| Llama 3.1 8B | FP16 | 14 Go | 85-100 t/s |
| Phi-3 Medium | Q5_K_M | 9 Go | 110+ t/s |
Génération d'images Stable Diffusion XL / Flux
| Modèle | Résolution | Steps | Temps par image |
|---|---|---|---|
| SDXL Base | 1024×1024 | 30 | 5-7 sec |
| SDXL + Refiner | 1024×1024 | 30+10 | 9-12 sec |
| Flux.1 dev | 1024×1024 | 20 | 22-28 sec |
| Flux.1 schnell | 1024×1024 | 4 | 4-6 sec |
Fine-tuning / LoRA
Avec 24 Go, vous pouvez fine-tuner via QLoRA 4-bit :
- Llama 3.1 8B : full fine-tuning possible, 6-8h pour 10 000 samples
- Llama 3 13B : QLoRA, ~12h pour 5 000 samples
- Mistral 7B : LoRA fp16, 4h pour 10 000 samples
RTX 3090 vs RTX 4090 vs RTX 5090 vs Mac M4 : le vrai comparatif 2026
| GPU | VRAM | Prix moyen (avr 2026) | Tokens/s Llama 70B Q4 | €/Go VRAM |
|---|---|---|---|---|
| RTX 3090 (occasion) | 24 Go GDDR6X | 650 € | 9-12 t/s | 27 €/Go |
| RTX 4090 | 24 Go GDDR6X | 1 800 € (occasion 1 200€) | 15-18 t/s | 75 €/Go |
| RTX 5090 | 32 Go GDDR7 | 2 600 € | 22-26 t/s | 81 €/Go |
| Mac Studio M4 Max 64 Go | 64 Go unifiée | 4 200 € | 13-16 t/s | 66 €/Go |
| Mac Studio M4 Ultra 128 Go | 128 Go unifiée | 7 500 € | 20-24 t/s | 59 €/Go |
| 2x RTX 3090 (occasion) | 48 Go cumulé | 1 300 € | 14-18 t/s (NVLink) | 27 €/Go |
Les 5 pièges à éviter à l'achat d'une RTX 3090 d'occasion
1. Les ex-cartes mining (le piège n°1)
Plus de 60% des RTX 3090 d'occasion en 2026 ont passé leur vie en rig de mining Ethereum. Les ventilateurs et la pâte thermique sont souvent à bout. Comment vérifier :
- Demander l'historique d'utilisation (heures cumulées, températures max)
- Faire tourner GPU-Z pour vérifier la mémoire (les ex-mining ont souvent des erreurs)
- Inspecter visuellement : poussière, ventilateurs qui font du bruit, traces de chaleur
- Stress test 30 min minimum (FurMark + Heaven Benchmark) avant d'acheter
2. La consommation électrique
La 3090 consomme 350W TDP (avec pics à 450W). En IA, elle tire en moyenne 280-320W. Calcul électrique en France à 0,21€/kWh :
- Usage ponctuel (2-3h/jour) : ~5€/mois
- Usage intensif (8h/jour) : ~17€/mois
- Always-on serveur LLM (24/7) : ~50€/mois — comparer avec l'achat d'une 4090 plus efficiente
3. La taille du boîtier
Les modèles RTX 3090 EVGA FTW3, MSI Suprim X, ASUS ROG Strix font 33-34 cm de long et 4 slots de haut. Vérifiez les dimensions de votre boîtier ou prévoyez un upgrade.
4. La garantie
Une 3090 d'occasion a souvent moins de 6 mois de garantie restants, voire zéro. Privilégiez :
- Amazon Renewed avec garantie 1 an Amazon
- Vinted Pro avec rétractation 14 jours
- EVGA (la marque qui transférait la garantie au nouvel acheteur — devenue rare en 2026)
5. Les drivers et compatibilité CUDA
La RTX 3090 (architecture Ampere) supporte CUDA Capability 8.6. Tous les frameworks IA majeurs marchent dessus en 2026 (PyTorch, TensorFlow, JAX, Triton, vLLM). Pas d'inquiétude là-dessus avant ~2028.
Setup complet recommandé : station IA locale sous 1 500€
La 3090 toute seule ne suffit pas. Voici le setup complet pour exploiter pleinement les 24 Go :
| Composant | Choix recommandé | Prix |
|---|---|---|
| GPU | RTX 3090 24 Go d'occasion (testée) | 650 € |
| CPU | AMD Ryzen 7 7700X (8c/16t) | 280 € |
| RAM | 64 Go DDR5-6000 CL30 (2×32) | 180 € |
| SSD | 2 To NVMe Samsung 990 Pro (modèles) | 165 € |
| Carte mère | B650 ATX avec 4 slots DIMM | 180 € |
| Alimentation | 850W Gold modulaire (Corsair RM) | 120 € |
| Boîtier | Mid-tower avec airflow (Fractal North) | 110 € |
| Refroidissement CPU | be quiet! Pure Rock 2 | 50 € |
| TOTAL | ~1 735 € |
Quand NE PAS prendre une RTX 3090 d'occasion
Soyons honnêtes — la 3090 n'est pas pour tout le monde :
- Vous avez un budget < 600€ : prenez une RTX 4060 Ti 16 Go neuve (~450€) — moins de VRAM mais bien plus efficient énergétiquement
- Vous voulez du gaming 4K : une RTX 4070 Ti Super 16 Go à 750€ neuve sera meilleure
- Vous prévoyez une utilisation 24/7 : la consommation tue le ROI vs une 4090 (300€ d'élec/an de différence)
- Vous voulez Llama 405B ou Llama 4 700B : il faut 80 Go+, donc multi-GPU ou Mac Studio Ultra
- Vous achetez sans pouvoir tester : risque mining trop élevé, prenez plutôt du neuf
Verdict 2026
Mes conseils finaux :
- Achetez sur Amazon Renewed en priorité (garantie 1 an)
- À défaut, Vinted/Leboncoin avec rencontre physique et démonstration en stress test
- Évitez les annonces "comme neuve" sans facture d'origine
- Marquez "EVGA" ou "ASUS ROG" en priorité (meilleur SAV historique)
- Prévoyez le budget alim 850W + boîtier ATX + 64 Go RAM pour exploiter pleinement
FAQ
La RTX 3090 supporte-t-elle CUDA 12 et PyTorch 2.5+ ?
Oui, totalement. CUDA Capability 8.6 fonctionne avec toutes les versions actuelles de CUDA, PyTorch, TensorFlow, JAX, Triton, vLLM, Ollama, llama.cpp. Aucune limitation logicielle prévue avant 2028 minimum.
Peut-on faire du multi-GPU avec 2 RTX 3090 ?
Oui, via NVLink (les 3090 supportent le pont NVLink 3ème gen pour 600 GB/s d'inter-GPU). En IA, les frameworks modernes (vLLM, llama.cpp) utilisent les 2 GPU automatiquement avec model parallelism. Vous obtenez ainsi 48 Go VRAM cumulés pour faire tourner Llama 70B en pleine précision Q8 ou Llama 405B en Q3.
Quelle est la durée de vie d'une 3090 ex-mining ?
Si elle a passé 2 ans en mining Ethereum (24/7 à 80°C), il lui reste théoriquement 5-7 ans d'usage normal. Les principaux risques : ventilateurs (à remplacer ~30€), pâte thermique (à refaire), VRM. La GPU elle-même est très robuste — c'est l'environnement autour qui s'use en premier.
Vaut-il mieux une RTX 3090 ou un Mac Mini M4 Pro pour l'IA locale ?
Ça dépend de votre profil. Mac Mini M4 Pro 64 Go (~2 200€) = silence total, faible conso, mais inférence limitée à Llama 8B-13B confortablement. RTX 3090 (~650€) = plus bruyant, plus consommateur, mais peut faire tourner Llama 70B et Mixtral 8x7B. Pour de la production réelle d'IA locale, la 3090 reste plus polyvalente.
Combien de temps va encore tenir la RTX 3090 face aux nouveaux GPU ?
Au moins 3-4 ans. La 3090 reste compétitive jusqu'en 2028-2029 minimum car : (1) les modèles open-source ne grossissent plus en VRAM mais en intelligence par paramètre (Mistral Small 24B bat Llama 2 70B avec 3x moins), (2) la quantization s'améliore (Q3, Q2), (3) le bottleneck devient la latence/throughput, pas la capacité brute.
📧 Recevez les meilleurs deals hardware IA chaque semaine
Chaque semaine, on teste un nouveau GPU, modèle ou outil IA et on partage le verdict honnête. Gratuit, sans spam.
S'inscrire à la newsletter →