Hardware IA · Guide d'achat 2026

RTX 3090 d'occasion en 2026 : encore le deal du siècle pour l'IA locale ?

Publié le 16 avril 2026 · Lecture 12 min · Par Chris
⚠ Transparence : cet article contient des liens d'affiliation. En tant que Partenaire Amazon, OutilsIA réalise un bénéfice sur les achats remplissant les conditions applicables, sans coût supplémentaire pour vous. Ces commissions financent entièrement le fonctionnement du site et nous permettent de publier des comparatifs gratuits et indépendants. Nos recommandations restent basées sur des tests réels.
⚡ TL;DR : Avec la sortie de la RTX 5090 et l'effondrement des prix mining, la RTX 3090 24 Go d'occasion tombe à 600-700€ en 2026. C'est aujourd'hui le meilleur ratio VRAM/€ pour faire tourner Llama 70B, Mixtral 8x7B et Stable Diffusion XL en local. Mais attention aux ex-cartes mining et au coût électrique.

Pourquoi la RTX 3090 est revenue sur le devant de la scène en 2026

En 2024, la RTX 3090 valait encore 1 200-1 400€ en occasion. Début 2026, elle s'écroule à 550-700€. Trois facteurs expliquent cette chute :

  1. La RTX 5090 (32 Go GDDR7) est sortie fin 2024 et la 4090 est passée en milieu de gamme premium
  2. Le crash mining Ethereum (passage en Proof of Stake) a libéré des stocks massifs de 3090 ex-rigs
  3. L'arrivée de la RTX 5070 Ti 16 Go a tué l'offre milieu de gamme et poussé les utilisateurs vers le marché de l'occasion VRAM

Conséquence : pour moins de 700€, vous obtenez une carte avec :

🛒 Voir RTX 3090 24Go sur Amazon →

Tests réels : que tourne sur une RTX 3090 en 2026 ?

Inférence LLM avec Ollama

ModèleQuantizationVRAM utiliséeTokens/sec
Llama 3.3 70BQ4_K_M21 Go (+8 Go offload CPU)9-12 t/s
Mixtral 8x7BQ5_K_M22 Go28-35 t/s
Qwen 2.5 72BQ4_020 Go (+15 Go offload CPU)7-10 t/s
Mistral Small 24BQ8_023 Go40-50 t/s
Llama 3.1 8BFP1614 Go85-100 t/s
Phi-3 MediumQ5_K_M9 Go110+ t/s
✅ Verdict LLM : la 3090 fait tourner tous les modèles open-source d'élite de 2026 à des vitesses utilisables (>5 t/s = lecture confortable, >25 t/s = chat fluide). Llama 70B en local, c'est encore inimaginable il y a 18 mois.

Génération d'images Stable Diffusion XL / Flux

ModèleRésolutionStepsTemps par image
SDXL Base1024×1024305-7 sec
SDXL + Refiner1024×102430+109-12 sec
Flux.1 dev1024×10242022-28 sec
Flux.1 schnell1024×102444-6 sec

Fine-tuning / LoRA

Avec 24 Go, vous pouvez fine-tuner via QLoRA 4-bit :

RTX 3090 vs RTX 4090 vs RTX 5090 vs Mac M4 : le vrai comparatif 2026

GPUVRAMPrix moyen (avr 2026)Tokens/s Llama 70B Q4€/Go VRAM
RTX 3090 (occasion)24 Go GDDR6X650 €9-12 t/s27 €/Go
RTX 409024 Go GDDR6X1 800 € (occasion 1 200€)15-18 t/s75 €/Go
RTX 509032 Go GDDR72 600 €22-26 t/s81 €/Go
Mac Studio M4 Max 64 Go64 Go unifiée4 200 €13-16 t/s66 €/Go
Mac Studio M4 Ultra 128 Go128 Go unifiée7 500 €20-24 t/s59 €/Go
2x RTX 3090 (occasion)48 Go cumulé1 300 €14-18 t/s (NVLink)27 €/Go
🏆 Le ratio VRAM/€ imbattable : à 27€/Go, la RTX 3090 d'occasion est 2 à 3 fois moins chère que toute autre option. Le combo 2× RTX 3090 = 48 Go VRAM pour 1 300€ reste imbattable face au Mac Studio M4 Ultra à 7 500€.
🛒 RTX 3090 EVGA / ASUS / MSI sur Amazon →

Les 5 pièges à éviter à l'achat d'une RTX 3090 d'occasion

1. Les ex-cartes mining (le piège n°1)

Plus de 60% des RTX 3090 d'occasion en 2026 ont passé leur vie en rig de mining Ethereum. Les ventilateurs et la pâte thermique sont souvent à bout. Comment vérifier :

2. La consommation électrique

La 3090 consomme 350W TDP (avec pics à 450W). En IA, elle tire en moyenne 280-320W. Calcul électrique en France à 0,21€/kWh :

🛒 Alimentation 850W Gold pour RTX 3090 →

3. La taille du boîtier

Les modèles RTX 3090 EVGA FTW3, MSI Suprim X, ASUS ROG Strix font 33-34 cm de long et 4 slots de haut. Vérifiez les dimensions de votre boîtier ou prévoyez un upgrade.

4. La garantie

Une 3090 d'occasion a souvent moins de 6 mois de garantie restants, voire zéro. Privilégiez :

5. Les drivers et compatibilité CUDA

La RTX 3090 (architecture Ampere) supporte CUDA Capability 8.6. Tous les frameworks IA majeurs marchent dessus en 2026 (PyTorch, TensorFlow, JAX, Triton, vLLM). Pas d'inquiétude là-dessus avant ~2028.

Setup complet recommandé : station IA locale sous 1 500€

La 3090 toute seule ne suffit pas. Voici le setup complet pour exploiter pleinement les 24 Go :

ComposantChoix recommandéPrix
GPURTX 3090 24 Go d'occasion (testée)650 €
CPUAMD Ryzen 7 7700X (8c/16t)280 €
RAM64 Go DDR5-6000 CL30 (2×32)180 €
SSD2 To NVMe Samsung 990 Pro (modèles)165 €
Carte mèreB650 ATX avec 4 slots DIMM180 €
Alimentation850W Gold modulaire (Corsair RM)120 €
BoîtierMid-tower avec airflow (Fractal North)110 €
Refroidissement CPUbe quiet! Pure Rock 250 €
TOTAL~1 735 €
💡 Astuce : à ce prix, vous avez une station IA locale qui rivalise avec un Mac Studio M4 Max à 4 200€. La différence : vous pouvez upgrader la 3090 vers une 4090/5090 plus tard, ou ajouter une 2ème 3090 pour 48 Go cumulé.
🛒 Kit Ryzen 7 7700X + B650 sur Amazon →

Quand NE PAS prendre une RTX 3090 d'occasion

Soyons honnêtes — la 3090 n'est pas pour tout le monde :

Verdict 2026

⭐ La RTX 3090 d'occasion à 600-700€ reste en avril 2026 le meilleur deal hardware pour démarrer ou renforcer une station IA locale. Aucun autre GPU n'offre 24 Go de VRAM à ce prix. Combinée à une seconde 3090 plus tard, vous obtenez 48 Go pour le prix d'une seule 4090 neuve.

Mes conseils finaux :

FAQ

La RTX 3090 supporte-t-elle CUDA 12 et PyTorch 2.5+ ?

Oui, totalement. CUDA Capability 8.6 fonctionne avec toutes les versions actuelles de CUDA, PyTorch, TensorFlow, JAX, Triton, vLLM, Ollama, llama.cpp. Aucune limitation logicielle prévue avant 2028 minimum.

Peut-on faire du multi-GPU avec 2 RTX 3090 ?

Oui, via NVLink (les 3090 supportent le pont NVLink 3ème gen pour 600 GB/s d'inter-GPU). En IA, les frameworks modernes (vLLM, llama.cpp) utilisent les 2 GPU automatiquement avec model parallelism. Vous obtenez ainsi 48 Go VRAM cumulés pour faire tourner Llama 70B en pleine précision Q8 ou Llama 405B en Q3.

Quelle est la durée de vie d'une 3090 ex-mining ?

Si elle a passé 2 ans en mining Ethereum (24/7 à 80°C), il lui reste théoriquement 5-7 ans d'usage normal. Les principaux risques : ventilateurs (à remplacer ~30€), pâte thermique (à refaire), VRM. La GPU elle-même est très robuste — c'est l'environnement autour qui s'use en premier.

Vaut-il mieux une RTX 3090 ou un Mac Mini M4 Pro pour l'IA locale ?

Ça dépend de votre profil. Mac Mini M4 Pro 64 Go (~2 200€) = silence total, faible conso, mais inférence limitée à Llama 8B-13B confortablement. RTX 3090 (~650€) = plus bruyant, plus consommateur, mais peut faire tourner Llama 70B et Mixtral 8x7B. Pour de la production réelle d'IA locale, la 3090 reste plus polyvalente.

Combien de temps va encore tenir la RTX 3090 face aux nouveaux GPU ?

Au moins 3-4 ans. La 3090 reste compétitive jusqu'en 2028-2029 minimum car : (1) les modèles open-source ne grossissent plus en VRAM mais en intelligence par paramètre (Mistral Small 24B bat Llama 2 70B avec 3x moins), (2) la quantization s'améliore (Q3, Q2), (3) le bottleneck devient la latence/throughput, pas la capacité brute.


📧 Recevez les meilleurs deals hardware IA chaque semaine

Chaque semaine, on teste un nouveau GPU, modèle ou outil IA et on partage le verdict honnête. Gratuit, sans spam.

S'inscrire à la newsletter →
Articles connexes :