Installer DeepSeek R1 en local : guide complet avec Ollama
DeepSeek R1 est le modèle de raisonnement qui a secoué le monde de l'IA fin 2025. Développé par la startup chinoise DeepSeek, ce modèle open source rivalise avec GPT-4 et Claude sur les tâches de raisonnement complexe — mathématiques, logique, code — tout en étant entièrement exécutable en local sur votre PC. Dans ce guide, nous vous montrons comment l'installer en 5 minutes avec Ollama, et pourquoi c'est une excellente idée pour votre vie privée.
🎯 Ce que vous allez apprendre
- ✓ Ce qu'est DeepSeek R1 et pourquoi il fait sensation
- ✓ Comment l'installer en local avec Ollama en une seule commande
- ✓ Les configurations VRAM requises selon la taille du modèle
- ✓ Comment il se compare à ChatGPT et Claude
- ✓ Pourquoi l'exécuter en local est crucial pour la vie privée
Qu'est-ce que DeepSeek R1 ?
DeepSeek R1 est un modèle de raisonnement (reasoning model) développé par DeepSeek, une entreprise chinoise d'intelligence artificielle. Contrairement aux modèles classiques qui génèrent des réponses instantanément, R1 « réfléchit » étape par étape avant de répondre, à la manière de o1 d'OpenAI. Cette approche lui permet d'exceller sur les tâches complexes :
Résout des problèmes de niveau olympiade et concours d'ingénieur
Débogage, algorithmique, architectures complexes
Raisonnement en chaîne, analyse multi-étapes
Le plus remarquable : DeepSeek R1 est entièrement open source. Les poids du modèle sont disponibles publiquement, ce qui signifie que vous pouvez le télécharger et l'exécuter sur votre propre machine, sans aucune dépendance à un service cloud.
Étape 1 : Installer Ollama
Ollama est l'outil le plus simple pour exécuter des modèles IA en local. Si vous ne l'avez pas encore, l'installation prend 30 secondes :
Pour un guide détaillé d'installation, consultez notre article Installer Ollama : guide complet.
Étape 2 : Lancer DeepSeek R1
Une fois Ollama installé, une seule commande suffit pour télécharger et lancer DeepSeek R1 :
Le premier lancement télécharge automatiquement le modèle (quelques Go selon la taille choisie). Ensuite, vous pouvez discuter directement dans le terminal. DeepSeek R1 affiche sa « réflexion » entre balises <think> avant de donner sa réponse finale.
Configurations VRAM requises
Le choix de la taille du modèle dépend directement de la mémoire de votre carte graphique. Voici le tableau de référence :
| Modèle | VRAM minimum | Taille disque | Qualité | GPU recommandé |
|---|---|---|---|---|
| deepseek-r1:7b | 5 Go | 4,7 Go | ⭐⭐⭐ | RTX 3060 / RTX 4060 |
| deepseek-r1:14b | 9 Go | 8,9 Go | ⭐⭐⭐⭐ | RTX 3070 / RTX 4070 |
| deepseek-r1:32b | 20 Go | 19 Go | ⭐⭐⭐⭐⭐ | RTX 3090 / RTX 4090 |
| deepseek-r1:70b | 40 Go | 39 Go | ⭐⭐⭐⭐⭐ | 2x RTX 4090 / A100 |
💡 Conseil pratique
Pour la plupart des utilisateurs, la version 14B offre le meilleur rapport qualité/VRAM. Elle tient dans une RTX 4070 (12 Go) et produit des résultats de qualité comparable à GPT-3.5 sur le raisonnement. Si vous avez une RTX 4090 (24 Go), passez directement à la 32B qui rivalise avec GPT-4. Vérifiez votre matériel avec notre outil Mon PC peut-il faire tourner une IA ?
Benchmarks : DeepSeek R1 vs ChatGPT vs Claude
Comment DeepSeek R1 se positionne-t-il face aux géants ? Voici les résultats sur les principaux benchmarks de raisonnement :
| Benchmark | DeepSeek R1 (70B) | GPT-4o | Claude 3.5 Sonnet | o1-mini |
|---|---|---|---|---|
| MATH-500 | 97.3% | 76.6% | 78.3% | 90.0% |
| AIME 2024 | 79.8% | 9.3% | 16.0% | 63.6% |
| Codeforces | 96.3% | 23.0% | 20.3% | 93.4% |
| GPQA Diamond | 71.5% | 53.6% | 65.0% | 60.0% |
Les résultats sont impressionnants : DeepSeek R1 70B surpasse GPT-4o sur tous les benchmarks de raisonnement et rivalise avec o1 d'OpenAI. La version 32B reste très compétitive et tient dans un seul GPU grand public.
Pourquoi exécuter DeepSeek R1 en local ?
🔒 L'argument vie privée
DeepSeek est une entreprise chinoise. Si vous utilisez leur API cloud ou leur site web, vos données transitent par des serveurs en Chine et sont soumises aux lois chinoises sur les données. C'est un sujet de préoccupation légitime pour beaucoup d'utilisateurs et d'entreprises.
La solution : exécuter R1 en local. Quand vous utilisez DeepSeek R1 via Ollama sur votre machine, absolument aucune donnée ne quitte votre ordinateur. Vous bénéficiez de la puissance du modèle sans aucun compromis sur la confidentialité. C'est la beauté de l'open source.
- Données envoyées en Chine
- Soumis aux lois chinoises
- Historique stocké sur leurs serveurs
- Risque de censure sur certains sujets
- Aucune donnée ne quitte votre PC
- Pas de censure ni de filtrage
- Fonctionne hors-ligne
- Vie privée totale
Étape 3 : Utilisation avancée
Une fois DeepSeek R1 en marche, voici quelques astuces pour en tirer le meilleur parti :
Pour aller plus loin avec Docker et Ollama, consultez notre guide Ollama + Docker : déployer une IA locale proprement.
Verdict : DeepSeek R1 en vaut-il la peine ?
DeepSeek R1 32B/70B rivalise avec GPT-4 et surpasse la plupart des modèles sur les maths et le code algorithmique.
L'exécution locale élimine tout risque lié au transit de données vers la Chine. C'est la méthode recommandée.
100% gratuit, pas d'abonnement. Un seul investissement : un GPU suffisant pour la taille de modèle souhaitée.
Moins adapté que Claude ou ChatGPT pour la rédaction créative. R1 excelle sur le raisonnement, pas la prose.
DeepSeek R1 est un ajout formidable à votre arsenal d'IA locale. Combiné avec d'autres modèles via Ollama (Llama 3, Mistral, Qwen), vous disposez d'une suite complète d'IA privées et gratuites. Pour vérifier si votre PC est compatible, utilisez notre outil Mon PC peut-il faire tourner une IA ?