Accueil Blog Installer DeepSeek R1 en local
Guide pratique

Installer DeepSeek R1 en local : guide complet avec Ollama

Par l'équipe OutilsIA avril 2026 15 min de lecture

DeepSeek R1 est le modèle de raisonnement qui a secoué le monde de l'IA fin 2025. Développé par la startup chinoise DeepSeek, ce modèle open source rivalise avec GPT-4 et Claude sur les tâches de raisonnement complexe — mathématiques, logique, code — tout en étant entièrement exécutable en local sur votre PC. Dans ce guide, nous vous montrons comment l'installer en 5 minutes avec Ollama, et pourquoi c'est une excellente idée pour votre vie privée.

🎯 Ce que vous allez apprendre

  • ✓ Ce qu'est DeepSeek R1 et pourquoi il fait sensation
  • ✓ Comment l'installer en local avec Ollama en une seule commande
  • ✓ Les configurations VRAM requises selon la taille du modèle
  • ✓ Comment il se compare à ChatGPT et Claude
  • ✓ Pourquoi l'exécuter en local est crucial pour la vie privée

Qu'est-ce que DeepSeek R1 ?

DeepSeek R1 est un modèle de raisonnement (reasoning model) développé par DeepSeek, une entreprise chinoise d'intelligence artificielle. Contrairement aux modèles classiques qui génèrent des réponses instantanément, R1 « réfléchit » étape par étape avant de répondre, à la manière de o1 d'OpenAI. Cette approche lui permet d'exceller sur les tâches complexes :

🧮
Mathématiques

Résout des problèmes de niveau olympiade et concours d'ingénieur

💻
Code

Débogage, algorithmique, architectures complexes

🧠
Logique

Raisonnement en chaîne, analyse multi-étapes

Le plus remarquable : DeepSeek R1 est entièrement open source. Les poids du modèle sont disponibles publiquement, ce qui signifie que vous pouvez le télécharger et l'exécuter sur votre propre machine, sans aucune dépendance à un service cloud.

Étape 1 : Installer Ollama

Ollama est l'outil le plus simple pour exécuter des modèles IA en local. Si vous ne l'avez pas encore, l'installation prend 30 secondes :

# Linux / macOS
curl -fsSL https://ollama.com/install.sh | sh
# Windows : téléchargez l'installeur depuis ollama.com
# Vérifier l'installation
ollama --version

Pour un guide détaillé d'installation, consultez notre article Installer Ollama : guide complet.

Étape 2 : Lancer DeepSeek R1

Une fois Ollama installé, une seule commande suffit pour télécharger et lancer DeepSeek R1 :

# Lancer DeepSeek R1 (version 7B par défaut)
ollama run deepseek-r1
# Pour une version plus puissante (si vous avez assez de VRAM)
ollama run deepseek-r1:14b
ollama run deepseek-r1:32b
ollama run deepseek-r1:70b

Le premier lancement télécharge automatiquement le modèle (quelques Go selon la taille choisie). Ensuite, vous pouvez discuter directement dans le terminal. DeepSeek R1 affiche sa « réflexion » entre balises <think> avant de donner sa réponse finale.

Configurations VRAM requises

Le choix de la taille du modèle dépend directement de la mémoire de votre carte graphique. Voici le tableau de référence :

Modèle VRAM minimum Taille disque Qualité GPU recommandé
deepseek-r1:7b 5 Go 4,7 Go ⭐⭐⭐ RTX 3060 / RTX 4060
deepseek-r1:14b 9 Go 8,9 Go ⭐⭐⭐⭐ RTX 3070 / RTX 4070
deepseek-r1:32b 20 Go 19 Go ⭐⭐⭐⭐⭐ RTX 3090 / RTX 4090
deepseek-r1:70b 40 Go 39 Go ⭐⭐⭐⭐⭐ 2x RTX 4090 / A100

💡 Conseil pratique

Pour la plupart des utilisateurs, la version 14B offre le meilleur rapport qualité/VRAM. Elle tient dans une RTX 4070 (12 Go) et produit des résultats de qualité comparable à GPT-3.5 sur le raisonnement. Si vous avez une RTX 4090 (24 Go), passez directement à la 32B qui rivalise avec GPT-4. Vérifiez votre matériel avec notre outil Mon PC peut-il faire tourner une IA ?

Benchmarks : DeepSeek R1 vs ChatGPT vs Claude

Comment DeepSeek R1 se positionne-t-il face aux géants ? Voici les résultats sur les principaux benchmarks de raisonnement :

Benchmark DeepSeek R1 (70B) GPT-4o Claude 3.5 Sonnet o1-mini
MATH-500 97.3% 76.6% 78.3% 90.0%
AIME 2024 79.8% 9.3% 16.0% 63.6%
Codeforces 96.3% 23.0% 20.3% 93.4%
GPQA Diamond 71.5% 53.6% 65.0% 60.0%

Les résultats sont impressionnants : DeepSeek R1 70B surpasse GPT-4o sur tous les benchmarks de raisonnement et rivalise avec o1 d'OpenAI. La version 32B reste très compétitive et tient dans un seul GPU grand public.

Pourquoi exécuter DeepSeek R1 en local ?

🔒 L'argument vie privée

DeepSeek est une entreprise chinoise. Si vous utilisez leur API cloud ou leur site web, vos données transitent par des serveurs en Chine et sont soumises aux lois chinoises sur les données. C'est un sujet de préoccupation légitime pour beaucoup d'utilisateurs et d'entreprises.

La solution : exécuter R1 en local. Quand vous utilisez DeepSeek R1 via Ollama sur votre machine, absolument aucune donnée ne quitte votre ordinateur. Vous bénéficiez de la puissance du modèle sans aucun compromis sur la confidentialité. C'est la beauté de l'open source.

✗ Via le cloud DeepSeek
  • Données envoyées en Chine
  • Soumis aux lois chinoises
  • Historique stocké sur leurs serveurs
  • Risque de censure sur certains sujets
✓ En local avec Ollama
  • Aucune donnée ne quitte votre PC
  • Pas de censure ni de filtrage
  • Fonctionne hors-ligne
  • Vie privée totale

Étape 3 : Utilisation avancée

Une fois DeepSeek R1 en marche, voici quelques astuces pour en tirer le meilleur parti :

# Utiliser l'API REST (compatible OpenAI)
curl http://localhost:11434/api/chat -d '{
"model": "deepseek-r1:14b",
"messages": [{"role": "user", "content": "Résous x² + 3x - 10 = 0"}]
}'
# Connecter à Open WebUI pour une interface graphique
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway \
-v open-webui:/app/backend/data --name open-webui \
ghcr.io/open-webui/open-webui:main

Pour aller plus loin avec Docker et Ollama, consultez notre guide Ollama + Docker : déployer une IA locale proprement.

Verdict : DeepSeek R1 en vaut-il la peine ?

🧠 Pour le raisonnement

DeepSeek R1 32B/70B rivalise avec GPT-4 et surpasse la plupart des modèles sur les maths et le code algorithmique.

🔒 Pour la vie privée

L'exécution locale élimine tout risque lié au transit de données vers la Chine. C'est la méthode recommandée.

💰 Pour le budget

100% gratuit, pas d'abonnement. Un seul investissement : un GPU suffisant pour la taille de modèle souhaitée.

📝 Pour l'écriture générale

Moins adapté que Claude ou ChatGPT pour la rédaction créative. R1 excelle sur le raisonnement, pas la prose.

DeepSeek R1 est un ajout formidable à votre arsenal d'IA locale. Combiné avec d'autres modèles via Ollama (Llama 3, Mistral, Qwen), vous disposez d'une suite complète d'IA privées et gratuites. Pour vérifier si votre PC est compatible, utilisez notre outil Mon PC peut-il faire tourner une IA ?

Questions fréquentes

Sur les tâches de raisonnement (mathématiques, logique, code algorithmique), DeepSeek R1 70B rivalise effectivement avec GPT-4o et surpasse même o1-mini sur certains benchmarks. Cependant, pour l'écriture créative, la conversation générale et les connaissances factuelles, GPT-4 et Claude restent supérieurs. R1 est un spécialiste du raisonnement, pas un généraliste.
Techniquement oui, Ollama peut exécuter DeepSeek R1 sur CPU uniquement, mais ce sera très lent (environ 1-2 tokens par seconde pour la version 7B). Pour une utilisation confortable, un GPU avec au minimum 5 Go de VRAM est recommandé pour la version 7B. Sur un Mac avec puce M1/M2/M3/M4, les performances sont bonnes grâce à la mémoire unifiée.
Non, absolument pas. Quand vous exécutez DeepSeek R1 via Ollama en local, le modèle tourne entièrement sur votre machine. Aucune donnée n'est envoyée sur internet, ni en Chine ni ailleurs. C'est justement l'avantage majeur de l'exécution locale : vous profitez de la puissance du modèle avec une vie privée totale. Le téléchargement initial du modèle est la seule connexion nécessaire.