Accueil Blog LM Studio guide
IA Locale

LM Studio : guide complet (installation, modeles, utilisation)

Par L equipe OutilsIA avril 2026 16 min de lecture

LM Studio est une application gratuite qui permet de faire tourner des modeles d'IA (LLM) directement sur votre ordinateur, sans connexion internet, sans compte et sans abonnement. C'est l'interface graphique la plus simple pour decouvrir l'IA locale. Ce guide vous accompagne de l'installation a la premiere conversation.

🎯 Ce que vous allez apprendre

  • ✓ Ce qu'est LM Studio et pourquoi l'utiliser
  • ✓ Comment le telecharger et l'installer (Windows, Mac, Linux)
  • ✓ Comment parcourir et telecharger des modeles (Llama 3, Mistral, Phi-3)
  • ✓ Comment utiliser l'interface de chat
  • ✓ Comment lancer un serveur API local compatible OpenAI
  • ✓ Comparaison avec Ollama

Qu'est-ce que LM Studio ?

LM Studio est une application de bureau (GUI) qui permet de telecharger, gerer et executer des modeles de langage (LLM) en local. Concretement, c'est comme avoir ChatGPT sur votre PC, mais sans envoyer vos donnees a un serveur externe. L'application est gratuite pour un usage personnel et fonctionne sur Windows, macOS et Linux.

Les avantages principaux de LM Studio sont : la vie privee totale (vos conversations restent sur votre machine), l'absence de limites (pas de quota de messages), le fonctionnement hors ligne (une fois le modele telecharge), et la gratuite (pas d'abonnement). Pour en savoir plus sur l'IA locale, consultez notre page IA Locale.

Etape 1 : Telecharger et installer LM Studio

Configuration minimale requise

Windows
  • Windows 10/11 64-bit
  • 8 Go de RAM minimum
  • GPU NVIDIA recommande
macOS
  • macOS 13+ (Ventura)
  • Apple Silicon (M1+) ideal
  • 16 Go RAM recommande
Linux
  • Ubuntu 22.04+ ou equivalent
  • 8 Go de RAM minimum
  • GPU NVIDIA recommande

Installation pas a pas

  1. 1. Rendez-vous sur le site officiel lmstudio.ai
  2. 2. Cliquez sur le bouton de telechargement correspondant a votre systeme (Windows, Mac, Linux)
  3. 3. Lancez l'installateur telecharge. Sur Windows : double-cliquez le .exe. Sur Mac : ouvrez le .dmg et glissez dans Applications. Sur Linux : rendez l'AppImage executable et lancez-le
  4. 4. Au premier lancement, LM Studio detecte automatiquement votre materiel (GPU, RAM) et optimise les parametres
  5. 5. Aucun compte n'est necessaire. L'application est prete a l'emploi

Etape 2 : Telecharger un modele

LM Studio integre un explorateur de modeles qui permet de parcourir et telecharger des modeles directement depuis Hugging Face. Voici les modeles que nous recommandons pour debuter :

Modele Taille RAM requise Ideal pour
Llama 3.1 8B ~5 Go 8 Go Polyvalent, bon en francais
Mistral 7B ~4 Go 8 Go Excellent en francais
Phi-3 Mini ~2 Go 4 Go PC modeste, rapide
Llama 3.1 70B (Q4) ~40 Go 48 Go Qualite pro (PC puissant)

Comment telecharger un modele

  1. 1. Dans LM Studio, cliquez sur l'icone de recherche (loupe) dans la barre laterale gauche
  2. 2. Tapez le nom du modele (ex: "llama 3.1 8b" ou "mistral 7b")
  3. 3. LM Studio affiche les variantes disponibles. Choisissez une version "Q4_K_M" pour un bon equilibre qualite/taille
  4. 4. Cliquez sur "Download". Le telechargement prend quelques minutes selon votre connexion
  5. 5. Une fois telecharge, le modele est disponible hors ligne pour toujours

Etape 3 : Discuter avec l'IA

L'interface de chat de LM Studio ressemble a ChatGPT. Cliquez sur l'icone de chat dans la barre laterale, selectionnez votre modele telecharge dans le menu deroulant, et commencez a taper votre message. Les reponses sont generees localement, sans aucune connexion internet.

Vous pouvez personnaliser le "system prompt" (instructions donnees au modele), ajuster la temperature (creativite), la longueur maximale des reponses, et d'autres parametres avances. Pour debuter, les parametres par defaut fonctionnent tres bien.

Etape 4 : Lancer un serveur API local

LM Studio peut aussi fonctionner comme un serveur API local compatible OpenAI. Cela signifie que vous pouvez utiliser n'importe quelle application qui supporte l'API OpenAI (comme Continue, Open Interpreter, ou vos propres scripts Python) et la faire pointer vers votre modele local, gratuitement.

Lancer le serveur

  1. 1. Cliquez sur l'icone serveur (deux fleches) dans la barre laterale
  2. 2. Selectionnez le modele a servir
  3. 3. Cliquez sur "Start Server". Le serveur demarre sur localhost:1234
  4. 4. Utilisez l'URL http://localhost:1234/v1 comme endpoint API (compatible OpenAI)

LM Studio vs Ollama : quelle difference ?

LM Studio et Ollama sont les deux outils principaux pour l'IA locale, mais avec des approches differentes. LM Studio est une application graphique (GUI) avec une interface visuelle, ideale pour les debutants. Ollama est un outil en ligne de commande (CLI), plus adapte aux developpeurs et aux usages automatises.

LM Studio
  • ✓ Interface graphique intuitive
  • ✓ Explorateur de modeles integre
  • ✓ Chat visuel integre
  • ✓ Parametres visuels en temps reel
  • ✗ Plus lourd en ressources
  • ✗ Moins automatisable
Ollama
  • ✓ Leger et rapide
  • ✓ Scriptable et automatisable
  • ✓ API serveur integree
  • ✓ Ideal pour Docker/serveurs
  • ✗ Pas d'interface graphique
  • ✗ Ligne de commande requise

Pour un comparatif plus detaille, lisez notre article Ollama vs LM Studio 2026. Si vous voulez utiliser l'IA sans internet, consultez aussi notre guide IA locale sans internet.

Pour des performances optimales, le choix du materiel est important. Consultez notre page materiel recommande pour savoir quel GPU et quelle configuration choisir. Et pour comparer LM Studio avec les IA en ligne, visitez notre comparateur.

Questions frequentes

Oui, LM Studio est gratuit pour un usage personnel. Les modeles telecharges sont egalement gratuits (la plupart sont open source). Il n'y a aucun abonnement, aucun compte requis et aucune limite de messages. Seule une licence commerciale est payante pour les entreprises.
Non, LM Studio peut fonctionner uniquement sur le CPU (processeur), mais les reponses seront plus lentes. Un GPU NVIDIA avec 6 Go+ de VRAM ou un Mac Apple Silicon (M1 ou superieur) accelere considerablement la generation. Pour les petits modeles (Phi-3 Mini), 8 Go de RAM suffisent. Pour les gros modeles (70B), il faut 48 Go+ de RAM ou un GPU 24 Go.
Oui, une fois que vous avez telecharge un modele, LM Studio fonctionne entierement hors ligne. Vous avez besoin d'internet uniquement pour telecharger l'application et les modeles. Ensuite, tout tourne en local sur votre machine. C'est la solution ideale pour travailler en avion, dans un lieu sans Wi-Fi, ou pour proteger des donnees sensibles. Consultez notre guide IA locale sans internet pour en savoir plus.