Selectionnez votre GPU et decouvrez instantanement quels modeles IA tournent sur votre machine. Le "Can You Run It" de l'intelligence artificielle.
C'est LA question que tout le monde se pose avant d'installer Ollama, LM Studio ou Stable Diffusion. La reponse depend principalement de votre carte graphique (GPU) et de sa memoire video (VRAM).
Les modèles d'IA (LLM) ont besoin de VRAM pour stocker leurs parametres. Un modèle de 7 milliards de parametres (7B) quantifie en Q4 nécessité environ 4-5 Go de VRAM. Un modèle de 70B nécessité environ 40 Go. Plus votre GPU a de VRAM, plus vous pouvez faire tourner de gros modèles — et les gros modèles donnent de meilleures reponses.
En regle générale avec une quantification Q4 (bon compromis qualité/taille) :
Le modèle peut utiliser la RAM système (CPU offloading) mais c'est beaucoup plus lent (5-10x). C'est utilisable pour tester mais pas pour un usage quotidien confortable. La meilleure solution : upgrader votre GPU ou passer sur un Mac avec mémoire unifiee.
Guide : quel GPU acheter pour l'IA locale → | Mac vs PC pour l'IA → | DGX Spark comparatif →