20+ modèles IA testes

Mon PC peut-il faire tourner une IA ?

Selectionnez votre GPU et decouvrez instantanement quels modeles IA tournent sur votre machine. Le "Can You Run It" de l'intelligence artificielle.

1. Selectionnez votre carte graphique

2. Votre RAM systeme

Resultats pour

Mon PC peut-il faire tourner une IA en local ?

C'est LA question que tout le monde se pose avant d'installer Ollama, LM Studio ou Stable Diffusion. La reponse depend principalement de votre carte graphique (GPU) et de sa memoire video (VRAM).

Les modèles d'IA (LLM) ont besoin de VRAM pour stocker leurs parametres. Un modèle de 7 milliards de parametres (7B) quantifie en Q4 nécessité environ 4-5 Go de VRAM. Un modèle de 70B nécessité environ 40 Go. Plus votre GPU a de VRAM, plus vous pouvez faire tourner de gros modèles — et les gros modèles donnent de meilleures reponses.

Combien de VRAM pour quel modele ?

En regle générale avec une quantification Q4 (bon compromis qualité/taille) :

Et si mon GPU n'a pas assez de VRAM ?

Le modèle peut utiliser la RAM système (CPU offloading) mais c'est beaucoup plus lent (5-10x). C'est utilisable pour tester mais pas pour un usage quotidien confortable. La meilleure solution : upgrader votre GPU ou passer sur un Mac avec mémoire unifiee.

Guide : quel GPU acheter pour l'IA locale → | Mac vs PC pour l'IA → | DGX Spark comparatif →