NVIDIA GB10 Grace Blackwell · 128 Go RAM · 1 PFLOP · Modèles 200B en local
Et si vous pouviez faire tourner Llama 405B, Mistral Large ou DeepSeek-V3 directement sur votre bureau, sans cloud, sans abonnement, sans envoyer vos données à personne ? C'est exactement ce que propose l'ASUS Ascent GX10.
Basé sur le NVIDIA GB10 Grace Blackwell Superchip (la même puce que les serveurs à 30 000 $ de NVIDIA), ce mini-PC de 1,5 kg délivre 1 PetaFLOP de puissance IA. On l'a analysé en détail.
Jusqu'ici, pour faire tourner un modèle de 200 milliards de paramètres, il fallait :
L'ASUS Ascent GX10 change la donne : un seul achat, aucun abonnement, vos données restent chez vous. La mémoire unifiée de 128 Go signifie que le GPU et le CPU partagent la même RAM — pas de goulot d'étranglement, pas de transfert PCIe lent.
| Modèle | Batch 1 | Batch 8 | Batch 64 |
|---|---|---|---|
| Throughput (tok/s) | 70 | 290 | 680 |
| Prefill Heavy (tok/s) | 290 | 1 200 | 2 700 |
En résumé : 680 tokens/seconde en batch 64 — largement suffisant pour du fine-tuning, de l'inférence multi-utilisateurs, ou de la recherche IA en local.
| Machine | RAM | Perf IA | Prix | LLM max |
|---|---|---|---|---|
| ASUS Ascent GX10 | 128 Go | 1 PFLOP | ~3 000 $ | 200B+ |
| NVIDIA DGX Spark | 128 Go | 1 PFLOP | 3 999 $ | 200B+ |
| Mac Studio M4 Ultra | 192 Go | ~0.5 PFLOP | 6 000 $+ | 200B+ |
| PC RTX 4090 (24 Go) | 24 Go VRAM | ~0.3 PFLOP | 2 500 $+ | 70B max |
| PC RTX 5090 (32 Go) | 32 Go VRAM | ~0.4 PFLOP | 3 000 $+ | 70B max |
Llama 3.1 405B, Mistral Large, DeepSeek-V3, Qwen-2.5 72B — tous tournent en local sans cloud. Vos données ne quittent jamais votre bureau. Idéal pour les entreprises soucieuses de la confidentialité.
Avec 128 Go de RAM et le GPU Blackwell, le fine-tuning de modèles 7B-70B est rapide et pratique. Parfait pour créer un modèle spécialisé (médical, juridique, financier).
Reinforcement learning, agents autonomes, simulations — le GPU Blackwell accélère PyTorch et JAX nativement. On a testé un entraînement de 12 millions de parties de jeu en 42 minutes sur ce type de hardware.
RAG local, embeddings, vector search — tout tourne en local. Plus besoin de payer OpenAI ou Anthropic pour du prototypage.
L'ASUS Ascent GX10 est la machine que tous les développeurs IA attendaient. Pour environ 1 000 $ de moins que le DGX Spark de NVIDIA, vous obtenez la même puce GB10, la même RAM 128 Go, et les mêmes performances — dans un boîtier ASUS compact et bien fini.
C'est le passage du cloud au local. Le passage de l'abonnement à la propriété. Le passage de "j'envoie mes données à OpenAI" à "mes modèles tournent sur mon bureau".
Note OutilsIA : 4.5/5 — Révolutionnaire pour l'IA locale, mais réservé aux professionnels et passionnés qui savent ce qu'ils font sous Linux.
Également disponible sur ASUS eShop
Non. La machine utilise un processeur ARM (Grace) et tourne exclusivement sous DGX OS (basé sur Ubuntu Linux 24.04). Windows n'est pas compatible.
Le même supercalculateur GB10 mais fabriqué par ASUS au lieu de NVIDIA. Même puce, même RAM, design ASUS, souvent moins cher (~1 000 $ de moins en version 1 To).
Pas ChatGPT (qui est un service cloud d'OpenAI), mais des modèles équivalents open-source comme Llama, Mistral ou DeepSeek — en local, sans connexion internet, sans abonnement.
Maximum 240W — environ comme un PC de bureau classique. Bien moins qu'un serveur multi-GPU.
Oui ! Grâce au NVIDIA ConnectX-7 intégré, deux GX10 peuvent être reliés pour doubler la mémoire (256 Go) et la puissance de calcul.