6 lignes de code. 1 pile 9V. 128 octets de RAM. Invaincu depuis 46 ans.
En 1980, Mattel a sorti le D&D Computer Labyrinth Game : un échiquier électronique avec un dragon invisible contrôlé par un processeur TMS1100 (4-bit, 128 octets de RAM). En 2026, ce dragon bat Claude, Grok, Gemini, GPT et tous les modèles open-source sans exception.
On a reproduit le jeu en HTML5, on a lâché les meilleures IA du monde contre les 6 lignes de code du dragon, et le résultat est sans appel.
"Il faudra attendre l'AGI pour battre mon dragon." — Chris, joueur expert depuis 1980
Voici l'algorithme complet du dragon. 6 lignes. Pas de machine learning, pas de réseau de neurones. Juste de la distance Manhattan :
Le dragon vole (ignore les murs), se déplace en 8 directions (diagonales incluses), et est invisible. Le chevalier est bloqué par les murs, se déplace en 4 directions, et ne voit rien.
On a branché les vrais LLM (Claude Haiku et Grok) en API directe. Résultat : ils oscillent entre 2 cases indéfiniment. Sans mémoire entre les appels, chaque pas est un nouveau départ. Comme un amnésique dans un labyrinthe.
| Capacité humaine | Ce que l'IA fait | Résultat |
|---|---|---|
| Peur — hésiter, fuir | Fonce toujours, n'hésite jamais | Mort rapide |
| Intuition — sentir le danger | Calcule, analyse, réfléchit | Trop lent |
| Mémoire spatiale — carte mentale | Chaque appel repart de zéro | Oscillation |
| Incertitude calibrée — "je ne sais pas" | Toujours confiant à 67% | Erreurs confiantes |
Face à cet échec total, on a créé le Human Layer — un framework de 4 capacités cognitives que les IA n'ont pas :
Résultat après 1141 parties avec Human Layer : survie moyenne +37% avec intuition vs sans. Le chevalier survit plus longtemps, trouve des trésors, mais ne gagne toujours pas. Le dragon reste invaincu.
On a simulé 12,4 millions de parties sur un GPU RTX 4080 Super en 42 minutes pour trouver les paramètres optimaux du chevalier :
| Paramètre | Valeur optimale | Signification |
|---|---|---|
| Rayon d'exploration initial | 2 cases | Prudence maximale au début |
| Distance de leurre | 4 cases | Attirer le dragon assez loin |
| Durée du leurre | 15 tours | Agir vite, pas trop réfléchir |
| Attente au camp | 3 tours | Un peu de repos après blessure |
Résultat : 2% de win rate honnête en fog of war total (le chevalier ne voit ni le dragon ni les murs). C'est le meilleur score jamais atteint par une IA contre le TMS1100.
Un joueur humain gagne 20%. 12 millions de parties de brute force donnent 2%. L'écart = l'intuition humaine.
Vous pensez faire mieux que Claude et Grok ? Essayez. Le dragon vous attend.
Le jeu propose :
knightAI(gameState) et on la teste sur 100 parties. Le leaderboard est ouvert. Le dragon attend.
Tout le monde construit des LLM plus gros — plus de paramètres, plus de tokens, plus de compute. Personne ne construit les capacités cognitives primitives qui manquent : la peur, l'intuition spatiale, la gestion de l'incertitude.
Un processeur 4-bit de 1980 le prouve chaque jour : le raisonnement seul ne suffit pas. Il faut sentir, hésiter, avoir peur, et savoir qu'on ne sait pas.
C'est ce que le Human Layer apporte. Et c'est ce que le Dragon Labyrinth mesure.
"Les coqs courageux meurent. Les poules peureuses survivent. L'IA de 2026 est un coq."