TL;DR — Le 29 avril 2026, Andrej Karpathy a ouvert Sequoia AI Ascent 2026 avec un fireside chat de 30 minutes : "From Vibe Coding to Agentic Engineering". Il y annonce que décembre 2025 a marqué l'inflection point agentique : son ratio de code écrit à la main est passé de 80% (novembre) à 20% (décembre) en un mois. Il formalise Software 3.0 et explique pourquoi les meilleurs ingénieurs IA-natifs vont outperformer les ingénieurs classiques d'un facteur 10x. Le coding interview traditionnel est en train de mourir.
Le contexte du talk
Sequoia Capital organise chaque année son AI Ascent, un événement où la firme rassemble fondateurs, investisseurs et chercheurs. L'édition 2026 a ouvert avec Andrej Karpathy, ex-OpenAI, ex-Tesla, créateur de nanoGPT et figure clé de la vulgarisation IA. Le format : un fireside chat de 30 minutes, mené par Stephanie Zhan (partner Sequoia).
Le titre — "From Vibe Coding to Agentic Engineering" — annonce la thèse : le terme "vibe coding" qu'il a lui-même popularisé un an plus tôt ne suffit plus. Une nouvelle discipline émerge.
Karpathy a publié un résumé écrit officiel sur son blog le lendemain : karpathy.bearblog.dev/sequoia-ascent-2026. Il a même utilisé un LLM pour nettoyer la transcription complète. C'est cette source plus la vidéo officielle qui sert de base à ce compte rendu.
L'inflection point : 80% → 20% en un mois
L'observation centrale du talk, et celle qui a fait le plus réagir sur X : Karpathy se sent plus en retard que jamais comme programmeur. Pas parce que coder est devenu plus dur. Parce que le workflow par défaut a changé radicalement en quelques semaines.
Karpathy écrit encore ~80% de son code lui-même. L'IA aide en autocomplete, en suggestion ponctuelle. Les agents type Claude Code / Cursor sont "sympas mais nécessitent beaucoup de corrections".
Le ratio s'inverse en un mois. Karpathy délègue 80% du code aux agents et n'écrit plus que 20%. Le passage du "agent qui aide" au "agent qui ship" est consommé.
Ce qui a changé en quelques mois : les agents sont passés de "produisent du code utile mais qu'il faut corriger" à "produisent des chunks corrects de gros morceaux que je peux laisser tourner". Claude Code, Cursor agent mode, Codex CLI, openclaw — tous ont franchi le seuil au même moment.
— Andrej Karpathy, Sequoia AI Ascent 2026
Software 1.0 / 2.0 / 3.0 : la grille de lecture
Karpathy formalise une grille en trois ères du logiciel :
| Ère | Mécanique | L'humain fait quoi ? | Exemple |
|---|---|---|---|
| Software 1.0 | Code explicite | Écrit chaque ligne, choisit les algorithmes | Linux kernel, NumPy |
| Software 2.0 | Réseau de neurones entraîné | Crée datasets + fonction perte, le "programme" vit dans les poids | ResNet, GPT-2, Stable Diffusion |
| Software 3.0 | LLM comme interpréteur | Écrit prompts + contexte + outils + mémoire + exemples | Claude Code, agents Cursor, openclaw |
L'idée clé : le context window devient le nouveau programme. Tu "programmes" en composant un contexte qui contient l'objectif, les contraintes, les exemples, les outils disponibles, la mémoire des décisions précédentes. Le LLM exécute ce contexte comme un interpréteur exécute du code.
Exemple concret — Installer un outil complexe sur un serveur. Avant 3.0 : script shell ultra-fragile plein de conditions, qui plante au moindre OS différent. Avec 3.0 : tu donnes un bloc d'instructions à un agent, il lit ton environnement, debug les erreurs, adapte les commandes selon la distrib, vérifie le résultat, et termine l'installation tout seul. Le "programme" était dans le contexte, pas dans un fichier .sh.
Les 3 new horizons : ce que les LLM rendent possible (qui ne l'était pas)
Karpathy insiste sur un point souvent raté par les founders : "ne demande pas seulement comment l'IA peut accélérer ton workflow actuel. Demande quelles transformations étaient impossibles avant et deviennent triviales maintenant".
Il donne 3 exemples de "new horizons" :
1. MenuGen et "la disparition des apps"
Karpathy reprend son projet MenuGen : tu prends en photo un menu de restaurant, l'app génère les images des plats. Version classique = frontend + backend + storage + auth + paiements + intégration LLM + UI complexe. Version Software 3.0 = tu donnes la photo à un modèle multimodal et tu dis "génère les images des plats directement sur la photo".
Conséquence : beaucoup d'apps entières disparaissent. Le réseau neuronal fait directement la transformation média → média sans qu'il y ait besoin d'une UI traditionnelle, d'une base de données ou d'une API REST. Le "produit" est le prompt + le modèle.
2. Les transformations média → média natives
Modèles multimodaux qui font naturellement : photo → résumé textuel, vidéo → script, audio → article structuré, schéma main-libre → code fonctionnel, screenshot UI → design system. Aucune app spécialisée nécessaire.
3. L'infrastructure agent-native
Karpathy parle de la nécessité de construire des wikis LLM (knowledge bases qui évoluent par les agents), des systèmes de contexte partagé entre agents, des permissions et isolation à granularité fine. Pas un "wiki pour humains" rendu un peu IA-friendly. Une infra conçue pour qu'un agent y vive 24/7.
Verifiability : le vrai moteur de l'automatisation
Karpathy donne une grille de lecture pour comprendre où les LLM progressent vite et où ils stagnent : la vérifiabilité du résultat.
Sa formule approximative :
Pourquoi les agents de code sont devenus si bons en 2026 : le résultat est directement vérifiable. Le test passe ou ne passe pas. Le code compile ou ne compile pas. Le benchmark monte ou descend. Signal de récompense clair, immédiat, automatique → boucle d'amélioration explosive.
À l'inverse, les domaines où la vérification est ambiguë (écriture créative, conseil patrimonial, design produit, jugement éthique) progressent beaucoup plus lentement. Pas parce qu'ils sont plus durs intellectuellement. Parce qu'on n'a pas de signal automatique.
Jagged Intelligence : l'intelligence dentelée
Conséquence directe : les LLM ne sont pas uniformément intelligents. Ils sont brillants dans certains domaines (très entraînés, très vérifiables) et complètement stupides dans d'autres. Karpathy parle de "jagged intelligence" — intelligence dentelée.
Sa métaphore frappante : ce ne sont pas des animaux qu'on élève. Ce sont des fantômes statistiques qu'on invoque. Leur compétence reflète les priorités de l'équipe qui les a entraînés, les benchmarks qu'elle a optimisés, les types de données qu'elle a curées. C'est pour ça que tu peux avoir un modèle qui résout des problèmes de math olympiques et qui échoue à compter les "r" dans "strawberry".
Implication pour les devs — Ne suppose jamais qu'un LLM est uniformément compétent. Avant de lui déléguer une tâche, demande-toi : est-ce que ce domaine était dans son curriculum ? Est-ce vérifiable ? A-t-il vu des cas similaires ? Si la réponse est non aux trois questions, prévois une supervision humaine forte.
Vibe Coding vs Agentic Engineering : le cœur du talk
Et là, le pivot terminologique central. Karpathy distingue deux modes :
| Aspect | Vibe Coding | Agentic Engineering |
|---|---|---|
| Effet | Lève le plancher | Lève le plafond |
| Profil | N'importe qui peut prototyper | Discipline professionnelle |
| Approche | "Décris ton intention, l'IA fait" | Orchestrer des agents faillibles avec rigueur |
| Sortie | Prototype rapide, démo | Système de production, sécurisé, maintenable |
| Risque | Code qui marche par chance | Erreurs subtiles à attraper |
Le vibe coder fait confiance et accepte. L'agentic engineer ne fait jamais confiance aveuglément. Il :
- Écrit des specs claires avant de lancer l'agent
- Supervise les plans d'attaque que l'agent propose
- Inspecte chaque diff que l'agent produit
- Met en place des boucles d'évaluation automatiques (tests, lint, CI)
- Gère les permissions et l'isolation de l'agent (sandbox, limited file access)
- Maintient le jugement architectural (qu'aucun agent ne peut remplacer)
L'exemple révélateur de MenuGen
Karpathy raconte qu'en travaillant sur MenuGen avec un agent, l'agent a proposé d'associer les achats Stripe aux comptes Google via l'email. Plausible techniquement. Mauvais design produit : les emails Stripe et Google peuvent différer (un client paie avec Stripe en utilisant [email protected] mais il s'est inscrit Google en [email protected] → l'achat est perdu).
L'agent ne voit pas le problème car son contexte ne contient pas l'expérience produit. Seul le jugement humain le voit. C'est ça, l'agentic engineer : la personne qui sait dire "techniquement OK, mais on va se faire détruire en prod par les edge cases".
Le 10x : le nouveau profil hiring
L'affirmation qui a fait le plus parler sur HN et X :
— Karpathy, Sequoia AI Ascent 2026
Pas 10x plus vite à coder. 10x plus de système shippé pour le même temps humain. Parce que l'agentic engineer délègue les portions automatisables à des agents spécialisés et concentre son cerveau sur les décisions critiques.
Conséquence directe : le coding interview classique meurt. Karpathy le dit explicitement :
- Les meilleurs AI-native engineers ne brilleront PAS dans un whiteboard algorithmique
- Ils brilleront quand on leur demande de shipper un gros système réel avec des agents
- La capacité à orchestrer, à débugger un agent qui dérape, à composer un bon contexte → ça ne se mesure pas en récitant Quicksort
Les boîtes qui continuent à recruter en 2026 sur "résoudre LeetCode hard en 25 min sur un whiteboard" recrutent des coders 1.0 dans un monde 3.0. Le décalage va leur coûter cher.
"You can outsource your thinking, but you can't outsource your understanding"
La phrase de fin du talk, la plus reprise :
— Karpathy, Sequoia AI Ascent 2026
Tu peux déléguer la réflexion mécanique (générer le code, formater le doc, écrire les tests, refactorer). Tu ne peux pas déléguer :
- La compréhension profonde du domaine métier
- Le goût (qu'est-ce qu'un bon produit, une bonne UX)
- Le jugement architectural (qu'est-ce qui scalera, qu'est-ce qui sera maintenable)
- La vision système (comment les composants s'imbriquent)
- Les edge cases politiques et humains (comme l'exemple Stripe/Google)
Si tu délègues ces 5 choses à un agent, tu vas shipper un produit qui marche en démo et qui s'effondre en prod.
Implications concrètes pour les devs et founders en 2026
Pour les devs individuels
- Adopte un agent de code aujourd'hui (Claude Code, Cursor agent mode, openclaw). Pas un autocomplete, un vrai agent. Si tu n'as pas franchi le pas, tu perds 5x sur la productivité actuelle.
- Apprends à composer un bon contexte. C'est la nouvelle skill prioritaire. Voir PromptForge pour optimiser tes prompts.
- Apprends à inspecter des diffs rapidement. Lire 500 lignes de diff en 5 min, distinguer le critique du cosmétique.
- Maintiens un MEMORY.md pour transporter ton contexte entre sessions et entre modèles. Voir MemoryForge.
Pour les founders / startups
- Repense le hiring. Évalue sur "ship un système avec un agent en 2h" plutôt que "résous LeetCode". Sinon tu rates les meilleurs profils 2026.
- Investis dans l'infra agent-native. Wikis qui se mettent à jour seuls, knowledge bases interrogeables, sandbox d'exécution.
- Cherche les transformations qui étaient impossibles. Ne demande pas "comment accélérer notre saisie de données", demande "qu'est-ce qui était trop cher pour exister et devient possible".
- Pivote sur la vérifiabilité. Les marchés où les outputs sont automatiquement mesurables (code, finance quantitative, e-commerce conversion) vont être disrupted en premier.
Pour les outils IA spécialisés
- Les apps "interface humaine + LLM" derrière vont mourir. Si ton app n'a pas de moat au-delà de "on appelle GPT", tu es mort.
- Les apps qui survivront : celles avec data propriétaire, intégrations système profondes, ou expertise métier difficile à reproduire en prompt.
Ce que le talk ne dit pas (et qu'il faut compléter)
Honnêteté intellectuelle : Karpathy parle depuis San Francisco, depuis un cercle de top-tier engineers avec accès aux meilleurs modèles. Quelques nuances à ajouter pour le terrain :
- Coût des modèles frontier : déléguer 80% à Claude Opus 4.7 ou GPT-5 coûte des centaines de dollars par mois pour un dev sérieux. Le ROI est positif pour un senior, plus discutable pour un junior.
- Confidentialité des prompts : si ton code est sensible (finance, santé, défense), déléguer au cloud est interdit. C'est exactement pourquoi les stacks IA locales explosent en 2026.
- Jagged intelligence côté humain aussi : tous les devs n'auront pas la même capacité à orchestrer des agents. Le 10x se gagne mais ne se distribue pas uniformément.
- Les agents échouent encore sur les boucles longues (>20 steps). En 2026 ça progresse vite mais la fiabilité n'est pas à 100%.
FAQ
Qu'est-ce que Software 3.0 selon Karpathy ?
Software 3.0 = programmer en orchestrant un LLM avec prompts + contexte + outils + mémoire + exemples. Le context window devient le nouveau programme.
Quelle différence entre vibe coding et agentic engineering ?
Vibe coding lève le plancher (n'importe qui peut prototyper). Agentic engineering lève le plafond (discipline pro qui orchestre des agents pour shipper du système production-grade).
Quand a eu lieu le pivot 80/20 selon Karpathy ?
Novembre 2025 : 80% manuel, 20% IA. Décembre 2025 : 20% manuel, 80% IA. Inversion en un mois. C'est l'inflection point agentique.
Qu'est-ce que la jagged intelligence ?
L'intelligence dentelée : les LLM sont brillants dans des domaines spécifiques (très entraînés, vérifiables) et complètement nuls dans d'autres. Pas uniformes du tout.
Pourquoi Karpathy parle d'un facteur 10x ?
Les meilleurs agentic engineers vont produire 10x plus de système shippé que les meilleurs traditional engineers, à temps humain égal. Pas en codant plus vite : en déléguant intelligemment.
Le coding interview classique est-il obsolète ?
Selon Karpathy, oui en grande partie. Les meilleurs AI-native engineers ne brillent pas en whiteboard. Ils brillent quand on leur demande de shipper un système réel avec agents.
🚀 Tu veux passer en mode agentic engineering ?
Compose des prompts solides avec PromptForge. Maintiens ton contexte portable entre IA avec MemoryForge. Choisis ta stack hardware locale dans notre comparatif PC IA.
PromptForge MemoryForge PC IA localSources et liens
- Sequoia Ascent 2026 summary — blog officiel Karpathy
- From Vibe Coding to Agentic Engineering — vidéo YouTube officielle (30 min)
- Tweet officiel Karpathy avec highlights
- Karpathy Declares Vibe Coding Obsolete — Analytics Drift
- Vibe Coding Was Just the Warmup — Dealroom
- Sequoia AI Ascent 2026 Karpathy — The AI Opportunities
Article éditorial. OutilsIA.fr publie des analyses de tendances IA à but informatif. Les citations entre guillemets sont issues du blog officiel Karpathy ou de la vidéo YouTube. Les interprétations sont propres à OutilsIA.fr.