Tendance IA · 2 mai 2026

Software 3.0 et Agentic Engineering :
le talk Karpathy à Sequoia AI Ascent 2026

Le pivot 80/20 inversé en un mois, les 3 nouveaux horizons et pourquoi les meilleurs coders de 2026 ne brilleront plus dans un coding interview classique. Compte rendu complet du fireside chat de fin avril 2026, sources officielles à l'appui.

TL;DR — Le 29 avril 2026, Andrej Karpathy a ouvert Sequoia AI Ascent 2026 avec un fireside chat de 30 minutes : "From Vibe Coding to Agentic Engineering". Il y annonce que décembre 2025 a marqué l'inflection point agentique : son ratio de code écrit à la main est passé de 80% (novembre) à 20% (décembre) en un mois. Il formalise Software 3.0 et explique pourquoi les meilleurs ingénieurs IA-natifs vont outperformer les ingénieurs classiques d'un facteur 10x. Le coding interview traditionnel est en train de mourir.

Le contexte du talk

Sequoia Capital organise chaque année son AI Ascent, un événement où la firme rassemble fondateurs, investisseurs et chercheurs. L'édition 2026 a ouvert avec Andrej Karpathy, ex-OpenAI, ex-Tesla, créateur de nanoGPT et figure clé de la vulgarisation IA. Le format : un fireside chat de 30 minutes, mené par Stephanie Zhan (partner Sequoia).

Le titre — "From Vibe Coding to Agentic Engineering" — annonce la thèse : le terme "vibe coding" qu'il a lui-même popularisé un an plus tôt ne suffit plus. Une nouvelle discipline émerge.

Karpathy a publié un résumé écrit officiel sur son blog le lendemain : karpathy.bearblog.dev/sequoia-ascent-2026. Il a même utilisé un LLM pour nettoyer la transcription complète. C'est cette source plus la vidéo officielle qui sert de base à ce compte rendu.

L'inflection point : 80% → 20% en un mois

L'observation centrale du talk, et celle qui a fait le plus réagir sur X : Karpathy se sent plus en retard que jamais comme programmeur. Pas parce que coder est devenu plus dur. Parce que le workflow par défaut a changé radicalement en quelques semaines.

Novembre 2025
~80% / 20%

Karpathy écrit encore ~80% de son code lui-même. L'IA aide en autocomplete, en suggestion ponctuelle. Les agents type Claude Code / Cursor sont "sympas mais nécessitent beaucoup de corrections".

Décembre 2025 — l'inflection
~20% / 80%

Le ratio s'inverse en un mois. Karpathy délègue 80% du code aux agents et n'écrit plus que 20%. Le passage du "agent qui aide" au "agent qui ship" est consommé.

Ce qui a changé en quelques mois : les agents sont passés de "produisent du code utile mais qu'il faut corriger" à "produisent des chunks corrects de gros morceaux que je peux laisser tourner". Claude Code, Cursor agent mode, Codex CLI, openclaw — tous ont franchi le seuil au même moment.

"It's never been easier to feel like you're falling behind, even if you're at the cutting edge."
— Andrej Karpathy, Sequoia AI Ascent 2026

Software 1.0 / 2.0 / 3.0 : la grille de lecture

Karpathy formalise une grille en trois ères du logiciel :

ÈreMécaniqueL'humain fait quoi ?Exemple
Software 1.0Code expliciteÉcrit chaque ligne, choisit les algorithmesLinux kernel, NumPy
Software 2.0Réseau de neurones entraînéCrée datasets + fonction perte, le "programme" vit dans les poidsResNet, GPT-2, Stable Diffusion
Software 3.0LLM comme interpréteurÉcrit prompts + contexte + outils + mémoire + exemplesClaude Code, agents Cursor, openclaw

L'idée clé : le context window devient le nouveau programme. Tu "programmes" en composant un contexte qui contient l'objectif, les contraintes, les exemples, les outils disponibles, la mémoire des décisions précédentes. Le LLM exécute ce contexte comme un interpréteur exécute du code.

Exemple concret — Installer un outil complexe sur un serveur. Avant 3.0 : script shell ultra-fragile plein de conditions, qui plante au moindre OS différent. Avec 3.0 : tu donnes un bloc d'instructions à un agent, il lit ton environnement, debug les erreurs, adapte les commandes selon la distrib, vérifie le résultat, et termine l'installation tout seul. Le "programme" était dans le contexte, pas dans un fichier .sh.

Les 3 new horizons : ce que les LLM rendent possible (qui ne l'était pas)

Karpathy insiste sur un point souvent raté par les founders : "ne demande pas seulement comment l'IA peut accélérer ton workflow actuel. Demande quelles transformations étaient impossibles avant et deviennent triviales maintenant".

Il donne 3 exemples de "new horizons" :

1. MenuGen et "la disparition des apps"

Karpathy reprend son projet MenuGen : tu prends en photo un menu de restaurant, l'app génère les images des plats. Version classique = frontend + backend + storage + auth + paiements + intégration LLM + UI complexe. Version Software 3.0 = tu donnes la photo à un modèle multimodal et tu dis "génère les images des plats directement sur la photo".

Conséquence : beaucoup d'apps entières disparaissent. Le réseau neuronal fait directement la transformation média → média sans qu'il y ait besoin d'une UI traditionnelle, d'une base de données ou d'une API REST. Le "produit" est le prompt + le modèle.

2. Les transformations média → média natives

Modèles multimodaux qui font naturellement : photo → résumé textuel, vidéo → script, audio → article structuré, schéma main-libre → code fonctionnel, screenshot UI → design system. Aucune app spécialisée nécessaire.

3. L'infrastructure agent-native

Karpathy parle de la nécessité de construire des wikis LLM (knowledge bases qui évoluent par les agents), des systèmes de contexte partagé entre agents, des permissions et isolation à granularité fine. Pas un "wiki pour humains" rendu un peu IA-friendly. Une infra conçue pour qu'un agent y vive 24/7.

Verifiability : le vrai moteur de l'automatisation

Karpathy donne une grille de lecture pour comprendre où les LLM progressent vite et où ils stagnent : la vérifiabilité du résultat.

Sa formule approximative :

capability spike ≈ verifiability × training attention × data coverage × economic value

Pourquoi les agents de code sont devenus si bons en 2026 : le résultat est directement vérifiable. Le test passe ou ne passe pas. Le code compile ou ne compile pas. Le benchmark monte ou descend. Signal de récompense clair, immédiat, automatique → boucle d'amélioration explosive.

À l'inverse, les domaines où la vérification est ambiguë (écriture créative, conseil patrimonial, design produit, jugement éthique) progressent beaucoup plus lentement. Pas parce qu'ils sont plus durs intellectuellement. Parce qu'on n'a pas de signal automatique.

Jagged Intelligence : l'intelligence dentelée

Conséquence directe : les LLM ne sont pas uniformément intelligents. Ils sont brillants dans certains domaines (très entraînés, très vérifiables) et complètement stupides dans d'autres. Karpathy parle de "jagged intelligence" — intelligence dentelée.

Sa métaphore frappante : ce ne sont pas des animaux qu'on élève. Ce sont des fantômes statistiques qu'on invoque. Leur compétence reflète les priorités de l'équipe qui les a entraînés, les benchmarks qu'elle a optimisés, les types de données qu'elle a curées. C'est pour ça que tu peux avoir un modèle qui résout des problèmes de math olympiques et qui échoue à compter les "r" dans "strawberry".

Implication pour les devs — Ne suppose jamais qu'un LLM est uniformément compétent. Avant de lui déléguer une tâche, demande-toi : est-ce que ce domaine était dans son curriculum ? Est-ce vérifiable ? A-t-il vu des cas similaires ? Si la réponse est non aux trois questions, prévois une supervision humaine forte.

Vibe Coding vs Agentic Engineering : le cœur du talk

Et là, le pivot terminologique central. Karpathy distingue deux modes :

AspectVibe CodingAgentic Engineering
EffetLève le plancherLève le plafond
ProfilN'importe qui peut prototyperDiscipline professionnelle
Approche"Décris ton intention, l'IA fait"Orchestrer des agents faillibles avec rigueur
SortiePrototype rapide, démoSystème de production, sécurisé, maintenable
RisqueCode qui marche par chanceErreurs subtiles à attraper

Le vibe coder fait confiance et accepte. L'agentic engineer ne fait jamais confiance aveuglément. Il :

L'exemple révélateur de MenuGen

Karpathy raconte qu'en travaillant sur MenuGen avec un agent, l'agent a proposé d'associer les achats Stripe aux comptes Google via l'email. Plausible techniquement. Mauvais design produit : les emails Stripe et Google peuvent différer (un client paie avec Stripe en utilisant [email protected] mais il s'est inscrit Google en [email protected] → l'achat est perdu).

L'agent ne voit pas le problème car son contexte ne contient pas l'expérience produit. Seul le jugement humain le voit. C'est ça, l'agentic engineer : la personne qui sait dire "techniquement OK, mais on va se faire détruire en prod par les edge cases".

Le 10x : le nouveau profil hiring

L'affirmation qui a fait le plus parler sur HN et X :

"The best agentic engineers will outperform the best traditional engineers by more than 10x."
— Karpathy, Sequoia AI Ascent 2026

Pas 10x plus vite à coder. 10x plus de système shippé pour le même temps humain. Parce que l'agentic engineer délègue les portions automatisables à des agents spécialisés et concentre son cerveau sur les décisions critiques.

Conséquence directe : le coding interview classique meurt. Karpathy le dit explicitement :

Les boîtes qui continuent à recruter en 2026 sur "résoudre LeetCode hard en 25 min sur un whiteboard" recrutent des coders 1.0 dans un monde 3.0. Le décalage va leur coûter cher.

"You can outsource your thinking, but you can't outsource your understanding"

La phrase de fin du talk, la plus reprise :

"You can outsource your thinking, but you can't outsource your understanding."
— Karpathy, Sequoia AI Ascent 2026

Tu peux déléguer la réflexion mécanique (générer le code, formater le doc, écrire les tests, refactorer). Tu ne peux pas déléguer :

Si tu délègues ces 5 choses à un agent, tu vas shipper un produit qui marche en démo et qui s'effondre en prod.

Implications concrètes pour les devs et founders en 2026

Pour les devs individuels

Pour les founders / startups

Pour les outils IA spécialisés

Ce que le talk ne dit pas (et qu'il faut compléter)

Honnêteté intellectuelle : Karpathy parle depuis San Francisco, depuis un cercle de top-tier engineers avec accès aux meilleurs modèles. Quelques nuances à ajouter pour le terrain :

FAQ

Qu'est-ce que Software 3.0 selon Karpathy ?

Software 3.0 = programmer en orchestrant un LLM avec prompts + contexte + outils + mémoire + exemples. Le context window devient le nouveau programme.

Quelle différence entre vibe coding et agentic engineering ?

Vibe coding lève le plancher (n'importe qui peut prototyper). Agentic engineering lève le plafond (discipline pro qui orchestre des agents pour shipper du système production-grade).

Quand a eu lieu le pivot 80/20 selon Karpathy ?

Novembre 2025 : 80% manuel, 20% IA. Décembre 2025 : 20% manuel, 80% IA. Inversion en un mois. C'est l'inflection point agentique.

Qu'est-ce que la jagged intelligence ?

L'intelligence dentelée : les LLM sont brillants dans des domaines spécifiques (très entraînés, vérifiables) et complètement nuls dans d'autres. Pas uniformes du tout.

Pourquoi Karpathy parle d'un facteur 10x ?

Les meilleurs agentic engineers vont produire 10x plus de système shippé que les meilleurs traditional engineers, à temps humain égal. Pas en codant plus vite : en déléguant intelligemment.

Le coding interview classique est-il obsolète ?

Selon Karpathy, oui en grande partie. Les meilleurs AI-native engineers ne brillent pas en whiteboard. Ils brillent quand on leur demande de shipper un système réel avec agents.

🚀 Tu veux passer en mode agentic engineering ?

Compose des prompts solides avec PromptForge. Maintiens ton contexte portable entre IA avec MemoryForge. Choisis ta stack hardware locale dans notre comparatif PC IA.

PromptForge MemoryForge PC IA local

Sources et liens

Article éditorial. OutilsIA.fr publie des analyses de tendances IA à but informatif. Les citations entre guillemets sont issues du blog officiel Karpathy ou de la vidéo YouTube. Les interprétations sont propres à OutilsIA.fr.