Accueil Blog Naissance d'une IA
🧠 Guide définitif

La naissance d'une IA : comment naît, s'entraîne et mûrit une intelligence artificielle

De zéro à ChatGPT — le documentaire complet en 8 chapitres

Par l'équipe OutilsIA avril 2026 35 min de lecture

« Imaginez qu'on vous demande de créer un cerveau à partir de rien. Pas un cerveau biologique — un cerveau numérique. Vous n'avez ni ADN, ni cellules, ni millions d'années d'évolution. Vous avez des mathématiques, de l'électricité, et 25 000 GPU. C'est l'histoire de la naissance de ChatGPT. Et c'est l'histoire la plus fascinante de notre époque. »

Le 30 novembre 2022, OpenAI lance ChatGPT. En 5 jours, un million d'utilisateurs. En 2 mois, cent millions. L'adoption la plus rapide de l'histoire de la technologie — plus rapide qu'Instagram, que TikTok, que n'importe quelle invention humaine. Mais derrière cette explosion, il y a une question que presque personne ne pose : comment est-ce qu'on crée une intelligence artificielle ?

Pas les titres sensationnalistes. Pas les débats philosophiques. La réalité technique, expliquée simplement. De la première ligne de code au moment où vous tapez une question et recevez une réponse qui semble... intelligente.

Ce guide raconte cette histoire comme un documentaire, en utilisant une analogie puissante : la naissance d'un être humain. Car étonnamment, les étapes sont remarquablement similaires — conception, gestation, naissance, enfance, éducation, maturité. Et comme pour un humain, chaque étape peut mal tourner.

Que vous soyez débutant en IA ou passionné de technologie, cet article est conçu pour être le seul que vous aurez besoin de lire pour comprendre comment naît une intelligence artificielle.

🧬 Chapitre 1 : La Conception — L'architecture

« Avant de naître, un être humain a besoin d'ADN — un plan qui définit ce qu'il peut devenir. Pour une IA, cet ADN s'appelle l'architecture. »

Tout commence par une décision fondamentale. Quelqu'un, quelque part — un chercheur, une équipe, une entreprise — décide de créer une intelligence artificielle. La première question n'est pas "que va-t-elle savoir ?" mais "quelle structure va-t-elle avoir ?"

C'est exactement comme l'ADN. L'ADN ne contient pas vos souvenirs, vos compétences ou votre personnalité. Il contient le plan de construction d'un cerveau capable d'apprendre tout cela. L'architecture d'une IA, c'est pareil : elle définit ce que le modèle peut apprendre, pas ce qu'il sait.

La révolution Transformer (2017)

En juin 2017, huit chercheurs de Google publient un article de 15 pages intitulé "Attention Is All You Need". Ce titre modeste cache la plus grande révolution de l'IA moderne. Avant ce papier, les IA traitaient le langage mot par mot, dans l'ordre, comme un humain qui lit une phrase de gauche à droite. Le Transformer change tout : il peut regarder tous les mots en même temps.

💡 Le mécanisme d'attention, expliqué simplement

Imaginez que vous êtes dans une salle de cours remplie de 100 personnes. Quelqu'un pose une question. L'ancien système (RNN) devait demander à chaque personne dans l'ordre, une par une. Le Transformer, lui, regarde tout le monde en même temps et décide instantanément à qui prêter attention.

Concrètement, pour la phrase "Le chat mange la souris parce qu'il a faim", le Transformer comprend instantanément que "il" fait référence au "chat" et pas à la "souris". Comment ? En calculant un score d'attention entre chaque paire de mots. "Il" et "chat" obtiennent un score élevé — le modèle "regarde" le chat quand il traite "il".

C'est cette capacité à connecter des idées éloignées qui rend les IA modernes si puissantes. Et c'est la base de tous les LLM que vous utilisez aujourd'hui.

Les paramètres : les synapses de l'IA

Une fois l'architecture choisie, il faut décider de la taille du modèle. C'est la question la plus coûteuse de tout le processus. La taille se mesure en paramètres — des nombres décimaux que le modèle ajustera pendant l'entraînement pour "apprendre".

Pensez aux paramètres comme aux synapses d'un cerveau. Chaque synapse est une connexion entre deux neurones, et la force de cette connexion détermine comment l'information circule. Plus il y a de synapses, plus le cerveau peut stocker et connecter d'informations.

117M
GPT-1 (2018)
1.5B
GPT-2 (2019)
175B
GPT-3 (2020)
~1.8T
GPT-4 (2023)

🧠 Pour comparaison : le cerveau humain possède environ 100 000 milliards (100 trillions) de synapses. GPT-4, avec ses 1 800 milliards de paramètres, est environ 55 fois plus petit. Mais un paramètre artificiel n'est pas identique à une synapse biologique — c'est comme comparer des transistors à des neurones. L'important : nous commençons à approcher des ordres de grandeur du cerveau humain.

🤰 Chapitre 2 : La Gestation — Les données

« Un cerveau sans expériences est un disque dur vide. Les données sont la nourriture de l'IA pendant sa grossesse — et comme pour un bébé, la qualité de cette nourriture détermine tout. »

L'architecture est prête. Le plan de construction est tracé. Mais un cerveau vide ne sert à rien — il lui faut de la matière à digerer. C'est la phase de gestation : la collecte, le nettoyage et la préparation des données qui serviront à "nourrir" l'IA.

Et les quantités sont vertigineuses.

D'où viennent les données ?

🌐
Common Crawl

Un instantané du web entier. Des milliards de pages web, archivées et indexées. C'est la source principale : comme si l'IA lisait internet en entier.

📖
Livres et publications

Des millions de livres, articles scientifiques, manuels, encyclopédies. La connaissance humaine accumulée pendant des siècles, numérisée.

💻
Code source

GitHub, StackOverflow, documentation technique. C'est pour ça que les IA savent coder : elles ont lu des milliards de lignes de code.

💬
Forums et réseaux sociaux

Reddit, forums spécialisés, Wikipédia. Les conversations humaines dans toute leur diversité — le langage informel, l'argot, l'humour.

L'échelle : des chiffres qui donnent le vertige

13T
tokens d'entraînement pour GPT-4
(13 000 milliards de mots/fragments)
200x
tous les livres jamais écrits
(~130 millions de livres estimés)
570 Go
de texte pur compressé
(avant nettoyage : plusieurs pétaoctets)

Pour mettre cela en perspective : si vous lisiez 24h/24, 7j/7, sans jamais dormir, à la vitesse moyenne d'un humain (250 mots/minute), il vous faudrait environ 100 000 ans pour lire ce que GPT-4 a absorbé pendant son entraînement.

Le nettoyage : la qualité avant la quantité

Les données brutes d'internet sont un marécage. Spam, doublons, contenus toxiques, informations personnelles, textes incompréhensibles, publicités, code HTML cassé... Le nettoyage est une étape cruciale et souvent sous-estimée. Des équipes entières passent des mois à :

  • Supprimer les doublons — le même article copié sur 500 sites ne doit pas compter 500 fois
  • Filtrer le contenu toxique — discours de haine, violence, désinformation
  • Anonymiser les données personnelles — supprimer noms, emails, numéros de téléphone
  • Évaluer la qualité linguistique — un article du Monde vaut plus qu'un commentaire YouTube
  • Équilibrer les langues — s'assurer que le modèle ne parle pas que l'anglais

⚠️ La controverse : ces données ont été créées par des humains — écrivains, journalistes, développeurs, artistes. Elles ont été utilisées pour entraîner des IA sans consentement explicite de leurs créateurs. C'est le plus grand débat éthique de l'IA : peut-on apprendre de la créativité humaine sans demander la permission ?

La tokenisation : découper le langage en morceaux

Un humain lit des mots. Une IA lit des tokens. La tokenisation, c'est le processus de découpage du texte en fragments que le modèle peut traiter. Ce n'est pas toujours un mot entier :

# Exemple de tokenisation (GPT-4)
"intelligence artificielle"
→ ["intellig", "ence", " artific", "ielle"]
4 tokens pour 2 mots
"Bonjour, comment allez-vous ?"
→ ["Bon", "jour", ",", " comment", " allez", "-", "vous", " ?"]
8 tokens pour 4 mots

Les mots fréquents sont souvent un seul token. Les mots rares sont découpés en sous-mots. C'est pour ça que l'IA peut "lire" n'importe quel mot, même inventé.

👶 Chapitre 3 : L'Accouchement — Le pré-entraînement

« C'est le moment le plus intense, le plus coûteux, le plus impressionnant. Des milliers de GPU s'allument dans un data center. Pendant des mois, ils vont former des connexions, ajuster des milliards de poids, et lentement, une forme d'intelligence va émerger du néant. L'IA est en train de naître. »

Le pré-entraînement est la phase la plus spectaculaire de toute la création d'une IA. C'est là que le modèle, qui n'est au départ qu'un assemblage de nombres aléatoires, va commencer à comprendre le langage humain.

Le principe : prédire le mot suivant

C'est d'une simplicité désarmante. L'entraînement consiste à répéter une seule tâche des milliards de fois : "étant donné cette séquence de mots, quel est le mot suivant le plus probable ?"

Entraînement — Itération 1 sur 13 000 000 000 000 :
Entrée : "Le soleil se couche sur la"
Prédiction du modèle : "banane"
Réponse correcte : "mer"
→ Le modèle ajuste légèrement ses paramètres pour rendre "mer" plus probable la prochaine fois
Entraînement — Itération 12 999 999 999 999 :
Entrée : "La mécanique quantique suggère que les particules intriquées"
Prédiction du modèle : "partagent"
Réponse correcte : "partagent"
→ Le modèle a appris la physique quantique... en prédisant des mots

C'est presque magique : en apprenant simplement à prédire le mot suivant, le modèle développe une compréhension profonde du langage, de la logique, du raisonnement, de l'histoire, de la science, du code, de la poésie... Comme un enfant qui, à force d'écouter parler les adultes, finit par comprendre le monde.

Le matériel : une puissance de calcul monstrueuse

Prédire le mot suivant semble simple. Le faire 13 000 milliards de fois avec un modèle de 1 800 milliards de paramètres neçessite une infrastructure qui défie l'imagination.

25 000
GPU NVIDIA A100
fonctionnant en parallèle
90-100
jours d'entraînement
24h/24, sans interruption
$100M+
coût estimé
uniquement en calcul
~50 MW
électricité
= une petite ville

💻 Les GPU qui ont créé ChatGPT

Les GPU utilisés pour entraîner les plus grands modèles sont des processeurs spécialisés dans le calcul parallèle. Ce sont les mêmes puces que celles utilisées dans le gaming — mais en version professionnelle, beaucoup plus chères.

GPU VRAM Utilisé pour Prix unitaire
NVIDIA A100 80 Go GPT-4, Llama 2 ~$10 000
NVIDIA H100 80 Go GPT-4o, Claude 3, Gemini ~$30 000
NVIDIA H200 141 Go Modèles 2025-2026 ~$40 000
NVIDIA B200 192 Go Prochaine génération ~$50 000+

25 000 GPU A100 × $10 000 = $250 millions rien que pour le matériel. Sans compter l'électricité, le refroidissement, et les ingénieurs.

La courbe de perte : regarder l'IA devenir intelligente

Pendant l'entraînement, les ingénieurs surveillent une métrique cruciale : la loss (perte). C'est un nombre qui mesure à quel point le modèle se trompe. Au début, la loss est énorme — le modèle répond au hasard. Puis, jour après jour, la loss descend. Le modèle apprend.

C'est comme regarder un bébé grandir en accéléré. Au début, il ne comprend rien. Après quelques jours, il reconnaît des mots simples. Après des semaines, il forme des phrases. Après des mois... il raisonne.

Les capacités émergentes : la magie de l'échelle

Le phénomène le plus mystérieux de l'IA moderne : à une certaine taille, des capacités apparaissent qui n'avaient jamais été programmées.

  • • Un modèle de 10 milliards de paramètres ne sait pas faire d'arithmétique. Un modèle de 100 milliards sait multiplier.
  • • Un petit modèle ne comprend pas l'ironie. Un grand modèle fait des blagues.
  • • En dessous d'un certain seuil, pas de raisonnement en chaîne. Au-dessus, le modèle résout des problèmes étape par étape.

C'est comme le développement d'un enfant : à un certain nombre de connexions neuronales, la conscience émerge. Personne n'a "programmé" la conscience. Elle apparaît quand le réseau est suffisamment complexe.

👧 Chapitre 4 : L'Enfance — Le fine-tuning

« Le bébé est né. Il a un cerveau puissant, rempli de connaissances brutes. Mais il ne sait pas se comporter en société. Quand on lui pose une question, il récite une encyclopédie au lieu de répondre simplement. Il a besoin d'éducation. »

Un modèle qui vient de finir son pré-entraînement est impressionnant... et complètement inutilisable. Si vous lui posez une question, il ne répond pas — il continue votre texte. Demandez-lui "Quelle est la capitale de la France ?", il pourrait répondre "Quelle est la capitale de l'Allemagne ? Quelle est la capitale du Japon ?" parce que c'est le pattern qu'il a le plus vu dans les données.

C'est comme un enfant savant qui connaît tous les faits du monde mais ne comprend pas qu'on lui pose une question.

Le Supervised Fine-Tuning (SFT)

La solution : des humains créent des milliers d'exemples de conversations idéales. C'est un travail minutieux et essentiel :

Exemple de donnée SFT n°1 :
Utilisateur : Explique-moi la photosynèse comme si j'avais 10 ans.
Assistant : Imagine que les plantes sont des cuisinières. Elles prennent trois ingrédients : la lumière du soleil (l'énergie), le CO2 de l'air (comme de la farine) et l'eau (du robinet). Avec ces trois choses, elles fabriquent leur nourriture — du sucre ! Et en bonus, elles rejettent de l'oxygène, l'air que tu respires.
Exemple de donnée SFT n°2 :
Utilisateur : Écris-moi un email professionnel pour décliner une offre d'emploi poliment.
Assistant : Objet : Suite à votre proposition — [Poste]. Madame, Monsieur, je vous remercie sincèrement pour votre offre concernant le poste de [X]. Après mûre réflexion, j'ai décidé de poursuivre une autre opportunité plus en adéquation avec mes objectifs actuels...

Des milliers d'exemples comme ceux-ci, rédigés par des humains spécialement formés. C'est coûteux, c'est lent, mais c'est ce qui transforme un modèle brut en assistant utile.

L'analogie est parfaite : le fine-tuning, c'est l'école primaire. On apprend à l'IA les règles de base de la communication humaine. Quand quelqu'un pose une question, tu réponds. Quand quelqu'un demande de l'aide, tu aides. Quand tu ne sais pas, tu le dis.

📊 En chiffres :

  • 10 000 à 100 000 exemples de conversations pour le SFT
  • Des centaines d'annotateurs humains formés
  • 2 à 4 semaines d'entraînement supplémentaire
  • • Coût : $1-5 millions (une fraction du pré-entraînement)

🎓 Chapitre 5 : L'Éducation — RLHF

« Le fine-tuning a appris à l'IA à répondre. Le RLHF va lui apprendre à bien répondre. C'est la différence entre un enfant qui sait parler et un adolescent qui a des compétences sociales. »

Le RLHF (Reinforcement Learning from Human Feedback — Apprentissage par Renforcement à partir de Retours Humains) est la technique secrète qui a rendu ChatGPT spécial. Sans elle, ChatGPT aurait été un assistant correct. Avec elle, il est devenu un phénomène mondial.

Comment ça marche ?

Le principe est simple mais puissant. Pour une même question, le modèle génère plusieurs réponses. Des évaluateurs humains les classent de la meilleure à la pire. Puis le modèle apprend à produire des réponses qui ressemblent aux "meilleures".

Question : "Comment faire des crêpes ?"
🏆 Réponse A — Classée #1

"Voici une recette simple pour environ 10 crêpes : Mélangez 250g de farine, 3 oeufs, 50cl de lait et une pincée de sel. Laissez reposer 30 min. Faites cuire à la poêle avec un peu de beurre. Astuce : la pâte doit être fluide comme de la crème liquide."

Réponse B — Classée #2

"Les crêpes sont une préparation culinaire d'origine bretonne composée de farine, d'oeufs et de lait. La tradition des crêpes remonte au XIIIe siècle..." (trop académique, ne répond pas directement)

Réponse C — Classée #3

"Farine + oeufs + lait. Poêle. Cuire." (trop bref, pas utile)

L'humain a classé A > B > C. Le modèle apprend que les réponses pratiques, structurées et complètes sont préférées.

Le modèle de récompense

On ne peut pas demander à des humains de classer chaque réponse du modèle — il y en a des milliards. La solution : entraîner un deuxième modèle qui apprend les préférences humaines. Ce "reward model" (modèle de récompense) est une IA qui prédit si un humain aimerait une réponse donnée.

Puis, l'algorithme PPO (Proximal Policy Optimization) utilise ce reward model comme guide. Le modèle principal génère des réponses, le reward model les note, et le modèle principal s'ajuste pour obtenir de meilleures notes. C'est un cycle continu d'amélioration.

🧠 Ce que le RLHF enseigne concrètement :

✓ L'IA apprend à :
  • • Être polie et respectueuse
  • • Reconnaître quand elle ne sait pas
  • • Structurer ses réponses clairement
  • • Adapter son ton au contexte
  • • Refuser les demandes dangereuses
✗ L'IA apprend à ne pas :
  • • Inventer des faits (halluciner)
  • • Être condescendante ou agressive
  • • Produire du contenu dangereux
  • • Prétendre être humaine
  • • Manipuler l'utilisateur

Le problème de l'alignement

Le RLHF répond à une question fondamentale : comment s'assurer qu'une IA ultra-puissante fait ce que les humains veulent ? C'est le problème de l'"alignement" (alignment). Enseigner des compétences à une IA est facile. Lui enseigner des valeurs est beaucoup plus difficile.

Anthropic (le créateur de Claude) a poussé cette idée plus loin avec l'IA constitutionnelle : l'IA a un ensemble de principes écrits qu'elle doit suivre, et elle s'auto-évalue par rapport à ces principes. C'est comme donner une constitution à un pays : un ensemble de règles fondamentales que personne ne peut enfreindre.

🏆 Chapitre 6 : La Maturité — Déploiement et évolution

« Après des mois de gestation, de naissance et d'éducation, l'IA est prête. Le 30 novembre 2022, OpenAI ouvre les portes. ChatGPT entre dans le monde. Et le monde ne sera plus jamais le même. »

Le déploiement est le moment où l'IA quitte le laboratoire pour rencontrer le monde réel. Et comme un jeune adulte qui entre dans la vie active, les surprises sont nombreuses.

📈 L'adoption la plus rapide de l'histoire

5 jours
1 million d'utilisateurs
2 mois
100 millions d'utilisateurs
Pour comparaison : Instagram a mis 2,5 ans. TikTok a mis 9 mois. Netflix a mis 3,5 ans.

L'amélioration continue

Le déploiement n'est pas une fin — c'est le début d'un nouveau cycle d'apprentissage. Des millions d'utilisateurs révèlent des failles que les tests internes n'avaient pas trouvées :

  • Red teaming : des équipes spécialisées tentent de faire dire à l'IA des choses dangereuses, pour identifier et corriger les failles
  • Feedback utilisateur : les pouces vers le haut/bas que vous donnez servent réellement à améliorer le modèle
  • Patchs de sécurité : comme un système d'exploitation, l'IA reçoit des mises à jour régulières
  • Écosystème : plugins, outils, API, agents — l'IA s'intègre dans le monde numérique

C'est comme un adulte qui continue d'apprendre au travail, de s'adapter, de grandir. L'IA de décembre 2022 n'est pas la même que celle d'avril 2026. Elle a mûri.

👶 Chapitre 7 : La Descendance — Fine-tunes, distillation, modèles locaux

« Comme un être vivant, l'IA originale donne naissance à des "enfants" — des versions plus petites, plus spécialisées, plus accessibles. Et certains de ces enfants, vous pouvez les faire tourner sur votre propre PC. »

Les grands modèles comme GPT-4 ou Claude ne restent pas isolés. Ils engendrent tout un écosystème de modèles dérivés, chacun adapté à un usage spécifique. C'est la démocratisation de l'IA.

Les trois méthodes de "reproduction"

🎯
Fine-tuning spécialisé

Prendre un modèle existant et le spécialiser dans un domaine : médecine, droit, finance, code...

Analogie : un médecin a les mêmes bases qu'un avocat (l'école), mais s'est spécialisé ensuite.

🔨
Distillation

Compresser un modèle de 70 milliards de paramètres en un modèle de 7 milliards qui garde 90% de l'intelligence.

Analogie : un résumé de 10 pages d'un livre de 500 pages. L'essentiel est là.

📦
Quantisation

Réduire la précision des nombres (de 16 bits à 4 bits) pour diviser la mémoire par 4.

Analogie : au lieu de mesurer au millimètre, on mesure au centimètre. Assez précis pour la plupart des usages.

L'open source : la révolution silencieuse

La vraie révolution n'est pas GPT-4 ou Claude. C'est le fait que des modèles presque aussi bons sont disponibles gratuitement, en open source, et peuvent tourner sur du matériel grand public.

Modèle open source Taille Créateur GPU minimum
Llama 3.3 70B 70B paramètres Meta RTX 4090 (24 Go)
Mistral Large 123B paramètres Mistral AI 🇫🇷 2x RTX 4090
Qwen 2.5 72B 72B paramètres Alibaba RTX 4090 (24 Go)
Mistral 7B / Llama 3 8B 7-8B paramètres Mistral / Meta RTX 4070 (12 Go)

💡 Vous pouvez faire tourner ces modèles chez vous !

Grâce à des outils comme Ollama, vous pouvez télécharger et exécuter ces modèles en une seule commande. Vérifiez si votre PC est compatible, consultez notre guide du meilleur GPU pour l'IA locale en 2026, ou découvrez la machine de rêve pour l'IA locale.

# Installer et lancer un modèle IA en local
ollama run llama3:8b
# C'est tout. L'IA tourne sur votre PC.

Les GPU pour faire tourner l'IA chez vous

Vous n'avez pas besoin de 25 000 GPU A100 pour utiliser l'IA. Les "enfants" distillés des grands modèles tournent sur du matériel grand public :

🔮 Chapitre 8 : Le Futur — Et après ?

« L'IA a grandi. Elle parle, elle raisonne, elle crée. Mais son histoire ne fait que commencer. Ce qui vient ensuite pourrait être la transformation la plus profonde de l'humanité. »

Le multimodal : au-delà du texte

Les prochains modèles ne se contentent plus de lire et d'écrire. Ils voient des images, écoutent de l'audio, génèrent des vidéos. Un seul modèle qui comprend le monde à travers tous ses sens — comme un humain.

Les agents : l'IA qui agit

Aujourd'hui, l'IA répond à vos questions. Demain, elle agira pour vous. Les agents IA peuvent naviguer sur le web, exécuter du code, envoyer des emails, réserver des vols. La boucle AutoResearch de Karpathy est un exemple concret : une IA qui améliore du code toute seule pendant que vous dormez.

L'auto-amélioration : l'IA qui s'entraîne elle-même

Le Saint Graal de la recherche en IA : un modèle qui génère ses propres données d'entraînement, évalue ses propres réponses, et s'améliore sans intervention humaine. Des premières démonstrations existent déjà. Certains chercheurs pensent que c'est la dernière étape avant l'AGI (Intelligence Artificielle Générale).

La révolution open source

Grâce à Meta (Llama), Mistral AI, Alibaba (Qwen) et des centaines de contributeurs, l'IA n'est plus réservée aux géants de la tech. Avec les meilleures IA gratuites de 2026, n'importe qui peut expérimenter, créer, et contribuer. Consultez le benchmark Stanford/Meta HARNESS pour comparer les performances.

🧠 Le débat AGI : sommes-nous proches d'une intelligence artificielle aussi flexible et générale que l'intelligence humaine ? Les avis divergent. Sam Altman dit "dans quelques années". Yann LeCun dit "on est loin". La vérité est probablement entre les deux. Ce qui est certain : les progrès des 3 dernières années ont été plus rapides que ce que quiconque avait prédit.

🎲 Démo interactive : La Timeline d'une IA

Explorez chaque étape de la naissance d'une IA. Cliquez sur une étape pour voir les détails.

Durée
Coût
Personnes
Durée totale
Coût total
Équipe

🧠 Démo interactive : Évolution du cerveau IA

Déplacez le curseur pour voir le cerveau de l'IA évoluer du Jour 1 au Jour 500.

Jour 1 Jour 500
Jour
Intelligence
%
Connexions
Phase
Capacité

📊 Résumé : la vie d'une IA en un coup d'oeil

1
Conception (Architecture)
Choix du Transformer, nombre de paramètres. L'ADN du modèle.
2-4 sem.
2
Gestation (Données)
13 000 milliards de tokens collectés, nettoyés, tokenisés.
3-6 mois
3
Accouchement (Pré-entraînement)
25 000 GPU pendant 90+ jours. $100M+. L'intelligence émerge.
3-4 mois
4
Enfance (Fine-tuning)
Des milliers d'exemples de conversations idéales. L'IA apprend les règles.
2-4 sem.
5
Éducation (RLHF)
Les humains classent les réponses. L'IA apprend à être utile et sûre.
2-6 sem.
6
Maturité (Déploiement)
100 millions d'utilisateurs en 2 mois. Amélioration continue.
Continu

Au total : environ 18 mois, plus de $100 millions en calcul, 25 000 GPU, 500+ personnes, et 13 000 milliards de tokens de texte. Pour un modèle qui tient dans quelques centaines de gigaoctets et peut répondre à n'importe quelle question en quelques secondes.

Et grâce à la distillation et à l'open source, des versions de cette intelligence fonctionnent désormais sur votre PC.

❓ Questions fréquentes

Une IA comme ChatGPT est créée en 6 étapes : choix de l'architecture (Transformer), collecte de données (13 000 milliards de tokens), pré-entraînement sur des milliers de GPU pendant des mois, fine-tuning supervisé, alignement par RLHF, puis déploiement. Le processus complet prend environ 18 mois et coûte plus de 100 millions de dollars.

L'entraînement de GPT-4 a coûté entre 50 et 100 millions de dollars uniquement en calcul (compute). Cela inclut environ 25 000 GPU NVIDIA A100 fonctionnant pendant 90 à 100 jours, plus l'électricité, le refroidissement, et les équipes d'ingénieurs. Le coût de fonctionnement annuel (inférence) est encore plus élevé : environ 500 millions de dollars par an.

Le RLHF (Reinforcement Learning from Human Feedback) est la technique qui rend les IA comme ChatGPT utiles et sûres. Des humains évaluent les réponses de l'IA (en les classant de la meilleure à la pire), et le modèle apprend à produire des réponses que les humains préfèrent. C'est ce qui différencie un modèle brut d'un assistant utile comme ChatGPT ou Claude.

Oui ! Grâce aux modèles open-source comme Llama, Mistral ou Qwen, et aux outils comme Ollama, il est possible de faire tourner des IA performantes sur un PC avec un GPU grand public (RTX 4070 ou RTX 4090). Vous pouvez même fine-tuner un modèle sur vos propres données. Vérifiez votre compatibilité sur notre outil gratuit.

Un modèle pré-entraîné est comme un enfant qui sait parler mais n'a pas de manières : il a absorbé des milliards de textes mais ne sait pas être utile. Le fine-tuning lui apprend à répondre correctement aux questions, à être poli et structuré. C'est l'éducation après la naissance.

GPT-4 possède environ 1 800 milliards (1.8 trillion) de paramètres, organisés en un mélange d'experts (Mixture of Experts / MoE). Seule une fraction de ces paramètres est activée pour chaque requête, ce qui le rend plus efficace qu'un modèle dense de même taille. Pour comparaison, le cerveau humain a environ 100 000 milliards de synapses.

🔗 Pour aller plus loin

🧠

Cet article vous a plu ?

Partagez-le avec quelqu'un qui se demande "comment fonctionne une IA".
C'est le genre d'article qu'on envoie à ses parents pour expliquer notre époque.