Les IA interdites en France en 2026 (et comment les utiliser légalement)
EU AI Act, deepfakes, surveillance... Le guide définitif de ce qui est interdit, réglementé, et totalement libre.
« En février 2025, les premières interdictions de l'EU AI Act sont entrées en vigueur. Depuis, la confusion règne : qu'est-ce qui est vraiment interdit ? ChatGPT est-il légal ? Peut-on faire des deepfakes ? Et surtout : l'IA locale échappe-t-elle aux règles ? Voici les réponses. »
L'EU AI Act (Règlement européen sur l'Intelligence Artificielle) est le premier cadre légal au monde spécifiquement conçu pour réguler l'IA. Il est en vigueur en France depuis 2025, avec une mise en application progressive jusqu'en 2027.
Le problème ? Personne ne comprend vraiment ce qui est interdit. Les médias exagèrent, les entreprises paniquent, et les utilisateurs se demandent s'ils risquent quelque chose en utilisant ChatGPT. Ce guide met les choses au clair.
🚫 Les 7 usages de l'IA totalement interdits en France
Ces pratiques sont classées "risque inacceptable" par l'EU AI Act. Elles sont purement et simplement interdites, sans exception (ou presque).
1. Le scoring social (comme en Chine)
Utiliser l'IA pour attribuer un "score social" aux citoyens basé sur leur comportement, leurs interactions sociales ou leurs activités en ligne. C'est le système chinois de crédit social — et c'est totalement interdit en Europe.
2. La reconnaissance faciale en temps réel dans les lieux publics
Les systèmes de surveillance biométrique en temps réel dans les espaces publics sont interdits. Pas de caméras IA qui scannent les visages dans la rue, les gares, ou les centres commerciaux.
Note : c'est cette exception qui a été utilisée pendant les JO de Paris 2024 pour la vidéosurveillance algorithmique.
3. La détection d'émotions au travail et à l'école
Utiliser l'IA pour détecter les émotions des employés (stress, ennui, colère) ou des élèves est interdit. Cela inclut l'analyse de micro-expressions faciales, le ton de la voix, et les mouvements corporels.
4. La police prédictive individuelle
Utiliser l'IA pour prédire si une personne spécifique va commettre un crime, basé sur son profil, son historique ou ses caractéristiques personnelles. C'est le scénario de Minority Report — et c'est interdit.
Note : l'analyse prédictive de zones géographiques (où les crimes sont statistiquement plus fréquents) reste autorisée.
5. Les deepfakes sans mention
Les deepfakes ne sont pas interdits en soi, mais ils doivent être clairement étiquetés comme contenu généré par IA. Un deepfake non signalé est illégal. Un deepfake utilisé pour l'usurpation d'identité ou la désinformation est sévèrement puni.
Illégal : Deepfake sans mention, pornographie non consentie, usurpation.
6. La manipulation de personnes vulnérables par IA
Utiliser l'IA pour exploiter les vulnérabilités de groupes spécifiques (enfants, personnes âgées, personnes handicapées) pour influencer leur comportement de manière préjudiciable. Cela inclut les publicités IA ciblant les enfants avec des techniques de manipulation.
7. La catégorisation biométrique discriminatoire
Utiliser l'IA pour catégoriser les personnes selon leur race, religion, orientation sexuelle ou opinions politiques à partir de données biométriques (visage, voix, démarche). C'est du profilage — et c'est interdit.
⚠️ Ce qui est réglementé (mais pas interdit)
Ces usages sont classés "risque élevé" ou "risque limité". Ils sont légaux mais soumis à des obligations :
⚠️ ChatGPT, Claude, Gemini — Légaux avec obligations
Les IA génératives sont classées "risque limité". Obligations : signaler que le contenu est généré par IA, publier un résumé des données d'entraînement utilisées, respecter le droit d'auteur. Pour l'utilisateur : aucune restriction.
⚠️ Contenu généré par IA — Légal mais doit être étiqueté
Images, textes, vidéos, audio générés par IA sont légaux mais doivent porter la mention "généré par IA" quand ils sont publiés. Cela s'applique aux médias, aux réseaux sociaux, et au contenu commercial.
⚠️ IA dans le recrutement — Haut risque
Les systèmes IA utilisés pour filtrer les CV, évaluer les candidats ou prendre des décisions d'embauche sont classés "haut risque". Obligations : audits réguliers, transparence, possibilité de contestation humaine.
⚠️ IA dans la santé — Haut risque
Les outils de diagnostic IA, d'aide à la prescription, et de triage médical sont classés "haut risque". Un médecin humain doit toujours valider les décisions. Obligations : certification CE, traçabilité, tests cliniques.
⚠️ IA dans l'éducation — Haut risque
Les systèmes IA qui notent les élèves, déterminent l'accès à l'éducation (Parcoursup !), ou personnalisent les parcours sont classés "haut risque". Transparence et possibilité de recours humain obligatoires.
✓ Ce qui est totalement légal (et sans restriction)
🏠 L'IA locale : la liberté totale
Voici le point crucial que personne ne mentionne : faire tourner une IA sur votre propre machine est 100% légal et échappe à la plupart des réglementations. Pourquoi ?
- • Aucune donnée ne quitte votre machine → pas de RGPD vis-à-vis d'un tiers
- • Pas de service en ligne → vous n'êtes pas un "fournisseur d'IA" au sens de l'EU AI Act
- • Usage personnel ou interne → les obligations de transparence ne s'appliquent qu'aux services publics
- • Modèles open source → Hermes, Mistral, Llama sont librement utilisables
✓ Utiliser ChatGPT/Claude pour le travail
100% légal. Aucune restriction pour l'utilisateur final. Les obligations sont du côté d'OpenAI et Anthropic, pas du vôtre.
✓ Générer du code avec l'IA
100% légal. Copilot, Claude Code, Cursor — aucun problème juridique. Le code généré vous appartient.
✓ Faire tourner Ollama/Hermes localement
100% légal et sans aucune restriction. Vos données, vos règles. Guide d'installation.
✓ Rédiger des articles avec l'IA
Légal. Mais si vous publiez, la bonne pratique est de mentionner l'utilisation de l'IA (obligatoire pour les médias).
⚖️ Vérificateur de légalité IA
Décrivez votre cas d'usage IA pour savoir s'il est légal, réglementé ou interdit en France :
📊 La pyramide des risques de l'EU AI Act
Risque inacceptable — INTERDIT
Scoring social, reconnaissance faciale de masse, détection d'émotions au travail, police prédictive individuelle
Risque élevé — RÉGLEMENTÉ
IA dans le recrutement, la santé, l'éducation, la justice, les infrastructures critiques
Risque limité — OBLIGATIONS DE TRANSPARENCE
ChatGPT, Claude, Gemini, chatbots IA, génération de contenu, deepfakes étiquetés
Risque minimal — AUCUNE RESTRICTION
IA locale (Ollama, Hermes), filtres anti-spam, jeux vidéo, recommandations, assistants personnels
🏠 L'IA locale : la zone de liberté absolue
C'est le point le plus important de cet article. Si vous faites tourner une IA sur votre propre machine, avec Ollama par exemple :
Ce qui ne s'applique PAS
- ✓ Pas d'obligation de transparence (vous ne publiez pas un service)
- ✓ Pas de RGPD vis-à-vis d'un tiers (vos données restent chez vous)
- ✓ Pas de limites d'utilisation (pas de quotas, pas d'abonnement)
- ✓ Pas de censure (les modèles locaux n'ont pas de filtres cloud)
Ce qui s'applique QUAND MÊME
- ✗ Les lois générales (diffamation, incitation à la haine, etc.)
- ✗ Le droit d'auteur (générer du contenu protégé reste problématique)
- ✗ Si vous déployez un service public, les règles EU AI Act s'appliquent
« L'IA locale, c'est comme avoir un livre chez soi. Personne ne vous demande ce que vous lisez, combien de fois, ni pourquoi. C'est votre machine, votre modèle, vos données. Privacy by design. »
📅 Chronologie : les dates clés de l'EU AI Act
Première proposition de la Commission européenne
Accord politique entre le Parlement et le Conseil européen
Entrée en vigueur du règlement (publication au Journal officiel)
Interdictions effectives : pratiques à risque inacceptable (scoring social, reconnaissance faciale...)
Obligations pour les modèles d'IA à usage général (GPT, Claude, Gemini)
Application complète : toutes les obligations pour les systèmes à haut risque
Extension aux systèmes IA déjà sur le marché (obligation de mise en conformité)
💡 Où en sommes-nous en avril 2026 ? Les interdictions (risque inacceptable) sont déjà en vigueur. Les obligations pour les IA génératives aussi. Les obligations complètes pour les systèmes à haut risque (recrutement, santé, éducation) entrent en vigueur dans 4 mois.
❓ Questions fréquentes
Est-ce que ChatGPT est interdit en France ?
Non. ChatGPT est classé "risque limité" et est totalement légal en France. Les obligations de transparence sont du côté d'OpenAI, pas de l'utilisateur. Vous pouvez l'utiliser librement pour le travail, les études, et l'usage personnel.
Les deepfakes sont-ils illégaux ?
Pas en soi. Mais ils doivent être clairement étiquetés comme contenu généré par IA. Un deepfake non étiqueté est illégal. La pornographie deepfake non consentie et l'usurpation d'identité sont sévèrement punies.
Mon employeur peut-il m'interdire d'utiliser l'IA ?
Oui, votre employeur peut avoir une politique interne sur l'usage de l'IA au travail. Mais ce n'est pas une interdiction légale — c'est une règle d'entreprise. Beaucoup d'entreprises interdisent l'envoi de données confidentielles à ChatGPT, ce qui est une précaution raisonnable. Solution : utilisez l'IA locale.
Quelles sanctions en cas de non-respect ?
Les sanctions vont de 7,5 millions d'euros (risque limité) à 35 millions d'euros ou 7% du chiffre d'affaires mondial (risque inacceptable). Ces sanctions visent les entreprises, pas les utilisateurs individuels.
👉 Résumé : ce qu'il faut retenir
Scoring social, surveillance faciale de masse, détection d'émotions au travail...
ChatGPT, Claude, Gemini : légaux mais avec obligations de transparence (côté fournisseur)
Ollama, Hermes, Mistral en local = aucune restriction, confidentialité absolue
📚 Articles liés
L'IA locale au quotidien : le journal de bord
L'impact de l'IA sur l'emploi en France
Faites tourner une IA 100% légale et privée
L'IA remplace la recherche web en 2026