Mis à jour le 23 avril 2026 — après la première année d'application des interdictions (2 février 2025) et des règles GPAI (2 août 2025).
L'AI Act est le premier règlement au monde qui tente de réguler l'intelligence artificielle de manière horizontale. Pas un secteur, pas une technologie — l'ensemble des systèmes IA commercialisés ou utilisés dans l'Union européenne, classés par niveau de risque. Adopté le 13 juin 2024, publié au Journal officiel de l'Union européenne le 12 juillet 2024, entré en vigueur le 1er août 2024, appliqué par vagues jusqu'au 2 août 2027.
Un an et demi après l'entrée en vigueur, le texte tient à peu près ses promesses : les pratiques interdites de l'article 5 sont appliquées depuis février 2025, les règles sur les modèles à usage général (GPAI) depuis août 2025, la CNIL s'est positionnée comme autorité de marché en France, et l'AI Office européen a publié ses premières lignes directrices. Ce qui reste le plus controversé, ce sont les obligations sur les systèmes à haut risque (articles 9-29) qui ne s'appliquent que progressivement jusqu'en août 2027 — et dont l'interprétation cristallise l'essentiel des débats en 2026.
Cette page explique le règlement (UE) 2024/1689 article par article quand ça compte, et prend du recul quand le texte est ambigu. Pour l'index complet des sources officielles et des lignes directrices, le registre réglementaire IA du site tient la liste à jour.
Note éditoriale. Chaque claim factuel (date, article, autorité) est lié à la source primaire EUR-Lex ou CNIL. Nos interprétations sont explicitement signalées. Pour un avis juridique engageant, lisez l'article directement sur EUR-Lex — l'AI Act est un texte dense (180 récitals, 113 articles, 13 annexes) mais très navigable grâce à sa table des matières.
Le cadre : un règlement-produit appliqué à l'IA
Structurellement, l'AI Act n'est pas inspiré du RGPD. C'est une filiation importante à comprendre, parce qu'elle explique 80 % des choix du texte. L'AI Act est construit sur le modèle des règlements européens de sécurité des produits — marquage CE, conformité à des normes harmonisées, surveillance du marché par les États membres, organismes notifiés. Il ressemble moins au RGPD qu'à la directive jouets ou au règlement machines.
Cette filiation a deux conséquences pratiques. D'abord, les obligations tombent principalement sur le fournisseur du système (celui qui le met sur le marché), pas sur l'utilisateur final. Le déployeur (celui qui l'utilise) a des obligations plus légères, sauf pour les systèmes à haut risque où il est aussi responsable de la bonne utilisation. Cette distinction fournisseur/déployeur (articles 3(3) et 3(4)) est fondamentale pour déterminer qui porte quelle obligation.
Ensuite, la conformité passe par des procédures d'évaluation qui ressemblent à celles du marquage CE : auto-évaluation pour la majorité des systèmes haut risque, évaluation par un organisme notifié pour certains cas spécifiques (systèmes de biométrie, notamment). Les fournisseurs doivent tenir une documentation technique, produire une déclaration de conformité UE, apposer le marquage CE, s'enregistrer dans une base de données européenne (article 71). C'est un cadre lourd, mais c'est un cadre déjà rodé par 30 ans de pratique sur les produits industriels.
Les 4 niveaux de risque — et pourquoi le niveau compte plus que la techno
Le règlement ne cible pas une technologie (pas de définition du machine learning, pas de liste d'algorithmes interdits). Il cible des usages classés par niveau de risque. Le même modèle technique — un réseau de neurones, disons — peut être totalement libre ou strictement interdit selon ce qu'on en fait. Cette approche a été contestée par l'industrie (qui aurait préféré une régulation fondée sur les capacités techniques), défendue par la Commission (qui voulait un régime pérenne qui survive aux évolutions de la technologie), et tranchée par le Parlement en 2023.
| Niveau | Exemples d'usages | Régime | Article(s) clé |
|---|---|---|---|
| Inacceptable | Scoring social type Chine, manipulation cognitive, exploitation de vulnérabilités (enfants, handicaps), police prédictive individuelle, reconnaissance émotionnelle au travail ou à l'école, identification biométrique temps réel dans l'espace public (hors exceptions étroites) | Interdit | Art. 5 |
| Élevé | Systèmes intégrés comme composant de sécurité à un produit déjà régulé (Annexe I), ou systèmes listés à l'Annexe III (biométrie, infrastructures critiques, éducation, emploi, services essentiels, application de la loi, migration, justice) | Obligations de conformité ex ante | Art. 6-29 |
| Limité | Chatbots, systèmes d'interaction avec les humains, deepfakes, contenus générés ou manipulés par IA | Obligations de transparence | Art. 50 |
| Minimal | Filtres anti-spam, IA de jeu vidéo, recommandations personnalisées non sensibles, etc. | Aucune obligation spécifique | — |
Point fondamental que la presse grand public rate souvent : la majorité absolue des systèmes IA déployés dans l'UE tombent dans la catégorie « risque minimal » et ne sont soumis à aucune obligation AI Act spécifique. Le règlement n'interdit pas l'IA, il encadre les usages qui méritent un encadrement — et laisse le reste en autorégulation (articles 95-96 sur les codes de conduite volontaires).
Les pratiques interdites (article 5) déjà en vigueur
L'article 5 est la partie la plus nettement rédigée du règlement, et aussi la première applicable — depuis le 2 février 2025. Huit pratiques sont interdites, chacune avec des exceptions techniques mais toutes avec un plafond absolu. Les principales : techniques de manipulation subliminale exploitant l'âge ou le handicap qui altèrent matériellement le comportement d'une personne d'une manière susceptible de lui causer un préjudice (art. 5(1)(a)) ; scoring social généralisé fondé sur le comportement ou des caractéristiques personnelles, avec traitements défavorables injustifiés (art. 5(1)(c)) ; police prédictive individuelle fondée sur le seul profilage (art. 5(1)(d)) ; reconnaissance émotionnelle au travail et dans les établissements d'enseignement, hors raisons médicales ou de sécurité (art. 5(1)(f)) ; catégorisation biométrique pour inférer la race, les opinions politiques, l'appartenance syndicale, les convictions religieuses, la vie sexuelle ou l'orientation sexuelle (art. 5(1)(g)) ; identification biométrique à distance en temps réel dans les espaces publics à des fins d'application de la loi, avec exceptions strictes soumises à autorisation judiciaire préalable (art. 5(1)(h)).
Ces interdictions ne sont pas théoriques. La Commission européenne a publié en février 2025 des lignes directrices sur l'application de l'article 5 qui visent explicitement certaines pratiques commerciales existantes — notamment des outils d'analyse émotionnelle dans les call centers, qui ont dû être retirés du marché européen ou reconfigurés pour ne plus inférer d'états émotionnels.
La CNIL, dans sa page dédiée à l'AI Act, précise son approche française. En particulier, elle maintient une ligne stricte sur la reconnaissance émotionnelle en entreprise : toute mise en œuvre qui irait au-delà des exceptions médicales ou de sécurité tombe sous le coup de l'interdiction, quelle que soit la justification invoquée par l'employeur.
Systèmes à haut risque : obligations articles 9-29
C'est le cœur du règlement et la partie la plus lourde en obligations. L'article 6 définit deux voies pour entrer dans la catégorie haut risque : systèmes intégrés comme composant de sécurité d'un produit déjà couvert par la législation d'harmonisation UE listée à l'Annexe I (machines, jouets, dispositifs médicaux, ascenseurs, équipements radio) ; ou systèmes listés à l'Annexe III par domaine d'application — biométrie, infrastructures critiques, éducation, emploi et gestion RH, accès aux services essentiels publics et privés, application de la loi, migration et contrôle des frontières, administration de la justice et processus démocratiques.
Pour un système haut risque, les obligations articles 9 à 15 recouvrent : système de gestion des risques (identification, analyse, évaluation continue) ; gouvernance des données (qualité, représentativité, gestion des biais dans les jeux de données d'entraînement, de validation et de test) ; documentation technique détaillée (Annexe IV) ; traçabilité et journalisation ; transparence vis-à-vis du déployeur ; supervision humaine ; exactitude, robustesse et cybersécurité. Les articles 16 à 22 fixent les obligations spécifiques des fournisseurs, et 26-27 celles des déployeurs. L'article 71 impose l'enregistrement dans la base de données européenne pour les systèmes haut risque autonomes. L'évaluation de la conformité se fait par auto-évaluation (articles 16 et 43, Annexe VI) ou par organisme notifié (Annexe VII) selon le type de système.
Point pratique : les obligations articles 9-15 ressemblent énormément à ce que demande une norme ISO/IEC comme la série ISO 42001 (systèmes de gestion de l'IA) ou ISO 23894 (gestion des risques IA). Dans les faits, une organisation déjà certifiée ISO 42001 aura déjà la moitié de la documentation AI Act. Les normes harmonisées CEN-CENELEC en cours de publication créeront bientôt une présomption de conformité simplifiée — c'est la voie que nous recommandons pour les fournisseurs industriels.
GPAI et risque systémique
Les modèles d'IA à usage général (General-Purpose AI, ou GPAI) ont leur propre chapitre (V, articles 51-56). C'est la partie la plus négociée politiquement du règlement, ajoutée tardivement au printemps 2023 après la sortie de ChatGPT, et finalisée sous pression française en décembre 2023 pour préserver les champions européens (Mistral, principalement).
La définition d'un GPAI (article 3(63)) : un modèle d'IA, y compris lorsqu'il est entraîné avec une auto-supervision à grande échelle, qui affiche une généralité significative et est capable de réaliser de manière compétente un large spectre de tâches distinctes, quelle que soit la manière dont le modèle est mis sur le marché. En pratique : GPT-4, Claude, Gemini, Llama, Mistral Large, Qwen.
Les obligations de base pour tous les GPAI (article 53) : documentation technique à destination de l'AI Office et des autorités compétentes ; documentation à destination des fournisseurs en aval qui intègrent le GPAI dans leurs propres systèmes ; politique de respect du droit d'auteur conforme à la Directive 2019/790 ; résumé public suffisamment détaillé du contenu utilisé pour l'entraînement, selon un modèle adopté par l'AI Office.
Un GPAI est classé à risque systémique (article 51) s'il a été entraîné avec une capacité de calcul cumulative supérieure à 10²⁵ opérations en virgule flottante (FLOPs). Ce seuil est atteint par quelques modèles seulement (GPT-4, Claude 3 Opus, Gemini Ultra, Llama 3 405B). Il est revu régulièrement par l'AI Office. Les GPAI à risque systémique ont des obligations renforcées (article 55) : évaluation du modèle selon des protocoles standardisés, évaluation et atténuation des risques systémiques (notamment CBRN et désinformation à grande échelle), suivi et reporting des incidents graves à l'AI Office, cybersécurité.
Notre lecture : le seuil de 10²⁵ FLOPs est aujourd'hui contournable par l'amélioration de l'efficience d'entraînement (Chinchilla scaling, modèles plus petits mais mieux entraînés). L'AI Office a indiqué en 2025 qu'il ajusterait les critères pour intégrer des signaux complémentaires — nombre de paramètres effectifs, coût d'entraînement, largeur d'utilisation. Le régime risque systémique va donc probablement s'élargir dans les prochaines années.
Gouvernance : AI Office, EDIB, CNIL
Trois couches de gouvernance se superposent. Au niveau européen, l'AI Office (article 64, établi au sein de la Commission européenne, DG CNECT) est la structure exécutive centrale. Il supervise les GPAI, publie des lignes directrices, coordonne avec les autorités nationales, et peut imposer des amendes directement aux fournisseurs de GPAI. Il s'appuie sur un conseil scientifique d'experts indépendants (article 68) et travaille avec le Comité européen de l'IA (European Artificial Intelligence Board, EDIB, article 65) qui réunit les représentants des 27 autorités nationales.
Au niveau national, chaque État membre désigne ses autorités compétentes (article 70). La France a désigné la CNIL comme autorité de coordination nationale en mars 2025. Les autorités sectorielles conservent leurs compétences : ACPR et AMF pour le financier, ARCOM pour l'audiovisuel, DGCCRF pour la protection des consommateurs, ARS et ANSM pour la santé.
Au niveau organisme notifié, certains systèmes haut risque nécessitent une évaluation par un organisme notifié indépendant, accrédité par l'autorité de notification nationale. Le COFRAC gère l'accréditation en France. Au 23 avril 2026, la liste des organismes notifiés AI Act reste courte — c'est un des goulots d'étranglement à surveiller pour les fournisseurs de systèmes biométriques devant passer par cette voie.
Calendrier : 2025-2027 en trois vagues
| Date | Dispositions applicables | Articles |
|---|---|---|
| 1er août 2024 | Entrée en vigueur du règlement. Rien ne s'applique encore. | Art. 113 |
| 2 février 2025 | Chapitres I (dispositions générales) et II (pratiques interdites). Début de l'application de l'article 5. | Chap. I-II |
| 2 août 2025 | Modèles GPAI (Chap. V), gouvernance (Chap. VII, AI Office + EDIB), sanctions (Chap. XII), confidentialité (art. 78). Les fournisseurs de GPAI doivent être conformes à l'article 53. | Chap. V, VII, XII |
| 2 août 2026 | Application complète sauf art. 6(1). La majorité des obligations sur les systèmes haut risque Annexe III deviennent exigibles. | Tous sauf art. 6(1) |
| 2 août 2027 | Article 6(1) — systèmes haut risque intégrés comme composants de sécurité à des produits Annexe I. | Art. 6(1) |
Point politique : le calendrier étagé a été une condition de l'accord en trilogue fin 2023. Les associations industrielles avaient demandé 36 mois minimum pour se conformer ; le Parlement voulait 12 mois maximum ; le compromis à 24 mois pour le gros œuvre (août 2026) et 36 mois pour les cas les plus complexes (août 2027) a été la porte de sortie. Il ne bougera probablement pas — contrairement à CSRD, il n'y a pas eu de pression systémique assez forte pour déclencher un « Stop-the-Clock » sur l'AI Act.
Sanctions : 7 % du CA mondial comme plafond
L'article 99 fixe le plafond des amendes en trois niveaux : jusqu'à 35 millions d'euros ou 7 % du chiffre d'affaires mondial annuel (le plus élevé retenu) pour les violations de l'article 5 ; jusqu'à 15 millions ou 3 % pour les violations des obligations de fournisseur (art. 16-24), de déployeur (art. 26), des organismes notifiés, et de l'article 50 sur la transparence ; jusqu'à 7,5 millions ou 1 % pour fourniture d'informations incorrectes, incomplètes ou trompeuses aux autorités.
Pour les GPAI, l'article 101 prévoit un régime spécifique : jusqu'à 3 % du chiffre d'affaires mondial ou 15 millions d'euros, imposable directement par l'AI Office. C'est la première fois qu'une sanction européenne directe est prévue sur des fournisseurs de technologie — l'AI Office peut, sans passer par une autorité nationale, ouvrir une procédure et imposer l'amende.
Comparaison avec le RGPD : le plafond RGPD est de 4 % du chiffre d'affaires mondial. L'AI Act va jusqu'à 7 % pour les pratiques les plus graves. C'est un signal politique fort — le régulateur européen considère que les atteintes les plus graves de l'IA peuvent être plus préjudiciables que celles du RGPD.
Comment lire le texte officiel
Ordre de lecture pratique pour un juriste ou un DPO : ouvrez le règlement (UE) 2024/1689 sur EUR-Lex via l'URI ELI stable. Lisez l'article 3 (définitions) en entier — l'AI Act utilise un vocabulaire précis qui diffère parfois du vocabulaire commun (« fournisseur », « déployeur », « système IA », « GPAI »). Identifiez votre rôle : fournisseur (art. 3(3)), déployeur (art. 3(4)), importateur (art. 3(6)), distributeur (art. 3(7)). Pour un système donné : consultez l'article 5 (interdit ?), puis l'article 6 et les Annexes I et III (haut risque ?), puis l'article 50 (transparence ?).
Si vous êtes fournisseur de GPAI : lisez les articles 51-55 et, si vous approchez le seuil 10²⁵ FLOPs, l'article 55 spécifiquement. Pour la lecture française : la page AI Act de la CNIL donne l'articulation avec le RGPD et les positions nationales.
Astuce : les 180 récitals du préambule sont longs mais très utiles pour l'interprétation. Le récital 27 explique la philosophie par niveau de risque, le récital 60 le régime GPAI, le récital 100 la logique des pratiques interdites. Les récitals ne sont pas contraignants mais ils sont cités par l'AI Office dans ses lignes directrices.
Sources primaires et liens utiles
- Règlement (UE) 2024/1689 — EUR-Lex ELI
- Commission européenne — Cadre réglementaire IA
- AI Office — page officielle DG CNECT
- CNIL — page AI Act
- CNIL — dossier thématique IA
- Registre réglementaire IA — index complet des textes officiels
Révisé le 23 avril 2026 par Réglementation IA Compliance Desk, contre EUR-Lex et les publications CNIL et AI Office. Cette page est un guide structurel et éditorial du règlement AI Act. Elle ne constitue pas un avis juridique. Les commentaires interprétatifs sont notre lecture, explicitement signalés. Seuls les textes publiés au Journal officiel de l'Union européenne prévalent.
Questions fréquentes
Le règlement (UE) 2024/1689 est entré en vigueur le 1er août 2024. Son application est étagée : les dispositions générales et les interdictions (Chap. I et II) s'appliquent depuis le 2 février 2025, les règles sur les modèles GPAI et la gouvernance depuis le 2 août 2025, l'essentiel du règlement depuis le 2 août 2026, et les exigences complètes sur les systèmes à haut risque de l'article 6(1) à partir du 2 août 2027.
Risque inacceptable (pratiques interdites, article 5) ; risque élevé (systèmes listés aux annexes I et III, soumis à obligations de conformité articles 9-29) ; risque limité (obligations de transparence article 50) ; risque minimal (pas d'obligations spécifiques).
Un modèle d'IA à usage général défini à l'article 3(63) du règlement : un modèle entraîné sur de grandes quantités de données en utilisant une auto-supervision à grande échelle, qui peut servir de base à une variété de tâches en aval. GPT-4, Claude, Gemini, Mistral Large sont des exemples. Les GPAI sont soumis aux obligations du chapitre V (articles 51-56).
La CNIL a été désignée comme autorité de coordination et autorité de marché sur l'IA en France, par décret en 2025. Les autorités sectorielles existantes (ACPR, ARCOM, ARS, DGCCRF) conservent leurs compétences. Au niveau européen, l'AI Office (Commission européenne, DG CNECT) coordonne et surveille les GPAI.
Non. L'AI Act est un règlement européen, directement applicable dans tous les États membres sans transposition. La France a seulement adopté des textes de coordination (désignation de la CNIL, articulation avec le RGPD et les régimes sectoriels).
L'article 99 fixe trois niveaux : jusqu'à 35 millions ou 7 % du CA mondial pour les pratiques interdites ; jusqu'à 15 millions ou 3 % pour les autres violations ; jusqu'à 7,5 millions ou 1 % pour la fourniture d'informations incorrectes. Pour les GPAI, l'article 101 prévoit jusqu'à 3 % du CA mondial ou 15 millions d'euros.
L'article 6 liste deux voies : systèmes intégrés comme composant de sécurité à un produit Annexe I (machines, jouets, ascenseurs, dispositifs médicaux) ; systèmes listés à l'annexe III par domaine — biométrie, infrastructures critiques, éducation, emploi, services essentiels, application de la loi, migration, justice. Des exceptions étroites sont prévues à l'article 6(3).
Sur EUR-Lex via l'URI stable https://eur-lex.europa.eu/eli/reg/2024/1689/oj. Le règlement comporte 180 récitals et 113 articles, répartis en 13 chapitres, avec 13 annexes. Les annexes I et III sont les plus consultées : Annexe I liste la législation d'harmonisation UE couverte, Annexe III liste les systèmes haut risque par domaine d'application.