Le Règlement Européen sur l'Intelligence Artificielle (IA Act) s'applique progressivement depuis 2024. En 2026, plusieurs obligations clés entrent en vigueur pour les entreprises françaises qui développent ou utilisent des systèmes d'IA — avec des sanctions pouvant atteindre 35 millions d'euros.
La classification des risques IA Act
- Identifier vos systèmes d'IA et leur classification de risque
- Vérifier que vous n'utilisez pas de systèmes interdits
- Mettre en place la transparence pour les IA qui interagissent avec les humains
- Documenter les systèmes à risque élevé si vous en développez
- Former vos équipes et nommer un responsable IA compliance
| Niveau de risque | Exemples | Obligations | Sanctions max |
|---|---|---|---|
| Risque inacceptable (interdit) | Score social, surveillance biométrique temps réel | Interdiction totale depuis fév. 2025 | 35 M€ ou 7 % CA mondial |
| Risque élevé | Recrutement automatisé, crédit scoring, IA médicale | Documentation, tests, marquage CE | 15 M€ ou 3 % CA |
| Risque limité | Chatbots, deepfakes | Obligation de transparence | 7,5 M€ ou 1,5 % CA |
| Risque minimal | Filtres spam, IA jeux vidéo | Codes de conduite volontaires | — |
Ce qui est déjà interdit en 2026
Depuis le 2 février 2025, les systèmes suivants sont strictement interdits dans l'UE :
- Systèmes de notation sociale généralisée des personnes
- Identification biométrique à distance en temps réel dans les espaces publics
- IA qui exploitent les vulnérabilités (âge, handicap) pour influencer le comportement
- Systèmes d'inférence des émotions sur le lieu de travail ou en classe
- Bases de données de reconnaissance faciale par scraping non ciblé
Obligations de transparence : déjà applicables
Si votre entreprise utilise des chatbots ou des agents conversationnels, les utilisateurs doivent être clairement informés qu'ils interagissent avec un système d'IA. Les deepfakes doivent être marqués comme tels. Les textes générés par IA à des fins d'information doivent être identifiés comme synthétiques.
Que faire concrètement si vous êtes une PME ?
La plupart des PME n'utilisent que des IA à risque minimal ou limité. Pour elles :
- Identifier les outils IA utilisés et leur classification
- Mettre en place la transparence pour les chatbots orientés clients
- Vérifier les conditions d'utilisation des fournisseurs IA
Plus sur la classification des risques IA Act, les sanctions et amendes et la conformité IA Act pour les PME.
Questions fréquentes sur l'IA Act 2026
L'IA Act s'applique-t-il aux entreprises non-européennes ?
Oui, l'IA Act a un effet extraterritorial similaire au RGPD. Toute entreprise dont les systèmes d'IA sont utilisés dans l'UE est soumise au règlement.
Un chatbot d'entreprise est-il soumis à l'IA Act ?
Oui, si ce chatbot interagit avec des personnes. L'obligation principale est la transparence : l'utilisateur doit savoir qu'il interagit avec un système IA.
Quelles sont les sanctions pour non-respect de l'IA Act ?
Pour les systèmes interdits : jusqu'à 35 M€ ou 7 % du CA mondial. Pour les systèmes à risque élevé non conformes : jusqu'à 15 M€ ou 3 % du CA. Pour les violations de transparence : jusqu'à 7,5 M€ ou 1,5 % du CA.