{
  "slug": "classification-risque-ia-tableau",
  "title": "Classification du risque IA : tableau complet des niveaux et obligations",
  "metaTitle": "Classification risque IA : tableau des 4 niveaux AI Act",
  "metaDescription": "Tableau complet de la classification des risques IA selon l'AI Act : risque inacceptable, élevé, limité, minimal. Exemples, obligations et calendrier pour chaque niveau.",
  "keyword": "classification risque IA",
  "searchVolume": 210,
  "category": "guide",
  "pillar": "obligations-par-risque",
  "image": {
    "unsplash_id": "photo-1551288049-bebda4e38f71",
    "alt": "Classification des risques intelligence artificielle tableau",
    "credit": "Unsplash"
  },
  "publishedAt": "2026-03-26",
  "updatedAt": "2026-03-26",
  "readingTime": 8,
  "wordCount": 1500,
  "content": {
    "intro": "Comprendre la classification des risques de l'AI Act, c'est comprendre 80% du règlement. Tout le reste — les obligations, les sanctions, le calendrier — découle directement de cette classification. Ce tableau de référence vous permet de situer rapidement n'importe quel système d'IA.",

    "sections": [
      {
        "h2": "Les 4 niveaux de risque : vue d'ensemble",
        "featured_snippet": "L'AI Act classe les systèmes d'IA en 4 niveaux de risque : Risque inacceptable (interdit depuis février 2025), Risque élevé (obligations strictes, applicables août 2026), Risque limité (transparence obligatoire), Risque minimal (aucune obligation spécifique). La classification détermine toutes les obligations légales.",
        "table": {
          "headers": ["Niveau", "Régime", "Depuis quand", "Amendes max"],
          "rows": [
            ["Inacceptable", "Interdit", "2 février 2025", "35M€ / 7% CA"],
            ["Élevé", "Obligations strictes", "2 août 2026", "15M€ / 3% CA"],
            ["Limité", "Transparence", "1er août 2024", "7,5M€ / 1,5% CA"],
            ["Minimal", "Aucune obligation spécifique", "N/A", "N/A"]
          ]
        }
      },
      {
        "h2": "Niveau 1 : Risque inacceptable — Ce qui est interdit",
        "content": "Les systèmes à risque inacceptable sont bannis car leurs risques pour les droits fondamentaux sont jugés impossibles à atténuer.\n\n**Les 8 pratiques interdites** :\n1. Manipulation subliminale causant un préjudice\n2. Exploitation des vulnérabilités (âge, handicap, situation socioéconomique)\n3. Scoring social par des autorités publiques\n4. Profilage prédictif à des fins policières (basé sur caractéristiques personnelles sans acte objectif)\n5. Identification biométrique en temps réel dans l'espace public (sauf exceptions policières strictes)\n6. Reconnaissance d'émotions au travail et en éducation\n7. Catégorisation biométrique sur données sensibles (race, religion, orientation sexuelle)\n8. Constitution de bases de données faciales par scraping massif",
        "list": [
          "Système de scoring social municipal → Interdit",
          "Logiciel RH analysant les émotions des candidats → Interdit",
          "Service d'identification faciale en temps réel pour commerçants → Interdit",
          "IA de recrutement ciblant les biais cognitifs → Interdit"
        ]
      },
      {
        "h2": "Niveau 2 : Risque élevé — Les domaines concernés",
        "content": "Les systèmes à risque élevé sont légaux mais très encadrés. Ils doivent respecter un ensemble d'obligations techniques et procédurales avant d'être mis sur le marché ou déployés.\n\n**Les 8 domaines de l'Annexe III** :\n\n**1. Identification biométrique** : systèmes d'identification biométrique à distance (non temps réel ou temps réel avec exceptions), catégorisation biométrique hors cas interdits.\n\n**2. Infrastructures critiques** : IA gérant les réseaux d'électricité, d'eau, de gaz, transport, internet, systèmes financiers.\n\n**3. Éducation et formation** : IA qui détermine l'accès à l'éducation (sélection des candidats, évaluation des étudiants, identification des comportements à risque de décrochage).\n\n**4. Emploi et gestion des travailleurs** : IA de recrutement (tri de CV, scoring des candidats), IA d'évaluation des performances, IA de promotion ou licenciement, IA de surveillance de la productivité.\n\n**5. Accès aux services essentiels** : scoring de crédit, scoring d'éligibilité aux aides sociales, scoring d'assurance vie et santé, évaluation des urgences médicales.\n\n**6. Application de la loi** : IA d'aide à l'investigation, évaluation de fiabilité des preuves, analyse comportementale des suspects, prédiction de la récidive pour les décisions de libération.\n\n**7. Gestion des migrations et frontières** : évaluation des risques à la frontière, aide à l'examen des demandes d'asile et de visa, détection des comportements suspects.\n\n**8. Justice et démocratie** : IA d'aide à la décision judiciaire, IA dans les processus électoraux.",
        "table": {
          "headers": ["Domaine", "Exemple système à risque élevé", "Exemple hors risque élevé"],
          "rows": [
            ["Emploi", "IA de tri de CV automatisé", "Logiciel RH de planification des congés"],
            ["Crédit", "IA d'octroi de prêt bancaire", "Chatbot de service client bancaire"],
            ["Éducation", "IA de sélection d'université", "IA de génération d'exercices personnalisés"],
            ["Santé", "IA de diagnostic radiologique", "IA de gestion des rendez-vous"],
            ["Justice", "IA d'aide à la décision du juge", "IA de recherche jurisprudentielle"],
            ["Frontières", "IA d'évaluation des demandes d'asile", "IA de traduction pour les douanes"]
          ]
        }
      },
      {
        "h2": "Les obligations pour les systèmes à risque élevé",
        "content": "Voici la liste des 10 obligations principales que doit respecter tout système d'IA à risque élevé :",
        "list": [
          "1. Système de gestion des risques (cycle de vie complet)",
          "2. Gouvernance et qualité des données d'entraînement",
          "3. Documentation technique complète (Annexe IV — 15 éléments minimum)",
          "4. Tenue de journaux d'événements (logs automatiques)",
          "5. Transparence et communication aux déployeurs (article 13)",
          "6. Supervision humaine effective (article 14)",
          "7. Exactitude, robustesse et cybersécurité (article 15)",
          "8. Évaluation de conformité (avant mise sur le marché)",
          "9. Enregistrement dans la base de données européenne",
          "10. Monitoring post-déploiement"
        ]
      },
      {
        "h2": "Niveau 3 : Risque limité — La transparence avant tout",
        "content": "Les systèmes à risque limité ne présentent pas de danger majeur, mais peuvent induire les utilisateurs en erreur s'ils n'informent pas clairement de leur nature artificielle.\n\n**Systèmes concernés** :\n- **Chatbots et agents conversationnels** : obligation d'informer l'utilisateur qu'il interagit avec une IA (sauf si contexte évident)\n- **Systèmes de génération de contenu synthétique** (texte, images, vidéo, audio) : obligation de marquage du contenu comme généré par IA\n- **Systèmes de reconnaissance des émotions** (hors contextes interdits)\n- **Systèmes de catégorisation biométrique** (hors cas interdits)\n\n**L'obligation principale** : l'information doit être fournie de façon claire, compréhensible, et avant ou au début de l'interaction. L'exception : si le contexte rend évident qu'on interagit avec une IA (personne ne croit interagir avec un humain en utilisant Siri).",
        "callout": "L'obligation de transparence ne s'applique pas aux œuvres artistiques ou satiriques impliquant de l'IA. Un film de fiction avec des acteurs virtuels IA n'a pas à être marqué 'contenu IA' de façon intrusive."
      },
      {
        "h2": "Niveau 4 : Risque minimal — Liberté totale (ou presque)",
        "content": "La grande majorité des systèmes d'IA entre dans la catégorie risque minimal. Aucune obligation spécifique de l'AI Act ne s'applique.\n\n**Exemples typiques** :\n- Filtres anti-spam des messageries\n- IA de recommandation musicale ou vidéo (Netflix, Spotify)\n- Jeux vidéo avec IA des personnages non-joueurs\n- IA de maintenance prédictive de machines industrielles (standard)\n- Correcteurs orthographiques et outils de traduction\n- IA d'inventaire et de logistique\n- Outils de retouche photo avec IA (hors contextes de désinformation)\n\n**Attention** : 'risque minimal' ne signifie pas absence totale de contraintes. Le RGPD s'applique si des données personnelles sont traitées. Le DSA peut s'appliquer aux plateformes. Les règles de droit commun (responsabilité, droit de la consommation) restent en vigueur.",
        "link_internal": {
          "text": "Conformité AI Act pour les PME",
          "slug": "conformite-pme"
        }
      },
      {
        "h2": "Comment classifier son système d'IA : la démarche pratique",
        "content": "Voici un arbre de décision simplifié :\n\n**Étape 1** : Mon système est-il dans la liste des pratiques interdites (article 5) ? → Si oui : INTERDICTION. Stop.\n\n**Étape 2** : Mon système est-il un modèle GPAI (LLM, modèle multimodal généraliste) ? → Si oui : obligations GPAI (depuis août 2025).\n\n**Étape 3** : Mon système est-il intégré dans un produit soumis à une législation sectorielle listée en Annexe I, avec une évaluation de conformité tierce ? → Si oui : RISQUE ÉLEVÉ.\n\n**Étape 4** : Mon système est-il utilisé dans l'un des 8 domaines de l'Annexe III ? → Si oui : évaluation détaillée (potentiellement RISQUE ÉLEVÉ).\n\n**Étape 5** : Mon système est-il un chatbot, un générateur de contenu synthétique, un système de reconnaissance d'émotions hors cas interdits ? → Si oui : RISQUE LIMITÉ (obligations de transparence).\n\n**Étape 6** : Aucune des étapes précédentes ne s'applique → RISQUE MINIMAL.",
        "link_internal": {
          "text": "FAQ AI Act pour PME",
          "slug": "faq-ai-act-pme"
        }
      },
      {
        "h2": "FAQ : classification des risques IA",
        "faq": [
          {
            "question": "Un outil de traduction automatique est-il à risque élevé ?",
            "answer": "Non, dans la grande majorité des cas. Un outil de traduction standard est à risque minimal. Exception : un système de traduction IA utilisé dans un contexte de contrôle aux frontières pour évaluer les déclarations de demandeurs d'asile pourrait être à risque élevé (domaine 'gestion des migrations')."
          },
          {
            "question": "Un outil d'analyse de CV pour un cabinet RH est-il à risque élevé ?",
            "answer": "Oui. Les systèmes d'IA utilisés pour le tri ou l'évaluation des candidats dans le cadre du recrutement sont explicitement listés dans l'Annexe III (domaine 'emploi et gestion des travailleurs') comme systèmes à risque élevé."
          },
          {
            "question": "Mon CRM avec des fonctions d'IA prédictive est-il concerné ?",
            "answer": "Probablement à risque minimal. Les CRM avec IA de prévision des ventes, de scoring des leads ou de recommandation d'actions commerciales ne correspondent pas aux domaines à risque élevé de l'Annexe III. Vérifiez toutefois si le CRM accède à des données personnelles sensibles (RGPD)."
          }
        ]
      }
    ],

    "conclusion": "La classification des risques IA est l'outil fondamental pour comprendre vos obligations. Pour la grande majorité des PME, les systèmes utilisés au quotidien — outils IA de productivité, CRM, ERP avec IA, chatbots de service client — seront à risque minimal ou limité. Les obligations lourdes concernent principalement les développeurs de systèmes IA dans des domaines sensibles (santé, emploi, justice, crédit).",

    "internal_links": [
      {"text": "Obligations par niveau de risque", "slug": "obligations-par-risque"},
      {"text": "Systèmes IA interdits", "slug": "systemes-ia-interdits"},
      {"text": "Conformité AI Act PME", "slug": "conformite-pme"},
      {"text": "FAQ AI Act PME", "slug": "faq-ai-act-pme"},
      {"text": "Évaluation de conformité IA", "slug": "evaluation-conformite-ia"}
    ],

    "schema_faq": [
      {
        "question": "Quels sont les 4 niveaux de risque de l'AI Act ?",
        "answer": "L'AI Act classe les systèmes d'IA en 4 niveaux : risque inacceptable (interdit depuis février 2025), risque élevé (obligations strictes, applicables août 2026), risque limité (transparence obligatoire), et risque minimal (aucune obligation spécifique de l'AI Act)."
      }
    ]
  }
}