LLM Security

Audit de conformité IA : NIST AI RMF, ISO 42001, EU AI Act

Méthodologie d'audit de conformité d'un système d'IA aligné sur NIST AI RMF, ISO/IEC 42001 et EU AI Act. Couvertures, mapping et livrables par framework.

Naim Aouaichia
10 min de lecture
  • Conformité IA
  • NIST AI RMF
  • ISO 42001
  • EU AI Act
  • Compliance
  • GRC
  • Audit IA
  • Réglementation IA

Auditer la conformité d'un système d'IA en 2025 implique de naviguer entre trois référentiels distincts mais complémentaires : NIST AI RMF 1.0 (méthodologie de gouvernance, US, janvier 2023), ISO/IEC 42001:2023 (standard de management de l'IA, international, décembre 2023) et EU AI Act (règlement européen contraignant, en vigueur depuis août 2024, applicable graduellement jusqu'en août 2027). Cet article structure la méthodologie d'audit, les livrables attendus pour chaque framework et le mapping des contrôles communs — pour produire un audit qui couvre simultanément les trois axes sans duplication d'effort.

1. Audit de sécurité vs audit de conformité — pourquoi les deux sont nécessaires

Les organisations qui déploient de l'IA confondent fréquemment ces deux audits ou en font un seul des deux. C'est une erreur stratégique. Les deux audits couvrent des périmètres distincts et leurs livrables ne se substituent pas.

DimensionAudit sécurité IAAudit de conformité IA
ObjectifValider la robustesse technique contre les attaquesValider l'alignement avec un référentiel ou une réglementation
RéférentielOWASP LLM Top 10, MITRE ATLASNIST AI RMF, ISO 42001, EU AI Act
SortieFindings techniques + score CVSS adaptéGaps + plan de mise en conformité
Public destinataireRSSI, équipes sécu, devRSSI, DPO, RIO, direction juridique
CyclePonctuel ou continu (CI/CD)Annuel + à chaque changement majeur
Sanction si défautIncident, breachAmende administrative, perte de marché

Pour la dimension technique, voir Audit IA générative : checklist OWASP LLM Top 10. Cet article-ci est dédié à la dimension conformité — les deux se nourrissent : la conformité exige des contrôles techniques que l'audit sécu valide.

2. NIST AI RMF 1.0 — méthodologie de gouvernance IA

NIST AI Risk Management Framework, version 1.0, publié en janvier 2023 par le National Institute of Standards and Technology (US), est la méthodologie de référence pour structurer la gouvernance d'un système d'IA. Non-contraignant, gratuit, mais largement adopté dans le monde y compris en Europe.

Structure

NIST AI RMF organise la gouvernance autour de quatre fonctions :

  1. GOVERN — politiques, rôles, processus, culture organisationnelle.
  2. MAP — cartographie du contexte, des parties prenantes, des risques applicables au système IA.
  3. MEASURE — métriques quantitatives et qualitatives pour évaluer les risques identifiés.
  4. MANAGE — priorisation des risques, plans de traitement, monitoring continu.

Chaque fonction est déclinée en catégories puis sous-catégories (~70 sous-catégories au total dans la version 1.0).

Ce qu'un audit NIST AI RMF doit produire

  • Cartographie complète du système IA et de ses risques (sortie de la fonction MAP).
  • Matrice des risques avec score de gravité et probabilité.
  • Inventaire des contrôles existants vs contrôles attendus par sous-catégorie.
  • Plan de traitement des écarts avec délais et propriétaires.
  • Métriques de mesure continue (drift, performance, équité, robustesse).

L'audit NIST AI RMF se prête bien à un format Excel/spreadsheet structuré par sous-catégorie — chaque ligne est un contrôle à valider, à auditer et à scorer.

3. ISO/IEC 42001:2023 — AI Management System (AIMS)

ISO/IEC 42001:2023, publié en décembre 2023, est le premier standard international certifiable dédié aux systèmes de management de l'IA. C'est l'équivalent ISO 27001 pour l'IA, structurellement aligné High-Level Structure.

Structure

ISO 42001 définit les exigences pour mettre en place, opérer et améliorer un AI Management System (AIMS). Le standard couvre :

  • Clauses 4-10 (équivalent ISO 27001) : contexte, leadership, planification, support, opération, évaluation, amélioration continue.
  • Annexe A : 38 contrôles spécifiques IA répartis en 9 domaines (politiques, organisation interne, ressources, vie cycle système IA, données, information aux parties intéressées, usage des systèmes IA, relations tierces parties, engagement).
  • Annexes B, C, D : guidance d'implémentation, référentiel d'objectifs et contrôles, considérations sectorielles.

Ce qu'un audit ISO 42001 doit produire

  • Politique IA documentée et signée par la direction.
  • Inventaire des systèmes IA en place (registre AIMS).
  • Évaluation des impacts (AI Impact Assessment, similaire au DPIA RGPD).
  • Procédures opérationnelles (cycle de vie système IA, gestion des données, gestion des risques).
  • Preuves d'application : audits internes, revues de direction, registres d'incidents IA, formations dispensées.
  • Plan d'amélioration continue.

La certification ISO 42001 par un organisme accrédité (Bureau Veritas, AFNOR Certification, BSI) suit le même processus que ISO 27001 : audit étape 1 (revue documentaire), audit étape 2 (terrain), surveillance annuelle, recertification triennale.

4. EU AI Act — règlement européen contraignant

L'EU AI Act (Règlement (UE) 2024/1689) est le premier règlement mondial complet sur l'IA. Adopté le 13 mars 2024, signé le 13 juin 2024, entré en vigueur le 1er août 2024, applicable graduellement.

Calendrier d'application

DateDispositions applicables
2 février 2025Pratiques d'IA interdites (Article 5) — manipulation cognitive, social scoring, biométrie en temps réel non autorisée, etc.
2 août 2025Obligations modèles GPAI (General Purpose AI) — transparence, copyright, mitigation des risques systémiques pour modèles >10^25 FLOPs
2 août 2026Essentiel des obligations systèmes à haut risque (Annexe III)
2 août 2027Dispositions étendues haut risque (systèmes intégrés à des produits réglementés Annexe I)

Classification des risques

L'EU AI Act classe les systèmes d'IA en quatre niveaux :

  1. Risque inacceptable (Article 5) — interdit. Exemples : social scoring, manipulation cognitive subliminale, exploitation des vulnérabilités, biométrie en temps réel dans l'espace public hors exceptions.
  2. Haut risque (Annexe III) — autorisé sous conditions strictes. Exemples : IA RH (CV screening), crédit scoring, infrastructures critiques, éducation, justice, application de la loi.
  3. Risque limité — obligation de transparence. Exemples : chatbots, deepfakes, contenu généré par IA.
  4. Risque minimal — pas d'obligation spécifique.

Ce qu'un audit EU AI Act haut risque doit produire

  • Système de gestion des risques documenté tout au long du cycle de vie.
  • Gouvernance des données — qualité, représentativité, biais, traçabilité.
  • Documentation technique complète (Annexe IV) — architecture, données, monitoring, métriques.
  • Logs automatiques des opérations du système (Article 12).
  • Information transparente aux utilisateurs (Article 13).
  • Surveillance humaine effective (Article 14).
  • Robustesse, exactitude, cybersécurité (Article 15) — niveau approprié au risque.
  • Évaluation de conformité (auto-évaluation pour la majorité, conformité par tiers pour certains cas Annexe I).
  • Marquage CE + déclaration UE de conformité.
  • Enregistrement dans la base UE des systèmes à haut risque (Article 71).

5. Mapping et complémentarité des trois frameworks

Les trois frameworks couvrent des dimensions distinctes mais se chevauchent significativement. Une stratégie d'audit efficace exploite ce chevauchement pour limiter la duplication de preuves.

Domaine de contrôleNIST AI RMFISO 42001EU AI Act
Gouvernance et politiquesGOVERNClause 5, Annexe A.2Article 9 (gestion risques)
Cartographie des risquesMAPClause 6.1, Annexe A.5Articles 9-10
Gestion des donnéesMEASURE 2.7-2.8Annexe A.7Article 10
Robustesse et exactitudeMEASURE 2.5-2.6Annexe A.6Article 15
Surveillance humaineMANAGE 4.1Annexe A.6.2.7Article 14
Documentation techniqueMANAGE 4.2-4.3Clause 7.5Article 11, Annexe IV
Transparence utilisateurGOVERN 6.2Annexe A.8Article 13
CybersécuritéMEASURE 2.7Annexe A.6.2.6Article 15 + référence règlement DORA
Logging et audit trailMANAGE 4.4Clause 9Article 12
Amélioration continueMANAGE 4.6Clauses 9-10Article 17 (post-market monitoring)

Une matrice de risque commune peut alimenter les trois audits simultanément. Exemple de structure YAML :

# Matrice de risque IA — mapping multi-framework
risk_id: RISK-2026-AI-014
title: "Hallucination sur conseil juridique automatisé"
system: "Chatbot juridique RAG, base utilisateurs grands comptes"
classification:
  eu_ai_act: "Haut risque (Annexe III, point 8 — application de la loi)"
  iso_42001: "A.6.2.4 (impact assessment)"
  nist_ai_rmf: "MEASURE 2.5 (validity & reliability), MAP 5.1 (risk impact)"
likelihood: medium
impact: high
inherent_risk_score: 7.5
controls:
  - id: CTRL-014-01
    description: "Disclaimer obligatoire en sortie sur conseil juridique"
    framework_refs:
      - eu_ai_act: "Article 13"
      - iso_42001: "A.8.4"
      - nist_ai_rmf: "GOVERN 6.2"
  - id: CTRL-014-02
    description: "Validation par avocat sur sorties à enjeu > 10 k€"
    framework_refs:
      - eu_ai_act: "Article 14 (human oversight)"
      - iso_42001: "A.6.2.7"
      - nist_ai_rmf: "MANAGE 4.1"
residual_risk_score: 3.5
review_frequency: "Trimestrielle"
owner: "RSSI + Direction Juridique"

6. Méthodologie d'audit conformité — étapes et livrables

Un audit conformité IA multi-framework se déroule en cinq phases, indépendamment du framework cible. Les livrables sont ensuite déclinés par framework.

  1. Cadrage et scoping — périmètre des systèmes IA audités, frameworks ciblés, critères de scoring (gap = oui/non, ou échelle 0-4 maturité).
  2. Collecte de preuves — politiques documentées, registres AIMS, documentation technique, logs, captures d'écran, entretiens avec parties prenantes.
  3. Évaluation des écarts — comparaison contrôle par contrôle entre l'état observé et l'état attendu par le framework. Production des gaps avec sévérité.
  4. Plan de mise en conformité — actions priorisées avec délais, propriétaires, dépendances. Estimation des coûts.
  5. Rapport et restitution — rapport principal (40-100 pages), executive summary (3-5 pages), matrice gap, plan d'action chiffré, présentation au COMEX si systèmes haut risque.

Outils utiles

  • Trail.io, Holistic AI, Credo AI — plateformes commerciales de gouvernance IA.
  • Python + spreadsheets structurés — pour les organisations qui internalisent.
  • Frameworks open source — Microsoft Responsible AI Toolkit, IBM AI Fairness 360 (pour les contrôles techniques).

Pour la dimension technique de l'audit (qui valide certains contrôles ISO 42001 / EU AI Act), s'appuyer sur la méthodologie Auditer un LLM en production sans casser le service et la checklist OWASP LLM Top 10.

Points clés à retenir

  • Trois frameworks distincts mais complémentaires : NIST AI RMF (gouvernance), ISO 42001 (management certifiable), EU AI Act (réglementation contraignante UE).
  • EU AI Act n'est pas un choix pour les organisations qui déploient de l'IA dans l'UE — applicable graduellement avec sanctions calibrées sur RGPD (jusqu'à 35 M€ ou 7 % du CA mondial).
  • Une matrice de risque multi-framework réduit l'effort d'audit de 30-50 % vs audits silotés. Investir dans son format dès le départ.
  • L'audit conformité ne remplace pas l'audit sécurité technique — les deux sont complémentaires et se nourrissent.
  • Stratégie pragmatique 2025 : NIST AI RMF comme méthodologie interne (gratuite, structurante) + ISO 42001 comme certification (argument commercial) + EU AI Act pour conformité légale UE (obligatoire).

Pour aller plus loin, voir Pourquoi sécuriser une application IA qui justifie l'investissement compliance, Sécurité LLM — définition pour le panorama complet, et Pentest d'un chatbot IA d'entreprise pour la dimension offensive complémentaire. Le bootcamp LLM Security couvre également les exigences techniques posées par EU AI Act sur 10 semaines.

Questions fréquentes

  • Quelle différence entre un audit de sécurité IA et un audit de conformité IA ?
    L'audit de sécurité valide la robustesse technique du système contre des attaques (prompt injection, escalade via tools, fuites de données) et produit des findings techniques avec sévérité CVSS. L'audit de conformité valide l'alignement avec un référentiel ou une réglementation (NIST AI RMF, ISO 42001, EU AI Act) et produit des écarts (gaps) accompagnés d'un plan de mise en conformité. Les deux sont complémentaires et se nourrissent mutuellement — la conformité exige souvent des contrôles techniques que l'audit sécu valide.
  • EU AI Act est-il déjà applicable en 2025 ?
    Partiellement. L'EU AI Act est entré en vigueur le 1er août 2024 mais son application est graduelle : les pratiques interdites (Article 5) sont applicables depuis le 2 février 2025, les obligations sur les modèles GPAI (General Purpose AI) depuis le 2 août 2025, et l'essentiel des exigences sur les systèmes à haut risque (Annexe III) sera applicable au 2 août 2026, avec quelques dispositions étendues jusqu'au 2 août 2027. Les organisations qui déploient de l'IA dans l'UE doivent commencer leur mise en conformité immédiatement.
  • ISO 42001 est-elle obligatoire ?
    Non, ISO/IEC 42001:2023 est un standard volontaire — c'est l'équivalent ISO 27001 pour les systèmes de management de l'IA (AIMS). Sa certification n'est pas exigée légalement, mais elle devient un argument commercial fort : les grands comptes français demandent de plus en plus une certification ISO 42001 dans leurs RFPs IA en 2025-2026. Elle facilite aussi la conformité EU AI Act en couvrant ~70 % des contrôles techniques attendus.
  • Faut-il les 3 frameworks ou un seul suffit ?
    EU AI Act est obligatoire pour toute organisation qui déploie de l'IA dans l'UE — pas un choix. NIST AI RMF est utile comme méthodologie de gouvernance (gratuite, complète, structurante) et fortement recommandée même hors US. ISO 42001 est optionnelle mais devient un standard de fait pour les organisations qui veulent une certification tierce. Une stratégie pragmatique 2025 : NIST AI RMF comme méthodologie interne + ISO 42001 comme certification + EU AI Act pour la conformité légale UE.
  • Combien coûte un audit de conformité IA en 2025 ?
    Pour une organisation avec un système IA en production (chatbot, copilote ou agent), audit de conformité initial multi-framework typique entre 25 000 € et 60 000 € HT en France. Audit de surveillance annuel ensuite 8 000 à 20 000 € HT. Coûts plus élevés (80 000 €+) pour les systèmes à haut risque EU AI Act qui exigent un dossier technique complet, marquage CE, déclaration de conformité et notification.

Écrit par

Naim Aouaichia

Expert cybersécurité et fondateur de Zeroday Cyber Academy

Expert cybersécurité avec un master spécialisé et un parcours hybride : développement, DevOps, DevSecOps, SOC, GRC. Fondateur de Hash24Security et Zeroday Cyber Academy. Formateur et créateur de contenu technique sur la cybersécurité appliquée, la sécurité des LLM et le DevSecOps.