Auditer la conformité d'un système d'IA en 2025 implique de naviguer entre trois référentiels distincts mais complémentaires : NIST AI RMF 1.0 (méthodologie de gouvernance, US, janvier 2023), ISO/IEC 42001:2023 (standard de management de l'IA, international, décembre 2023) et EU AI Act (règlement européen contraignant, en vigueur depuis août 2024, applicable graduellement jusqu'en août 2027). Cet article structure la méthodologie d'audit, les livrables attendus pour chaque framework et le mapping des contrôles communs — pour produire un audit qui couvre simultanément les trois axes sans duplication d'effort.
1. Audit de sécurité vs audit de conformité — pourquoi les deux sont nécessaires
Les organisations qui déploient de l'IA confondent fréquemment ces deux audits ou en font un seul des deux. C'est une erreur stratégique. Les deux audits couvrent des périmètres distincts et leurs livrables ne se substituent pas.
| Dimension | Audit sécurité IA | Audit de conformité IA |
|---|---|---|
| Objectif | Valider la robustesse technique contre les attaques | Valider l'alignement avec un référentiel ou une réglementation |
| Référentiel | OWASP LLM Top 10, MITRE ATLAS | NIST AI RMF, ISO 42001, EU AI Act |
| Sortie | Findings techniques + score CVSS adapté | Gaps + plan de mise en conformité |
| Public destinataire | RSSI, équipes sécu, dev | RSSI, DPO, RIO, direction juridique |
| Cycle | Ponctuel ou continu (CI/CD) | Annuel + à chaque changement majeur |
| Sanction si défaut | Incident, breach | Amende administrative, perte de marché |
Pour la dimension technique, voir Audit IA générative : checklist OWASP LLM Top 10. Cet article-ci est dédié à la dimension conformité — les deux se nourrissent : la conformité exige des contrôles techniques que l'audit sécu valide.
2. NIST AI RMF 1.0 — méthodologie de gouvernance IA
NIST AI Risk Management Framework, version 1.0, publié en janvier 2023 par le National Institute of Standards and Technology (US), est la méthodologie de référence pour structurer la gouvernance d'un système d'IA. Non-contraignant, gratuit, mais largement adopté dans le monde y compris en Europe.
Structure
NIST AI RMF organise la gouvernance autour de quatre fonctions :
- GOVERN — politiques, rôles, processus, culture organisationnelle.
- MAP — cartographie du contexte, des parties prenantes, des risques applicables au système IA.
- MEASURE — métriques quantitatives et qualitatives pour évaluer les risques identifiés.
- MANAGE — priorisation des risques, plans de traitement, monitoring continu.
Chaque fonction est déclinée en catégories puis sous-catégories (~70 sous-catégories au total dans la version 1.0).
Ce qu'un audit NIST AI RMF doit produire
- Cartographie complète du système IA et de ses risques (sortie de la fonction MAP).
- Matrice des risques avec score de gravité et probabilité.
- Inventaire des contrôles existants vs contrôles attendus par sous-catégorie.
- Plan de traitement des écarts avec délais et propriétaires.
- Métriques de mesure continue (drift, performance, équité, robustesse).
L'audit NIST AI RMF se prête bien à un format Excel/spreadsheet structuré par sous-catégorie — chaque ligne est un contrôle à valider, à auditer et à scorer.
3. ISO/IEC 42001:2023 — AI Management System (AIMS)
ISO/IEC 42001:2023, publié en décembre 2023, est le premier standard international certifiable dédié aux systèmes de management de l'IA. C'est l'équivalent ISO 27001 pour l'IA, structurellement aligné High-Level Structure.
Structure
ISO 42001 définit les exigences pour mettre en place, opérer et améliorer un AI Management System (AIMS). Le standard couvre :
- Clauses 4-10 (équivalent ISO 27001) : contexte, leadership, planification, support, opération, évaluation, amélioration continue.
- Annexe A : 38 contrôles spécifiques IA répartis en 9 domaines (politiques, organisation interne, ressources, vie cycle système IA, données, information aux parties intéressées, usage des systèmes IA, relations tierces parties, engagement).
- Annexes B, C, D : guidance d'implémentation, référentiel d'objectifs et contrôles, considérations sectorielles.
Ce qu'un audit ISO 42001 doit produire
- Politique IA documentée et signée par la direction.
- Inventaire des systèmes IA en place (registre AIMS).
- Évaluation des impacts (AI Impact Assessment, similaire au DPIA RGPD).
- Procédures opérationnelles (cycle de vie système IA, gestion des données, gestion des risques).
- Preuves d'application : audits internes, revues de direction, registres d'incidents IA, formations dispensées.
- Plan d'amélioration continue.
La certification ISO 42001 par un organisme accrédité (Bureau Veritas, AFNOR Certification, BSI) suit le même processus que ISO 27001 : audit étape 1 (revue documentaire), audit étape 2 (terrain), surveillance annuelle, recertification triennale.
4. EU AI Act — règlement européen contraignant
L'EU AI Act (Règlement (UE) 2024/1689) est le premier règlement mondial complet sur l'IA. Adopté le 13 mars 2024, signé le 13 juin 2024, entré en vigueur le 1er août 2024, applicable graduellement.
Calendrier d'application
| Date | Dispositions applicables |
|---|---|
| 2 février 2025 | Pratiques d'IA interdites (Article 5) — manipulation cognitive, social scoring, biométrie en temps réel non autorisée, etc. |
| 2 août 2025 | Obligations modèles GPAI (General Purpose AI) — transparence, copyright, mitigation des risques systémiques pour modèles >10^25 FLOPs |
| 2 août 2026 | Essentiel des obligations systèmes à haut risque (Annexe III) |
| 2 août 2027 | Dispositions étendues haut risque (systèmes intégrés à des produits réglementés Annexe I) |
Classification des risques
L'EU AI Act classe les systèmes d'IA en quatre niveaux :
- Risque inacceptable (Article 5) — interdit. Exemples : social scoring, manipulation cognitive subliminale, exploitation des vulnérabilités, biométrie en temps réel dans l'espace public hors exceptions.
- Haut risque (Annexe III) — autorisé sous conditions strictes. Exemples : IA RH (CV screening), crédit scoring, infrastructures critiques, éducation, justice, application de la loi.
- Risque limité — obligation de transparence. Exemples : chatbots, deepfakes, contenu généré par IA.
- Risque minimal — pas d'obligation spécifique.
Ce qu'un audit EU AI Act haut risque doit produire
- Système de gestion des risques documenté tout au long du cycle de vie.
- Gouvernance des données — qualité, représentativité, biais, traçabilité.
- Documentation technique complète (Annexe IV) — architecture, données, monitoring, métriques.
- Logs automatiques des opérations du système (Article 12).
- Information transparente aux utilisateurs (Article 13).
- Surveillance humaine effective (Article 14).
- Robustesse, exactitude, cybersécurité (Article 15) — niveau approprié au risque.
- Évaluation de conformité (auto-évaluation pour la majorité, conformité par tiers pour certains cas Annexe I).
- Marquage CE + déclaration UE de conformité.
- Enregistrement dans la base UE des systèmes à haut risque (Article 71).
5. Mapping et complémentarité des trois frameworks
Les trois frameworks couvrent des dimensions distinctes mais se chevauchent significativement. Une stratégie d'audit efficace exploite ce chevauchement pour limiter la duplication de preuves.
| Domaine de contrôle | NIST AI RMF | ISO 42001 | EU AI Act |
|---|---|---|---|
| Gouvernance et politiques | GOVERN | Clause 5, Annexe A.2 | Article 9 (gestion risques) |
| Cartographie des risques | MAP | Clause 6.1, Annexe A.5 | Articles 9-10 |
| Gestion des données | MEASURE 2.7-2.8 | Annexe A.7 | Article 10 |
| Robustesse et exactitude | MEASURE 2.5-2.6 | Annexe A.6 | Article 15 |
| Surveillance humaine | MANAGE 4.1 | Annexe A.6.2.7 | Article 14 |
| Documentation technique | MANAGE 4.2-4.3 | Clause 7.5 | Article 11, Annexe IV |
| Transparence utilisateur | GOVERN 6.2 | Annexe A.8 | Article 13 |
| Cybersécurité | MEASURE 2.7 | Annexe A.6.2.6 | Article 15 + référence règlement DORA |
| Logging et audit trail | MANAGE 4.4 | Clause 9 | Article 12 |
| Amélioration continue | MANAGE 4.6 | Clauses 9-10 | Article 17 (post-market monitoring) |
Une matrice de risque commune peut alimenter les trois audits simultanément. Exemple de structure YAML :
# Matrice de risque IA — mapping multi-framework
risk_id: RISK-2026-AI-014
title: "Hallucination sur conseil juridique automatisé"
system: "Chatbot juridique RAG, base utilisateurs grands comptes"
classification:
eu_ai_act: "Haut risque (Annexe III, point 8 — application de la loi)"
iso_42001: "A.6.2.4 (impact assessment)"
nist_ai_rmf: "MEASURE 2.5 (validity & reliability), MAP 5.1 (risk impact)"
likelihood: medium
impact: high
inherent_risk_score: 7.5
controls:
- id: CTRL-014-01
description: "Disclaimer obligatoire en sortie sur conseil juridique"
framework_refs:
- eu_ai_act: "Article 13"
- iso_42001: "A.8.4"
- nist_ai_rmf: "GOVERN 6.2"
- id: CTRL-014-02
description: "Validation par avocat sur sorties à enjeu > 10 k€"
framework_refs:
- eu_ai_act: "Article 14 (human oversight)"
- iso_42001: "A.6.2.7"
- nist_ai_rmf: "MANAGE 4.1"
residual_risk_score: 3.5
review_frequency: "Trimestrielle"
owner: "RSSI + Direction Juridique"6. Méthodologie d'audit conformité — étapes et livrables
Un audit conformité IA multi-framework se déroule en cinq phases, indépendamment du framework cible. Les livrables sont ensuite déclinés par framework.
- Cadrage et scoping — périmètre des systèmes IA audités, frameworks ciblés, critères de scoring (gap = oui/non, ou échelle 0-4 maturité).
- Collecte de preuves — politiques documentées, registres AIMS, documentation technique, logs, captures d'écran, entretiens avec parties prenantes.
- Évaluation des écarts — comparaison contrôle par contrôle entre l'état observé et l'état attendu par le framework. Production des gaps avec sévérité.
- Plan de mise en conformité — actions priorisées avec délais, propriétaires, dépendances. Estimation des coûts.
- Rapport et restitution — rapport principal (40-100 pages), executive summary (3-5 pages), matrice gap, plan d'action chiffré, présentation au COMEX si systèmes haut risque.
Outils utiles
- Trail.io, Holistic AI, Credo AI — plateformes commerciales de gouvernance IA.
- Python + spreadsheets structurés — pour les organisations qui internalisent.
- Frameworks open source — Microsoft Responsible AI Toolkit, IBM AI Fairness 360 (pour les contrôles techniques).
Pour la dimension technique de l'audit (qui valide certains contrôles ISO 42001 / EU AI Act), s'appuyer sur la méthodologie Auditer un LLM en production sans casser le service et la checklist OWASP LLM Top 10.
Points clés à retenir
- Trois frameworks distincts mais complémentaires : NIST AI RMF (gouvernance), ISO 42001 (management certifiable), EU AI Act (réglementation contraignante UE).
- EU AI Act n'est pas un choix pour les organisations qui déploient de l'IA dans l'UE — applicable graduellement avec sanctions calibrées sur RGPD (jusqu'à 35 M€ ou 7 % du CA mondial).
- Une matrice de risque multi-framework réduit l'effort d'audit de 30-50 % vs audits silotés. Investir dans son format dès le départ.
- L'audit conformité ne remplace pas l'audit sécurité technique — les deux sont complémentaires et se nourrissent.
- Stratégie pragmatique 2025 : NIST AI RMF comme méthodologie interne (gratuite, structurante) + ISO 42001 comme certification (argument commercial) + EU AI Act pour conformité légale UE (obligatoire).
Pour aller plus loin, voir Pourquoi sécuriser une application IA qui justifie l'investissement compliance, Sécurité LLM — définition pour le panorama complet, et Pentest d'un chatbot IA d'entreprise pour la dimension offensive complémentaire. Le bootcamp LLM Security couvre également les exigences techniques posées par EU AI Act sur 10 semaines.







