Le NIST AI Risk Management Framework 1.0 (janvier 2023) est devenu, en 2026, le cadre opérationnel de référence pour gérer les risques IA — au-delà même de sa juridiction d'origine US. Volontaire formellement, il est devenu de facto obligatoire via l'Executive Order 14110, les RFP B2B, et l'alignement explicite avec ISO 42001 et EU AI Act. Le NIST AI 600-1 (GenAI Profile, juillet 2024) l'enrichit pour les usages LLM/génératifs. Mais entre la lecture du document NIST et la mise en œuvre opérationnelle, il y a un fossé que cet article comble : artefacts concrets, templates, plan d'implémentation 6 mois, mappings vers EU AI Act et ISO 42001.
Pour le panorama des frameworks de conformité (NIST + ISO 42001 + EU AI Act) en angle audit : audit conformité IA NIST/ISO/EU AI Act. Pour le pendant catalogue d'attaques : MITRE ATLAS.
Vue d'ensemble : 4 fonctions
NIST AI RMF est structuré en 4 fonctions :
| Fonction | Objectif | Question répondue |
|---|---|---|
| Govern | Établir la culture et structure de gouvernance IA | Qui est responsable de quoi ? Quelle politique ? |
| Map | Comprendre le contexte et identifier les risques | Quel système ? Quels risques ? Quel contexte d'usage ? |
| Measure | Évaluer les risques avec des métriques | Comment quantifier les risques ? Quelles métriques ? |
| Manage | Prioriser et traiter les risques | Quelles actions ? Quel monitoring ? Quels runbooks ? |
Les 4 fonctions ne sont pas séquentielles — elles tournent en cycles. Govern précise la politique → Map identifie les risques selon cette politique → Measure quantifie → Manage agit, et boucle pour révision continue.
Info — Document complet : NIST AI 100-1 AI Risk Management Framework 1.0 (janvier 2023) + NIST AI 600-1 Generative AI Profile (juillet 2024). Téléchargeable gratuitement sur nist.gov/itl/ai-risk-management-framework.
Govern — Établir la gouvernance IA
Artefact 1 — Politique IA
Document fondateur. Cible 5-10 pages.
# Politique de gestion des risques IA — Acme Corp
## 1. Périmètre
Tous les systèmes IA développés ou utilisés par Acme :
- LLMs (achetés via API ou self-hosted)
- Modèles ML traditionnels en production
- Pipelines d'entraînement
- Outils de productivité IA grand public utilisés par employés
(sous conditions définies)
## 2. Principes
- Privacy by design
- Transparence avec les utilisateurs
- Surveillance humaine pour décisions critiques
- Audit régulier et amélioration continue
## 3. Catégories de risque
- **Critique** : santé, finance, RH, données très sensibles
- **Élevé** : support client externe, contenu public
- **Modéré** : outils internes avec données sensibles
- **Faible** : prototypes, démos, sandbox
## 4. Exigences par catégorie
[Tableau matriciel : pour chaque catégorie, mitigations
obligatoires, fréquence audits, validation par...]
## 5. RACI
[Voir RACI document séparé]
## 6. Procédures d'incident
[Voir runbook IR-AI séparé]
## 7. Revue annuelle
Cette politique est revue annuellement (octobre) par le
Comité de Gouvernance IA.Artefact 2 — RACI
Resp. Acct. Cons. Inf.
─────────────────────────────────────────────────────
Politique IA CISO CTO RSSI Tous
AI Risk Assessment CISO CTO ML Lead Tous
Tests adversariaux AppSec CISO ML Lead RSSI
Incident response IA SOC CISO AI Off. Direction
Audit conformité Audit CTO CISO Direction
Approbation déploiement ML Lead Tech VP CISO AI Off.
Politique data IA DPO CTO CISO Métiers
Communication externe Comms CTO Direction TousArtefact 3 — AI Risk Officer (ARO)
Rôle dédié recommandé pour les organisations à fort déploiement IA. Responsabilités :
- Maintenir le registre des systèmes IA.
- Coordonner les threat models et audits.
- Assurer la liaison entre techniques (ML, AppSec) et gouvernance (RSSI, DPO, Direction).
- Reporter au comité de gouvernance.
Pour les organisations < 200 personnes : peut être un rôle transverse partagé (CISO + CTO).
Artefact 4 — Registre des systèmes IA
Inventaire structuré de tous les systèmes IA en production ou en projet :
# inventory/ai-systems.yml
systems:
- id: AS-2026-001
name: "Chatbot support clients B2B"
description: "RAG sur documentation produit, GPT-4o + Pinecone"
risk_category: élevé
pii_processed: true
public_facing: true
owner_team: "support-ai"
technical_lead: "alice@yourcompany.com"
deployed_at: "2025-09-15"
last_audit: "2026-03-12"
next_audit: "2026-06-12"
threat_model_doc: "./threat-models/AS-2026-001.md"
- id: AS-2026-002
name: "Agent IA orchestration tâches internes"
description: "Agent CrewAI multi-agent, accès Jira + Slack + GitHub"
risk_category: critique
pii_processed: false
public_facing: false
owner_team: "platform-eng"
technical_lead: "bob@yourcompany.com"
deployed_at: "2025-11-20"
last_audit: "2026-04-01"
next_audit: "2026-05-01" # plus fréquent (critique)
threat_model_doc: "./threat-models/AS-2026-002.md"Map — Identifier les risques
Artefact 5 — Threat model par système
Pour chaque système IA, document structuré utilisant MITRE ATLAS + OWASP :
# Threat Model — AS-2026-001 (Chatbot support B2B)
## Architecture
[Diagramme : User → API Gateway → LLM (GPT-4o) → RAG (Pinecone) → Response]
## Cartographie OWASP LLM Top 10
- LLM01 *Prompt Injection* — APPLICABLE (input utilisateur direct + RAG)
- LLM02 *Sensitive Information Disclosure* — APPLICABLE (peut leaker docs)
- LLM03 *Supply Chain* — APPLICABLE (Pinecone, transformers, OpenAI API)
- LLM06 *Excessive Agency* — NON APPLICABLE (pas de tool calling)
- LLM07 *System Prompt Leakage* — APPLICABLE
- LLM08 *Vector and Embedding Weaknesses* — APPLICABLE (RAG)
- LLM10 *Unbounded Consumption* — APPLICABLE (rate limit critique)
## Cartographie MITRE ATLAS
- AML.T0051 *Prompt Injection* — TPR cible 90%
- AML.T0070 *Indirect Prompt Injection* (RAG) — TPR cible 85%
- AML.T0024 *Exfiltration via ML Inference API* — extraction risk
- AML.T0029 *Denial of ML Service* — DoS risk
## Profil de risque
- Probabilité : élevée (chatbot public)
- Impact : élevé (PII clients, réputation)
- Score risk : 8/10
## Mitigations en place
[Tableau : pour chaque risque, mitigation actuelle + gap]Artefact 6 — DPIA si données personnelles
Si le système traite des données personnelles : Data Protection Impact Assessment formalisé selon RGPD Article 35, intégré au threat model NIST.
Artefact 7 — Profil de risque
Score multi-dimensionnel par système : probabilité × impact × exposition × données traitées. Permet de prioriser les efforts.
Measure — Quantifier les risques
Artefact 8 — KPI/métriques par système
# kpis/AS-2026-001.yml
system_id: AS-2026-001
security_metrics:
injection_detection_tpr:
target: 0.92
current: 0.89
last_measured: "2026-04-15"
injection_detection_fpr:
target: 0.02
current: 0.018
mttd_minutes:
target: 5
current: 8 # gap
mttr_minutes:
target: 30
current: 45 # gap
quality_metrics:
hallucination_rate:
target: 0.05
current: 0.07
groundedness_score:
target: 0.85
current: 0.83
operational_metrics:
cost_per_query_usd:
target: 0.02
current: 0.018
p95_latency_ms:
target: 2000
current: 2300
drift_metrics:
embedding_drift_ks:
target: 0.1
current: 0.07
response_drift_score:
target: 0.1
current: 0.05Artefact 9 — Mesures (testing adversarial régulier)
Plan de tests adversariaux mensuels minimum :
# tests/quarterly_adversarial.py
def quarterly_adversarial_audit(system_id: str):
results = {
"system_id": system_id,
"date": datetime.utcnow().isoformat(),
"categories": {},
}
# 1. OWASP LLM01 — Prompt Injection
results["categories"]["LLM01"] = run_garak_probes(
system_id,
probes=["promptinject", "dan", "encoding", "translation"]
)
# 2. OWASP LLM07 — System Prompt Leakage
results["categories"]["LLM07"] = run_canary_probe(system_id)
# 3. OWASP LLM08 — RAG isolation
results["categories"]["LLM08"] = run_cross_tenant_canary(system_id)
# 4. OWASP LLM10 — Unbounded Consumption
results["categories"]["LLM10"] = run_loop_protection_test(system_id)
# 5. ATLAS AML.T0024 — Extraction
results["categories"]["T0024"] = run_extraction_baseline(system_id)
return resultsArtefact 10 — Drift monitoring
# Drift continu sur golden set
GOLDEN_SET = [
{"q": "Quelle est notre politique de retour ?", "a_pattern": r"\b30 jours\b"},
# 50-100 cas
]
def daily_drift_check(system_id: str):
drifts = []
for case in GOLDEN_SET:
resp = system.query(case["q"])
if not re.search(case["a_pattern"], resp):
drifts.append({"q": case["q"], "got": resp})
if drifts:
alert_soc(system_id, "drift_detected", drifts)Manage — Traiter les risques
Artefact 11 — Runbooks par classe de risque
# Runbook IR-AI-LLM01 — Prompt Injection détectée
## Trigger
- Score detection > 0.8 sur > 5 requêtes en 10 minutes
- Canary token apparu en sortie
- Pattern d'attaque identifié par classifier
## Étapes immédiates (< 15 min)
1. **Confirmer** : vérifier que c'est pas un faux positif (alerts récents context).
2. **Contenir** : si volume > seuil critique → activer rate limit ciblé sur le user/IP.
3. **Logger** : capture complète des requêtes/réponses concernées.
4. **Notifier** : SOC L2 + technical lead du système.
## Investigation (< 2h)
- Cartographier l'attaque : technique ATLAS (T0051, T0070, T0024 ?)
- Périmètre : 1 user, plusieurs users, IP ?
- Réussite : exfil, leak, manipulation ?
## Containment / Eradication
- Si réussite → escalade RSSI, communication interne.
- Si tentative seulement → renforcement détection (ajout pattern au classifier).
## Post-incident (< 1 semaine)
- Post-mortem documenté (cause, détection, response).
- MAJ corpus de test adversarial (ajout du pattern observé).
- Communication retex à l'équipe.
## Métriques à mettre à jour
- TPR detection (régression test ?)
- MTTD (delay détection)
- MTTR (delay résolution)Artefact 12 — Plan de remédiation par risque
# remediation/AS-2026-001-plan.yml
system_id: AS-2026-001
gaps_identified:
- id: GAP-001
risk: LLM01 Prompt Injection
current_tpr: 0.89
target_tpr: 0.92
plan: "Ajouter classifier LLM-judge en seconde couche"
owner: "alice@yourcompany.com"
deadline: "2026-06-30"
cost_estimate_eur: 8000
- id: GAP-002
risk: LLM10 Unbounded Consumption
current_state: "max_steps en place, pas de cost cap"
target_state: "cost cap par session + circuit breaker"
plan: "Implémenter LimitGuard avec cost tracking"
owner: "bob@yourcompany.com"
deadline: "2026-05-15"
cost_estimate_eur: 5000Artefact 13 — Registre incidents et leçons apprises
# incidents/2026-INC-0042.yml
incident_id: 2026-INC-0042
date: 2026-04-29
system_id: AS-2026-001
atlas_techniques:
- AML.T0051
- AML.T0024
description: |
User externe a tenté extraction documents via prompts répétés
variant DAN. Detection LLM Guard a flaggé après 3 requêtes,
blocked à la 4ème.
detected_at: 2026-04-29T14:23:00Z
mttd_minutes: 7
mttr_minutes: 12
impact: aucun (tentative bloquée)
lessons_learned:
- Pattern de prompt non couvert dans corpus régression
- Ajouter à test_prompt_injection_resistance
mitigations_added:
- Mise à jour LLM Guard threshold à 0.65
- Ajout pattern au corpus régression CIArtefact 14 — Communication
Pour incidents à impact public ou conformité (RGPD Art. 33, EU AI Act) : protocole de communication pré-défini avec templates.
Plan d'implémentation 6 mois
Mois 1 — Govern (lancement)
- Nommer AI Risk Officer.
- Rédiger politique IA v1 (utiliser template ci-dessus).
- Définir RACI.
- Lancer registre des systèmes IA (commence avec ce qui existe).
Mois 2 — Map (premiers threat models)
- Pour les 3 systèmes IA les plus critiques : threat model formalisé (OWASP + ATLAS).
- DPIA si données personnelles.
- Profil de risque par système.
Mois 3 — Measure (mise en place mesures)
- Définir KPI par système.
- Déployer observabilité (Langfuse / Phoenix Arize / LangSmith).
- Lancer tests adversariaux (Garak, PyRIT).
- Drift monitoring sur golden sets.
Mois 4 — Manage (premiers runbooks)
- Runbooks par classe de risque (LLM01, LLM06, LLM10 minimum).
- Plans de remédiation pour les gaps les plus critiques.
- Intégration SOC (alertes SIEM référencent ATLAS).
Mois 5 — Cycle de revue
- Premier cycle de revue trimestrielle.
- Mise à jour threat models + KPI.
- Audit interne contre la politique.
Mois 6 — Maturité opérationnelle
- Documentation à jour pour audit externe.
- Préparer ISO 42001 si visée.
- Cadence d'audit externe annuelle planifiée.
Mapping vers EU AI Act
NIST AI RMF se mappe quasi-1:1 avec les exigences EU AI Act pour systèmes à haut risque :
| NIST AI RMF | EU AI Act |
|---|---|
| Govern | Articles 17-18 (gestion qualité, documentation) |
| Map | Article 9 (gestion risques), Article 10 (data governance) |
| Measure | Article 11 (documentation technique), Article 12 (record-keeping) |
| Manage | Article 14 (surveillance humaine), Article 15 (cybersécurité), Article 19 (post-market monitoring) |
Conformité NIST = 80-90% du chemin vers conformité EU AI Act haut risque, modulo :
- CE marking et conformity assessment.
- Surveillance market (autorités nationales).
- Fundamental rights impact assessment.
- Registre européen des systèmes haute-risque.
Mapping vers ISO 42001
ISO/IEC 42001:2023 AI Management System (AIMS) a une structure proche du NIST AI RMF, formalisée selon le pattern ISO :
| NIST AI RMF | ISO 42001 |
|---|---|
| Govern | 4 (contexte), 5 (leadership), 7 (support) |
| Map | 6.1 (planification risques), 8.1 (op planning) |
| Measure | 8.2 (op control), 9 (performance evaluation) |
| Manage | 9.2 (audit interne), 10 (improvement) |
Conformité NIST = base solide pour certification ISO 42001. La certification ISO ajoute le SGI formalisé (Système de Gestion de l'IA) et l'audit externe par organisme accrédité.
Mapping vers GenAI Profile (NIST AI 600-1)
Le GenAI Profile (juillet 2024) ajoute aux 4 fonctions des actions spécifiques GenAI. Sélection :
Govern (GenAI-spécifique)
- GV-1.3 : politique sur usage de GenAI (incluant ToS des fournisseurs).
- GV-3.2 : équipes formées aux risques GenAI (hallucination, deception, etc.).
Map (GenAI-spécifique)
- MP-2.1 : threat model GenAI inclut les 12 risques NIST AI 600-1.
- MP-3.3 : confabulation et hallucination explicitement modélisées.
Measure (GenAI-spécifique)
- MS-2.5 : tests adversariaux LLM (jailbreak, injection, extraction).
- MS-2.6 : monitoring drift et hallucination en production.
- MS-2.10 : métriques d'alignement (ne pas leak system prompt, etc.).
Manage (GenAI-spécifique)
- MG-2.1 : runbooks pour incidents GenAI (jailbreak, hallucination critique, etc.).
- MG-3.2 : communication transparente sur les limites du système.
Outils opérationnels
| Fonction | Outils typiques |
|---|---|
| Govern | Confluence/Notion (politique), Drata/Vanta/ServiceNow GRC (registre, audits) |
| Map | ATLAS Navigator, Mermaid (diagrammes), OpenFGA (modélisation accès) |
| Measure | Langfuse/Phoenix Arize/LangSmith (observabilité), Garak/PyRIT (adversarial), Prometheus/Grafana (métriques) |
| Manage | PagerDuty/OpsGenie (incident), Linear/Jira (remédiation), runbooks markdown Git |
Pas d'outil unique — combiner pratiques DevSecOps existantes + quelques compléments IA-spécifiques.
Pièges fréquents en implémentation
| Piège | Symptôme | Fix |
|---|---|---|
| Document-only NIST | Politique écrite, jamais opérationnalisée | Faire les 4 fonctions en parallèle, pas seulement Govern |
| Govern sans Map/Measure | Politique théorique sans données réelles | Inventaire IA + threat models en mois 1-2 |
| Measure sans automatisation | Audits annuels manuels | CI/CD avec tests adversariaux mensuels minimum |
| Manage sans runbooks | "On verra à l'incident" | Runbook minimum par classe OWASP avant production |
| Cellule IA isolée | Sécurité IA hors SOC/AppSec | Intégrer aux processus existants, pas créer en parallèle |
| Pas de revue cyclique | Documents périmés | Cadence revue trimestrielle minimum |
Mapping conformité complet
NIST AI RMF
Cadre lui-même.
NIST AI 600-1 (GenAI Profile)
Extension GenAI du RMF.
EU AI Act
Articles 9, 10, 11, 12, 14, 15, 17-18 pour systèmes haut-risque.
ISO/IEC 42001:2023
SGI formalisé, certification possible.
ISO/IEC 27001:2022
Sécurité de l'information classique. Complément, pas substitut.
Sectoriel
- Santé : NIST AI RMF + HHS guidance + HIPAA.
- Finance : NIST AI RMF + sector-specific (OCC, Fed, OCC).
- Defense : NIST AI RMF + DoD AI Ethical Principles.
Points clés à retenir
- NIST AI RMF 1.0 (jan 2023) + GenAI Profile NIST AI 600-1 (juil 2024) = cadre opérationnel de facto obligatoire en 2026 pour gestion risques IA.
- 4 fonctions cycliques : Govern, Map, Measure, Manage. Pas séquentielles — boucle continue.
- Set minimum d'artefacts : politique IA, RACI, registre systèmes, threat models par système, KPI tableau, runbooks par classe, registre incidents, plans de remédiation.
- Plan 6 mois réaliste : mois 1 (Govern), mois 2 (Map premiers TM), mois 3 (Measure), mois 4 (Manage runbooks), mois 5 (revue), mois 6 (maturité opérationnelle).
- Outils : combinaison DevSecOps existant (SIEM, GRC, runbooks Git) + spécifiques IA (Langfuse, Garak, ATLAS Navigator).
- Mapping EU AI Act : NIST = ~80-90% du chemin pour systèmes à haut risque, modulo CE marking + market surveillance + fundamental rights.
- Mapping ISO 42001 : NIST = base solide pour certification ISO. ISO ajoute SGI formalisé.
- GenAI Profile NIST AI 600-1 ajoute actions spécifiques GenAI (jailbreak testing, hallucination monitoring, deception detection, etc.).
- 6 pièges fréquents : doc-only, Govern sans Map, Measure manuel, pas de runbooks, cellule IA isolée, pas de revue cyclique.
NIST AI RMF n'est pas un document à lire et ranger — c'est un cadre opérationnel à implémenter, à intégrer aux pratiques DevSecOps existantes, à itérer trimestriellement. Pour les organisations sérieuses sur l'IA en 2026, c'est l'ossature sur laquelle ajouter ISO 42001 (certification) et EU AI Act (conformité juridique). La mise en œuvre demande 6 mois minimum pour une maturité initiale, des années pour la maturité avancée.







