Introduction #
Il y a quelques semaines, mon ami Matteo Bisi a publié un excellent article intitulé "August 2026 Countdown: K8s & AI Compliance", explorant comment les équipes Kubernetes peuvent se préparer à l’application de l’EU AI Act via l’automatisation au niveau plateforme. Admission controllers, sidecar watermarking, AI-BOMs : l’angle infrastructure est réel et important.
En le lisant, je me suis dit : l’infrastructure est nécessaire, mais pas suffisante. Chaque agent IA qui s’exécute dans un pod, appelle une API ou prend une décision au nom d’un utilisateur est aussi une Identité. Et la gouvernance des identités : qui est l’agent, à quoi peut-il accéder, qui en est responsable, et si son comportement peut être tracé et corrigé : voilà la dimension de conformité que les outils d’infrastructure seuls ne peuvent couvrir.
C’est la perspective que je souhaite apporter dans cet article, le quatrième de la série O4AA — Okta for AI Agents :
- Dans la Partie 1 nous avons cartographié l’Agentic Enterprise Blueprint : pourquoi les agents IA doivent être traités comme des identités de premier rang, et ce que le shadow AI coûte aux organisations qui ne le font pas.
- Dans la Partie 2 nous avons introduit les quatre patterns d’accès qui régissent la façon dont les agents s’authentifient auprès des ressources d’entreprise.
- Dans la Partie 3 nous sommes entrés dans les détails du protocole : flux ID-JAG, claims de tokens, champs des journaux d’audit et configuration Okta pour chaque pattern.
- Ici, dans la Partie 4, nous cartographions l’EU AI Act — et ses homologues NIST et NIS2/DORA — article par article face aux capacités d’Okta, montrant comment O4AA transforme les exigences réglementaires en contrôles opérationnels.
Le Règlement Européen sur l’Intelligence Artificielle (EU AI Act)1, entré en vigueur en août 2024 et atteignant sa pleine applicabilité en août 2026, représente le premier cadre réglementaire large et horizontal sur l’IA au monde. Pour les organisations déployant des agents IA, il crée des obligations de conformité spécifiques qui convergent directement vers la gestion des identités et des accès.
Les correspondances réglementaires et interprétations de conformité dans cet article reflètent ma lecture personnelle des textes pertinents et des orientations publiquement disponibles. Je ne suis pas juriste. Rien ici ne constitue un avis juridique. Consultez toujours un conseil juridique qualifié avant de prendre des décisions de conformité pour votre organisation.
De plus, certaines capacités Okta référencées sont en Early Access ou sur la roadmap produit. Les standards comme ID-JAG/XAA évoluent activement, et Okta (comme tous les éditeurs) met à jour ses fonctionnalités liées à l’IA à un rythme rapide. Vérifiez la disponibilité actuelle auprès de votre équipe de compte Okta avant de planifier des déploiements en production.
L’EU AI Act : un cadre basé sur le risque #
L’EU AI Act adopte une approche basée sur le risque, catégorisant les systèmes d’IA en quatre niveaux :
- 🚫 Risque inacceptable : Les systèmes d’IA menaçant la sécurité, les moyens de subsistance ou les droits (ex. notation sociale, identification biométrique en temps réel dans les espaces publics) sont interdits
- ⚠️ IA à haut risque : Les systèmes affectant les infrastructures critiques, l’emploi, les services essentiels, les forces de l’ordre ou les processus démocratiques sont soumis à des exigences strictes incluant :
- 🔁 Systèmes de gestion des risques
- 🗄️ Exigences de gouvernance et de qualité des données
- 📄 Documentation technique
- 🔍 Tenue de registres et traçabilité
- 👁️ Obligations de transparence
- 🧑💼 Mécanismes de supervision humaine
- 🛡️ Exigences de précision, robustesse et cybersécurité
- 💬 Risque limité : Systèmes d’IA avec obligations de transparence (ex. les chatbots doivent révéler qu’ils sont des IA)
- ✅ Risque minimal : IA sans restrictions (ex. filtres anti-spam)
Échéances clés #
L’applicabilité du règlement est progressive. Les organisations ne doivent pas considérer août 2026 comme un horizon lointain — plusieurs obligations sont déjà en vigueur :
| Date | Ce qui s’applique |
|---|---|
| 1er août 2024 | Le règlement entre en vigueur |
| 2 février 2025 | Chapitre II – Les pratiques d’IA interdites s’appliquent |
| 2 août 2025 | Chapitres V & VI – Obligations pour les modèles GPAI, structures de gouvernance, organismes notifiés |
| 2 août 2026 | Application complète : systèmes d’IA à haut risque, toutes les obligations des déployeurs et fournisseurs |
| 2 août 2027 | Systèmes à haut risque Annexe I/II (intégrés dans des produits réglementés tels que dispositifs médicaux ou véhicules) déjà sur le marché avant août 2026 ; les systèmes Annexe III (RH, crédit, éducation) s’appliquent uniquement en cas de modification substantielle — aucune date fixe au 2027 pour ces derniers |
Pour la plupart des agents IA d’entreprise — ceux utilisés dans les RH, le service client, le scoring de crédit, la détection de fraude ou la surveillance de sécurité — l’échéance critique est le 2 août 2027 pour les systèmes déjà déployés, le 2 août 2026 pour les nouveaux déploiements. Aucun de ces horizons n’est lointain.
L’EU AI Act n’est pas isolé. Plusieurs juridictions avancent en parallèle : le RGPD, SOX, le CCPA, NIS2 et DORA sont déjà applicables. Le Colorado AI Act entre en vigueur le 30 juin 2026, devenant la première loi d’un État américain imposant des obligations aux développeurs et déployeurs pour les systèmes d’IA à haut risque. Les organisations opérant à l’échelle mondiale font face à une vague d’échéances qui se chevauchent, pas à une seule.
Possible report des délais: Le 19 novembre 2025, la Commission européenne a proposé, dans le cadre du paquet Digital Omnibus, de conditionner l’applicabilité des exigences pour les systèmes d’IA à haut risque à la disponibilité de normes harmonisées et de lignes directrices de mise en œuvre. Si adoptée par les co-législateurs, l’échéance d’août 2026 pour l’IA à haut risque pourrait être reportée. Suivez la FAQ EU AI Act pour les mises à jour — mais ne laissez pas cette incertitude retarder les travaux de gouvernance. Les obligations de conformité demeurent, et une architecture d’identité construite maintenant sera valide quelle que soit l’échéance finale.
Niveaux de sanctions #
La non-conformité entraîne des sanctions financières proportionnées à la gravité de l’infraction :
| Type de violation | Amende maximale |
|---|---|
| Pratiques interdites (risque inacceptable) | 35 millions d’euros ou 7% du chiffre d’affaires annuel mondial |
| Systèmes d’IA à haut risque / risque systémique GPAI | 15 millions d’euros ou 3% du chiffre d’affaires annuel mondial |
| Fourniture d’informations incorrectes ou trompeuses | 7,5 millions d’euros ou 1,5% du chiffre d’affaires annuel mondial |
Pour les PME et startups, le plafond en pourcentage s’applique généralement. L’implication au niveau du conseil d’administration est claire : la gouvernance des identités IA est un risque financier, pas seulement une préoccupation technique.
Pourquoi les agents IA déclenchent des obligations de conformité #
Les agents IA d’entreprise tombent souvent dans les catégories haut risque ou risque limité, déclenchant des obligations de conformité substantielles. Les exigences clés croisent directement la gestion des identités :
- Traçabilité : Les organisations doivent maintenir des journaux d’audit complets des décisions et actions des systèmes IA. La gouvernance des identités est un facilitateur essentiel — mais pas le seul niveau requis : la journalisation applicative, les pipelines SIEM et le traçage système y contribuent tous. Les protocoles comme XAA/ID-JAG ont été conçus dans cet esprit, en intégrant un ID de transaction dans chaque token pour permettre la corrélation des journaux entre systèmes.
- Supervision humaine : Les systèmes à haut risque requièrent une supervision “human-in-the-loop” ou “human-on-the-loop”, exigeant des mécanismes pour mettre en pause, annuler ou révoquer les actions des agents
- Responsabilité : Les organisations doivent démontrer qui a autorisé chaque agent, à quelles données il a accédé, et quelles actions il a effectuées
- Transparence : Les utilisateurs doivent savoir quand ils interagissent avec des systèmes IA, nécessitant une identification claire des agents
Le règlement impose des amendes pouvant atteindre 35 millions d’euros ou 7% du chiffre d’affaires annuel mondial pour les violations les plus graves (voir les niveaux de sanctions ci-dessus), faisant de la gouvernance des identités IA un impératif de conformité au niveau du conseil d’administration, et non une simple préoccupation technique1.
Le fossé d’attribution #
Avant de plonger dans les détails réglementaires, il est utile de nommer précisément le problème sous-jacent. L’équipe de recherche d’Okta l’appelle le fossé d’attribution (Attribution Gap)2 : l’incapacité à retracer les actions d’un agent IA jusqu’à un décideur humain autorisé.
Lorsqu’un agent IA approuve un prêt, génère un avis juridique ou modifie des permissions d’accès, l’organisation qui le déploie doit pouvoir répondre à cinq questions :
- Quel agent a effectué l’action ?
- Quelles permissions avait-il à ce moment précis ?
- Qui a autorisé ces permissions, et quand ?
- Quelles données a-t-il consultées ?
- Où se trouve l’enregistrement immuable de tout ce qui précède ?
Si l’une de ces questions ne trouve pas de réponse, l’organisation a un fossé d’attribution — et les régulateurs ne sont pas les seuls à poser ces questions. Les tribunaux établissent déjà la responsabilité indépendamment du fait qu’un cadre de conformité formel ait été violé, comme l’illustrent les affaires Air Canada3, Replika4, Garcia v. Character Technologies5 et Nippon Life v. OpenAI6.
Le schéma commun aux quatre affaires est le même : quand quelque chose tourne mal, les régulateurs et les tribunaux demandent qui était responsable, et les organisations sans chaîne d’autorisation claire ne peuvent pas répondre. C’est le fossé de conformité que la gouvernance des identités doit combler.
Cartographie de conformité article par article #
Les sections suivantes associent chaque obligation de l’EU AI Act liée à l’identité au blueprint O4AA et aux fonctionnalités Okta spécifiques qui y répondent.
Les correspondances ci-dessous sont interprétatives et ne sont pas officiellement validées par les autorités réglementaires. La gouvernance des identités couvre des dimensions essentielles de la conformité, mais ne satisfait pas à elle seule l’ensemble des exigences de l’EU AI Act. Les obligations relatives à la journalisation des modèles d’IA, à la gouvernance des données d’entraînement, à la documentation de la logique décisionnelle et aux évaluations de conformité nécessitent des outils complémentaires — tels que des plateformes de gestion du cycle de vie des modèles, des registres de modèles et des pipelines SIEM complets. Okta contribue la couche identité ; un programme de conformité complet requiert une architecture technique et organisationnelle plus large.
Traçabilité (Article 12) #
Exigence : Les organisations doivent maintenir des journaux permettant la reconstruction du comportement et des décisions des systèmes IA.
Référence au blueprint :
- Journaux d’audit et télémétrie — chaque action d’agent doit produire un enregistrement infalsifiable transmis à un SIEM central.
- Gestion du cycle de vie des agents — chaque agent doit être une identité distincte avec un propriétaire humain associé, afin que les journaux puissent attribuer les actions à des humains autorisés.
- Intégration des agents (MCP Server, SaaS Services, Agent-to-Agent Connections, Service Accounts, Vaulted Credentials) — tous les patterns d’accès doivent être journalisés avec des identifiants spécifiques à l’agent, jamais des comptes de service génériques.
Solution Okta :
- Cross-App Access (XAA), grâce au token ID-JAG, intègre dans le contexte du token à la fois l’utilisateur ayant autorisé et l’identité de l’agent — rendant chaque action attribuable à une paire humain-agent spécifique. Il permet également d’injecter des signaux de risque personnalisés dans le flux de journalisation, enrichissant les données de traçabilité avec du contexte comme les scores de risque ou les indicateurs de threat intelligence externes
- Universal Directory garantit que chaque agent est une identité distincte avec des attributs de propriétaire obligatoires, de sorte que les journaux puissent toujours attribuer les actions à un sponsor humain nommé. Le modèle d’identité des agents O4AA assure que chaque entrée de journal est attribuée à un principal non humain nommé — jamais un compte partagé
- L’historique des modifications trace chaque changement apporté aux politiques ou identifiants des agents
- System Log fournit une piste d’audit complète des événements d’enregistrement, d’authentification, d’accès et de désactivation des agents. Les journaux capturent quelle ressource chaque agent a atteinte, quelle action a été effectuée, et l’horodatage exact, avec une référence de transaction qui aide à corréler avec les journaux applicatifs en aval.
- Intégration native avec les plateformes SIEM (comme Splunk ou Datadog) pour la rétention à long terme et la corrélation inter-systèmes
Supervision humaine (Article 14) #
Exigence : Les systèmes d’IA à haut risque doivent permettre l’intervention, la supervision ou la désactivation par un humain.
Référence au blueprint :
- Human-in-the-loop — portes d’approbation qui suspendent les opérations de l’agent en attente d’une décision humaine
- Kill switch — révocation immédiate et globale de l’accès de l’agent
- Gestion du cycle de vie des agents — parrainage humain et revue périodique de chaque agent assurent une supervision continue
Solution Okta :
- Universal Logout : la révocation en une action termine toutes les sessions actives et tokens d’un agent donné instantanément, satisfaisant l’exigence de “capacité à désactiver”
- Lifecycle Management (LCM) : peut désactiver ou suspendre des agents sur la base d’événements de cycle de vie, de signaux de risque ou de déclencheurs manuels par un sponsor humain
- Identity Governance (OIG) — Access Requests : les workflows d’approbation humaine encadrent la création d’agents et toute extension de permissions ; aucun agent n’obtient d’accès sans la validation d’un sponsor humain nommé
- Identity Governance (OIG) — Certification Campaigns : des revues planifiées ou déclenchées par événement exigent une attestation humaine que l’accès de chaque agent reste approprié ; les agents non attestés sont automatiquement déprogrammés
- MFA step-up (CIBA) pour les opérations sensibles des agents ajoute un point de vérification humaine au moment de l’exécution
Responsabilité et gouvernance (Article 17) #
Exigence : Attribuer la responsabilité de la conformité et du fonctionnement des systèmes IA.
Référence au blueprint :
- Gestion du cycle de vie des agents — onboarding gouverné, revue et retrait de chaque agent
- Détection des risques des agents IA — évaluation continue du risque lié aux privilèges et au comportement des agents
- Détection basée sur le navigateur — visibilité sur les agents IA shadow qui contournent les contrôles d’identité, avec des workflows pour les mettre en conformité
Solution Okta :
- Universal Directory (UD) : les agents sont provisionnés comme des types d’identité distincts avec des attributs de propriétaire obligatoires, garantissant que la responsabilité est intégrée au modèle d’identité. Chaque agent enregistré dans Okta doit avoir un propriétaire humain nommé — la responsabilité est structurelle, pas optionnelle
- Lifecycle Management (LCM) : workflows automatisés — de la création à la modification (historique des changements tracé) à la désactivation (automatique sur événements de cycle de vie ou manuelle par le propriétaire)
- Identity Governance (OIG) — Access Requests : chaîne d’approbation documentée pour le provisionnement des agents créant un enregistrement auditable de qui a autorisé quoi, et quand
- Identity Governance (OIG) — Certification Campaigns : revue humaine périodique imposant une discipline de cycle de vie ; les agents qui ne sont plus nécessaires sont déprogrammés de manière régulière
- Privileged Access (OPA) : les Pre-shared Key (PSK) et identifiants API sont conservés en coffre-fort et font l’objet d’une rotation automatique, éliminant le risque de secrets orphelins ou mal utilisés pouvant conduire à des actions d’agents non traçables
- Identity Security Posture Management (ISPM) : analyse continue de la couche identité détectant les agents sur-privilégiés, les identifiants dormants et les violations de politique pouvant indiquer une dérive par rapport au modèle de gouvernance prévu — le scoring de risque ISPM fait remonter les agents accumulant des permissions excessives pour remédiation immédiate
Transparence (Article 13, Article 52) #
Exigence : Les utilisateurs doivent être informés lorsqu’ils interagissent avec des systèmes IA ; le contenu généré par l’IA doit être signalé.
Référence au blueprint :
- Journaux d’audit et télémétrie — les journaux distinguent les interactions humaines des interactions d’agents
- Intégration des agents — les agents sont enregistrés comme des principaux distincts et identifiables
Solution Okta :
- Universal Directory : les agents sont provisionnés comme une classe d’identité distincte — jamais fusionnés avec les comptes humains — rendant leur présence sans ambiguïté dans chaque interaction d’authentification et d’API
- Cross-App Access (XAA) : implémente le standard OAuth ID-JAG pour le SSO avec des identifiants client spécifiques à l’agent. L’identité appelante dans chaque token est explicitement l’agent, pas un compte de service générique ou un utilisateur
- System Log enregistre l’attribution humain-vs-agent sur chaque événement, permettant aux applications en aval d’afficher des mentions “cette action a été effectuée par un agent IA”
Exigences de cybersécurité (Annexe IV) #
Exigence : Les systèmes IA doivent être résilients aux attaques, à la manipulation adversariale et aux accès non autorisés.
Référence au blueprint :
- Application des politiques à l’exécution — application des portées et politiques au moment de l’exécution
- Détection des risques des agents IA — signaux d’anomalie et de menace en temps réel
- Intégration des agents (MCP Server, SaaS Services, Agent-to-Agent Connections) — patterns d’authentification sécurisée et d’accès au moindre privilège
- Service Accounts et Vaulted Credentials — secrets gérés en dehors de l’agent, jamais embarqués
- Kill Switch — révocation immédiate de l’accès de l’agent
Solution Okta :
- Privileged Access (OPA) : le coffre-fort d’identifiants élimine les secrets statiques embarqués dans le code des agents ; la rotation automatique minimise la fenêtre d’exposition pour tout identifiant
- API Access Management : les scopes OAuth 2.0 appliquent le moindre privilège au niveau de la passerelle API — un agent ne peut appeler que ce que son token lui autorise explicitement
- Identity Security Posture Management (ISPM) : analyse continue de la couche identité détectant les mauvaises configurations, les agents sur-privilégiés, les identifiants dormants et les dérives par rapport aux référentiels de politique
- Identity Threat Protection (ITP) : les analyses comportementales en temps réel détectent les activités anormales des agents (volumes de données inhabituels, accès en dehors des heures, mouvement latéral) et peuvent déclencher une remédiation automatisée ou un Universal Logout
- MFA sur l’émission d’identifiants d’agents ajoute une couche d’authentification supplémentaire pour les opérations privilégiées
Gestion des risques (Article 9) #
Exigence : Établir et maintenir un système de gestion des risques tout au long du cycle de vie du système IA.
Référence au blueprint :
- Détection des risques des agents IA — inventorier et scorer chaque agent en termes de risque
- Application des politiques à l’exécution — appliquer des contrôles basés sur le risque de manière dynamique
Solution Okta :
- L’analyse de posture ISPM produit un inventaire de risques continu : quels agents existent, à quoi ils peuvent accéder, et où des violations de politique existent
- Les signaux de risque ITP alimentent un scoring de risque dynamique — niveau de privilège, fréquence d’accès, sensibilité des données et anomalies comportementales contribuent tous à un score de risque par agent
- Le pipeline de signaux de risque O4AA agrège les entrées d’ISPM, ITP et de la threat intelligence externe dans une vue unifiée du risque des agents
- Les workflows de gouvernance dans OIG traduisent les scores de risque en actions automatisées : signaler pour revue, déclencher une certification, ou initier un déprovisionnement
- La surveillance continue et les alertes bouclent la boucle entre détection et réponse sur l’ensemble du cycle de vie des agents
Gouvernance des données (Article 10) #
Exigence : Mettre en place des pratiques de gouvernance des données couvrant quelles données les systèmes IA peuvent accéder et comment elles sont traitées.
Référence au blueprint :
- Vaulted credentials — les agents ne détiennent jamais d’identifiants d’accès aux données de manière persistante
- Application des politiques à l’exécution — les permissions sur les données sont appliquées au moment de l’appel, pas embarquées dans l’agent
Solution Okta :
- API Access Management : les tokens OAuth 2.0 basés sur les scopes restreignent chaque agent aux endpoints de données exacts qu’il est autorisé à appeler — aucun accès implicite ou hérité
- Fine-grained authorization (FGA) : le contrôle d’accès basé sur les relations applique l’accès aux données au niveau de l’objet, garantissant que les agents ne peuvent lire ou écrire que les enregistrements auxquels ils sont explicitement autorisés à accéder
- Privileged Access (OPA) : les identifiants de stockage de données (mots de passe de base de données, clés API) sont conservés en coffre-fort et injectés à l’exécution — les agents n’ont jamais d’accès permanent aux données sensibles
- System Log produit un enregistrement complet de chaque événement d’accès aux données par chaque agent, répondant aux exigences de documentation de l’Article 10 pour les jeux de données d’entraînement, de validation et de production
Alignement avec le NIST AI RMF #
Pour les organisations opérant à l’échelle mondiale — ou qui suivent déjà les frameworks NIST pour la cybersécurité ou le développement logiciel — le NIST AI Risk Management Framework (AI RMF 1.0)7, publié en janvier 2023, fournit un complément volontaire mais largement adopté aux exigences obligatoires de l’EU AI Act.
Le AI RMF est organisé autour de quatre fonctions fondamentales :
| Fonction NIST AI RMF | Objectif | Capacité Okta O4AA |
|---|---|---|
| GOVERN | Établir la responsabilité, la culture et les politiques pour une IA responsable | Attribution de propriété OIG, workflows d’approbation, gouvernance du cycle de vie |
| MAP | Identifier et catégoriser les risques IA en contexte | Shadow AI Discovery, analyse de posture ISPM, inventaire des agents |
| MEASURE | Quantifier, analyser et suivre les risques IA | Scoring de risque, analyses comportementales ITP, métriques des journaux d’audit |
| MANAGE | Répondre, atténuer et surveiller les risques IA | Universal Logout, campagnes de certification, rotation des identifiants |
Bien que le NIST AI RMF soit un framework américain et de nature volontaire, il est de plus en plus référencé par les régulateurs et auditeurs européens comme une méthodologie de bonnes pratiques reconnue. Il s’aligne également structurellement avec l’Article 9 de l’EU AI Act (systèmes de gestion des risques), fournissant un pont utile pour les organisations multinationales devant satisfaire les deux cadres.
Références complémentaires :
- NIST SP 800-218A — Secure Software Development Practices for Generative AI and Dual-Use Foundation Models8
- NIST AI RMF Playbook — Guide pratique de mise en oeuvre associé à chaque fonction fondamentale
Convergence réglementaire : NIS2 et DORA #
L’EU AI Act n’opère pas isolément. Les organisations dans les secteurs réglementés font face à des obligations empilées : la conformité à l’EU AI Act croise NIS2 et DORA de manières qui partagent un dénominateur commun — la gouvernance des identités.
NIS2 (Directive 2022/2555) #
La Directive NIS2 s’applique aux entités essentielles et importantes dans les secteurs critiques : énergie, finance, santé, transport, infrastructure numérique et administration publique. Les agents IA opérant dans ces secteurs déclenchent des obligations NIS2 indissociables de l’identité :
- Article 21 — Mesures obligatoires de gestion des risques incluant le contrôle d’accès, l’authentification et la gestion des actifs pour tous les systèmes TIC
- Sécurité de la chaîne d’approvisionnement — Les organisations doivent gouverner les composants IA tiers et les identités qu’ils portent
- Signalement des incidents — Les incidents significatifs doivent être signalés dans les 24 heures (alerte précoce) et 72 heures (rapport complet) ; un dysfonctionnement d’agent IA peut être éligible s’il provoque une violation de sécurité ou une perturbation significative des services — bien que NIS2 ne fasse pas explicitement référence à l’IA, et que tous les dysfonctionnements ne franchissent pas le seuil de notification
Intersection avec l’identité : Un agent IA qui contourne le MFA, agit en dehors de son périmètre autorisé, ou ne peut être tracé dans un journal d’audit constitue un manquement à NIS2, pas seulement un incident de sécurité.
DORA (Règlement 2022/2554) #
Le Digital Operational Resilience Act s’applique aux entités financières — banques, assureurs, établissements de paiement, prestataires de services sur crypto-actifs, et leurs fournisseurs TIC tiers critiques. Les agents IA dans la FinTech et les services financiers doivent respecter :
- Article 9 — Exigences de sécurité de l’information incluant la gestion des identités et des accès, l’authentification forte et les contrôles d’accès privilégiés
- Article 28 — Gestion des risques TIC tiers : gouvernance d’accès documentée, droits d’audit et supervision contractuelle pour tout fournisseur d’IA ayant accès aux systèmes financiers
- Tests de résilience — DORA exige des tests réguliers des systèmes TIC, y compris les comportements des agents IA sous stress ou conditions adversariales
Intersection avec l’identité : Les exigences de DORA en matière de contrôle d’accès documenté, de pistes d’audit immuables et de responsabilité contractuelle pour l’accès tiers correspondent directement à ce qu’O4AA fournit via OIG, System Log et API Access Management.
Un investissement coordonné dans la gouvernance des identités IA basée sur O4AA répond aux exigences communes de la couche identité partagées par l’EU AI Act, NIS2 et DORA — réduisant les doublons et favorisant une approche intégrée. La gouvernance des identités est une composante nécessaire dans les trois cadres ; elle ne remplace pas la gouvernance organisationnelle, la documentation des processus et les contrôles techniques supplémentaires que chaque réglementation exige également.
Feuille de route d’implémentation pour la conformité EU AI Act #
Il n’est pas nécessaire d’attendre août 2026 pour commencer à combler le fossé d’attribution. Les exigences de conformité décrites ci-dessus ne sont pas que des obligations futures — ce sont des bonnes pratiques actuelles pour un déploiement responsable de l’IA. Les organisations qui tardent risquent de tomber dans le piège du “shadow AI”, où les agents prolifèrent sans gouvernance, créant une bombe à retardement de non-conformité.
Phase 1 : Découverte et évaluation #
Objectif : Établir une visibilité de base et identifier les lacunes de conformité.
Actions :
- Activer Shadow AI Discovery pour cataloguer tous les agents IA
- Évaluer chaque agent par rapport aux catégories de risque de l’EU AI Act
- Identifier les agents à haut risque nécessitant une gouvernance immédiate
- Documenter les capacités actuelles d’audit et de journalisation
Outils Okta : Shadow AI Agent Discovery, ISPM, Universal Directory
Phase 2 : Gouvernance et responsabilité #
Objectif : Établir les mécanismes de propriété et de supervision.
Actions :
- Assigner des sponsors humains à tous les agents IA
- Implémenter des workflows d’approbation pour la création et la modification d’agents
- Lancer des campagnes de certification pour les agents existants
- Établir des procédures de Universal Logout
Outils Okta : OIG, Workflows, Universal Directory, Universal Logout
Phase 3 : Contrôles runtime et surveillance #
Objectif : Appliquer le moindre privilège et permettre la supervision en temps réel.
Actions :
- Implémenter API Access Management basé sur les scopes
- Déployer ITP pour les analyses comportementales
- Configurer l’intégration SIEM pour la rétention des journaux d’audit
- Établir des alertes pour les violations de politique
Outils Okta : XAA, API Access Management, ITP, ISPM, System Log
Phase 4 : Conformité continue #
Objectif : Maintenir la posture de conformité et s’adapter aux mises à jour réglementaires.
Actions :
- Planifier des campagnes de certification régulières
- Surveiller les tableaux de bord ISPM pour détecter les dérives de conformité
- Conduire des audits de conformité périodiques
- Mettre à jour les politiques en fonction des orientations réglementaires
Outils Okta : OIG, ISPM, Workflows
Conclusions #
Ce que l’article de Matteo et celui-ci partagent — malgré leurs angles différents — est le même message sous-jacent : la conformité ne se produit pas par accident. Elle requiert une architecture délibérée, et pour les agents IA cette architecture commence par l’Identité.
L’EU AI Act crée des obligations claires, mais les organisations dans les secteurs réglementés font face à plus d’un cadre. Une banque déployant un agent IA pour le risque de crédit est simultanément soumise à l’EU AI Act (si haut risque), à NIS2 (en tant qu’entité financière gérant les risques TIC), et à DORA (pour la résilience TIC et la supervision des tiers). Les exigences d’identité intégrées dans chaque réglementation se chevauchent significativement. Les résoudre une seule fois — au niveau de la couche identité — est plus efficace et plus durable que d’adresser chaque réglementation isolément.
L’O4AA — Agentic Enterprise Blueprint d’Okta fournit cette fondation unifiée :
- Traçabilité complète via les journaux d’audit et l’intégration SIEM (EU AI Act Art. 12, NIS2 Art. 21, DORA Art. 9)
- Supervision humaine via les workflows d’approbation et Universal Logout (EU AI Act Art. 14, NIST MANAGE)
- Responsabilité claire avec attribution de propriété obligatoire (EU AI Act Art. 17, DORA Art. 28, NIST GOVERN)
- Transparence séparant les identités agents et humaines (EU AI Act Art. 13/52, NIST MAP)
- Résilience cybersécurité via ISPM, ITP et la gestion des identifiants (EU AI Act Annexe IV, NIS2/DORA Art. 9)
L’échéance d’août 2026 n’est pas lointaine. Pour les organisations encore dans la phase shadow AI — où les agents sont déployés sans gouvernance — l’écart entre l’état actuel et la préparation à la conformité est significatif. Les cadres couverts ici (EU AI Act, NIST AI RMF, NIS2, DORA) ne sont pas un fardeau bureaucratique. Ils constituent un blueprint pour le type de déploiement IA auquel les organisations, les régulateurs et les utilisateurs finaux peuvent réellement faire confiance.
Quelle est la posture de conformité de votre organisation aujourd’hui ? Êtes-vous en avance — ou encore en train de cartographier quels agents vous avez ? 👇
✋ Prochaines étapes #
En savoir plus #
- Sécuriser l’IA : le blueprint Okta pour l’agentic enterprise sécurisée — Série O4AA 1 : pourquoi les agents IA nécessitent une gouvernance des identités de premier rang
- Okta for AI Agents : Patterns d’Accès — Série O4AA 2 : comment les agents s’authentifient auprès des ressources d’entreprise
- Agentic Enterprise Blueprint : Téléchargez le guide complet du framework
- EU AI Act Full Text : Texte officiel du règlement
- NIST AI RMF 1.0 : Le NIST AI Risk Management Framework
- The Attribution Gap: AI Regulation (Okta) — comment l’incapacité à retracer les actions des agents jusqu’aux humains autorisés crée une exposition juridique et réglementaire
- EU AI Act Explorer — guide interactif du règlement : articles, considérants, obligations par rôle et calendriers de conformité
- OWASP Top 10 for Large Language Model Applications — la liste de référence des risques de sécurité pour les systèmes basés sur les LLM ; directement pertinent pour la modélisation des menaces des agents et les obligations de cybersécurité de l’Annexe IV
💬 Rejoignez la conversation #
Comment votre organisation se prépare-t-elle à la conformité EU AI Act ? Quels défis rencontrez-vous avec la gouvernance des agents IA ?
Partagez votre expérience dans les commentaires ci-dessous ou connectez-vous avec moi sur LinkedIn pour poursuivre la discussion.
-
Regulation (EU) 2024/1689 of the European Parliament and of the Council laying down harmonised rules on artificial intelligence (Artificial Intelligence Act), Official Journal of the European Union, August 2024 ↩︎ ↩︎
-
The Attribution Gap: AI Regulation, Okta Blog — defining the compliance exposure created when AI agent actions cannot be traced to authorized human decision-makers ↩︎
-
Air Canada Ordered to Pay After Chatbot Gave Wrong Information About Bereavement Fares, CBC News, February 2024 ↩︎
-
AI: Italian Supervisory Authority Fines Company Behind Chatbot Replika, European Data Protection Board, 2025 ↩︎
-
Character AI Lawsuit: Garcia v. Character Technologies, Darrow AI Legal Resources ↩︎
-
Lawsuit Alleges AI Chatbot Engages in Unauthorized Practice of Law, National Law Review ↩︎
-
NIST AI Risk Management Framework (AI RMF 1.0), National Institute of Standards and Technology, January 2023 ↩︎
-
NIST SP 800-218A: Secure Software Development Practices for Generative AI and Dual-Use Foundation Models, National Institute of Standards and Technology, 2024 ↩︎