Salta al contenuto principale
Conformità EU AI Act: affrontare il livello dell'identità
  1. Blog/

Conformità EU AI Act: affrontare il livello dell'identità

Fabio Grasso
Autore
Fabio Grasso
Solutions Engineer specializzato in Identity & Access Management (IAM) e cybersecurity.
Indice dei contenuti
O4AA - Okta for AI Agents - Questo articolo fa parte di una serie.
Parte 4: Questo articolo

Introduzione
#

Qualche settimana fa, il mio amico Matteo Bisi ha pubblicato un eccellente articolo intitolato "August 2026 Countdown: K8s & AI Compliance", in cui esplora come i team Kubernetes possono prepararsi all’applicazione dell’EU AI Act attraverso l’automazione a livello di piattaforma. Admission controller, sidecar watermarking, AI-BOM: l’angolazione infrastrutturale è reale e importante.

Leggendolo, mi sono ritrovato a pensare: l’infrastruttura è necessaria, ma non sufficiente. Ogni AI agent che gira in un pod, chiama un’API o prende una decisione per conto di un utente è anche un’Identità. E la governance dell’identità, ovvero chi è l’agente, a cosa può accedere, chi ne è responsabile, e se il suo comportamento possa essere tracciato e sovrascritto, rappresenta la dimensione della conformità che gli strumenti infrastrutturali da soli non possono coprire.

Questa è la prospettiva che voglio portare in questo articolo, il quarto della serie O4AA — Okta for AI Agents:

  • Nella Parte 1 abbiamo mappato l’Agentic Enterprise Blueprint: perché gli AI agent devono essere trattati come identità di primo livello, e quanto costa alle organizzazioni che non lo fanno lo shadow AI.
  • Nella Parte 2 abbiamo introdotto i quattro pattern di accesso che governano il modo in cui gli agenti si autenticano alle risorse aziendali, approfondendo i dettagli di protocollo con la Parte 3.
  • Qui, nella Parte 4, mappiamo l’EU AI Act, insieme ai corrispettivi NIST e NIS2/DORA, articolo per articolo sulle capacità di Okta, mostrando come O4AA trasforma i requisiti normativi in controlli operativi.

L’European Union Artificial Intelligence Act1, entrato in vigore nell’agosto 2024 e pienamente applicabile entro agosto 2026, rappresenta il primo quadro normativo ampio e orizzontale sull’IA al mondo. Per le organizzazioni che implementano AI agent, crea obblighi di conformità specifici che convergono direttamente sulla gestione delle identità e degli accessi.


Avvertenza — Non costituisce consulenza legale

Le mappature normative e le interpretazioni di conformità contenute in questo articolo riflettono la mia lettura personale dei testi rilevanti e delle linee guida pubblicamente disponibili. Non sono un avvocato. Nulla di quanto scritto qui costituisce consulenza legale. Consultate sempre un consulente legale qualificato prima di prendere decisioni di conformità per la vostra organizzazione.

Inoltre, alcune funzionalità Okta citate sono in Early Access o nella roadmap di prodotto. Standard come ID-JAG/XAA sono in continua evoluzione, e Okta (come tutti i vendor) sta aggiornando le proprie funzionalità legate all’IA a ritmo sostenuto. Verificate la disponibilità attuale con il vostro account team Okta prima di pianificare implementazioni in produzione.


L’EU AI Act: un framework basato sul rischio
#

L’EU AI Act adotta un approccio basato sul rischio, classificando i sistemi di IA in quattro livelli:

  1. 🚫 Rischio inaccettabile: I sistemi di IA che minacciano la sicurezza, i mezzi di sussistenza o i diritti (ad es. social scoring, identificazione biometrica in tempo reale negli spazi pubblici) sono vietati
  2. ⚠️ IA ad alto rischio: I sistemi che impattano infrastrutture critiche, occupazione, servizi essenziali, forze dell’ordine o processi democratici devono soddisfare requisiti stringenti tra cui:
    • 🔁 Sistemi di gestione del rischio
    • 🗄️ Requisiti di governance e qualità dei dati
    • 📄 Documentazione tecnica
    • 🔍 Conservazione dei registri e tracciabilità
    • 👁️ Obblighi di trasparenza
    • 🧑‍💼 Meccanismi di supervisione umana
    • 🛡️ Requisiti di accuratezza, robustezza e cybersecurity
  3. 💬 Rischio limitato: Sistemi di IA con obblighi di trasparenza (ad es. i chatbot devono dichiarare di essere IA)
  4. Rischio minimo: IA senza restrizioni (ad es. filtri antispam)
Chi è soggetto all’EU AI Act

Il regolamento si applica a tre ruoli principali:

  • Provider (Art. 3(3)): chi sviluppa o fa sviluppare un sistema di IA e lo immette sul mercato o mette in servizio sotto il proprio nome o marchio
  • Deployer (Art. 3(4)): chi utilizza un sistema di IA sotto la propria autorità nell’ambito di un’attività professionale
  • Produttore (Art. 3(5)): chi fabbrica un prodotto che incorpora o è dotato di un sistema di IA e lo immette sul mercato sotto il proprio nome o marchio

Per la maggior parte delle organizzazioni aziendali che implementano AI agent, il ruolo rilevante è quello di deployer. Tuttavia, se un’organizzazione modifica sostanzialmente un sistema di IA esistente o lo ridistribuisce sotto il proprio marchio, l’Art. 25 prevede che assuma le responsabilità del provider, con tutti gli obblighi connessi.

Scadenze principali
#

L’applicabilità del regolamento avviene per fasi. Le organizzazioni non dovrebbero trattare agosto 2026 come un orizzonte lontano: diversi obblighi sono già in vigore:

Data Cosa si applica
1 agosto 2024 Il regolamento entra in vigore
2 febbraio 2025 Capitolo II – Si applicano le pratiche di IA vietate
2 agosto 2025 Capitoli V e VI – Obblighi per i modelli GPAI, strutture di governance, organismi notificati
2 agosto 2026 Applicazione completa: sistemi di IA ad alto rischio, tutti gli obblighi per deployer e provider
2 agosto 2027 Sistemi ad alto rischio Allegato I/II (integrati in prodotti regolamentati come dispositivi medici o veicoli) già sul mercato prima di agosto 2026; i sistemi Allegato III (HR, credito, istruzione) si applicano solo in caso di modifica significativa — nessuna scadenza fissa al 2027 per questi

Per la maggior parte degli AI agent aziendali, quelli utilizzati in ambito HR, customer service, credit scoring, fraud detection o security monitoring, la scadenza critica è il 2 agosto 2027 per i sistemi già implementati, e il 2 agosto 2026 per le nuove implementazioni. Nessuno dei due orizzonti è lontano.

Nota

L’EU AI Act non agisce in modo isolato. Molteplici giurisdizioni si stanno muovendo in parallelo: GDPR, SOX, CCPA, NIS2 e DORA sono già applicabili. Il Colorado AI Act entrerà in vigore il 30 giugno 2026, diventando la prima legge statale statunitense a imporre obblighi a sviluppatori e deployer per i sistemi di IA ad alto rischio. Le organizzazioni che operano a livello globale affrontano un’ondata di scadenze sovrapposte, non una singola data.

Avviso

Possibile slittamento delle scadenze: Il 19 novembre 2025, la Commissione europea ha proposto, nell’ambito del pacchetto Digital Omnibus, di legare l’applicabilità dei requisiti per i sistemi di IA ad alto rischio alla disponibilità di standard armonizzati e linee guida di implementazione. Se adottata dai co-legislatori, la scadenza di agosto 2026 per l’IA ad alto rischio potrebbe slittare. Monitorare le FAQ sull’EU AI Act per gli aggiornamenti — ma non lasciarsi rallentare da questa incertezza. Gli obblighi di conformità rimangono, e un’architettura di governance dell’identità costruita ora sarà valida indipendentemente dal timing finale.

Livelli sanzionatori
#

La non conformità comporta sanzioni finanziarie graduali in base alla gravità della violazione:

Tipo di violazione Sanzione massima
Pratiche vietate (rischio inaccettabile) 35 milioni di euro o 7% del fatturato annuo globale
Sistemi di IA ad alto rischio / rischio sistemico GPAI 15 milioni di euro o 3% del fatturato annuo globale
Fornitura di informazioni errate o fuorvianti 7,5 milioni di euro o 1,5% del fatturato annuo globale

Per PMI e startup, si applica in genere il tetto percentuale.

Il regolamento prevede sanzioni fino a 35 milioni di euro o il 7% del fatturato annuo globale per le violazioni più gravi. L’implicazione a livello di consiglio d’amministrazione è chiara: la governance dell’identità IA rappresenta un rischio finanziario, non solo una questione tecnica1.

Perché gli AI agent attivano obblighi di conformità
#

Gli AI agent aziendali rientrano spesso nelle categorie ad alto rischio o a rischio limitato, attivando obblighi di conformità sostanziali. I requisiti chiave si intersecano direttamente con la gestione delle identità:

  • Tracciabilità: Le organizzazioni devono mantenere log di audit completi delle decisioni e azioni dei sistemi di IA. La governance dell’identità è un abilitatore fondamentale, ma non è l’unico livello richiesto: il logging applicativo, le pipeline SIEM e il system tracing contribuiscono tutti insieme ad essa. Protocolli come XAA/ID-JAG sono progettati tenendo conto di questo, incorporando un ID di transazione in ogni token per abilitare la correlazione cross-system dei log.
  • Supervisione umana: I sistemi ad alto rischio richiedono una supervisione “human-in-the-loop” o “human-on-the-loop”, con meccanismi per mettere in pausa, sovrascrivere o revocare le azioni degli agenti
  • Responsabilità: Le organizzazioni devono dimostrare chi ha autorizzato ciascun agente, a quali dati ha avuto accesso e quali azioni ha compiuto
  • Trasparenza: Gli utenti devono sapere quando interagiscono con sistemi di IA, il che richiede una chiara identificazione degli agenti

Esempi di AI agent aziendali che attivano obblighi:

Categoria Esempio Classificazione Riferimento
Impiego e gestione HR Sistemi di selezione CV, valutazione candidati o determinazione delle condizioni contrattuali ⚠️ Alto rischio Allegato III §4
Accesso a servizi essenziali Sistemi di credit scoring, concessione mutui, valutazione assicurativa ⚠️ Alto rischio Allegato III §5
Sicurezza delle infrastrutture critiche AI agent che gestiscono componenti critiche di reti energetiche, idriche o di trasporto ⚠️ Alto rischio Allegato III §2
Forze dell’ordine Sistemi di valutazione del rischio di recidiva o profilazione per sicurezza pubblica ⚠️ Alto rischio Allegato III §6
Chatbot e agenti conversazionali Assistenti AI che interagiscono con gli utenti 💬 Rischio limitato Art. 52
Chatbot che impersonano esseri umani (Art. 5(1)(a)) Agenti progettati per far credere all’utente di interagire con una persona fisica 🚫 Vietato Art. 5(1)(a)
Inferenza emotiva sui dipendenti (Art. 5(1)(f)) Sistemi che rilevano o inferiscono emozioni nell’ambiente lavorativo o scolastico 🚫 Vietato Art. 5(1)(f)
Nota

Anche se la rilevazione delle frodi finanziarie è esclusa dagli obblighi EU AI Act per l’IA ad alto rischio, un’architettura robusta di governance dell’identità rimane raccomandata per questi sistemi. I requisiti di conformità di altri regolamenti (GDPR, PCI-DSS, SOX) e la necessità di tracciabilità, responsabilità e supervisione umana rimangono fondamentali per qualsiasi sistema di IA che interagisce con dati sensibili o prende decisioni impattanti.


L’Attribution Gap
#

Prima di addentrarci nei dettagli normativi, è utile definire con precisione il problema sottostante. Il team di ricerca di Okta lo chiama Attribution Gap2: l’incapacità di ricondurre le azioni di un AI agent a un decisore umano autorizzato.

L'Agent Accountability Gap: ciò che gli agenti eseguono rispetto a ciò che devi dimostrare ai regolatori — una matrice di conformità per EU AI Act, GDPR, SOX, SEC, CCPA, NIS2, DORA e Colorado AI Act

Quando un AI agent approva un prestito, genera consulenza legale o modifica i permessi di accesso, l’organizzazione che lo implementa deve essere in grado di rispondere a cinque domande:

  1. Quale agente ha eseguito l’azione?
  2. Quali permessi aveva in quel momento?
  3. Chi ha autorizzato quei permessi, e quando?
  4. A quali dati ha avuto accesso?
  5. Dov’è il registro immutabile di tutto quanto sopra?

Se a una di queste domande non si riesce a rispondere, l’organizzazione ha un attribution gap, e i regolatori non sono gli unici a fare domande. I tribunali stanno già stabilendo la responsabilità indipendentemente dal fatto che un framework formale di conformità sia stato violato, come dimostrano i casi Air Canada3, Replika4, Garcia v. Character Technologies5 e Nippon Life v. OpenAI6.

Lo schema in tutti e quattro i casi è identico: quando qualcosa va storto, regolatori e tribunali chiedono chi era responsabile, e le organizzazioni senza una chiara catena di autorizzazione non riescono a rispondere. Questo è il gap di conformità che la Governance dell’Identità deve colmare.


Mappatura della conformità articolo per articolo
#

Le sezioni seguenti mappano ogni obbligo dell’EU AI Act rilevante per l’identità al blueprint O4AA e alle specifiche funzionalità Okta che lo indirizzano.

Avvertenza sulle corrispondenze normative

Le mappature che seguono sono interpretative e non validate ufficialmente da autorità di regolamentazione. L’Identità copre dimensioni di conformità fondamentali, ma non esaurisce tutti i requisiti dell’EU AI Act. Obblighi relativi al logging del modello di IA, alla governance dei dataset di addestramento, alla documentazione della logica decisionale e alle valutazioni di conformità richiedono strumenti aggiuntivi oltre all’IAM — come model registry e pipeline SIEM complete.

Tracciabilità (Articolo 12)
#

Requisito: Le organizzazioni devono mantenere log che consentano la ricostruzione del comportamento e delle decisioni del sistema di IA.

Riferimento al blueprint:

  • Audit log e telemetria — ogni azione dell’agente deve produrre un registro a prova di manomissione inoltrato a un SIEM centrale.
  • Gestione del ciclo di vita dell’agente — ogni agente deve essere un’identità distinta con un proprietario umano associato, così che i log possano attribuire le azioni a esseri umani autorizzati.
  • Agent Integration (MCP Server, SaaS Services, Agent-to-Agent Connections, Service Accounts, Vaulted Credentials) — tutti i pattern di accesso devono essere registrati con identificatori specifici dell’agente, mai con service account generici.

Soluzione Okta:

  • Cross-App Access (XAA), grazie al token ID-JAG, incorpora nel contesto del token sia l’utente che ha autorizzato sia l’identità dell’agente — rendendo ogni azione attribuibile a una specifica coppia umano-agente. Consente inoltre di iniettare segnali di rischio personalizzati nel flusso di log, arricchendo i dati di tracciabilità con contesto come punteggi di rischio o indicatori di threat intelligence esterna
  • Universal Directory assicura che ogni agente sia un’identità distinta con attributi di proprietario obbligatori, in modo che i log possano sempre attribuire le azioni a uno sponsor umano identificato. Il modello di identità O4AA garantisce che ogni voce di log sia attribuita a un principal non umano identificato, mai a un account condiviso
  • La cronologia delle modifiche traccia ogni cambiamento alle policy o alle credenziali degli agenti
  • System Log fornisce una traccia di audit completa degli eventi di registrazione, autenticazione, accesso e disattivazione degli agenti. I log registrano quale risorsa ogni agente ha raggiunto, quale azione è stata eseguita e il timestamp esatto, con un riferimento alla transazione che aiuta a correlare con i log delle applicazioni downstream.
  • Integrazione nativa con piattaforme SIEM (come Splunk o Datadog) per la conservazione a lungo termine e la correlazione cross-system
Nota tecnica — Art. 12: capacità di logging vs. periodo di conservazione

L’Art. 12(1) richiede che i sistemi di IA ad alto rischio abbiano la capacità tecnica di generare log automaticamente per l’intera durata del ciclo di vita del sistema. Questo riguarda l’architettura di logging, non il periodo minimo di conservazione.

I requisiti di conservazione minima sono definiti separatamente:

  • Art. 19 (provider): almeno 6 mesi dalla messa in servizio del sistema
  • Art. 26(6) (deployer): almeno 6 mesi dall’esecuzione dell’azione registrata

Normative settoriali (DORA, NIS2, GDPR, PCI-DSS) o requisiti contrattuali possono imporre periodi più lunghi. Il System Log di Okta e le integrazioni SIEM soddisfano il requisito tecnico dell’Art. 12; la policy di retention nel SIEM deve essere configurata in base agli obblighi specifici della propria organizzazione.

Supervisione umana (Articolo 14)
#

Requisito: I sistemi di IA ad alto rischio devono consentire l’intervento, la supervisione o la disattivazione da parte dell’uomo.

Riferimento al blueprint:

  • Human-in-the-loop — gate di approvazione che sospendono le operazioni dell’agente in attesa di una decisione umana
  • Kill switch — revoca immediata e globale dell’accesso dell’agente
  • Gestione del ciclo di vita dell’agente — sponsorizzazione umana e revisione periodica di ogni agente per garantire una supervisione continua

Soluzione Okta:

  • Universal Logout: la revoca con una singola azione termina tutte le sessioni attive e i token per un dato agente istantaneamente, soddisfacendo il requisito di “capacità di disattivazione”
  • Lifecycle Management (LCM): consente di disattivare o sospendere gli agenti in base a eventi del ciclo di vita, segnali di rischio o azioni manuali di uno sponsor umano
  • Identity Governance (OIG) — Access Requests: i workflow di approvazione umana controllano la creazione degli agenti e qualsiasi espansione dei permessi; nessun agente ottiene accesso senza l’approvazione di uno sponsor umano identificato
  • Identity Governance (OIG) — Certification Campaigns: revisioni programmate o attivate da eventi richiedono l’attestazione umana che l’accesso di ogni agente rimanga appropriato; gli agenti non attestati vengono automaticamente deprovisionati
  • MFA step-up (CIBA) per le operazioni sensibili degli agenti aggiunge un checkpoint di verifica umana a runtime

Responsabilità e governance (Articolo 17)
#

Requisito: Assegnare la responsabilità per la conformità e il funzionamento del sistema di IA.

Riferimento al blueprint:

  • Gestione del ciclo di vita dell’agente — onboarding governato, revisione e ritiro di ogni agente
  • Rilevamento del rischio degli AI agent — valutazione continua del rischio legato ai privilegi e al comportamento degli agenti
  • Rilevamento basato su browser — visibilità sugli shadow AI agent che aggirano i controlli di identità, con workflow per portarli in conformità

Soluzione Okta:

  • Universal Directory (UD): gli agenti vengono provisionati come tipi di identità distinti con attributi di proprietario obbligatori, garantendo che la responsabilità sia incorporata nel modello di identità. Ogni agente registrato in Okta deve avere un proprietario umano identificato: la responsabilità è strutturale, non opzionale
  • Lifecycle Management (LCM): workflow automatizzati, dalla creazione alla modifica (con cronologia delle modifiche tracciata) alla disattivazione (automatica su eventi del ciclo di vita o manuale da parte del proprietario)
  • Identity Governance (OIG) — Access Requests: catena di approvazione documentata per il provisioning degli agenti, che crea un registro verificabile di chi ha autorizzato cosa, e quando
  • Identity Governance (OIG) — Certification Campaigns: la revisione umana periodica impone disciplina nel ciclo di vita; gli agenti non più necessari vengono deprovisionati con cadenza regolare
  • Privileged Access (OPA): le credenziali dei Service Account vengono custodite in vault e ruotate, eliminando il rischio di segreti orfani o utilizzati impropriamente che potrebbero portare ad azioni degli agenti non rendicontabili
  • Identity Security Posture Management (ISPM): la scansione continua del livello di identità rileva agenti con privilegi eccessivi, credenziali dormienti e violazioni delle policy che potrebbero indicare una deriva dal modello di governance previsto. Il punteggio di rischio ISPM evidenzia gli agenti che accumulano permessi eccessivi per una remediation immediata

Requisiti di cybersecurity (Allegato IV)
#

Requisito: I sistemi di IA devono essere resilienti ad attacchi, manipolazione avversaria e accessi non autorizzati.

Riferimento al blueprint:

  • Enforcement a runtime — enforcement degli scope e delle policy al momento dell’esecuzione
  • Rilevamento del rischio degli AI agent — segnali di anomalia e minaccia in tempo reale
  • Agent Integration (MCP Server, SaaS Services, Agent-to-Agent Connections) — pattern di autenticazione sicura e accesso con privilegi minimi
  • Service Accounts e Vaulted Credentials — segreti gestiti al di fuori dell’agente, mai incorporati
  • Kill Switch — revoca immediata dell’accesso dell’agente

Soluzione Okta:

  • Privileged Access (OPA): il credential vaulting elimina i segreti statici incorporati nel codice dell’agente; la rotazione automatica minimizza la finestra di esposizione di qualsiasi credenziale
  • API Access Management: gli scope OAuth 2.0 impongono i privilegi minimi a livello di API gateway, un agente può chiamare solo ciò che il suo token consente esplicitamente
  • Identity Security Posture Management (ISPM): la scansione continua del livello di identità rileva misconfigurazioni, agenti con privilegi eccessivi, credenziali dormienti e derive rispetto alle baseline delle policy
  • Identity Threat Protection (ITP): le analitiche comportamentali in tempo reale rilevano attività anomale degli agenti (volumi di dati insoliti, accessi fuori orario, movimenti laterali) e possono attivare remediation automatiche o Universal Logout
  • MFA sull’emissione delle credenziali degli agenti aggiunge un ulteriore livello di autenticazione per le operazioni privilegiate

Gestione del rischio (Articolo 9)
#

Requisito: Istituire e mantenere un sistema di gestione del rischio lungo tutto il ciclo di vita del sistema di IA.

Riferimento al blueprint:

  • Rilevamento del rischio degli AI agent — inventariare e assegnare un punteggio di rischio a ogni agente
  • Enforcement a runtime — applicare controlli basati sul rischio in modo dinamico

Soluzione Okta:

  • L’analisi della postura ISPM produce un inventario del rischio continuo: quali agenti esistono, a cosa possono accedere e dove esistono violazioni delle policy
  • I segnali di rischio di ITP alimentano un punteggio di rischio dinamico: livello di privilegio, frequenza di accesso, sensibilità dei dati e anomalie comportamentali contribuiscono tutti a un punteggio di rischio per agente
  • La pipeline di segnali di rischio di O4AA aggrega gli input da ISPM, ITP e threat intelligence esterna in una vista unificata del rischio degli agenti
  • I workflow di governance in OIG traducono i punteggi di rischio in azioni automatizzate: segnalazione per la revisione, attivazione della certificazione o avvio del deprovisioning
  • Il monitoraggio continuo e le notifiche chiudono il ciclo tra rilevamento e risposta lungo tutto il ciclo di vita degli agenti

Governance dei dati (Articolo 10)
#

Requisito: Implementare pratiche di governance dei dati che definiscano a quali dati i sistemi di IA possono accedere e come vengono trattati.

Riferimento al blueprint:

  • Vaulted credentials — gli agenti non detengono mai credenziali persistenti di accesso ai dati
  • Enforcement a runtime — i permessi sui dati vengono applicati al momento della chiamata, non incorporati nell’agente

Soluzione Okta:

  • API Access Management: i token OAuth 2.0 basati su scope limitano ogni agente esattamente agli endpoint di dati che è autorizzato a chiamare, senza accesso implicito o ereditato
  • Fine-grained authorization (FGA): il controllo degli accessi basato sulle relazioni applica l’accesso ai dati a livello di oggetto, garantendo che gli agenti possano leggere o scrivere solo i record per cui sono esplicitamente autorizzati
  • Privileged Access (OPA): le credenziali dei data store (password di database, API key) vengono custodite in vault e iniettate a runtime; gli agenti non hanno mai accesso permanente ai dati sensibili
  • System Log produce un registro completo di ogni evento di accesso ai dati da parte di ogni agente, soddisfacendo i requisiti di documentazione dell’Articolo 10 per dataset di training, validazione e produzione

Allineamento al NIST AI RMF
#

Per le organizzazioni che operano a livello globale, o che seguono già i framework NIST per la cybersecurity o lo sviluppo software, il NIST AI Risk Management Framework (AI RMF 1.0)7, pubblicato nel gennaio 2023, rappresenta un complemento volontario ma ampiamente adottato ai requisiti obbligatori dell’EU AI Act.

L’AI RMF si articola attorno a quattro funzioni principali:

Funzione NIST AI RMF Scopo Capacità Okta O4AA
GOVERN Stabilire responsabilità, cultura e policy per un’IA responsabile Attribuzione della proprietà OIG, workflow di approvazione, governance del ciclo di vita
MAP Identificare e categorizzare i rischi dell’IA nel contesto Shadow AI Discovery, analisi della postura ISPM, inventario degli agenti
MEASURE Quantificare, analizzare e monitorare i rischi dell’IA Punteggio di rischio, analitiche comportamentali ITP, metriche dai log di audit
MANAGE Rispondere, mitigare e monitorare i rischi dell’IA Universal Logout, campagne di certificazione, rotazione delle credenziali

Sebbene il NIST AI RMF sia un framework statunitense e di natura volontaria, viene sempre piu citato da regolatori e auditor europei come metodologia di best practice riconosciuta. Si allinea inoltre strutturalmente con l’Articolo 9 dell’EU AI Act (sistemi di gestione del rischio), fornendo un ponte utile per le organizzazioni multinazionali che devono soddisfare entrambi i framework.

Riferimenti complementari:

  • NIST SP 800-218A — Secure Software Development Practices for Generative AI and Dual-Use Foundation Models8
  • NIST AI RMF Playbook — Guida pratica all’implementazione mappata su ciascuna funzione principale

Convergenza normativa: NIS2 e DORA
#

L’EU AI Act non opera in modo isolato. Le organizzazioni nei settori regolamentati affrontano obblighi sovrapposti: la conformità all’EU AI Act si interseca con NIS2 e DORA in modi che condividono un denominatore comune: la governance dell’identità.

NIS2 (Direttiva 2022/2555)
#

La Direttiva NIS2 si applica a entità essenziali e importanti in settori critici: energia, finanza, sanità, trasporti, infrastrutture digitali e pubblica amministrazione. Gli AI agent che operano in questi settori attivano obblighi NIS2 inseparabili dall’identità:

  • Articolo 21 — Misure obbligatorie di gestione del rischio che includono controllo degli accessi, autenticazione e gestione degli asset per tutti i sistemi ICT
  • Sicurezza della supply chain — Le organizzazioni devono governare i componenti IA di terze parti e le identità che portano con sé
  • Segnalazione degli incidenti — Gli incidenti significativi devono essere segnalati entro 24 ore (early warning) e 72 ore (report completo); un malfunzionamento di un AI agent può rientrare nell’obbligo se causa una violazione della sicurezza o un’interruzione significativa dei servizi — anche se NIS2 non fa riferimento esplicito all’IA, e non ogni malfunzionamento raggiunge la soglia di notifica

Intersezione con l’identità: Un AI agent che bypassa l’MFA, agisce al di fuori del proprio scope autorizzato o non può essere tracciato in un audit log rappresenta un’inadempienza NIS2, non solo un incidente di sicurezza.

DORA (Regolamento 2022/2554)
#

Il Digital Operational Resilience Act si applica alle entità finanziarie: banche, assicurazioni, istituti di pagamento, fornitori di servizi di cripto-asset e i relativi fornitori ICT terzi critici. Gli AI agent in ambito FinTech e FinServ devono soddisfare:

  • Articolo 9 — Requisiti di sicurezza delle informazioni che includono gestione delle identità e degli accessi, autenticazione forte e controlli sugli accessi privilegiati
  • Articolo 28 — Gestione del rischio ICT di terze parti: governance degli accessi documentata, diritti di audit e supervisione contrattuale per qualsiasi provider di IA con accesso ai sistemi finanziari
  • Test di resilienza — DORA richiede test regolari dei sistemi ICT, incluso il comportamento degli AI agent in condizioni di stress o avversarie

Intersezione con l’identità: I requisiti DORA per il controllo degli accessi documentato, le tracce di audit immutabili e la responsabilità contrattuale per l’accesso di terze parti mappano direttamente su ciò che O4AA fornisce attraverso OIG, System Log e API Access Management.

Un investimento coordinato nella governance dell’identità IA basata su O4AA affronta i requisiti del livello identità condivisi tra EU AI Act, NIS2 e DORA — riducendo le duplicazioni e favorendo un approccio integrato. La governance dell’identità è una componente necessaria per tutti e tre i framework; non sostituisce però la governance organizzativa, la documentazione dei processi e i controlli tecnici aggiuntivi che ciascun regolamento richiede.


GDPR e dati trattati dagli agenti
#

Gli AI agent che trattano dati personali attivano obblighi GDPR indipendentemente dalla classificazione AI Act — rendendolo l’unico framework per cui ogni agente, a qualunque livello di rischio, deve verificare la conformità:

  • Legittimità del trattamento: ogni azione dell’agente su dati personali deve avere una base giuridica
  • Minimizzazione dei dati: gli agenti devono accedere solo ai dati strettamente necessari per il task — il principio dei privilegi minimi di O4AA è direttamente allineato con questo obbligo
  • Diritti degli interessati: l’organizzazione deve poter rispondere alle richieste di accesso, rettifica e cancellazione anche per i dati trattati dai sistemi di IA — il che richiede la tracciabilità garantita dall’approccio O4AA

Roadmap di implementazione per la conformità all’EU AI Act
#

Non bisogna aspettare agosto 2026 per iniziare a colmare l’attribution gap. I requisiti di conformità descritti sopra non sono solo obblighi futuri: sono best practice attuali per un’implementazione responsabile dell’IA. Le organizzazioni che ritardano rischiano di cadere nella trappola dello “shadow AI”, dove gli agenti proliferano senza governance, creando una bomba a orologeria di non conformità.

  1. Discovery e AssessmentStabilire una visibilità di base e identificare i gap di conformità

    • Abilitare Shadow AI Discovery per catalogare tutti gli AI agent
    • Valutare ogni agente rispetto alle categorie di rischio dell’EU AI Act
    • Identificare gli agenti ad alto rischio che richiedono governance immediata
    • Documentare le attuali capacità di audit e logging
    Strumenti Okta

    Shadow AI Agent Discovery, ISPM, Universal Directory

  2. Governance e ResponsabilitàStabilire meccanismi di ownership e supervisione

    • Assegnare sponsor umani a tutti gli AI agent
    • Implementare workflow di OIG Access Request per la creazione degli agenti e qualsiasi espansione dei permessi
    • Avviare campagne di certificazione OIG per gli agenti esistenti per attestare o eseguire il deprovisioning
    • Stabilire procedure di Universal Logout
    Strumenti Okta

    OIG, Workflows, Universal Directory, Universal Logout

  3. Controlli Runtime e MonitoraggioApplicare i privilegi minimi e abilitare la supervisione in tempo reale

    • Implementare API Access Management basato su scope con XAA / ID-JAG
    • Implementare ITP per le analitiche comportamentali e il rilevamento delle anomalie
    • Configurare l’integrazione SIEM per la conservazione degli audit log
    • Stabilire le notifiche per le violazioni delle policy
    Strumenti Okta

    XAA, API Access Management, ITP, ISPM, System Log

  4. Conformità ContinuaMantenere la postura di conformità e adattarsi agli aggiornamenti normativi

    • Programmare campagne di certificazione OIG regolari per rilevare le derive
    • Monitorare le dashboard ISPM per agenti con privilegi eccessivi e credenziali inattive
    • Condurre audit di conformità periodici
    • Aggiornare le policy in base alle linee guida normative
    Strumenti Okta

    OIG, ISPM, Workflows

---
config:
  theme: 'base'
---
timeline
    title Roadmap di conformità EU AI Act — Livello identità
    Fase 1 · Discovery : Shadow AI Discovery : Analisi ISPM : Inventario agenti
    Fase 2 · Governance : OIG Access Requests : Campagne certificazione : Universal Logout
    Fase 3 · Runtime : XAA / ID-JAG : API Access Management : ITP + SIEM
    Fase 4 · Continua : Certificazioni programmate : Monitoraggio ISPM : Aggiornamenti policy

Conclusioni
#

Ciò che l’articolo di Matteo e questo condividono, nonostante le prospettive diverse, è lo stesso messaggio di fondo: la conformità non avviene per caso. Richiede un’architettura deliberata, e per gli AI agent quell’architettura parte dall’Identità.

L’EU AI Act crea obblighi chiari, ma le organizzazioni nei settori regolamentati affrontano piu di un framework. Una banca che implementa un AI agent per il rischio di credito è simultaneamente soggetta all’EU AI Act (se ad alto rischio), a NIS2 (come entità finanziaria che gestisce il rischio ICT) e a DORA (per la resilienza ICT e la supervisione delle terze parti). I requisiti di identità incorporati in ogni regolamento si sovrappongono significativamente. Risolverli una sola volta, al livello dell’identità, è piu efficiente e piu duraturo che affrontare ogni regolamento separatamente.

L’O4AA — Agentic Enterprise Blueprint di Okta fornisce quella base unificata:

  • Tracciabilità completa tramite audit log e integrazione SIEM (EU AI Act Art. 12, NIS2 Art. 21, DORA Art. 9)
  • Supervisione umana attraverso workflow di approvazione e Universal Logout (EU AI Act Art. 14, NIST MANAGE)
  • Responsabilità chiara con attribuzione obbligatoria della proprietà (EU AI Act Art. 17, DORA Art. 28, NIST GOVERN)
  • Resilienza cyber attraverso ISPM, ITP e gestione delle credenziali (EU AI Act Allegato IV, NIS2/DORA Art. 9)

La scadenza di agosto 2026 non è lontana. Per le organizzazioni ancora nella fase di shadow AI, dove gli agenti vengono implementati senza governance, il divario tra lo stato attuale e la prontezza alla conformità è significativo. I framework trattati in questo articolo (EU AI Act, NIST AI RMF, NIS2, DORA) non sono un peso burocratico. Sono il progetto per il tipo di implementazione dell’IA di cui le organizzazioni, i regolatori e gli utenti finali possono davvero fidarsi.

Qual è la postura di conformità della tua organizzazione oggi? Sei in anticipo o stai ancora mappando quali agenti hai? 👇


✋ Prossimi passi
#

Per approfondire
#

💬 Partecipa alla conversazione
#

Come si sta preparando la tua organizzazione alla conformità all’EU AI Act? Quali sfide stai affrontando con la governance degli AI agent?

Condividi la tua esperienza nei commenti qui sotto o connettiti con me su LinkedIn per continuare la discussione.

O4AA - Okta for AI Agents - Questo articolo fa parte di una serie.
Parte 4: Questo articolo

Powered by Hugo Streamline Icon: https://streamlinehq.com Hugo Hugo & Blowfish