New York, Times Square e la nuova normalità dell’IA #
Sono appena rientrato da una decina di giorni di vacanza tra New York e il Connecticut. Era la mia prima volta a Manhattan e me ne sono innamorato! Chiunque abbia visitato questa città sa che il suo “caos ordinato” è unico: un flusso continuo di persone, luci, idee e opportunità. Girando la metropoli, tra le tante cose che mi hanno colpito, una in particolare ha catturato la mia attenzione: l’Intelligenza Artificiale è ovunque, visibile e dichiarata.
Non nei keynote o nelle demo per addetti ai lavori.
Nella vita quotidiana.
L’Intelligenza Artificiale è diventata parte del paesaggio urbano e culturale della città.
IA tra i giganti di Times Square #
Passeggiando a Times Square, la piazza più iconica del mondo per la pubblicità, accanto ai brand storici come Coca Cola, Samsung e M&M’S, appariva lo spot di Arize AI.
Arize è una startup californiana fondata nel 2020 che sviluppa piattaforme di observability e monitoring per modelli AI e sistemi LLM in produzione. Non stiamo parlando di un social network, di una consumer app o di un nuovo gadget tecnologico, ma di un prodotto B2B profondamente tecnico e orientato al mondo enterprise.
Ed è proprio questo il punto.
Non era solo pubblicità. Era un cambio simbolico di status.
Aziende AI nate pochi anni fa stanno occupando gli stessi spazi culturali e mediatici che per decenni sono stati riservati ai grandi brand consumer globali.
È forse il segnale più evidente di quanto l’IA sia ormai uscita dalla nicchia tech per diventare mainstream.
Non solo: Anthropic, OpenAI, e altre piattaforme SaaS AI erano protagoniste di spot e banner, sia all’aperto che nelle metropolitane. L’IA non è più solo un tema per addetti ai lavori: è parte integrante del tessuto urbano e culturale di New York.
L’IA nei caffè e la normalità del prompt #
Nei caffè – da Starbucks a Dunkin’, da Blank Street a Gregorys - osservando i laptop aperti, ho notato una costante. Che fossero studenti, grafici, giornalisti o sviluppatori, tutti – prima o poi – interagivano con uno strumento di IA: Copilot su VSCode, Claude Code, ChatGPT, Gemini. Non era un’eccezione, era la regola. L’IA è diventata la compagna silenziosa di chi lavora, studia, crea.
La cosa più interessante non era vedere qualcuno usare ChatGPT. Era vedere quanto tutto questo apparisse normale.
Nessuno “stava provando l’IA”.
L’IA era già integrata nel modo di lavorare, studiare e scrivere codice.
La facilità con cui si sbircia sugli schermi altrui meriterebbe un articolo a parte. Quello che si vede (e si sente) nei mezzi di trasporto e nei bar è spesso sorprendente – e a volte preoccupante – per chi si occupa di sicurezza.
Un consiglio: usate i Privacy Screen!
Un gap culturale #
In metropolitana, guardando un ragazzo intento a iterare su un prompt in Claude — mi è tornata in mente una conversazione avuta prima di partire. Un collega, appena tornato da una settimana di formazione negli USA, mi disse: “Qui sono almeno sei mesi avanti. L’IA è già parte della vita lavorativa quotidiana; in Europa ci arriveremo, ma più lentamente”.
La sensazione del collega trova conferma nei dati, anche se il quadro è più sfumato di quanto sembri. Nonostante gli USA guidino nello sviluppo di infrastrutture e modelli frontier, si collocano solo al 24° posto globale per utilizzo dell’IA nella popolazione (28,3%), superati da UAE, Singapore e Paesi nordici europei come Norvegia, Irlanda e Francia.1
Il vero divario emerge però quando si osserva l’adozione in ambito professionale: il 41% dei lavoratori americani utilizza strumenti di GenAI per attività professionali,2 contro circa il ~20% delle aziende UE — con un gap ancora più evidente tra grandi imprese (55%) e PMI (17%).3
La differenza non è tanto nel sapere usare l’IA, quanto nella velocità con cui viene incorporata nei processi quotidiani delle organizzazioni.
Questa velocità, a sua volta, è influenzata da due fattori che si intrecciano profondamente.
Il primo è culturale: negli Stati Uniti l’adozione è spesso guidata da una mentalità orientata alla sperimentazione rapida, un “provare prima, governare dopo” che accelera la diffusione ma lascia aperti molti rischi. In Europa, aziende e lavoratori tendono ad avere una sensibilità maggiore verso privacy, accountability e gestione del rischio.
Il secondo è normativo: framework come l’EU AI Act nascono proprio da questo contesto culturale — non solo come vincoli, ma come risposta a una domanda più forte di trasparenza e supervisione umana. Nel breve periodo questo rallenta l’adozione più spontanea. Nel lungo termine, però, potrebbe trasformarsi in un vantaggio per le organizzazioni capaci di integrare IA, governance e security in modo sostenibile fin dall’inizio.
Dietro la leggerezza con cui chiunque apre un’interfaccia AI al caffè, esiste una realtà molto meno glamour che le aziende stanno iniziando a scoprire: i costi.
Ogni chat, generazione di codice o analisi eseguita da un LLM ha un prezzo. E molte organizzazioni stanno realizzando che la spesa per token, inference e servizi AI cresce molto più rapidamente del previsto.4
Negli ultimi mesi diversi provider hanno iniziato a introdurre modelli di billing più granulari e limiti più stringenti. GitHub Copilot, ad esempio, si sta spostando verso logiche sempre più usage-based,5 mentre Anthropic ha modificato il modo in cui vengono conteggiati i token per Claude, con impatti concreti sui costi enterprise.67
La narrativa “l’AI farà risparmiare automaticamente” si sta quindi scontrando con una realtà più complessa: senza governance, ottimizzazione e controllo, i costi possono crescere molto rapidamente.
Ne parleremo in un articolo dedicato.
Crescita disordinata, rischi reali #
L’uso dell’IA cresce a ritmi vertiginosi, ma spesso in modo disordinato. In molte aziende, l’adozione nasce da iniziative di piccoli team o singoli individui — quello che nel settore chiamiamo Shadow AI: strumenti di IA adottati senza supervisione IT, senza governance, spesso con accessi a dati sensibili che nessuno ha formalmente autorizzato.
I CISO faticano a mappare quanti e quali strumenti di IA siano effettivamente in uso, a quali dati accedano e con quali permessi. Nel nome della velocità, gli sviluppatori iniziano sempre più spesso a concedere agli agenti IA token, API key e credenziali con privilegi estesi — a volte persino globali — senza lo stesso livello di controllo che applicherebbero a un essere umano o a un servizio tradizionale.
Ho analizzato questo rischio in dettaglio nell’articolo “Proteggere l’IA: il blueprint Okta per l’agentic enterprise sicura”, ma il punto chiave è semplice: la velocità di adozione è reale — e lo sono anche i rischi che porta con sé.
A New York sono anche passato davanti alla storica caserma dei Ghostbusters. E in fondo la Shadow AI assomiglia molto a un fantasma: invisibile finché non crea danni, difficile da tracciare e spesso già dentro l’organizzazione prima che qualcuno se ne accorga.
E chi chiamerai? Nel film bastava chiamare gli Acchiappafantasmi. Nel mondo enterprise, purtroppo, serve qualcosa di più.
Il ruolo della governance e della compliance #
In Europa, la situazione è resa più complessa (e, in parte, più sicura) da normative come l’EU AI Act, NIS2 e DORA. Se a volte queste regole sembrano eccessive, nascono per tutelare cittadini e lavoratori, e spesso sono un antidoto al caos incontrollato. L’AI Act, in particolare, impone requisiti di tracciabilità, supervisione umana, responsabilità e trasparenza che obbligano le aziende a trattare gli agenti IA come identità di primo livello.
Ho analizzato l’impatto dell’EU AI Act sull’identity management nell’articolo “Conformità EU AI Act: affrontare il livello dell’identità”.
Checklist: Come prepararsi alla governance dell’IA #
- Mappa tutti gli strumenti di IA in uso (ufficiali e shadow) → Okta Universal Directory e ISPM possono aiutare a scoprirli e classificarli.
- Definisci policy chiare su chi può usare cosa e con quali dati → I vari pattern di accesso di O4AA offrono modelli concreti per gestire permessi e scope. In particolare XAA (Cross App Access) è pensato proprio per agenti IA che devono interagire con più sistemi.
- Implementa controlli di accesso e audit per agenti IA → Le policy di Okta, i log e le funzionalità di Governance (come Access Requests e Certification Campaigns) possono aiutare a monitorare e governare gli agenti IA come qualsiasi altra identità critica.
- Forma i team su rischi, limiti e responsabilità dell’IA.
- Monitora costantemente i costi e ottimizza l’uso dei token.
- Aggiorna regolarmente le policy in base a evoluzioni normative e tecnologiche.
Al di là delle singole piattaforme o vendor scelti, il punto fondamentale è iniziare a trattare gli agenti IA come identità operative reali, con accessi, permessi, audit e lifecycle da governare come qualsiasi altra entità critica dell’organizzazione.
Piattaforme come Okta possono aiutare a costruire questo livello di controllo e governance, ma la sfida è prima di tutto architetturale e culturale: evitare che velocità di adozione e controllo procedano su binari separati.
Verso l’Agentic Enterprise: la sfida della maturità #
La vera sfida non è adottare l’IA — quella battaglia è già vinta, come dimostrano i dati e quello che ho visto a New York. La sfida è farlo in modo sicuro, governato e sostenibile nel tempo.
Per anni abbiamo trattato gli strumenti software come semplici applicazioni. Gli agenti IA cambiano completamente il paradigma: prendono decisioni, eseguono workflow, accedono a sistemi e interagiscono con dati sensibili.
Concretamente questo significa: sapere quali agenti IA operano nella tua organizzazione, con quali identità, quali permessi e accesso a quali dati. Significa trattare ogni agente IA come un’identità di primo livello — non uno strumento, ma un attore con credenziali, scope e ciclo di vita da gestire. È qui che l’identity management torna al centro della scena.
Il framework O4AA (Okta for AI Agents) e il Blueprint nascono esattamente da questa esigenza: offrire pattern di accesso concreti per chi costruisce o governa sistemi agentici.
Vuoi capire come scegliere il giusto pattern di accesso per i tuoi agenti IA? Leggi l’articolo “Okta for AI Agents: Pattern di Accesso”.
Conclusioni: l’IA è qui per restare. E tu? #
L’Intelligenza Artificiale non è più una promessa: è realtà quotidiana, visibile nei luoghi simbolo dell’innovazione globale. Ma la sua adozione porta con sé rischi nuovi, che richiedono governance, consapevolezza e strumenti adeguati. In Europa, la strada è più lenta ma – forse – più sicura.
A New York ho avuto la sensazione molto concreta che l’IA abbia già superato il punto di non ritorno culturale. Non è più uno strumento “speciale”: sta diventando infrastruttura invisibile del lavoro quotidiano.
La vera domanda, ora, non è più se adottarla. È capire quanto velocemente riusciremo a governarla prima che diventi più veloce dei processi, delle policy e dei modelli di sicurezza costruiti negli ultimi vent’anni.
Fammi sapere la tua opinione: hai visto anche tu segnali di questa rivoluzione? Come stai affrontando la sfida della governance degli agenti IA? Scrivimi nei commenti o su LinkedIn!
-
Microsoft AI Economy Institute, “Global AI Adoption in 2025”, gennaio 2026. ↩︎
-
Alexander Bick et al., “Mind the Gap: AI Adoption in Europe and the U.S.”, Federal Reserve Bank of St. Louis / Brookings Papers on Economic Activity, marzo-aprile 2026. ↩︎
-
Alice Labs, “Global AI Adoption Index 2026”, aprile 2026. EU enterprise AI use: 19,95% (2025), con divario netto tra grandi imprese (55%) e piccole (17%). ↩︎
-
“Quello che spendevo in tutto il 2023, ora lo spendo in una settimana.” – a16z – How 100 Enterprise CIOs Are Building and Buying Gen AI in 2025, febbraio 2026. ↩︎
-
GitHub Blog – Copilot is moving to usage-based billing, aprile 2026. ↩︎
-
Anthropic – Claude API Pricing. Analisi: Finout.io – Claude Opus 4.7 Pricing, aprile 2026. Conferma: Let’s Data Science – Claude Generates High Token Usage, aprile 2026. ↩︎
-
IT Brief – Anthropic shifts enterprise billing to token-based pricing, aprile 2026. ↩︎