Tutti i limiti dell’intelligenza artificiale nel modello Zero Trust. E come superarli. Se il nemico è già dentro la tua rete, l’unica difesa è non abbassare mai la guardia. L’AI non è infallibile, se implementata male può diventare un altro punto di vulnerabilità

Per anni, ci siamo raccontati una favola rassicurante. Creare un perimetro digitale protetto e tenere fuori gli intrusi sarebbe bastato per garantire la sicurezza informatica. Un’illusione crollata sotto i colpi della realtà. Gli attacchi informatici non bussano più alla porta principale: si infiltrano attraverso credenziali rubate, malware invisibili, insider. Il vero problema non è più chi sta fuori, ma chi è già dentro. Il lavoro da remoto ha amplificato questa vulnerabilità. Un dipendente può connettersi da un bar a Tokyo con lo stesso livello di accesso che avrebbe dal suo ufficio di Milano. Ma se quelle credenziali gli fossero state sottratte? Se quel dispositivo fosse compromesso? È qui che entra in scena Zero Trust, un approccio radicalmente diverso alla sicurezza informatica.

Il modello nasce dalla consapevolezza che nessun utente, nessun dispositivo, nessuna connessione possano essere considerati sicuri di default. Il perimetro dei sistemi è definito a partire dall’identità digitale di persone e dispositivi. Zero Trust stabilisce che nessuna credenziale sia automaticamente considerata sicura: ogni accesso viene stabilito in base al rischio associato e continuamente verificato. La sua regola aurea è brutale nella sua semplicità: non fidarti mai, verifica sempre. Ogni accesso deve essere monitorato, ogni dispositivo scrutinato, ogni richiesta analizzata. Ma un modello così rigido, senza il supporto della tecnologia giusta, rischia di trasformarsi in un incubo operativo. Chi può gestire manualmente milioni di autenticazioni al giorno o controllare ogni accesso senza rallentare il lavoro? La risposta è una sola: l’intelligenza artificiale rende possibile questo approccio su larga scala. Ecco perché l’AI diventa l’elemento chiave che trasforma il modello Zero Trust da un ideale teorico a una soluzione concreta.

TI PIACE QUESTO ARTICOLO?

Iscriviti alla nostra newsletter per essere sempre aggiornato.

BIAS E QUALITÀ DEI DATI

L’AI viene spesso presentata come la panacea di tutti i mali della cybersecurity. Veloce, adattiva, capace di individuare minacce invisibili all’occhio umano. La realtà però è più complessa. L’AI non è infallibile e, se mal implementata, può persino diventare un altro punto di vulnerabilità. Anche all’interno di un’architettura Zero Trust. Il primo problema è la dipendenza dai dati. Se il dataset è incompleto, distorto o obsoleto, l’AI prenderà decisioni errate. Segnalerà falsi positivi, ignorerà minacce reali o, peggio ancora, potrà essere ingannata da attacchi mirati. «Per garantire l’integrità dei dati di addestramento esistono diverse tecniche» –ci spiega Matteo Colella, membro del comitato scientifico di CLUSIT. «Un approccio è legato all’utilizzo di blockchain, che per le loro caratteristiche di immutabilità, trasparenza e tracciabilità, possono essere di ausilio nel rilevare con certezza modifiche non autorizzate al set di dati. Tramite smart contracts, per esempio, è anche possibile etichettare le modifiche realizzate come legittime e approvate, rilevando così quelle che non lo sono».

Per salvaguardare la qualità dei dati, essenziale per l’efficacia dell’AI, in Reevo si studiano modelli di AI per ridurre i falsi positivi e negativi, con un focus particolare sull’AI-driven threat intelligence applicata ai flussi SOAR. «L’obiettivo è ottimizzare il filtraggio degli eventi di sicurezza, migliorando la precisione e l’accuratezza delle segnalazioni nel SOC senza introdurre complessità inutili nella gestione ZT» – spiega Emanuele Briganti, head of presales di ReeVo. «Per garantire dataset sempre aggiornati e affidabili, stiamo sperimentando modelli di apprendimento continuo, che consentono all’AI di adattarsi a nuove minacce in tempo reale. Inoltre, i nostri esperti stanno valutando l’integrazione di reti neurali generative per simulare scenari d’attacco e migliorare la capacità predittiva dei sistemi di rilevamento delle minacce».

La cronaca ci ha già mostrato come i set di dati utilizzati per l’addestramento potrebbero innescare i cosiddetti “bias”, pregiudizi che possono influenzare i comportamenti del modello. Un pericolo da non sottovalutare. «Il fenomeno – interviene Colella di CLUSIT – potrebbe verificarsi nel caso di informazioni sbilanciate, provenienti, per esempio, da troppe fonti di una certa ideologia rispetto alla sua opposta. Oppure da stereotipi già presenti nella società e, quindi, anche nei dati di addestramento». La Data Augmentation interviene per prevenire questi effetti, ampliando il set di dati di addestramento attraverso variazioni mirate. Per esempio, utilizzando sinonimi o parafrasi dei testi impiegati nell’addestramento, per bilanciare le diverse tipologie di dati.

LA SFIDA DELLA SCALABILITÀ

Perché l’approccio Zero Trust sia davvero efficace è essenziale che le aziende adottino anche una strategia di protezione dei modelli su cui si basa l’intelligenza artificiale. In risposta a questa esigenza, Cisco propone AI Defense, una piattaforma basata sull’AI creata per sviluppare, distribuire e proteggere le applicazioni AI in tutta sicurezza rilevando anomalie e comportamenti sospetti, prevenendo gli attacchi prima che possano causare danni. Cisco raccomanda alle aziende di adottare l’AI Algorithmic Red Team per rafforzare la sicurezza e testare la resilienza degli algoritmi. «Un nuovo approccio in grado di testare in pochi secondi la capacità e la sicurezza delle applicazioni che utilizzano l’IA» – spiega Fabio Panada, technical solutions architect – Security di Cisco Italia. «In questo modo, AI Defense riconvalida costantemente le applicazioni AI e implementa misure aggiornate per garantire la massima sicurezza».

Uno dei pericoli più subdoli per i modelli di apprendimento automatizzati è il data poisoning, l’inserimento di dati manipolati allo scopo di influenzare negativamente il processo di addestramento del modello stesso. «Per evitare questo rischio è fondamentale adottare metodi rigorosi di validazione e pulizia dei dati, come il processo di filtraggio che aiuta a rimuovere eventuali inserimenti potenzialmente nocivi prima che possano influenzare il funzionamento del modello» – spiega Giorgio Triolo, chief technology officer di Axitea. Non meno importante è che l’addestramento dei modelli avvenga in un ambiente protetto e controllato, in cui si possano verificare correttezza e qualità dei dati e delle fonti.

Leggi anche:  Cybersecurity in evoluzione

Durante questa fase – come spiega Colella di CLUSIT – è possibile adottare diverse strategie di protezione, come l’adversarial training, che prevede l’addestramento del modello con dati manipolati ad hoc per migliorarne la resistenza agli attacchi. Inoltre, si possono impiegare algoritmi per la rilevazione del data poisoning e la data sanitization, con l’obiettivo di individuare e bloccare i tentativi di manipolazione dei dati, che potrebbero alterare il comportamento del modello.

L’altra sfida è la scalabilità dell’AI nelle reti aziendali complesse. Infrastrutture estese generano un’enorme quantità di dati che devono essere continuamente monitorati dall’AI per identificare minacce in tempo reale. Più il sistema cresce, più diventa difficile gestire la mole di dati e affinare la precisione degli algoritmi senza creare colli di bottiglia o sovraccarichi computazionali. Su questo tema, ReeVo sta esplorando soluzioni AI per ottimizzare il monitoraggio. «In questo momento, l’approccio è centrato sull’uso dell’AI per il triage degli allarmi di sicurezza all’interno del SOC, migliorando l’efficienza degli analisti e garantendo un’identificazione più rapida degli incidenti più critici» – spiega Briganti. «Il SOAR rimane il principale strumento di automazione per la gestione dei flussi di dati».

Secondo Colella di CLUSIT, l’utilizzo di architetture distribuite, di tecnologie big data oppure di data lake/data warehouse rappresentano altrettante soluzioni efficaci per gestire la crescente mole di informazioni senza compromettere la reattività del sistema contribuendo a ottimizzare l’elaborazione dei dati e quindi anche del tempo di risposta. Molte delle piattaforme Zero Trust leader nel mercato utilizzano architetture basate sul cloud e si avvalgono di una rete distribuita di data center globalmente posizionati. Questo approccio offre vantaggi in termini di gestione della latenza (minimizzando i tempi di risposta per gli utenti) e di ridondanza (assicurando che il sistema rimanga operativo anche in caso di guasti a uno o più data center). Anche l’edge computing o l’uso di modelli distribuiti di AI possono ridurre il carico computazionale e migliorare l’efficienza operativa di Zero Trust su larga scala. Per migliorare la scalabilità, ReeVo sta testando l’applicazione dell’edge computing per elaborare i dati vicino alla loro origine, riducendo la latenza e migliorando la reattività del sistema. «Parallelamente, l’uso di AI distribuita permette di distribuire il carico computazionale su più nodi, aumentando l’efficienza operativa dell’approccio ZT» – conferma Briganti di ReeVo. Edge computing e sistemi distribuiti di AI possono sicuramente aiutare in termini di performance.

«Il primo spostando l’elaborazione, e quindi le decisioni, verso la periferia della rete, dove i dati hanno origine» – spiega Colella di CLUSIT. «I secondi distribuendo l’elaborazione e le fasi di apprendimento dei modelli su più nodi in modo da velocizzarle. Come per altri casi di servizi distribuiti anche nel caso dell’AI, è necessario gestire l’orchestrazione delle componenti, riuscire a parallelizzare i carichi di lavoro e garantire sincronizzazione e coerenza tra i nodi». L’adozione del cloud è determinante per affrontare le sfide legate all’intelligenza artificiale generativa. «La potenza computazionale deve essere distribuita in modo capillare, vicino alle sorgenti, in modo da migliorare efficienza e tempi di risposta» – spiega Marco Gioanola, principal sales engineer di Zscaler. L’evoluzione delle minacce e la crescente complessità delle infrastrutture aziendali impongono soluzioni sempre più sofisticate. Unified Vulnerability Management (UVM) centralizza la gestione delle vulnerabilità, analizzando continuamente i dati ricevuti da decine di fonti simultaneamente e identificando in tempo reale, attraverso l’intelligenza artificiale, le aree critiche da proteggere. Cyber Threat Exposure Management (CTEM), invece, valuta e aggiorna continuamente l’inventario degli asset aziendali, identificando rischi e vulnerabilità e automatizzando le risposte. Entrambe sfruttano una piattaforma di AI distribuita e scalabile, denominata Security Fabric, che opera al cuore del cloud Zscaler.

PROTEZIONE E TRASPARENZA

Nel framework Zero Trust il connubio intelligenza artificiale e machine learning viene utilizzato nel processo di classificazione degli applicativi presenti sulla macchina protetta. «Le best practice prevedono che si configuri il sistema in maniera tale da non permettere l’esecuzione dell’applicativo durante la classificazione» – spiega Gianluca Pucci, manager sales engineering Italy in WatchGuard Technologies. «ll software viene identificato come Goodware (legittimo) o Malware (dannoso). Questa valutazione si basa sull’esperienza e sulla storicità del sistema, con un’ultima fase affidata all’analisi umana, riducendo così al minimo le possibilità di errore». Pucci sottolinea inoltre che è sempre possibile configurare liste di esclusione (blacklist o whitelist) per garantire la continuità operativa, consentendo al tempo stesso di approfondire eventuali anomalie con il supporto degli esperti di WatchGuard. Uno dei problemi più critici nell’uso dell’AI è la sua scarsa trasparenza. Molti modelli di deep learning prendono decisioni che nemmeno i loro creatori riescono a spiegare del tutto. Se un algoritmo blocca l’accesso di un dirigente (decisione) senza una spiegazione chiara, l’azienda può trovarsi paralizzata.

Il tema della correttezza della decisione nei modelli AI è centrale in diversi contesti, pensiamo agli ambiti sanitari o giudiziari. In un ambiente Zero Trust, negare l’accesso a un utente legittimo può essere considerato un incidente di sicurezza, poiché compromette la disponibilità delle informazioni. In questi casi, come si può verificare la correttezza della decisione e, soprattutto, come si può correggere rapidamente l’errore? «Quando si verifica un errore di questo tipo o un falso positivo nei sistemi di allerta, il metodo più rapido per risolvere il problema è l’escalation, proprio come avviene nei sistemi tradizionali» – spiega Colella di CLUSIT. Un esempio classico è quello del firewall che blocca erroneamente il traffico verso una rete legittima a causa di una regola impostata in modo errato.

«Nel caso di un firewall – prosegue Colella – è sufficiente che l’amministratore modifichi la regola per ripristinare l’accesso. Ma con un modello di intelligenza artificiale, il processo diventa più complesso: occorre analizzare come il sistema abbia interpretato lo scenario e i dati per identificare una minaccia o negare l’accesso a un utente». Molti sistemi di sicurezza informatica adottano l’User Behavior Analytics (UBA), una tecnica che analizza il comportamento di utenti e dispositivi per individuare attività anomale. Questi strumenti funzionano costruendo una baseline di riferimento attraverso la raccolta e l’elaborazione continua di dati, per poi rilevare eventuali deviazioni rispetto ai modelli considerati normali.

Leggi anche:  Data center, nuova potenza sostenibile

Per indagare sulle cause che hanno indotto il sistema a prendere una certa decisione – continua Colella – si può procedere all’analisi di log e tracciati della piattaforma Zero Trust per capire quali regole siano entrate in funzione e con quali soglie di attivazione, approfondendo i dati dell’utente, del dispositivo oppure della rete. «Questa verifica può essere fatta manualmente tramite l’analisi di operatori e amministratori dei sistemi, oppure tramite l’escalation gestita dall’AI, per esempio, controllando tutti i dati e i passi di valutazione che il modello ha svolto, tramite quelle funzioni che vengono chiamate XAI, eXplainable AI, una sorta di “diagnostica passo passo” di quanto svolto dai meccanismi automatici».

Facciamo un altro esempio. Cosa accade in un Security Operation Center (SOC), se il modello di deep learning prende una decisione errata? «Per i SOC è essenziale fornire evidenza della correttezza delle decisioni prese dall’AI» – spiega Giorgio Triolo di Axitea. «A tal fine, esistono diverse strategie e strumenti di interpretabilità, come LIME – Local Interpretable Model-agnostic Explanations e SHAP – SHapley Additive exPlanations, che permettono di comprendere la logica di predizione del modello sulla base del dataset a disposizione. E poi non va dimenticato l’intervento degli analisti nelle ultime fasi del processo di gestione degli eventi per mitigare il rischio di errori e per effettuare un fine-tuning dei modelli».

SINGLE POINT OF FAILURE

A questo punto, è evidente che un’eccessiva dipendenza dall’AI può introdurre un nuovo single point of failure. Se un modello di intelligenza artificiale diventa il fulcro del sistema di sicurezza, un suo malfunzionamento o la compromissione dell’algoritmo sottostante potrebbero non solo paralizzare intere operazioni aziendali, ma anche aprire la strada agli attaccanti, mettendo a rischio l’intero ecosistema digitale.

Come possiamo garantire che l’AI sia un alleato e non un futuro punto di debolezza? «Come ogni tecnologia avanzata, anche l’AI può diventare una vulnerabilità se non adeguatamente protetta» – afferma Alex Galimi, technical partner manager di Trend Micro Italia. «Gli attacchi avversariali e le manipolazioni malevole mirano a ingannare gli algoritmi di machine learning, compromettendo l’integrità dei modelli e sfruttando la fiducia che le aziende ripongono nei loro sistemi automatizzati. I casi più diffusi – spiega Galimi – riguardano le manipolazioni che consentono ai malintenzionati di ottenere informazioni altrimenti non accessibili. Ma sono noti anche scenari in cui i modelli vengono alterati generando danni e risultati errati. Se consideriamo i modelli di Ai privati, i rischi e i danni per le aziende aumentano esponenzialmente».

Proteggere gli algoritmi di machine learning da attacchi avversariali e manipolazioni malevole è un aspetto critico per garantire la sicurezza nel contesto di un modello Zero Trust. «In un ambiente ZT come sappiamo ogni richiesta, sia essa proveniente dall’interno o dall’esterno, viene trattata come potenzialmente dannosa fino a prova contraria» – osserva Giovanni Bombi, vendor success manager & team leader NGS di Westcon. Zscaler non è semplicemente “parte” della proposta di Westcon, come fornitore globale di tecnologia e distributore IT, ma gioca un ruolo di primo piano nella strategia di go-to-market, contribuendo all’offerta di soluzioni avanzate per la sicurezza informatica e l’accesso sicuro. «Questo principio si applica anche agli algoritmi di machine learning – spiega Bombi – dove Zscaler promuove l’adozione di tecniche avanzate per proteggere il processo di training e l’operatività dei modelli ML. L’idea è di integrare sistemi di rilevamento delle anomalie e tecnologie di monitoraggio che possano identificare e rispondere tempestivamente a comportamenti sospetti».

Briganti di ReeVo conferma l’impegno dell’azienda anche in quest’ambito con attività di ricerca, focalizzate in particolare sull’integrazione dell’AI in ambienti di cybersecurity. «Al momento, il focus principale è sull’AI nei sistemi SOAR (Security Orchestration, Automation, and Response) e per il triage automatico degli eventi nel SOC, al fine di ottimizzare le capacità di rilevamento e risposta alle minacce». Per contrastare gli attacchi avversariali, ReeVo sta esplorando tecniche avanzate di adversarial training, che consistono nell’addestrare modelli AI esponendoli a input manipolati per renderli più robusti. «Inoltre, stiamo valutando – anticipa Briganti – l’uso di tecniche di difesa basate su Explainable AI (XAI) per comprendere meglio il comportamento dei modelli di machine learning e rilevare anomalie nei dati di input. Su questi temi collaboriamo con il gruppo di ricerca di Fabrizio Baiardi, ordinario al Dipartimento di Informatica dell’Università di Pisa».

ZERO TRUST RESILIENTE

Come abbiamo visto, il fallimento di un modello AI può dipendere da diversi fattori: un addestramento inadeguato, dati imprecisi o distorti da bias significativi, errori di configurazione o persino attacchi mirati. «Per affrontare tutto questo è necessario disporre di una funzione di monitoraggio continuo per analizzare nel tempo il comportamento del modello» – afferma Colella di CLUSIT. «Dai principi di gestione del rischio sappiamo che una strategia efficace per mitigare gli effetti di un fallimento di questo tipo è la segmentazione della rete. Implementando sistemi Zero Trust dedicati a singole porzioni dell’infrastruttura, è possibile limitare l’impatto di un eventuale blocco o malfunzionamento, confinandolo a una parte specifica dei servizi erogati e preservando il funzionamento del resto del sistema». Le buone prassi – continua Colella – prevedono anche di impostare delle regole statiche per il presidio degli accessi, indipendenti dalla logica del modello AI, in modo tale da poterle utilizzare in caso di suo fallimento o indisponibilità. «Anche una strategia di bilanciamento tra automazione e intervento umano può essere governata secondo i principi di gestione del rischio, demandando le decisioni sensibili o ad alto rischio, che non rientrano nei modelli predefiniti, alla supervisione di un operatore umano. Il modello stesso potrebbe essere formato per scalare verso l’operatore tutto ciò che potenzialmente rappresenta un’area grigia».

Leggi anche:  Commvault automatizza il ripristino delle Active Directory Forest per proteggere le “chiavi del regno”

Come per qualsiasi meccanismo di sicurezza, è essenziale garantire la ridondanza attraverso la replica di sistemi e servizi, assicurandone la disponibilità anche in caso di guasti al sistema primario. Inoltre, è fondamentale implementare funzionalità di fail-safe, ovvero la capacità di mantenere un livello adeguato di sicurezza anche in presenza di malfunzionamenti totali o parziali del sistema designato a proteggerla. «L’esempio classico – spiega Colella – è quello di un cancello di sicurezza elettronico che, in assenza di corrente, deve mantenere il suo ruolo di protezione. Quindi, il suo stato fail-safe è di rimanere chiuso, garantendo la sicurezza dell’area». Allo stesso modo, un sistema Zero Trust dovrebbe integrare questa funzionalità, assicurandosi che, in caso di malfunzionamento, il controllo degli accessi non venga compromesso, ma bloccato completamente per prevenire possibili violazioni.

«Nel corso degli anni, Zscaler ha introdotto diverse funzionalità basate sull’AI all’interno della propria piattaforma Zero Trust, cercando di mantenere il corretto equilibrio tra automatismo e controllo da parte dell’amministratore del sistema» – spiega Gioanola di Zscaler. La Cloud Browser Isolation ridirige automaticamente la navigazione dell’utente verso un ambiente protetto in caso l’AI abbia determinato che la destinazione richiesta è potenzialmente malevola: questo permette di aumentare il livello di sicurezza senza compromettere l’operatività. L’AI viene inoltre impiegata per assistere i clienti nella segmentazione Zero Trust degli accessi alle applicazioni private, riducendo così il rischio di Shadow AI. Zscaler Private Access è in grado di suggerire miglioramenti alle regole d’accesso basandosi sul comportamento degli utenti stessi, e fornisce potenti strumenti di visualizzazione del traffico e delle tendenze di utilizzo delle regole, in modo che l’intelligenza artificiale e quella umana si sostengano a vicenda.

Su questo fronte, ReeVo punta a rendere l’intelligenza artificiale più resiliente attraverso due strategie chiave: la ridondanza e la validazione umana. Nel Security Operations Center (SOC), ReeVo integra processi di triage basati sull’AI (AI-driven triage), ma sempre affiancati da una supervisione umana. «Questo approccio garantisce che le decisioni critiche non siano affidate esclusivamente agli algoritmi, riducendo il rischio di errori e migliorando l’affidabilità complessiva del sistema» – spiega Briganti. «E assicura che gli analisti possano sempre intervenire, evitando affidamenti ciechi all’AI e mitigando rischi sistemici». Per costruire un sistema Zero Trust resiliente, ReeVo sta studiando la definizione e il training di modelli AI concorrenti, che operano in parallelo applicando strategie diverse per ridurre il rischio di errori sistemici. «Inoltre, stiamo sviluppando strategie di failover AI, in cui, in caso di compromissione di un modello, un altro possa subentrare, assicurando la continuità operativa».

Anche Bombi di Westcon sottolinea l’importanza di adottare una strategia che preveda la ridondanza e i backup dei moduli AI. «L’approccio ibrido – in grado di combinare l’AI con il controllo umano, accompagnato dal monitoraggio continuo per rilevare anomalie in tempo reale – è fondamentale. Zscaler, in particolare, adotta una filosofia di resilienza integrata nel modello Zero Trust, evitando la dipendenza da un singolo punto di fallimento, come potrebbe essere un’AI centrale».

Un sistema Zero Trust efficace non solo verifica ogni richiesta di accesso e autorizzazione, ma lo fa attraverso una molteplicità di livelli e tecnologie, distribuendo i carichi di lavoro e le responsabilità tra diversi strumenti di sicurezza. Se uno di questi strumenti, inclusa l’AI, dovesse fallire – continua Bombi – gli altri strati continuerebbero a monitorare e proteggere l’infrastruttura, riducendo così l’impatto di un eventuale compromesso. Zscaler propone di implementare soluzioni di multilayered security, dove l’intelligenza artificiale è solo uno dei tanti componenti che cooperano nel garantire la sicurezza».

Per affrontare queste sfide, Galimi di Trend Micro Italia evidenzia l’importanza di adottare un approccio di sicurezza che copra l’intero ciclo di vita dell’AI, dall’addestramento fino all’implementazione. «Tecniche di hardening degli algoritmi, come l’addestramento avversariale, aumentano la resilienza dei modelli esponendoli a input manipolati già in fase di training. Il monitoraggio continuo dei modelli in produzione permette di individuare tempestivamente comportamenti anomali. La validazione dei dati garantisce che gli input utilizzati siano sicuri e privi di manipolazioni. L’AI può potenziare i modelli Zero Trust, ma è altrettanto vero il contrario: applicare i principi Zero Trust agli algoritmi significa non dare mai nulla per scontato. Ogni dato, interazione o processo deve essere verificato e monitorato» – conclude Galimi.

AUTOMAZIONE E CONTROLLO UMANO

L’intelligenza artificiale e il modello Zero Trust rappresentano la nuova frontiera della sicurezza informatica. Da un lato, l’AI rende il framework Zero Trust applicabile su larga scala, trasformandolo da principio teorico ad architettura avanzata della moderna cybersecurity. Dall’altro, l’integrazione dell’AI in un’architettura Zero Trust introduce nuove sfide che non possono essere ignorate. L’AI ha dimostrato di essere straordinariamente efficace nel monitoraggio in tempo reale, nell’analisi predittiva delle minacce, nella gestione delle identità e nell’accesso alla rete. Ha portato la sicurezza da un approccio statico a uno dinamico e adattivo, capace di rispondere in tempo reale a ogni mutamento dello scenario digitale.

Ma la sua efficacia dipende da numerosi fattori, a partire dalla qualità dei dati, dalla trasparenza delle decisioni e dalla capacità di prevenire manipolazioni e vulnerabilità sistemiche. Non possiamo cadere nella trappola di vedere l’AI come un sistema autonomo e infallibile. Se i principi Zero Trust impongono di non fidarsi di nulla e di nessuno, gli stessi devono applicarsi anche alle implementazioni basate sull’AI. Se l’AI sarà governata da principi di trasparenza, resilienza e adattabilità, potrà essere l’alleato perfetto per un mondo digitale sicuro. Ma se verrà adottata con cieca fiducia e senza un’adeguata supervisione umana, rischia di diventare l’anello più debole della catena. (Anche) nella cybersecurity, non è la tecnologia a determinare la sicurezza, ma il modo in cui scegliamo di utilizzarla.