Il connubio tra AI e sicurezza IT si gioca su due fronti contrapposti: attacco e difesa. Tutto è iniziato con le soluzioni antispam. Tra aspettative e impiego effettivo della tecnologia, molte applicazioni non sono più idee di ricerca ma progetti reali. Ma il solco è ancora profondo e le possibilità dell’AI applicata alla cybersecurity sono ancora tutte da scoprire
L’adozione di tecnologie che incorporano quella che con un termine abusato viene definita artificial intelligence (AI) per potenziare le capacità predittive dei sistemi e difendere le organizzazioni dalla frequenza e dalla sofisticazione degli attacchi, può già vantare risultati promettenti. Tanto da spingere molti osservatori a pronosticare che – in un futuro non così lontano – la protezione di imprese e persone sarà completamente affidata a macchine intelligenti in grado di imparare dai propri errori, riconoscere le minacce e agire di conseguenza. Accanto però a chi enfatizza i vantaggi che l’AI potrà apportare alle difese cyber c’è anche chi mette in guardia dai pericoli della tecnologia, paventando la possibilità che nelle mani sbagliate possa trasformarsi in un’arma letale. Cosa è ragionevole aspettarsi dall’AI? Quali sono gli avanzamenti consolidati, i problemi aperti e quelli che non abbiamo ancora ben compreso?
L’AI è già entrata nelle nostre vite più di quanto immaginiamo. Ed è destinata a rimanerci. In questo momento, Alexa, Google Assistant e Siri sono probabilmente i programmi di intelligenza artificiale più utilizzati al mondo. Ma non sono gli unici. Piattaforme di commercio elettronico e trading finanziario, robot di nuova generazione, motori di ricerca. Ovunque ci sia bisogno di riconoscere oggetti, visi, scrittura, codice, log dietro le quinte opera un programma d’intelligenza artificiale. Nella security, il collante è stato lo spam. «L’utilizzo dell’AI nei prodotti di sicurezza risale ad almeno 20/25 anni fa» – ci spiega Fabio Roli, ordinario di sistemi di elaborazione delle informazioni dell’Università di Cagliari, direttore del Laboratorio di ricerca PRA Lab e membro di CLUSIT. «I primi prodotti a incorporarla sono stati gli antispam. I grandi numeri della posta spazzatura hanno fornito una base di dati estesa su cui i primi ricercatori hanno potuto strutturare i loro progetti, permettendo di stabilire anzitutto le caratteristiche distintive delle mail buone rispetto a quelle cattive. Tuttavia, la variabilità era già allora così alta che per gestirla servivano strumenti di analisi dei dati più rapidi di quanto potesse fare una persona».
Le tecnologie basate su algoritmi hanno permesso di fare il salto evolutivo. «Il nostro primo prodotto a utilizzare algoritmi di AI è stato quello per la posta elettronica, per la verifica delle Business Email Compromise (BEC) o CEO email – ricorda Gastone Nencini, country manager di Trend Micro Italia. «Il modo di scrivere di ognuno è come un’impronta digitale. L’algoritmo – analizzando le modalità di scrittura della mail – è in grado di stabilire se redatta dal mittente reale o da qualcun altro». Da allora, l’AI ha fatto numerosi passi avanti. Nella rilevazione del malware per esempio, spesso ancora oggi allegato a una mail. Tutti o quasi anche senza saperlo utilizziamo una soluzione antivirus che sfrutta una qualche forma di machine learning. Determinando il progressivo abbandono delle tecnologie di detection basate unicamente sulle firme, sostituite da metodologie più efficaci. Oggi, chi si difende può scegliere tra un’ampia gamma di soluzioni di sicurezza che sfruttano l’AI. Per esempio, per automatizzare l’analisi del traffico di rete.
In più di 20 anni di attività, Kaspersky Lab ha raccolto e analizzato con un motore di machine learning in grado di aggiornarsi continuamente qualcosa come 10 peta byte di threat data – spiega Morten Lehn, general manager Italy di Kaspersky Lab. «Per noi, intelligenza artificiale significa machine learning, algoritmi che analizzano meccanicamente l’enorme quantità di dati in transito sulle reti delle aziende». Per Cisco, questa tecnologia rappresenta – «un supporto fondamentale per costruire una rete in grado di apprendere per adattarsi e proteggersi in modo rapido e autonomo e far fronte alla crescita esponenziale delle problematiche di gestione e sicurezza, determinate dalla grande complessità nella quale le aziende si trovano oggi a operare» – afferma Stefano Vaninetti, security leader di Cisco Italia. In coppia con la biometria, l’AI può migliorare la sicurezza delle password. Le caratteristiche fisiche di una persona come l’impronta delle dita, il riconoscimento facciale o la scansione della retina, possono essere validate grazie a meccanismi di AI. Con la disponibilità di sensori sempre più evoluti, la tecnologia sarà in grado di vedere meglio di un essere umano. Naturale allora chiedersi in quali attività l’AI è già oggi più efficiente di un essere umano.
«L’AI è formidabile nel riconoscere pattern e anomalie nell’analisi di enormi quantità di dati» – ci spiega Roli dell’Università di Cagliari e membro di CLUSIT. Non esattamente una capacità di poco conto. L’impatto verso quei compiti ripetitivi ma che allo stesso tempo richiedono precisione può essere straordinario. L’AI non è in grado di tracciare un intrusore al posto di un agente della polizia postale, ma è più veloce di qualsiasi essere umano nell’individuare un log anomalo tra i milioni generati da un server di posta. Ed è esente – o quasi – da errori. Un buon biglietto da visita per organizzazioni interessate a proteggere i propri dati. Per gli analisti di IDC si tratta di un mercato molto dinamico. «Un mercato che ci aspettiamo possa superare i 10 miliardi nel 2022» – afferma Giancarlo Vercellino, associate research director di IDC Italia. «Nelle nostre previsioni, le componenti applicative e le piattaforme crescono a un tasso doppio rispetto a quelle infrastrutturali». Un campo che sta attirando talenti e investimenti sia nel privato che nel pubblico. Si tratta di progetti poco noti. Impossibile per esempio anche solo stimare il numero di ricerche che in questo momento sono a terra in ambito militare e industriale. Buona parte delle applicazioni intelligenti sviluppate da enti privati sono finalizzate alla creazione di guadagno e vantaggio competitivo. Perciò è normale che circolino poche e controllate informazioni. Aziende, università e centri di ricerca hanno di certo interesse a mostrare al pubblico quel che di innovativo sono riusciti a produrre. Ma lo sono molto meno a spiegare il funzionamento delle loro creazioni. Chi investirebbe milioni di euro con il rischio di vedersi scippati i risultati ottenuti da un concorrente?
OPPORTUNITÀ E LIMITI DELL’AI
Successi molto promettenti. Ma ancora una certa discontinuità nei risultati raggiunti. Per un certo periodo, i ricercatori si sono concentrati sulle potenzialità dell’AI nel contrasto agli intrusori cyber già nella fase di prevenzione degli attacchi. Nel 2014, il DARPA (Defense Advanced Research Projects Agency), l’agenzia governativa del Dipartimento della Difesa degli Stati Uniti incaricata dello sviluppo di nuove tecnologie per uso militare – in altre parole il laboratorio di ricerca da cui nacque Internet – organizzò una competizione tra hacker professionisti e ricercatori per testare il grado di avanzamento della tecnologia nell’ambito dei sistemi in grado di prevedere le possibili falle di sicurezza di una tecnologia e sviluppare e distribuire soluzioni al problema in tempo reale. Un esperimento che non è stato ripetuto. Almeno non pubblicamente. Sappiamo però che sono in fase di sviluppo sistemi, che impiegano tecniche avanzate di machine learning per auto-rafforzare le difese, aperti all’interazione con l’uomo attraverso l’algoritmo di decision making che li governa.
SMART DETECTION
Diverso il discorso nel campo della detection. Qui l’impatto dell’AI ha determinato il progressivo abbandono delle tecnologie basate sulle firme. «La capacità di generalizzazione dell’AI attuale è strettamente connessa all’assunto che anche in futuro i casi di scostamento non siano troppo diversi da quelli già appresi» – rileva Roli dell’Università di Cagliari. «Gli attacchi senza alcuna relazione con il passato, i cosiddetti cigni neri, non si possono prevedere. Non almeno con l’IA attuale». In questo caso – «sono fondamentali l’analisi comportamentale intelligente, le competenze degli esperti e la loro threat intelligence» – conferma Lehn di Kaspersky Lab. Un mix di big data, apprendimento automatico e competenza degli analisti che è alla base di ciò che in Kaspersky chiamano True Cybersecurity. Tecnologie avanzate e approccio multi-livello giocano un ruolo importante nel raggiungimento di uno dei tassi di rilevamento più alti del settore, come dimostrato più volte da test indipendenti.
CONTROMISURE AUTOMATICHE
L’AI può aiutare a migliorare l’attribuzione delle priorità alle aree di rischio attraverso l’automatizzazione di taluni task (per esempio l’analisi dei log alla ricerca di segnali di compromissione). Riducendo così il carico di lavoro degli analisti cyber. Potrà migliorare le risposte agli attacchi interni ed esterni facendo leva sulla conoscenza condivisa e il learning (l’autoapprendimento). «In alcuni ambiti andare oltre l’apprendimento automatico per approdare alla contromisura automatica ha senso, in altri potrebbe essere rischioso» – rileva Angelo Bosis, sales consulting director di Oracle Italia. «Per il momento gli ambiti dove meglio si applica la contromisura automatica sono i contesti controllati in cui le fasi di risoluzione dei problemi possono essere ben definiti. Per esempio, se l’apprendimento automatico identifica un utente come rischioso a causa del suo comportamento, è possibile disabilitarlo o attivare dinamicamente l’autenticazione a più fattori sul suo account». È probabile che maturando, l’apprendimento automatico fornirà sempre maggiore valore e contribuirà a rafforzare le difese di un’organizzazione. «Tuttavia – sottolinea ancora Bosis – specialisti ed esperti di talento restano indispensabili per governare le difese e le risorse di sicurezza di ogni organizzazione». Già oggi siamo in grado di piazzare trappole capaci di ricreare cloni dell’ambiente di rete da proteggere, ingannare chi attacca e spesso anche di identificarlo. Grazie all’AI è possibile segregare in modo dinamico le reti in modo da isolare gli asset di valore; oppure dirottare talune tipologie di attacchi lontano da vulnerabilità o dati importanti. «L’uso dei sistemi di deep learning applicata ai sistemi di sicurezza, l’adozione di sistemi di analisi cognitiva applicata all’IT risk management o infine l’applicazione delle tecnologie di monitoring con key indicators predittivi su grandi quantità di dati non sono più idee per prototipi di ricerca universitari ma progetti reali con cui ottenere risultati concreti» – ci dice Claudio Ruffini, presidente e AD di Augeos.
L’AI TRA PERCEZIONE E REALTÀ
Trainata da dichiarazioni roboanti come quella di Ray Kurzweil, boss del plotone di ingegneri di Google, secondo cui le macchine raggiungeranno l’intelligenza degli uomini entro il 2029 e aspettative eccitanti come le auto a guida autonoma o l’assistente vocale che prende decisioni al posto nostro – anche le attese coagulatesi attorno alla cybersecurity sono in forte crescita. Amplificate, va detto, da esigenze reali espresse a più riprese dai professionisti della sicurezza. A cominciare dalla richiesta di tecnologia in grado di filtrare – in modo automatico dal “rumore di fondo” di un fiume di dati in continua crescita – i segnali di pericolo vero. Secondo una ricerca condotta dall’Osservatorio Information Security & Privacy del Politecnico di Milano la stragrande maggioranza del campione intervistato (81%) guarda all’AI come a un’opportunità per automatizzare il processo di raccolta e analisi dei dati al fine di identificare eventuali minacce e vulnerabilità a supporto delle decisioni dell’uomo.
MERCATO EUROPEO E ITALIANO
Tra aspettative e impiego effettivo della tecnologia, tuttavia, il solco è ancora profondo. Sempre secondo i dati dell’Osservatorio del Politecnico di Milano solo il 22% degli interpellati utilizza questi strumenti. E solo nel 17% dei casi per prevenire minacce di sicurezza. Numeri avallati anche dalle rilevazioni condotte da IDC. «Se consideriamo le tecnologie connesse all’AI, dai livelli applicativi all’hardware, in ambito europeo IDC stima in circa 2,7 miliardi di euro il valore del mercato, con un CAGR 2018-2022 pari al 40%. In Italia – afferma Vercellino – il giro d’affari è di circa 300 milioni di euro». Numeri promettenti. Soprattutto considerando la composizione del tessuto imprenditoriale italiano. «Se guardiamo alla convergenza tra tecnologie di sicurezza IT e algoritmi di machine learning, vale a dire alle forme più evolute e intelligenti di SIEM – traspare con evidenza una grande eterogeneità del mercato». Circa un terzo della grandi imprese – prosegue Vercellino – «hanno di fatto già adottato, o comunque stanno valutando di adottare nel breve termine, soluzioni e tecnologie di questo tipo. Discorso molto diverso per le PMI, dove il livello di adozione si riduce, nella migliore delle ipotesi, a circa un dieci percento del totale».
INCOGNITE SULLA CRESCITA
Le incognite legate all’utilizzo malevolo dell’AI potrebbero però frenare la crescita del mercato. Si moltiplicano infatti le voci di coloro che stigmatizzano i pericoli che potrebbero celarsi dietro all’impiego dell’AI. Nella già citata survey, condotta dall’Osservatorio del Politecnico di Milano, oltre il 14% dei rispondenti già oggi guarda all’AI come a una minaccia. «Quella percentuale del campione tuttavia teme l’inaffidabilità delle macchine nel lungo periodo o, ancora peggio, l’eventualità che possano essere sfruttate per effettuare attacchi mirati e con uno sforzo minimo» – osserva Bosis di Oracle Italia. «Il che mi sembra più un timore dell’imperfezione delle tecnologie informatiche e dell’uso per fini criminali che non delle specifiche tecnologie di AI».
Meno ottimista Lara Del Pin, country manager di Panda Security per Italia e Svizzera per la quale l’utilizzo di strumenti sofisticati come AI e machine learning – «possono diventare a loro volta dei “portatori sani” di malware per mettere in atto operazioni mirate a insinuarsi nei sistemi informatici. Per questo – prosegue Del Pin – non si può pensare di affidare alla tecnologia il 100% dei processi di analisi e difesa. L’approccio in Panda Security è quello di demandare all’AI la classificazione di malware e goodware, affidando all’analisi manuale soltanto gli eventi che possono nascondere codici maligni come negli attacchi fileless». Più radicali i firmatari dello studio dal titolo Malicious AI Report in cui si descrive l’AI come una tecnologia dual use, dal grande potenziale ma che presenta ancora molte incognite. Gli estensori del rapporto mettono in guardia dal pericolo che il proliferare di tecnologie basate sull’AI possa portare a nuove forme di cybercrime, manipolazione politica e attacchi fisici, per esempio, attraverso l’utilizzo terroristico di droni, già entro i prossimi cinque anni. Gli autori del report – un pool di esperti proveniente del mondo accademico e industriale – spronano i ricercatori a considerare la possibilità reale di queste minacce affinché sia possibile iniziare al più presto a lavorare a un framework normativo in grado di prevenire l’utilizzo criminale dell’AI.
IL POTENZIALE DELL’AI
L’impiego dell’intelligenza artificiale per incrementare le capacità di risposta dei sistemi di sicurezza da attacchi cyber è uno dei temi caldi del momento. Non c’è vendor di security che non la citi per magnificare l’efficacia delle proprie soluzioni. Ma anche il pubblico sembra particolarmente ricettivo rispetto alle argomentazioni di che ne esalta potenzialità e prospettive di impiego. È un fatto che i fondamentali della cybersecurity siano continuamente messi in discussione da numerosi fattori. Come ubiquità, velocità e diffusione degli attacchi. In questo scenario, la capacità del machine learning di fornire un supporto più efficace alla difesa alimenta anche aspettative non sempre fondate. Qualunque cosa sia l’intelligenza, se molecole molto complesse possono operare negli umani per renderli intelligenti – ha affermato il compianto Stephen Hawking – «allora circuiti elettronici altrettanto complessi potrebbero permettere ai computer di agire in modo intelligente. E se sono intelligenti potrebbero progettare computer che avranno ancora maggiore complessità e intelligenza». Già oggi per un gran numero di problemi noti, l’AI riesce a dare un contributo importante. Ma la sensazione è che il grande potenziale dell’intelligenza artificiale applicata alla cybersecurity sia ancora tutto da scoprire. La capacità di effettuare previsioni realistiche di un attacco prima che questo venga sferrato, compiendo un passo decisivo dall’apprendimento alla contromisura automatica costituisce una scommessa, che può avere un senso e un futuro solo in alcuni ambiti e meno in altri. Dove potrebbe essere rischioso accettarla senza una lungimirante regolamentazione di campi di applicazione e impieghi.