La sicurezza informatica non può più fare a meno di usare algoritmi di intelligenza artificiale per analizzare grandi quantità di dati complessi. Ma gli stessi algoritmi possono essere usati o manipolati per aggirare i sistemi di sicurezza
L’intelligenza artificiale è ormai entrata in maniera pervasiva nella vita di tutti noi, anche se non sempre ce ne rendiamo conto. Per esempio, ogni volta che usiamo un assistente vocale, un algoritmo analizza e interpreta quello che diciamo, e tutte le volte che usiamo la nostra carta di credito un algoritmo decide se si tratta di un tentativo di uso fraudolento. Al successo di questo tipo di applicazioni, contribuisce il fatto che le soluzioni basate su AI costano di solito molto meno rispetto all’ingaggio di esperti umani. Inoltre, gli algoritmi di AI possono essere addestrati adoperando un numero di esempi di gran lunga superiore a quelli che qualsiasi essere umano può vedere nel corso della propria vita. Gli algoritmi di AI sono sempre più utilizzati anche nell’ambito della sicurezza informatica, a causa della quantità e complessità dei dati da analizzare, e della capacità di tali algoritmi di individuare schemi ripetitivi complessi, impossibili da vedere per qualsiasi essere umano. Vengono utilizzati per analizzare il contenuto delle email e stabilire se i messaggi ricevuti costituiscono spam, phishing, o altri tentativi di frode.
Inoltre, vengono utilizzati per analizzare il traffico di rete e capire se si sta verificando un attacco o un tentativo di intrusione. Oppure ancora, nei sistemi per il controllo degli accessi, nel riconoscimento facciale (o di oggetti), nella previsione di guasti in sistemi critici, e così via. Se gli algoritmi di AI aiutano moltissimo gli esperti di sicurezza informatica, agevolando (o anche solo rendendo possibile) il loro lavoro, e aumentandone la qualità, c’è da dire che anche i criminali informatici possono trarre vantaggio dagli stessi algoritmi per rendere più efficaci i loro attacchi. Per esempio, la raccolta di dati sulle persone e la scrittura di messaggi di spear phishing (cioè phishing mirato, personalizzato) diventa sempre più economica, e gli stessi tipi di algoritmi usati per impedire accessi non autorizzati a sistemi informatici possono essere utilizzati per aggirare i sistemi di controllo.
Un utilizzo ancora più subdolo è dato dal cosiddetto adversarial machine learning, che consiste nel capire come un modello di machine learning (per esempio, una rete neurale) elabora i dati forniti in ingresso, per poi presentargli dei dati preparati in modo tale da essere classificati in maniera errata. Una applicazione particolarmente rilevante di questo tipo di attacchi si ha nei sistemi di riconoscimento di oggetti e di segnali stradali per i veicoli a guida autonoma. È stato dimostrato che è facile ingannare questi sistemi incollando appositi adesivi sui segnali stradali, o addirittura proiettando ologrammi di oggetti o persone in mezzo alla strada.
Ma anche più semplici anamorfismi – come per esempio adesivi che visti da una certa angolazione e nelle giuste condizioni di luce sembrano grosse buche nella strada – possono bloccare il traffico o addirittura creare incidenti, mentre invece un essere umano li può facilmente riconoscere per quello che sono. Come ci si fa a difendere da questi utilizzi impropri degli algoritmi di AI? Non è certamente facile, e va fatto includendo i principi della sicurezza informatica nella progettazione degli algoritmi e nell’addestramento dei modelli di machine learning. In altre parole, andrebbe adottato un approccio del tipo security-by-design, come già avviene (anzi, come dovrebbe già avvenire) nella progettazione del software. Dall’uso di AI più sicure, robuste e resilienti – cioè stabili rispetto all’alterazione dei dati forniti in input – non potremo che beneficiarne tutti. Dei rapporti tra AI e sicurezza informatica si parla ampiamente nel libro pubblicato da CLUSIT Community for Security, intitolato “Intelligenza artificiale e sicurezza: opportunità, rischi e raccomandazioni”.
Alberto Leporati comitato scientifico CLUSIT e professore associato presso il Dipartimento di Informatica, Sistemistica e Comunicazione dell’Università di Milano-Bicocca
Alessandro Vallega comitato direttivo CLUSIT, fondatore e chairman di CLUSIT Community for Security