Kaspersky, C-Suite in allerta per l’impiego estensivo dell’AI generativa

Spesso i CEO non hanno le idee chiare sulla cybersecurity

Limitati al momento gli impatti sulla cybersecurity derivanti dall’impiego malevolo della tecnologia

L’intelligenza artificiale generativa (GenAI) ha assunto un ruolo significativo come risorsa aziendale, facilitando l’automazione di un gran numero di attività. Il reparto marketing ad esempio la utilizza per potenziare le strategie, coinvolgere i clienti e migliorare la creatività; i responsabili delle risorse umane per accelerare la selezione dei curriculum, ottimizzare la gestione del personale e l’esperienza dei dipendenti mentre in ambito vendite è utilizzata per anticipare la domanda, ottimizzare la gestione delle scorte, valutare automaticamente la qualità dei lead e personalizzare le interazioni con i clienti. Impieghi di cui sono consapevoli gli oltre 1.800 dirigenti C-Level di Regno Unito, Francia, Germania, Spagna, Italia, Romania, Paesi Bassi e Grecia, che hanno partecipato alla ricerca Intelligenza Artificiale e Cybersecurity: Insidia o Aiuto? presentata nei giorni scorsi alla stampa da Cesare D’Angelo, General Manager Italy & Mediterranean, Kaspersky. «Lo studio rivela che il 97% degli intervistati utilizza l’AI in azienda, con il 48% che prevede di automatizzare ulteriormente le attività ripetitive dei dipendenti».

TI PIACE QUESTO ARTICOLO?

Iscriviti alla nostra newsletter per essere sempre aggiornato.

L’AI per la cybersecurity

Per lo specialista di security l’AI e il machine learning (ML) possono dare un contributo importante all’identificazione in tempo reale di comportamenti sospetti e attività malevole; permettono di migliorare il rilevamento degli attacchi, gestire volumi importanti di alert e fornire tempi di risposta più rapidi; automatizzare la risposta alle minacce accelerando il processo decisionale e riducendo gli errori umani. Un utilizzo già esteso confermato dalla ricerca, con il 29 % dei dirigenti intervistati che vorrebbe automatizzare l’IT/CyberSec con l’AI. «Kaspersky utilizza queste tecnologie da quasi 20 anni» sottolinea Giampaolo Dedola, Senior Security Researcher, Global Research and Analysis Team (GReAT), Kaspersky. «Uno sviluppo inevitabile dato l’aumento esponenziale delle minacce – circa 411mila nuovi malware al giorno censiti – e la necessità di gestire questa mole enorme di dati che ha portato alla creazione di numerosi modelli di ML per classificarle».

Leggi anche:  Proteggere la fiducia digitale fa bene al business

Nelle mani sbagliate

Tecnologie adattabili con poco sforzo anche per soddisfare esigenze criminali. «Grazie all’AI è possibile impersonare soggetti reali – famoso il caso in cui un Elon Musk fasullo pubblicizza una criptovaluta – per perpetrare azioni di attacco, soprattutto frodi» spiega Dedola. Oppure per generare testi utili per veicolare disinformazione, fornire supporto nelle campagne di phishing, oppure codice malevolo in diversi linguaggi come JavaScript, Powershell, Phyton, ecc. «In realtà qui lo sviluppo è lontano dalla maturità. Chi utilizza le piattaforme con questa finalità sa che gli output dal punto di vista formale non sono ancora corretti. Ma le cose potrebbero cambiare in futuro». Di certo si stanno moltiplicando gli strumenti in grado di fornire supporto durante le fasi principali di attacco. Proliferazione solo parzialmente limitata dalle restrizioni attive sulle piattaforme per evitare gli abusi. Aggirate in molti casi utilizzando prompt creati ad hoc per forzarle a rispondere in maniera diversa da quanto previsto. L’AI dunque come ultima frontiera criminale? Le previsioni di Kaspersky al riguardo sono in chiaroscuro. «Nell’immediato ci aspettiamo il consolidarsi di veri e propri assistenti virtuali a disposizione sia per fini leciti che malevoli. La buona notizia – conclude Dedola – è che almeno a breve l’IA generativa continuerà ad essere di supporto ai criminali ma avrà un impatto limitato sull’efficacia degli attacchi».