A cura di Richard De La Torre, Technical Marketing Manager at Bitdefender
Il panorama della sicurezza informatica è in continua evoluzione e con il progredire della tecnologia, migliorano anche gli strumenti e le tattiche utilizzate sia dai criminali informatici sia dai professionisti della cybersecurity. Uno sviluppo significativo e recente che ha suscitato molta attenzione è l’emergere di strumenti open-source di intelligenza artificiale generativa e di potenti modelli linguistici come ChatGPT e Bard. Le tecnologie di intelligenza artificiale possono essere un’arma a doppio taglio: se da un lato possono aiutare i professionisti della sicurezza informatica, oberati di lavoro, automatizzando e ottimizzando le attività di routine, dall’altro possono essere utilizzate dagli hacker per automatizzare e scalare i loro attacchi o renderli più convincenti.
Il lato oscuro: rafforzamento dei criminali informatici
I modelli linguistici di grandi dimensioni come ChatGPT hanno reso più facile che mai per i criminali informatici creare rapidamente e-mail di phishing e attacchi di social engineering sofisticati e dall’aspetto autentico. Poiché questi strumenti sono in grado di generare istantaneamente testi colloquiali redatti dall’uomo, gli hacker sono in grado di imitare in modo convincente lo stile di comunicazione di persone o aziende fidate, aumentando così l’efficacia dei loro attacchi. Presto i criminali informatici utilizzeranno probabilmente questi modelli linguistici in combinazione con immagini, audio e video generati dall’intelligenza artificiale per ingannare ulteriormente gli utenti ignari e indurli a condividere informazioni sensibili, a fornire l’accesso ai sistemi informatici o a compiere azioni che non dovrebbero.
Inoltre, strumenti di intelligenza artificiale generativa come ChatGPT e altri consentono ai criminali informatici di scalare e automatizzare i loro attacchi a un livello prima non possibile. Anche i criminali informatici alle prime armi possono utilizzare questi strumenti per facilitare la scrittura di codice dannoso o per analizzare le loro varianti di malware esistenti e colmare eventuali lacune e renderli più efficaci. Sebbene ChatGPT disponga di alcune protezioni per impedire agli utenti di generare malware o altri contenuti per scopi malevoli, i ricercatori di Bitdefender hanno scoperto che queste protezioni possono essere aggirate con relativa facilità con le giuste tecniche e conoscenze. Utilizzando strumenti di intelligenza artificiale generativa per semplificare lo sviluppo di malware e automatizzare la distribuzione dei loro attacchi, i gruppi di criminali informatici possono aumentare la loro frequenza e gettare una rete più ampia per colpire un maggior numero di potenziali vittime.
Il lato positivo: assistenza per i team di sicurezza sovraccarichi di lavoro
Nonostante le preoccupazioni e i rischi che circondano l’IA generativa, queste tecnologie rappresentano anche un’opportunità per le aziende di rafforzare le difese di sicurezza informatica e supportare i loro team di cybersecurity, spesso sovraccarichi di lavoro. Con il volume e la complessità sempre crescenti delle minacce informatiche, gli strumenti basati sull’IA possono aiutare i team della sicurezza ad automatizzare le attività di sicurezza più banali e ripetitive, consentendo agli analisti di concentrarsi su aspetti più critici del loro lavoro e migliorando l’efficienza operativa.
L’intelligenza artificiale può essere utilizzata anche per automatizzare il monitoraggio e l’analisi degli eventi e dei registri di sicurezza, identificando le anomalie nel comportamento e consentendo un rilevamento e una risposta più rapidi alle potenziali minacce. Gli algoritmi di apprendimento automatico possono essere addestrati per identificare schemi indicativi di attività dannose, liberando tempo prezioso per i professionisti della sicurezza informatica per l’indagine e la neutralizzazione delle minacce.
Da tempo Bitdefender integra l’intelligenza artificiale e il machine learning nelle proprie soluzioni di cybersecurity. Ad esempio, Bitdefender GravityZone eXtended Detection and Response (XDR) sfrutta le tecnologie di machine learning per correlare e analizzare grandi quantità di dati di sicurezza provenienti da diversi sensori e fonti in tutta l’azienda. GravityZone Incident Advisor presenta quindi i risultati in un formato leggibile dall’uomo che consente ai professionisti della sicurezza di intraprendere rapidamente le azioni consigliate. Man mano che gli strumenti di intelligenza artificiale diventano più avanzati, il settore della sicurezza informatica continuerà a sviluppare modi innovativi per sfruttare queste tecnologie per migliorare l’efficienza operativa e rafforzare le difese.
In definitiva, le aziende devono adottare un approccio proattivo e multilivello alla sicurezza per rafforzare la loro resilienza informatica, a fronte della crescente diffusione delle tecnologie di intelligenza artificiale. Dovrebbero adottare le best practice per la formazione di sensibilizzazione alla sicurezza, per aiutare i dipendenti a comprendere la sofisticazione delle minacce odierne e come evitare di diventare vittime. Dovrebbero inoltre adottare tecnologie di sicurezza basate su intelligenza artificiale e machine learning, che possono anche assistere i team di sicurezza nel monitoraggio, nell’identificazione e nella risposta alle minacce.
Non è possibile “rimettere il genio nella bottiglia” quando si parla di IA generativa. Questi strumenti sono ormai alla portata di tutti, ma con le giuste strategie e le soluzioni di cybersecurity basate sull’intelligenza artificiale, le aziende possono usarli a proprio vantaggio per stare un passo avanti agli avversari.