Il 95% delle aziende sta utilizzando in qualche modo strumenti di intelligenza artificiale generativa. L’89% considera gli strumenti di IA generativa un potenziale rischio per la sicurezza
Una nuova ricerca di Zscaler, leader nella sicurezza del cloud, svela come le aziende sentano fortemente la pressione nell’accelerare sull’utilizzo di strumenti di intelligenza artificiale generativa (GenAI), nonostante i notevoli problemi di sicurezza legati al suo utilizzo. Secondo l’ultima survey condotta sul tema intitolata “Occhi puntati sulla sicurezza della GenAI”, che ha coinvolto oltre 900 Reponsabili IT a livello internazionale, sebbene l’89% delle aziende consideri gli strumenti di GenAI come ChatGPT un potenziale rischio per la sicurezza, il 95% li sta già utilizzando in qualche modo all’interno della propria azienda.
Ancora più preoccupante è il dato che rileva come il 23% degli intervistati non stia monitorando affatto l’utilizzo di questi strumenti e il 33% non abbia ancora implementato alcuna misura di sicurezza aggiuntiva legata all’utilizzo della GenAI, anche se molti l’hanno pianificato. La situazione appare particolarmente evidente tra le aziende di piccole dimensioni (500-999 dipendenti), dove lo stesso numero di aziende sta utilizzando strumenti di GenAI (95%), ma ben il 94% riconosce sia rischioso.
“Gli strumenti di GenAI, tra cui ChatGPT e altri, sono molto promettenti per le aziende in termini di velocità, innovazione ed efficienza”, ha sottolineato Sanjay Kalra, VP Product Management di Zscaler. “Tuttavia, data l’attuale poca chiarezza relativa alle misure di sicurezza, solo il 39% delle aziende percepisce la loro adozione come un’opportunità piuttosto che come una minaccia. Questo non solo mette a rischio la loro attività e l’integrità dei dati dei clienti, ma spreca anche il loro enorme potenziale”.
Tuttavia, la pressione per l’impiego di queste tecnologie non proviene da dove si potrebbe pensare, e i risultati rivelano che l’IT sia in grado di riprendere il controllo della situazione. Nonostante la consapevolezza diffusa, non sono al momento i dipendenti la forza trainante né in termini di interesse né per quanto riguarda l’utilizzo: infatti solo il 5% degli intervistati dichiara che la richiesta è partita dai dipendenti. Il 59% ha invece affermato che l’utilizzo sia stato stimolato direttamente dai team IT.
“Il fatto che i team IT siano alla guida dovrebbe rassicurare i leader aziendali”, continua Kalra. “Significa che il gruppo dirigente ha l’autorità per regolare strategicamente il ritmo con cui adottare l’Intelligenza artificiale generativa e stabilire un preciso controllo sulle misure di sicurezza, prima che la sua diffusione all’interno dell’azienda progredisca ulteriormente. Tuttavia, è essenziale riconoscere che la finestra temporale per ottenere una governance sicura si sta rapidamente riducendo”.
A fronte del 51% degli intervistati che prevede un aumento significativo dell’interesse per gli strumenti di intelligenza artificiale generativa entro la fine dell’anno, le aziende devono agire rapidamente per colmare il divario tra utilizzo e sicurezza.
Ecco alcune misure che i dirigenti aziendali possono adottare per garantire che l’uso degli strumenti di intelligenza artificiale generativa nella loro azienda sia adeguatamente protetto:
- Implementare un’architettura Zero Trust globale per autorizzare solo applicazioni IA e utenti approvati.
- Eseguire valutazioni approfondite dei rischi per la sicurezza delle nuove applicazioni di IA per comprendere chiaramente e le vulnerabilità e agire di conseguenza.
- Creare un sistema di registrazione completo per tenere traccia di tutte le richieste e le risposte dell’IA.
- Attivare misure di prevenzione della perdita di dati (DLP) Zero Trust per tutte le attività di IA per proteggersi dall’esfiltrazione dei dati.