Più di un terzo delle informazioni aziendali sensibili immesse nelle applicazioni di AI generativa sono dati personali regolamentati

Come rendere l'implementazione della GenAI un successo: una guida per le aziende

L’uso dell’intelligenza artificiale generativa è più che triplicato in 12 mesi, ma le organizzazioni faticano ancora a trovare un equilibrio tra abilitazione sicura e gestione del rischio

Netskope, leader Secure Access Service Edge (SASE), ha pubblicato una nuova ricerca da cui emerge che i dati regolamentati (dati che le organizzazioni hanno il dovere legale di proteggere) costituiscono più di un terzo dei dati sensibili condivisi con applicazioni di intelligenza artificiale generativa (genAI), rappresentando un potenziale rischio per le aziende di costose violazioni dei dati.

TI PIACE QUESTO ARTICOLO?

Iscriviti alla nostra newsletter per essere sempre aggiornato.

La nuova ricerca di Netskope Threat Labs rivela che tre quarti delle aziende intervistate ora bloccano completamente almeno un’applicazione di genAI: questo dato riflette la volontà dei leader tecnologici aziendali di limitare il rischio di esfiltrazione di dati sensibili. Tuttavia, poiché meno della metà delle organizzazioni applica controlli incentrati sui dati per impedire la condivisione di informazioni sensibili nelle richieste di input degli utenti, la maggior parte è ancora un passo indietro nell’adottare soluzioni avanzate di prevenzione della perdita di dati (DLP) necessarie per abilitare in sicurezza la genAI.

Utilizzando set di dati globali, i ricercatori hanno scoperto che il 96% delle aziende utilizza la genAI, un numero che è triplicato negli ultimi 12 mesi. In media, le aziende ora utilizzano quasi 10 applicazioni di genAI, rispetto alle 3 dell’anno scorso, con l’1% degli utenti che ora utilizza una media di 80 applicazioni, in aumento rispetto alle 14. Con l’aumento dell’utilizzo, le aziende hanno registrato un aumento della condivisione del codice sorgente proprietario all’interno delle applicazioni genAI, che rappresenta il 46% di tutte le violazioni documentate di policy DLP. Queste dinamiche mutevoli complicano il modo in cui le aziende controllano il rischio, suggerendo la necessità di un impegno verso la DLP (data loss prevention) più solido.

Leggi anche:  BBVA aderisce alla Giornata internazionale della sicurezza informatica e lancia una serie di consigli su come proteggersi

Ci sono segnali positivi di gestione proattiva del rischio nei controlli di sicurezza e di perdita dei dati che le organizzazioni stanno applicando: ad esempio, il 65% delle aziende ora implementa il coaching per gli utenti in tempo reale per guidare le interazioni degli utenti con le applicazioni genAI. Secondo la ricerca, un efficace coaching degli utenti ha svolto un ruolo cruciale nel mitigare i rischi relativi ai dati, spingendo il 57% degli utenti a modificare le proprie azioni dopo aver ricevuto degli alert.

“La protezione della genAI richiede ulteriori investimenti e maggiore attenzione poiché il suo utilizzo permea le aziende, senza segnali di rallentamento nel breve periodo”, ha affermato James Robinson, Chief Information Security Officer, Netskope. “Le aziende devono riconoscere che i risultati ottenuti dalla genAI possono inavvertitamente esporre informazioni sensibili, diffondere disinformazione o persino introdurre contenuti malevoli. Richiede un solido approccio alla gestione del rischio per salvaguardare i dati, la reputazione e la continuità aziendale”.

Dal “Cloud and Threat Report: AI Apps in the Enterprise” di Netskope sono emersi anche altri risultati:

  • ChatGPT rimane l’applicazione più popolare, utilizzata da oltre l’80% delle aziende
  • Microsoft Copilot ha registrato la crescita più significativa nell’utilizzo dal suo lancio nel gennaio 2024, pari al 57%
  • Il 19% delle organizzazioni ha imposto un divieto totale su GitHub CoPilot

Punti chiave per le imprese

Netskope consiglia alle imprese di rivedere, adattare e personalizzare i propri framework di rischio specificamente per l’intelligenza artificiale o la genAI utilizzando iniziative come il framework di gestione del rischio AI del NIST. I passaggi tattici specifici per affrontare il rischio derivante dalla genAI includono:

  • Conoscere lo stato attuale: valutare gli usi esistenti dell’intelligenza artificiale e dell’apprendimento automatico, delle pipeline di dati e delle applicazioni genAI. Identificare le vulnerabilità e le lacune nei controlli di sicurezza.
  • Implementare controlli fondamentali: stabilire misure di sicurezza fondamentali, come controlli di accesso, meccanismi di autenticazione e crittografia.
  • Pianificare controlli avanzati: oltre alle nozioni di base, sviluppare una tabella di marcia per controlli di sicurezza avanzati. Occorre prendere in considerazione la modellazione delle minacce, il rilevamento delle anomalie, il monitoraggio continuo e il rilevamento comportamentale per identificare i movimenti di dati sospetti negli ambienti cloud verso le applicazioni genAI che si discostano dai normali modelli utente.
  • Misurare, avviare, rivedere, ripetere: valutare regolarmente l’efficacia delle misure di sicurezza. Adattarle e perfezionarle in base alle esperienze del mondo reale e alle minacce emergenti.
Leggi anche:  NIS2: dall’approccio multirischio alle buone pratiche di igiene informatica