Nuovo report Netskope: i caricamenti di dati su applicazioni GenAI aumentati di 30 volte in 1 anno

Nuovo report Netskope: i caricamenti di dati su applicazioni GenAI aumentati di 30 volte in 1 anno

Senza adeguati controlli di sicurezza dei dati, la GenAI trasforma i dipendenti in minacce interne involontarie

Netskope, leader nei moderni ambiti di sicurezza e networking, ha pubblicato una nuova ricerca che rivela un aumento di 30 volte del volume di dati inviati alle applicazioni di intelligenza artificiale generativa (genAI) dagli utenti aziendali nell’ultimo anno. La tipologia di dati caricati su applicazioni di GenAI è varia: da dati sensibili come codici sorgente, dati regolamentati, password e chiavi, a dati di proprietà intellettuale, il che aumenta significativamente il rischio di costose violazioni dei dati, violazioni della conformità e furto di proprietà intellettuale. Il report evidenzia anche come la shadow AI sia ora la sfida della shadow IT predominante, poiché il 72% degli utenti aziendali utilizza i propri account personali nelle applicazioni GenAI che utilizza per lavoro.

Il Generative AI Cloud and Threat Report 2025 di Netskope Threat Labs descrive in dettaglio l’onnipresenza dell’utilizzo di GenAI in azienda. Al momento della stesura di questo report, Netskope aveva visibilità su 317 applicazioni GenAI come ChatGPT, Google Gemini e GitHub Copilot. Un’analisi più ampia nell’enterprise ha rilevato che il 75% di utenti aziendali accede ad applicazioni con funzionalità GenAI, creando un problema più grande che i team di sicurezza devono affrontare: la minaccia interna involontaria.

TI PIACE QUESTO ARTICOLO?

Iscriviti alla nostra newsletter per essere sempre aggiornato.

“Nonostante gli sforzi delle organizzazioni per implementare strumenti GenAI gestiti dall’azienda, la nostra ricerca mostra che la shadow IT si è trasformata in shadow AI, con quasi tre quarti degli utenti che accedono ancora alle applicazioni GenAI tramite account personali”, ha affermato James Robinson, CISO di Netskope. “Questa tendenza in corso, se combinata con i dati che vengono condivisi, sottolinea la necessità di funzionalità avanzate di sicurezza dei dati in modo che i team di sicurezza e gestione dei rischi possano riacquistare governance, visibilità e un utilizzo accettabile rispetto all’utilizzo di GenAI all’interno delle loro organizzazioni”.

Leggi anche:  Quanto costa un cyberattacco: come una violazione può compromettere un’azienda

Riduzione del rischio GenAI

Molte organizzazioni non hanno una visibilità completa o anche parziale su come i dati vengono elaborati, archiviati e sfruttati nell’ambito dell’utilizzo indiretto di GenAI. Spesso scelgono di applicare policy “block first and ask questions later” consentendo esplicitamente alcune applicazioni e bloccando tutte le altre. Tuttavia, i responsabili della sicurezza devono cercare di perseguire una strategia di abilitazione sicura poiché i dipendenti cercano vantaggi in termini di efficienza e produttività da questi strumenti.

“I nostri ultimi dati mostrano che la GenAI non è più una tecnologia di nicchia; è ovunque”, ha affermato Ray Canzanese, direttore di Netskope Threat Labs. “Sta diventando sempre più integrata in tutto, dalle applicazioni dedicate alle integrazioni backend. Questa ubiquità presenta una sfida crescente per la sicurezza informatica, che richiede alle organizzazioni di adottare un approccio completo alla gestione del rischio oppure rischieranno che i propri dati sensibili vengano esposti a terze parti che potrebbero utilizzarli per addestrare nuovi modelli di intelligenza artificiale, creando opportunità per esposizioni di dati ancora più diffuse”.

Nell’ultimo anno, Netskope Threat Labs ha anche osservato che il numero di organizzazioni che gestiscono infrastrutture GenAI in locale è aumentato drasticamente, passando da meno dell’1% al 54% e si prevede che questa tendenza continuerà. Nonostante la riduzione dei rischi di esposizione indesiderata dei dati ad applicazioni di terze parti nel cloud, il passaggio all’infrastruttura locale introduce nuovi tipi di rischi per la sicurezza dei dati da catene di fornitura, perdite di dati e gestione impropria dell’output dei dati a prompt injection, jailbreak ed estrazione di meta prompt. Di conseguenza, molte organizzazioni stanno aggiungendo infrastrutture GenAI ospitate localmente su applicazioni GenAI basate sul cloud già in uso.

Leggi anche:  Kaspersky: le applicazioni rivolte al pubblico nascondono dei pericoli

“L’intelligenza artificiale non sta solo rimodellando la sicurezza del perimetro e della piattaforma, sta riscrivendo le regole”, ha affermato Ari Giguere, Vice President of Security and Intelligence Operations di Netskope. “Mentre gli attaccanti creano minacce con precisione generativa, le difese devono essere altrettanto generative, evolvendosi in tempo reale per contrastare la conseguente ‘inflazione dell’innovazione’. Un combattimento efficace di un avversario umano creativo richiederà sempre un difensore umano creativo, ma in un campo di battaglia guidato dall’intelligenza artificiale, solo la sicurezza alimentata dall’intelligenza artificiale può tenere il passo”.

Una prospettiva CISO

Mentre i difensori umani combattono le minacce guidate dall’intelligenza artificiale, molti si stanno rivolgendo a strumenti di sicurezza già presenti nei loro stack tecnologici. Quasi il 100% delle organizzazioni sta lavorando per ridurre i rischi di intelligenza artificiale con policy che consentono loro di bloccare l’accesso agli strumenti di intelligenza artificiale e/o controllare quali utenti possono accedere a specifici strumenti di intelligenza artificiale e quali dati possono essere condivisi con questi strumenti. Netskope raccomanda alle aziende di rivedere, adattare e personalizzare i loro quadri di rischio specificamente per l’intelligenza artificiale o la genAI, mettendo in campo sforzi per garantire un’adeguata protezione di dati, utenti e reti. I passaggi tattici specifici per affrontare il rischio derivante dalla GenAI includono:

  • Valutare il proprio panorama GenAI: scoprire quali applicazioni GenAI e infrastrutture GenAI ospitate localmente si stanno utilizzando, chi le sta utilizzando e come vengono utilizzate.
  • Rafforzare i controlli per applicazioni GenAI: rivedere e confrontare regolarmente i controlli con le best practice, come consentire solo applicazioni approvate, bloccare applicazioni non approvate, utilizzare DLP per impedire che dati sensibili vengano condivisi con applicazioni non autorizzate e sfruttare il coaching degli utenti in tempo reale.
  • Fare un inventario dei controlli locali: se si sta eseguendo un’infrastruttura GenAI localmente, rivedere i framework pertinenti come OWASP Top 10 for Large Language Model Applications, National Institute of Standards and Technology’s (NIST) AI Risk Management Framework e MITRE Atlas per garantire un’adeguata protezione di dati, utenti e reti.
Leggi anche:  La resilienza cyber in cinque capacità chiave