A cura di Fabio Pascali, Regional Vice President Italy, Greece & Cyprus, Cloudera
Man mano che le aziende implementano l’intelligenza artificiale per rinnovare operazioni e processi, la data privacy assume un’importanza sempre più critica e complessa. Tra le evoluzioni dell’AI sta guadagnando spazio la cosiddetta Agentic AI (o AI agentica) progettata per eseguire autonomamente i propri compiti senza l’intervento umano.
Gli agenti AI sono già stati adottati e sono ampiamente utilizzati in diversi settori industriali. In ambito finanziario, ad esempio, possono monitorare autonomamente le tendenze del mercato, decifrare i segnali di trading, regolare le strategie e ridurre i rischi in tempo reale. Gli agenti AI vengono utilizzati anche nel settore pubblico per ottimizzare i servizi governativi, ad esempio snellendo le procedure di valutazione ’dell’idoneità all’accesso ai sussidi e personalizzando servizi al cittadino.
Nonostante tutti i suoi vantaggi, l’utilizzo di grandi quantità di dati personali da parte dell’AI agentica solleva notevoli problemi di privacy e alimenta la crescente sfiducia dei consumatori nei confronti delle modalità di gestione delle informazioni personali da parte delle organizzazioni. Questa situazione diventerà ancor più seria quando l’AI agentica comincerà ad essere adottata in maniera diffusa in settori critici come la sanità e i servizi finanziari, nei quali i dati personali hanno un valore particolarmente elevato.
Anche la crescente adozione di soluzioni AI in azienda porta con sé preoccupazioni considerevoli. Secondo il Global State of Responsible AI Survey, tutte le organizzazioni hanno dichiarato che i rischi legati alla privacy e alla governance dei dati sono rilevanti per la loro strategia di adozione dell’AI, con valori particolarmente elevati in Europa (56%) e in Asia (55%). L’Italia non fa differenza: secondo un report realizzato da Proofpoint nel 2024, il 45% dei CISO italiani intervistati considera l’AI generativa un rischio per la sicurezza della propria organizzazione
Le aziende devono quindi riconoscere che l’implementazione di solide politiche di privacy dei dati non può essere una considerazione aggiuntiva, ma un elemento fondamentale per un’innovazione sostenibile e responsabile.
Identificare e proteggere le informazioni critiche
Il primo e più importante passo per mantenere la fiducia dei consumatori è la protezione delle informazioni critiche e di identificazione personale (PII). Agli occhi dell’AI tutti i dati sono uguali e verranno utilizzati in modo indifferenziato, a meno che non vengano stabiliti parametri adeguati. L’impiego di agenti AI senza protezioni adeguate rende le informazioni sensibili vulnerabili a un uso improprio.
Le aziende devono investire in piattaforme di dati sicure e governate che impieghino strategie complete di crittografia e tokenizzazione. Queste misure devono essere applicate in modo coerente a tutti gli ambienti di dati, sia on-premise che cloud-based, e a diverse soluzioni di storage. Costruendo solide difese contro le violazioni e i malintenzionati, le aziende possono garantire che i dati rimangano al sicuro, consentendo al contempo l’adozione sicura dell’AI.
Affrontare le sfide di governance e sicurezza dei dati
Mentre i governi di tutto il mondo rafforzano le normative per proteggere i diritti di privacy dei cittadini, la conformità alle norme di mercato locali e alle leggi sulla sovranità dei dati è diventata sempre più complessa. La crescente adozione dell’AI agentica aggiunge un ulteriore livello di difficoltà, poiché questi sistemi spesso richiedono l’accesso a dati storici e internazionali per operare in modo efficace.
Per affrontare questo problema, le aziende devono adottare un approccio granulare alla governance dei dati, supportato da un’architettura Zero Trust – un modello di sicurezza che garantisce che nessun utente o sistema sia affidabile per impostazione predefinita. Ciò comporta l’identificazione accurata di dove risiedono i dati specifici, l’applicazione di controlli adeguati e la capacità di poter produrre audit dettagliati.
Sarà necessario assicurarsi che solo la persona giusta acceda alle informazioni giuste al momento giusto e per il motivo giusto, ma anche implementare meccanismi di cancellazione o anonimizzazione dei dati per soddisfare le aspettative dei consumatori e delle normative.
Integrare privacy e fiducia in ogni area dell’azienda
Costruire una cultura della fiducia e della trasparenza è fondamentale per gestire le aspettative sull’utilizzo dei dati e i limiti etici dell’innovazione con l’adozione dell’AI agentica. A livello manageriale, l’adozione di principi Privacy by Design garantisce che la confidenzialità sia integrata nei prodotti, nei servizi e nei sistemi fin dall’inizio, in particolare nei modelli di AI. Per quanto riguarda i consumatori, la mentalità ‘trust but verify’ è fondamentale per capire quali dati vengono raccolti e come vengono utilizzati.
Poiché gli agenti AI diventano sempre più diffusi nei processi decisionali che coinvolgono i dati dei consumatori, le organizzazioni devono fare della trasparenza una priorità assoluta in ogni aspetto della gestione dei dati, non solo per creare fiducia, ma anche per proteggere reputazione e successo a lungo termine.
La creazione di fiducia e il mantenimento della trasparenza non sono più un optional. Al contrario, il successo nell’era dell’AI agentica dipenderà dalla capacità di bilanciare l’innovazione con la responsabilità, assicurando che la privacy dei dati rimanga un punto fermo del progresso sostenibile.