La resilienza organizzativa e operativa come sintesi calibrata di dati, intelligenza artificiale e gestione dei rischi per garantire un futuro sostenibile e facilitare il processo di digitalizzazione
Le organizzazioni operano in un contesto sempre più caratterizzato dall’imprevedibile certezza dei rischi che risultano quanto mai complessi e in continua evoluzione. Inoltre, i dati si convertono in leve strategiche per fornire informazioni preziose e migliorare la percezione del rischio grazie all’elaborazione maggiormente “granulare e raffinata” da parte dell’AI. Ne consegue che le organizzazioni sono in grado di perseguire in modo più strutturato e consapevole il percorso verso la resilienza organizzativa e operativa, senza dimenticare le sfide che tutto ciò comporta.
Di fatto, l’enorme quantità di dati a disposizione, la connessione delle persone, delle cose e dei sistemi stanno creando connessioni sempre più dinamiche che permettono di strutturare e ottimizzare le operazioni delle organizzazioni in tempo reale e a valore aggiunto. Non solo. Grazie all’elaborazione dei dati da parte dell’AI, è possibile sia garantire nuove potenzialità e approcci strategici sia effettuare delle previsioni e stime degli impatti dei rischi noti ed emergenti in tutti gli ambiti della sfera sociale ed aziendale.
Le organizzazioni devono essere consapevoli dei potenziali rischi scaturiti dai dati e dalla loro elaborazione da parte dell’AI. Pertanto, si tratta di garantire una “triangolazione perfetta”, quale calibrata sintesi di dati, AI e gestione dei rischi – attraverso un approccio risk-based e resilience based – che si converte in leva strategica per garantire un futuro resiliente e sostenibile e facilitare, altresì, il processo di digitalizzazione ed innovazione in atto, evitando di trovarsi a gestire un “triangolo delle Bermuda”. Ovvero, le organizzazioni devono conoscere la tecnologia che si basa sull’AI, oltre a garantire la qualità dei dati di cui essa si “alimenta” in modo da evitarne i rischi intrinsechi e, all’occorrenza essere in grado di gestirli.
L’Unione Europea si sta muovendo in questa direzione e ne sono una testimonianza i recenti Artificial Intelligence Act e Cyber Resilience Act, che stabiliscono la necessita di una modifica all’approccio al rischio in un contesto di innovazione tecnologica basato su sistemi di AI. Ovvero si tratta di garantire la sicurezza, la trasparenza e spiegabilità della tecnologia. Tre le conseguenze principali: l’esigenza di aggiornare i sistemi di gestione del rischio in modo tale da renderli più flessibili, agili e adattivi per far fronte alla velocità di innovazione e trasformazione in atto rispetto agli approcci e ai modi di pensare tradizionali; l’imperativo di considerare aspetti come l’etica dei dati, che deve essere allineata ai valori aziendali; la necessità di giustificare e spiegare lo scopo alla base dell’utilizzo dei dati elaborati dall’AI.
La gestione dei rischi relativa ai modelli di AI deve, di fatto, essere considerata sin dalla fase progettuale – attraverso un approccio di “derisking by design” – per garantirne una supervisione costante e simultanea allo sviluppo interno e al provisioning esterno. Pertanto, le organizzazioni che utilizzano un modello di AI dovranno sempre più essere in grado di garantire sia un sistema di governance – in termini di aspetti di responsabilità aziendale, comportamenti adeguati nei confronti dei propri clienti e dipendenti e conformità dei requisiti normativi vigenti e futuri – sia un sistema dei rischi continuamente aggiornato, flessibile, agile e adattivo.
Federica Maria Rita Livelli Comitato Scientifico Clusit