A cura di Pedro García, Amministratore Delegato di Minsait in Italia
Sull’Intelligenza Artificiale ci sono più pagine scritte che certezze. Tuttavia, abbiamo almeno tre evidenze su cui costruire un progetto comune per l’applicazione di questa potente tecnologia: primo, il potenziale dell’AI è tale che la sua diffusione è inarrestabile; secondo, siamo in un momento storico decisivo per garantire un’implementazione etica, responsabile e sostenibile dell’AI; terzo, questa implementazione etica è un compito e una responsabilità comune e condivisa.
L’AI non è La Rivoluzione, ma l’abilitatore tecnologico della prossima grande Rivoluzione, che è ancora agli inizi, ma che è già inarrestabile. Una rivoluzione che va oltre l’intelligenza generativa e che presenta, per le aziende, potenzialità sorprendenti che promettono di migliorare la competitività, il processo decisionale, il rapporto con i cittadini, le proposte di valore, la sicurezza e le operazioni e processi, tra molti altri aspetti.
Come si evince dall’ultimo rapporto sullo stato di implementazione dell’AI nelle aziende italiane che abbiamo realizzato insieme all’Università LUISS Guido Carli, la strada da percorrere per cogliere questo potenziale è ancora lunga. La maggior parte delle aziende, in Italia e nel mondo, non sa come applicarla nella propria attività produttiva, né ha ancora piani strategici per guidarne l’applicazione. In molti casi, non esiste nemmeno una solida base tecnologica a supporto di un’implementazione agile dell’AI.
Oltre a cogliere il pieno potenziale dell’AI, dobbiamo assicurarci che l’AI venga utilizzata in modo etico, responsabile e sostenibile. Come altri strumenti tecnologici, l’AI dovrebbe essere una risorsa al servizio delle persone e del bene comune.
Partiamo da una concezione dell’AI etica basata sui cinque principi proposti da Luciano Floridi: (1) la beneficenza, intesa come orientamento dei sistemi a promuovere il benessere, preservare la dignità e preservare il pianeta; (2) la non-maleficenza, attraverso il rispetto della privacy e della sicurezza; (3) l’autonomia decisionale (senza dimenticare, in ogni caso, che la nostra AI “debole” avrebbe solo un’autonomia programmata o delegata nelle sue decisioni e non godrebbe, quindi, di una piena agency morale); (4) l’equità, articolata su prosperità, solidarietà e non iniquità, che comprende l’imparzialità o l’assenza di pregiudizi e preconcetti che possano portare l’algoritmo a prendere decisioni ingiuste; (5) l’“esplicabilità”, intesa come trasparenza del processo interno che gli algoritmi seguono per l’elaborazione dei dati, l’identificazione dei modelli e il processo decisionale.
Per promuovere, infatti, un’applicazione responsabile dell’AI, il Consiglio dell’Unione Europea ha appena dato il via libera definitivo all’AI Act, una proposta pionieristica che cerca di bilanciare le opportunità e l’innovazione con una gestione adeguata dei rischi e delle sfide poste dalla nuova tecnologia. L’AI Act, in linea con i principi di Floridi, rappresenta un passo in avanti fondamentale, in attesa dell’implementazione settoriale e l’adattamento alla normativa dei Paesi.
Tuttavia, non possiamo affidarci completamente al rispetto del quadro normativo, che è ancora agli inizi e limitato sia geograficamente sia per quanto riguarda la portata. L’AI responsabile non è solo un compito del legislatore e delle istituzioni, né solo delle imprese. Realizzare un’AI etica è un compito collettivo, una responsabilità comune che richiede un’alleanza tra tessuto produttivo, mondo accademico, società civile e istituzioni pubbliche. L’AI è un orizzonte collettivo che richiede responsabilità e iniziativa da parte di tutti.