Trustworthy AI, l’intelligenza artificiale affidabile

Quasi il 90% delle imprese globali utilizza l’AI, ma l’infrastruttura obsoleta e il deficit di competenze ne ostacola i benefici

A giugno scorso, il Parlamento europeo ha adottato e reso pubblica la sua posizione negoziale ufficiale sulla Artificial Intelligence (AI). Subito dopo sono iniziati i negoziati con il Consiglio per arrivare, possibilmente entro fine anno, alla promulgazione del Regolamento europeo, noto come AI Act.

La nuova norma è molto importante perché promuove in modo forte un uso affidabile della AI, incentrato sull’essere umano, sulla tutela della salute, sulla sicurezza, sui diritti fondamentali e sulla democrazia, identifica e vieta gli effetti più dannosi. Nella formulazione è stato seguito un approccio basato sul risk management, sui tipici valori umanistici europei, e sugli obblighi stringenti per fornitori e operatori, a seconda del livello di rischio che questi possono generare.

TI PIACE QUESTO ARTICOLO?

Iscriviti alla nostra newsletter per essere sempre aggiornato.

Quando la norma entrerà in vigore saranno, quindi, vietati i sistemi di AI che presentano un livello di rischio inaccettabile per la sicurezza delle persone, come quelli utilizzati per il social scoring – classificare le persone e le imprese in base ai loro comportamenti ed alle loro caratteristiche – e per il riconoscimento facciale. È stato poi ampliato l’elenco dei divieti sugli usi intrusivi e discriminatori come: 1) sistemi di identificazione biometrica remota “in tempo reale” in spazi accessibili al pubblico; 2) sistemi di identificazione biometrica remota “a posteriori” in spazi accessibili al pubblico, se non previa autorizzazione giudiziaria e strettamente necessaria per investigare uno specifico grave reato; 3) i sistemi di categorizzazione biometrica basati su informazioni subliminali e sensibili: genere, razza, etnia, cittadinanza, religione, orientamento politico e sessuale; 4) i sistemi di polizia predittiva, basati su profilazione, ubicazione o comportamenti criminali passati; 5) i sistemi di riconoscimento delle emozioni utilizzati dalle forze dell’ordine, nella gestione delle frontiere, nel luogo di lavoro e negli istituti d’istruzione; 6) l’estrazione non mirata di dati biometrici da Internet o da filmati di telecamere a circuito chiuso per creare database di riconoscimento facciale, in violazione dei diritti umani e del diritto alla privacy.

Inoltre, sono stati aggiunti alla lista ad alto rischio, i sistemi utilizzati per influenzare gli elettori e l’esito delle elezioni e i sistemi di raccomandazione utilizzati dalle piattaforme social. I fornitori di modelli di base devono valutare e mitigare i possibili rischi e registrare i loro modelli nella banca dati dell’UE prima della loro immissione sul mercato europeo. Infine, sono stati rafforzati i diritti del cittadino e dell’impresa di presentare reclami e di ricevere spiegazioni sulle decisioni.

Leggi anche:  Cisco AI Readiness Index: l’urgenza di agire sale, ma la preparazione scende

Da ultimo, è stata inserita la classificazione delle applicazioni ad alto rischio che include anche i sistemi che comportano danni significativi per la salute, la sicurezza, i diritti fondamentali delle persone o l’ambiente. Il deputato europeo, correlatore del testo, Dragos Tudorache (Gruppo Renew Europe, Romania) ha auspicato che – «la legge europea sull’AI stabilisca uno standard a livello mondiale  assicurando che questa tecnologia, destinata a trasformare radicalmente le società grazie agli enormi benefici che può offrire, si evolva e venga utilizzata nel rispetto dei valori europei della democrazia, dei diritti fondamentali e dello Stato di diritto». È assolutamente necessario un approccio antropocentrico all’AI, che obblighi a tenere presente che lo sviluppo e l’utilizzo non deve essere considerato come un obiettivo di per sé, ma come un mezzo per aumentare il benessere. Tale approccio, che in ambito europeo viene chiamato Trustworthy AI, si basa su due componenti: 1) il rispetto dei diritti fondamentali, della normativa, dei principi e dei valori di base, garantendo la finalità etica; 2) la robustezza e l’affidabilità dal punto di vista tecnico nonché la possibilità di spiegare e tracciare in modo trasparente le soluzioni adottate. Oggi, sempre di più, infatti, si parla di XAI (eXplainable AI o Human-Understandable AI).

In definitiva, nell’augurare che l’AI Act abbia un grande successo mondiale, come quello riscosso dal GDPR, siamo fermamente convinti che un sistema XAI deve essere trasparente e interpretabile dagli umani, che rimangono necessariamente gli unici veri controllori della tecnologia, anche dell’intelligenza artificiale.