L’intelligenza artificiale (IA) è considerata da molti una delle tecnologie più trasformative di tutti i tempi. La vediamo già all’opera in assistenti virtuali, chatbot, valutazioni del rischio, gestione di reti di comunicazioni, eccetera. Le possibilità future sono enormi, ma anche motivo di preoccupazione. Un giorno non lontano i sistemi di intelligenza artificiale potrebbero guidare le nostre auto, fare il bucato, dipingere, monitorare le città per la nostra sicurezza e persino combattere guerre. Ma è giusto?
A cura di Pier Giuseppe Dal Farra, esperto di IoT e Industria 4.0 di Orange Business Services
Con “Intelligenza Artificiale” intendiamo le capacità di elaborazione che rispecchiano le funzioni cognitive associate agli esseri umani: come ad esempio l’apprendimento, la comprensione del linguaggio, le capacità sensoriali, l’analisi, il processo decisionale e la risoluzione dei problemi. Le principali ragioni per utilizzare l’IA includono miglioramenti di efficienza, riduzioni di costi e accelerazione della ricerca e sviluppo.
IDC prevede che la spesa mondiale per l’IA raggiungerà i 50 miliardi di dollari nel 2020 e supererà i 110 miliardi nel 2024. Secondo IDC, i servizi finanziari e il retail sono a oggi i maggiori investitori in strumenti di intelligenza artificiale, ma ci si attende che i media e il settore pubblico li superino entro il 2023. IDC ipotizza che l’intelligenza artificiale rappresenterà “l’influenza dirompente destinata a cambiare il volto di interi settori industriali nel prossimo decennio”.
Come per molti altri strumenti digitali negli ultimi due decenni, la tecnologia si è sviluppata a un ritmo molto più veloce rispetto alla legislazione che la regolamenta. I governi hanno pochissima supervisione sull’intelligenza artificiale, e questo permette alle aziende private di utilizzare l’intelligenza artificiale per fare valutazioni sullo stato di salute, l’affidabilità del credito, l’occupazione e persino la giustizia penale con poca o nessuna supervisione statale.
Nel 2020, le proteste di Black Lives Matter negli Stati Uniti hanno spinto Microsoft, Amazon e IBM ad annunciare che non avrebbero più concesso ai dipartimenti di polizia l’accesso alla loro tecnologia di riconoscimento facciale. Le aziende tecnologiche hanno motivato questa decisione con la preoccupazione che l’intelligenza artificiale sia ancora soggetta a errori nel riconoscere le persone non bianche, creando discriminazioni ingiuste.
Le preoccupazioni riguardano tre aree principali
Secondo il filosofo politico Michael Sandel, professore dell’Università di Harvard, ci sono tre aree principali dell’IA dove emergono problemi etici: privacy e sorveglianza, pregiudizi e discriminazione e il ruolo del giudizio umano. “I dibattiti sulla tutela della privacy e su come superare i pregiudizi nel processo decisionale algoritmico in materia di condanne, libertà vigilata e pratiche di lavoro sono ormai familiari, ma non è forse possibile che alcuni elementi del giudizio umano siano indispensabili per decidere alcune delle cose più importanti della vita?” domanda Sandel.
Come possono le aziende tecnologiche rispondere in modo adeguato a queste sfide? Come si può essere sicuri che non ci siano pregiudizi strutturali o discriminazioni alla base in questi sistemi? La discussione deve essere molto più ampia rispetto alle sole capacità funzionali dell’IA: va affrontata da una prospettiva etica la questione di come e dove viene utilizzata l’IA.
È importante riconoscere che regolamentazione e supervisione devono comprendere l’intera catena del valore: non è possibile regolamentare le aziende e non i governi, alcuni utenti e non altri. Essere etici significa coprire ogni istanza e utilizzo dell’IA: dai fornitori che sviluppano la tecnologia, ai governi e alle imprese che la distribuiscono, ai consumatori e ai cittadini che ne sono toccati.
Le misure da adottare per una policy etica di IA
Più l’IA assume un ruolo importante nel processo decisionale, più è probabile che sorgano preoccupazioni etiche. È un effetto valanga. Secondo Benjamin Hertzberg, Chief Data and Analytics Officer Research Team di Gartner, “Le preoccupazioni dell’opinione pubblica sui pericoli dell’IA sono valide. Un comitato etico esterno potrebbe aiutare a incorporare rappresentanza, trasparenza e responsabilità nelle decisioni di sviluppo dell’IA”.
Se i governi faticano a tenere il passo dei progressi dell’IA, l’autoregolamentazione del settore potrebbe essere una soluzione. Gartner ha proposto che un comitato etico esterno per l’IA si basi su tre principi chiave: rappresentazione, trasparenza e responsabilità. I comitati etici dell’IA devono essere completamente trasparenti e disporre di tutte le informazioni necessarie per formulare raccomandazioni informate sullo sviluppo di progetti di IA.
Inoltre, quando formulano raccomandazioni, gli stakeholder devono rispondere prontamente e pubblicamente. Questo consente di mettere in luce che l’organizzazione o l’iniziativa è impegnata e responsabile quando si tratta di AI. Il processo deve essere assolutamente indipendente, che si tratti di stabilire standard, misurare la conformità o – potenzialmente – punire i trasgressori.
La responsabilità viene anche dall’interno
Sebbene i board esterni per l’IA siano un passaggio utile, non sono sufficienti. L’intelligenza artificiale deve essere sviluppata in modo etico e responsabile e gli stakeholder e i proprietari dei progetti possono adottare anche altri approcci per raggiungere questo obiettivo. Anche l’onestà conta: è giusto ammettere che improntare l’IA in modo etico è un compito estremamente complicato e che potrebbe servire un aiuto per consentire all’organizzazione di operare al meglio.
In Francia, il Gruppo Orange lavora con Impact AI, un’organizzazione che riunisce stakeholder di aziende private, enti pubblici, istituti di ricerca e partner educativi. Affronta due obiettivi fondamentali dell’IA: sfide etiche e sociali e progetti innovativi per il mondo di domani. Orange partecipa anche a diversi forum e gruppi di riflessione che lavorano su linee simili, tra cui il Digital Society Forum, Impact AI e la Global Network Initiative (GNI). Inoltre, Orange è stata recentemente la prima azienda a ricevere il marchio GEEIS-IA, che riconosce l’impegno a implementare processi non discriminatori nell’ambito delle Risorse Umane e a promuovere la diversità nelle professioni di IA.
L’intelligenza artificiale è il futuro, ma dovrà mettere l’etica al centro
C’è un fattore di fiducia significativo nel futuro dell’IA. I cittadini confidano che i governi utilizzino l’IA in modo responsabile e i consumatori si fidano che le aziende utilizzino l’IA in modo etico. Se non iniziamo un percorso che costruisca IA in modo etico, le implicazioni nel futuro prossimo cresceranno in modo esponenziale. Cominciando da dati distorti, gli errori si moltiplicheranno e diventeranno più gravi, visto che gli algoritmi continuano ad apprendere dai dati di partenza. Le aziende e i governi devono adottare un approccio etico all’intelligenza artificiale perché il mondo possa godere dei suoi benefici.