Qualità dei dati e Intelligenza Artificiale: come l’etica può diventare un vantaggio competitivo

Industria 4.0: la convergenza tra IT e OT richiede la supervisione dell'intero sistema informativo

“L’intelligenza artificiale, proprio come qualsiasi altro strumento, può essere utilizzata in modo improprio. L’intelligenza artificiale non decide di essere cattiva; siamo noi umani a farne un uso poco accorto. Affermare che gli strumenti stanno prendendo il sopravvento è un errore, ma è vero che l’intelligenza artificiale può essere programmata per agire per il peggio. Ma come possiamo evitare che pregiudizi intenzionali o errati entrino negli algoritmi in cui riponiamo così tanta speranza?” si domanda Luc Julia, CTO di Samsung Electronics e co-creatore di Siri

A cura di Pier Dal Farra, esperto di IoT e Industria 4.0 di Orange Business Services

TI PIACE QUESTO ARTICOLO?

Iscriviti alla nostra newsletter per essere sempre aggiornato.

Quando i pregiudizi sono a monte

Sono molte le circostanze dove l’intelligenza artificiale ha creato errori. “Nel 2015, 21 tribunali americani hanno adottato un algoritmo di valutazione del rischio per aiutare i giudici a decidere se gli imputati dovessero restare in carcere prima del processo”, spiega Fayçal Boujemaa, Technology Strategist, Orange Labs Research. L’anno successivo un’indagine ha scoperto che l’uso da parte del sistema di dati storici significava che “gli imputati neri venivano erroneamente segnalati a una velocità quasi doppia rispetto alle loro controparti bianche”.

Quindi, cosa contribuisce a questi errori e quale approccio dovrebbero adottare le aziende per ridurli al minimo?

Françoise Soulié-Fogelman, consulente scientifico di Hub France IA, identifica tre rischi etici primari per l’IA: pregiudizi degli algoritmi, necessità di trasparenza ed equità, questioni di responsabilità.

Cominciamo dai pregiudizi degli algoritmi. Soulié-Fogelman sostiene che esistano anche molte altre forme minori di pregiudizi nell’IA. Ritiene che il design degli algoritmi possa riflettere il pregiudizio conscio e inconscio dei data scientist che li progettano. Dato che l’intelligenza artificiale non può correggere la propria programmazione intrinseca, dobbiamo misurare l’impatto di quegli algoritmi nell’uso: come nel caso degli atti giudiziari di cui abbiamo parlato sopra.

Leggi anche:  Manutenzione predittiva per impianti galvanici, Dradura Italia lancia il progetto di ricerca GD4.0

Un’altra sfida per l’IA etica è la necessità di rendere pubblico l’albero decisionale intrinseco. L’intelligenza artificiale deve mostrare come viene raggiunta una decisione così da facilitare gli adeguamenti necessari all’algoritmo, fornire protezione legale per i settori regolamentati e una traccia di prove per decisioni errate. La mancanza di trasparenza e il pregiudizio dell’algoritmo rafforzano l’importanza di creare catene di responsabilità che funzionino nel mondo reale e mantengano controllo e responsabilità, in particolare quando le cose vanno male.

Un modo per far fronte a questo problema potrebbe essere quello di far supportare i data scientist da consulenti di etica e specialisti incaricati di analizzare pregiudizi e discriminazioni. Mick Lévy, Business Innovation Director di Business & Decision, propone un approccio di squadra alla governance dei dati, con organizzazioni addestrate ad affrontare i dati come una risorsa. Un altro approccio è garantire che gli esseri umani rimangano al centro del processo decisionale. Michael Sandel, Professor of Government all’Università di Harvard, si chiede: “Non saranno forse indispensabili elementi del giudizio umano per decidere alcune delle cose più importanti della vita?”

Servono dati di qualità

Garbage in, garbage out” (in modo meno colorito potremmo dire: a un input errato corrisponde un output errato) è una massima dei data scientist. Parlando di intelligenza artificiale, significa che dati falsi, mal misurati, che riflettono pregiudizi sociali o personali o comunque imperfetti, forniscono risultati scadenti. I dati devono essere coerenti, precisi e accurati. Devono essere conformi alla privacy e agli standard normativi e provenire da fonti attendibili. Devono anche essere pertinenti al contesto. L’intelligenza artificiale basata su dati di 50 anni fa può essere profondamente rilevante per gli eventi storici ma irrilevante oggi. Nove aziende su dieci temono che i loro database contengano troppi errori. “È facile immaginare, nel prossimo futuro, che set di dati provenienti da qualsiasi sistema informativo vengano usati per alimentare o addestrare l’IA”, ha affermato Didier Gaultier, Data Science and AI Director di Business & Decision.

Leggi anche:  Cisco e NVIDIA: insieme per nuove soluzioni di infrastrutture sicure di IA

“Numerosi problemi possono impedire un corretto training dell’IA, come dati falsi, dati incoerenti e dati mancanti (e/o non rappresentativi). L’elenco è tutt’altro che esaustivo e il pericolo è che questo possa non solo distorcere i risultati ma anche riprodurre e forse anche intensificare i pregiudizi umani attraverso i pregiudizi algoritmici”.

La portata del dilemma etico sta spingendo aziende e governi a cercare di risolvere la sfida. La Commissione Europea sta sviluppando principi che supportano l’IA etica. Orange e altri stanno lavorando a principi di governance per il suo utilizzo. Il Gruppo Europeo di Esperti ad Alto Livello afferma che l’IA dovrebbe essere:

  • Rispettosa della legge
  • Solida tecnicamente e socialmente
  • Etica, che significa equa e spiegabile in modo trasparente

Garantire questi standard richiede che manager di prodotto, data scientist e consulenti etici lavorino a stretto contatto sull’IA. Le considerazioni etiche devono essere mantenute durante tutto il ciclo di sviluppo, dalla definizione del contesto e degli obiettivi alla raccolta dei dati, allo sviluppo e alla distribuzione. La Commissione sostiene che qualsiasi rischio di parzialità dovrebbe essere identificato e dichiarato prima che qualsiasi IA venga attivata.

I requisiti etici possono essere classificati in termini di criticità. L’equità, ad esempio, richiede che persone e gruppi di persone non siano trattati in modo diverso a causa di caratteristiche sensibili. La Commissione europea ha pubblicato un elenco di valutazione per un’IA affidabile. L’idea è che i data scientist e i consulenti etici integrino questi requisiti nel codice, mitigando i pregiudizi e garantendo la trasparenza delle decisioni.

Gli strumenti di selezione del personale sono utilizzati dal 99% delle aziende Fortune 500, ma un recente studio di Harvard ha rivelato che alcuni di essi filtrano potenziali assunzioni con esperienza pertinente a causa delle limitazioni nell’intelligenza artificiale. I team delle risorse umane si stanno convincendo che molti di questi sistemi non siano stati costruiti per riflettere le realtà sfumate del mondo del lavoro. Un modo per mitigare questo stato di cose potrebbe essere costruire alberi decisionali che gestiscano i bias fornendo spiegazioni trasparenti su come vengono raggiunte le decisioni.

Leggi anche:  Il 36% dei C-Level italiani si sente sicuro nella gestione dell’IA in azienda, ma persistono sfide su governance e produttività

I consumatori sono sempre più diffidenti riguardo alla raccolta di dati senza limiti. In Francia, il 57% degli utenti di Internet si sente più tracciato rispetto a prima, l’80% considera i sistemi di raccomandazione automatizzati come invadenti e il 74% non si fida del modo in cui le app utilizzano i dati.

Le aziende che rassicurano i clienti che i loro dati vengono utilizzati in modo responsabile dall’IA potrebbero avere un vantaggio. “È così che le aziende saranno in grado di differenziarsi da quelle meno etiche: attraverso la completa trasparenza nell’uso dei dati e nella comunicazione con il pubblico in generale”, ha spiegato il co-fondatore di Indexical Emmanuel Dubois in un recente rapporto Business & Decision. L’IA etica non è solo l’approccio corretto, ma può anche rivelarsi redditizio per coloro che creano sistemi che la supportano.