Principi guida e regole elaborate da un team dedicato
Il problema con la tecnologia – ha scritto il grande storico dell’economia Joel Mokyr – è che in molti casi offre una base epistemica limitata. Soprattutto quando un’invenzione funziona subito benissimo, la necessità di comprendere quali conseguenze può produrre passa in secondo piano. Senza scomodare l’invenzione dell’atomica pensiamo alla motorizzazione di massa. Potendo riavvolgere il nastro quanto punteremmo sullo sviluppo dell’automobile conoscendo quali conseguenze ha avuto sul clima? Con l’AI oggi ci troviamo in una situazione simile. Bruschi cambiamenti possono generare acute sofferenze sociali, perciò è auspicabile che le transizioni siano guidate. L’AI Act da questo punto di vista è un primo passo importante.
AI Act. A che punto siamo?
«L’AI Act sarà adottato formalmente probabilmente il prossimo 21 maggio, quando il Consiglio approverà il testo finale che il Parlamento ha votato un paio di settimane fa. Dopo la pubblicazione in Gazzetta Ufficiale, entrerà in vigore probabilmente nel giugno 2024. Ciò significa che inizierà ad applicarsi gradualmente dalla fine di quest’anno» delinea la timeline Kalliopi Spyridaki, Chief Privacy Strategist EMEA & Asia Pacific, SAS, specificando che le diverse disposizioni della legge si applicheranno in momenti diversi: «Il divieto relativo alle pratiche vietate inizierà ad applicarsi già alla fine di quest’anno, mentre le norme sui modelli AI saranno in vigore intorno alla metà del 2025».
Tutelare i consumatori UE
In linea d’altra parte con l’approccio UE di regolamentare lo sviluppo dell’IA piuttosto che il suo utilizzo. «Si tratta di un atto legislativo che presenta molti aspetti legati alla tutela dei consumatori» concorda Spyridaki. «L’approccio scelto è stato quello di concepire l’AI Act come una normativa sulla sicurezza dei prodotti e, al di sopra di esso, la tutela di alcuni diritti fondamentali. Un approccio molto diverso dal modo in cui è strutturato il GDPR. Non si tratta di una sfumatura. Perché avrà un impatto sul modo in cui verrà applicata la legge. Dal punto di vista del diritto della concorrenza, l’UE sta cercando anche di creare condizioni di parità tra l’IA sviluppata in Europa e quella sviluppata altrove che sarà immessa sul mercato europeo». L’AI Act prevede disposizioni stringenti sulla sovranità e la sicurezza dei dati e per esteso sulla sicurezza nazionale. E poichè le nostre sono in gran parte data economies – qualsiasi legge non può esimersi dall’incorporare considerazioni strategiche sulla crescita. «L’Europa è un grande partner commerciale. Il dettato della legge avrà effetti sui nostri partner commerciali. Nella legge infatti sono previste disposizioni sul modo in cui l’intelligenza artificiale verrà sviluppata, su quali dati verranno utilizzati per addestrarla e come il processo di governance dei dati continuerà a essere monitorato durante tutto il ciclo di vita dell’IA immessa sul mercato europeo» osserva Spyridaki.
Rischi e conseguenze degli errori
L’AI è il cambiamento. Anzi per qualcuno rappresenta una vera e propria rivoluzione. Rivoluzione che va governata, con regole del gioco chiare e condivise: stabilendo quali applicazioni AI sono lecite, quali limiti devono avere gli algoritmi rispetto alle richieste di chi li utilizza e con quali dati i sistemi saranno addestrati. «Sfortunatamente oggi molte persone pensano all’intelligenza artificiale come a qualcosa di spaventoso. E – anche se dovrei stare attento a dirlo data la platea di giornalisti presenti a questo incontro – credo che abbia molto a che fare con il fatto che il tono dei media quando si parla di AI spesso è un po’ troppo drammatico» afferma Josefin Rosén, Principal Trustworthy AI Specialist, Data Ethics Practice, SAS. «Si discute di ipotetici eventi catastrofici che l’AI potrebbe innescare ma i rischi associati all’AI non sono tali da mettere in pericolo la sopravvivenza della specie umana. Il rischio – continua – risiede piuttosto nel fatto che poiché l’intelligenza artificiale può svolgere alcuni task al posto nostro, molto più velocemente e in modo più efficiente, se commette un errore o se si comporta in modo ingiusto o discriminatorio, gli impatti possono propagarsi su larga scala». Sappiamo infatti che quando l’AI viene addestrata basandosi sui dati di un precedente processo manuale, apprenderà anche i pregiudizi e le imprecisioni dei decisori umani. «Se una persona prende una decisione ingiusta – e quando iniziamo a utilizzare l’intelligenza artificiale per automatizzare i processi decisionali si possono facilmente prendere migliaia di decisioni al minuto – le conseguenze possono essere gravi. Perciò bisogna prestare molta attenzione a questi rischi. Rischi però che possono essere affrontati e gestiti se si dispone di un solido framework per la loro governance e di una buona piattaforma di intelligenza artificiale dalla quale continuare a trarre vantaggio dalle molte capacità di questa tecnologia. Per trasformare le aziende di ogni settore, generare un enorme valore economico, affrontare le sfide globali e così via».
Perseguire un’AI affidabile
La priorità dei test in SAS – spiega Rosén – è quella di poter disporre sempre di un’intelligenza artificiale affidabile. Umanocentrica, inclusiva, sicura, trasparente, responsabile e robusta etica e giusta. «L’intelligenza artificiale che non danneggia niente e nessuno. Il che significa continuare ad essere il partner di AI e analisi più affidabile del pianeta. Al centro delle nostre riflessioni e delle nostre pratiche è fare in modo che l’intelligenza artificiale rifletta i nostri valori come società. Può essere complicato perché quel che è giusto e corretto può variare molto in situazioni, paesi e culture diverse. Tuttavia concordare su alcuni valori e proporre principi guida che li riflettano è un lavoro che consigliamo sempre ai nostri clienti di sviluppare prima di iniziare il loro viaggio verso un’intelligenza artificiale affidabile» conclude Rosén.