Normare l’utilizzo dell’AI. Avvocato D’Agostini di Udine interviene: “AI deve essere sicura per tutti”

Normare l'utilizzo dell'AI. Avvocato D'Agostini di Udine interviene: "AI deve essere sicura per tutti"

A distanza di pochi mesi dall’entrata in vigore dell’AI Act, la normativa comunitaria suLl’intelligenza artificiale, il dibattito continua a dividere gli utenti, soprattutto professionisti e imprenditori. Per l’Italia, in particolare, si prospettano sfide specifiche, come precisa l’avvocato David D’Agostini di Udine, esperto di digital law, privacy e copyright.

“Da un lato, sarà necessario supportare le imprese, in particolare le PMI e le startup, affinché possano conformarsi ai nuovi obblighi senza subire svantaggi competitivi. Dall’altro, saranno necessari investimenti in competenze digitali e formazione, per garantire che l’IA sia sviluppata e utilizzata in modo consapevole e responsabile”. Sebbene alcuni passi siano già stati compiuti in questa direzione, come gli investimenti previsti nel Piano Nazionale di Ripresa e Resilienza (PNRR), servirà ancora un impegno costante.

TI PIACE QUESTO ARTICOLO?

Iscriviti alla nostra newsletter per essere sempre aggiornato.

Cosa “chiede” esattamente l’AI Act in questi ambiti? “L’Unione Europea – aggiunge D’Agostini – si è posta come leader nella regolamentazione dell’intelligenza artificiale. Abbiamo così un quadro normativo innovativo che punta a disciplinare lo sviluppo, la commercializzazione e l’utilizzo di sistemi di IA nel mercato europeo. Il principio cardine è la classificazione dei sistemi in base al livello di rischio, prevedendo obblighi proporzionati e maggiori restrizioni per quelli che possono avere un impatto significativo sui diritti fondamentali. L’obiettivo è creare un ecosistema in cui l’intelligenza artificiale sia sicura, affidabile e rispettosa dei valori europei, evitando al tempo stesso di ostacolare lo sviluppo tecnologico”.

Tra i nodi da sciogliere ce n’è uno strategico e che necessita tuttora di chiarezza: la responsabilità giuridica dei sistemi di intelligenza artificiale. “Chi è responsabile in caso di danni causati da una decisione assunta da un sistema di IA?”: è il quesito posto dal legale. “La normativa europea sta cercando di fornire un quadro chiaro, che attribuisca le responsabilità in modo proporzionato tra sviluppatori, fornitori e utilizzatori, ma la questione rimane complessa e aperta a future evoluzioni”.

Leggi anche:  Philips e Amazon Web Services ampliano la loro collaborazione per potenziare i servizi cloud HealthSuite e l’IA generativa

Altrettanto fondamentale è il tema della trasparenza e spiegabilità dei sistemi di IA. “In settori sensibili come la sanità, il credito o la giustizia, risulta essenziale che le decisioni possano essere comprese e, se necessario, contestate. Il concetto di explainable AI diventerà sempre più rilevante, spingendo i produttori di tecnologie a sviluppare sistemi meno opachi e più accessibili dal punto di vista interpretativo”. Oltre a essere trasparenti le informazioni e i dati devono essere corretti ed evitare bias e discriminazione. E’ già stato appurato che i modelli di intelligenza artificiale sono addestrati su dataset che spesso riflettono pregiudizi preesistenti nella società. Un monito, dunque: “Senza adeguati strumenti di controllo e senza monitoraggio continuo, il rischio è che l’IA non solo li perpetui, ma addirittura li amplifichi, generando decisioni discriminatorie in settori cruciali come il reclutamento del personale, la concessione di prestiti o la sorveglianza”.

Tutte le innovazioni e le relative regole andranno poi inquadrate nell’indispensabile contesto della protezione dei dati personali, che ha il suo faro nel GDPR. Il punto di vista legale trova anche in questo campo una criticità: “Sono necessari ulteriori approfondimenti per quanto riguarda l’utilizzo di dati nell’addestramento degli algoritmi. Le informazioni devono essere trattate nel rispetto dei diritti degli interessati, evitando usi impropri o eccessivi”.