Bruxelles, la partita dell’AI. Due tavoli su cui si gioca il futuro

Bruxelles, la partita dell’AI Due tavoli su cui si gioca il futuro

La partita sull’intelligenza artificiale è entrata nel vivo. Dopo il voto del Parlamento europeo, la bozza di Regolamento sarà oggetto nelle prossime settimane di negoziati informali a cui prenderanno parte alcuni rappresentanti di Parlamento, Consiglio (Stati membri) e Commissione. Ma non è ancora il momento di giocare a carte scoperte. Altri giocatori stanno prendendo posto a un secondo tavolo.

Pronti a far fallire gli sforzi dell’Europa di chiudere l’accordo prima della fine dell’anno, quando la legislatura volgerà al termine. O alla peggio, approdando a un codice di condotta su base volontaria che eluda regole e sanzioni sin qui abbozzate. Un film già visto agli albori del cammino del GDPR, quando Facebook condusse un’estesa operazione di lobbying nei confronti di politici influenti della UE – premier, commissari e ministri – per cercare di annacquare l’impatto della normativa.

TI PIACE QUESTO ARTICOLO?

Iscriviti alla nostra newsletter per essere sempre aggiornato.

Questa volta, però, oltre al solito plotone di lobbisti che già stanno intasando corridoi e sale riunioni dei palazzi del potere della capitale belga, Big Tech può arruolare tra le sue fila padri e “padrini” dell’AI che con tempismo elvetico e unità d’intenti nordcoreana hanno alla fine scoperto il lato oscuro della tecnologia, i cui pericoli derivanti dalla sua diffusione sono – «piuttosto spaventosi» – secondo Geoffrey Hinton, pioniere degli studi sull’AI. Per Sam Altman, creatore di ChatGPT, oltre che co-fondatore e CEO di OpenAI, l’utilizzo irresponsabile dell’Ai metterebbe addirittura a rischio la sopravvivenza della razza umana. Opinione condivisa anche da Elon Musk, già finanziatore di OpenAI, sceso in campo in prima persona per promuovere una moratoria di sei mesi allo sviluppo dell’Ai, avviata con un tour itinerante nelle cancellerie di mezza Europa, le stesse che dovranno negoziare le loro posizioni sulle proposte di Regolamento UE.

Non si discute qui l’urgenza di un esteso e aperto dibattito sulle minacce per la democrazia e la libertà rappresentate dall’utilizzo sconsiderato dell’AI. A sconcertare nella ridda di voci, richieste e appelli è il fragoroso silenzio sulle responsabilità di tutti quei paesi nei quali l’impiego di tecnologie rischiose è un processo in atto. Moloch cinese a parte, dove la pervasività della sorveglianza di massa è già storia, anche l’Occidente del mondo utilizza – o ha in programma di farlo – strumenti di controllo che farebbero impallidire qualsiasi distopia sin qui immaginata, da Orwell a Eggers. Parliamo di sistemi di riconoscimento facciale a distanza e di identificazione biometrica che possono operare senza la necessità di ottenere dalle persone alcuna autorizzazione, neppure per categorie vulnerabili come bambini o malati; degli algoritmi di social scoring, ossia di valutazione dei comportamenti e delle interazioni sociali, che in Olanda hanno già causato gravi danni alla salute e alla reputazione di persone appartenenti ad alcune minoranze; fino ai software di polizia predittiva, che sfruttano montagne di dati per stimare la pericolosità di un individuo, impiegati in maniera fallace per prevenire e reprimere furti, rapine e altri reati, oggi, in fase di sviluppo anche in Italia. Applicazioni, ma ce ne sono altre ancora, basate sull’AI che già oggi presentano livelli di rischio «inaccettabili» per i parametri di Bruxelles. Aberrazioni davanti alle quali la sollecitudine dell’Europa – ancora una volta, unica nel panorama internazionale – di regolamentare una materia così delicata, meriterebbe un sostegno incondizionato.

 

Leggi anche:  SAS Viya: Forrester la incorona leader, Futurum ne certifica l'efficienza