Miliardi di ore di filmati video vengono registrati ogni giorno, per garantire la sorveglianza pubblica, e dati in pasto a macchine in grado di imparare da sole. Come governeremo il nostro futuro?
Centinaia di milioni di videocamere di sorveglianza in tutto il mondo registrano con diligenza miliardi di ore di filmati video ogni giorno. Le città intelligenti monitorano i cittadini attraverso sensori posizionati nel paesaggio urbano, che raccolgono dati relativi a diversi fattori di vita urbana, ma soprattutto monitorano infrazioni. Nvidia, l’azienda californiana produttrice di processori grafici, schede madri e componenti per prodotti multimediali per pc e console, ha annunciato all’inizio di maggio 2017 di aver prodotto una piattaforma di analisi video chiamata Metropolis, in grado di estrarre informazioni in tempo reale attraverso l’utilizzo dell’intelligenza artificiale. Metropolis è una macchina che, partendo da semplici file immagine, è in grado di apprendere automaticamente: raccoglie in autonomia dati e metadati per monitorare il traffico in tempo reale su un’autostrada, pianificare e guidare l’organizzazione delle merci a seconda della capacità in un porto, oppure informare le autorità in caso di emergenza. Non si tratta del primo sviluppo di questo tipo specifico di intelligenza artificiale, detto Machine Learning. Cinque anni fa, gli ingegneri di Google elaborarono un sistema di intelligenza digitale per identificare la presenza di gatti nei video di YouTube. Il successo del progetto risiedeva nel fatto che gli ingegneri non avevano dato all’AI i parametri per riconoscere cosa fosse un gatto, ma avevano costruito un sistema di apprendimento basato su feedback formativi che permettesse al software di creare la propria definizione di gatto. Dall’identificazione dei gatti a quella dei crimini il passo è breve: i prossimi anni saranno quelli della video-sorveglianza “autonoma”. Lo sviluppo di un software capace di imparare da sé e trovare autonomamente soluzioni risulta cruciale dunque per riuscire a gestire i Big Data, e utilizzare le informazioni per assicurare la sicurezza, migliorare la qualità della vita, ridurre i costi e il consumo di risorse, ma anche sviluppare la capacità di anticipare problematiche, rischi, scomodità, necessità e desideri dei cittadini.
È qui però che il tema della sicurezza incontra quello della privacy. Le preoccupazioni sulla privacy vengono sollevate quando i dati raccolti potrebbero essere in grado di collegare o identificare un individuo, raggruppando dati e informazioni provenienti da più fonti. Se si pensa poi alle evoluzioni dell’IoT in ambito di domotica e automotive, il rischio di perdere la consapevolezza delle azioni che compiamo e di venire truffati o danneggiati è evidente. La democratizzazione delle tecniche di Machine Learning e il ruolo dei giganti della rete stanno destando alcuni timori nell’opinione pubblica, ma anche tra ricercatori e ingegneri. Insomma, non tutti i progressi nel campo dell’Intelligenza Artificiale potrebbero avere finalità positive. La preoccupazione è tale per cui “The Economist Safest Cities Index 2015”, ha introdotto una metrica di sicurezza digitale accanto alle misure tradizionali di sicurezza come Personal Security e Health. Sulla stessa linea di pensiero è anche Elon Musk, padre di Tesla e SpaceX, che, insieme a Sam Altman, presidente dell’incubatore Y Combinator, ha dato vita a OpenAI, l’ente di ricerca che ha la missione di sviluppare e diffondere studi tesi a sventare il diffondersi della cyber criminality. Le conoscenze acquisite da OpenAI vengono divulgate e condivise su piattaforme open-source, che garantiscono la trasparenza e accelerano la ricerca AI. L’obiettivo è costruire l’AGI, Artificial general intelligence, un’intelligenza artificiale sicura, “buona”. Se è vero che “per governare il futuro bisogna inventarlo”, la premessa rimane una sola: avere scelto bene cosa è buono, e cosa no.
Giulia Cattoni @urbanocreativo