Superato il tempo di sondaggi ed exit poll, è il momento dei Big Data: l’analisi dei dati è stata l’ago della bilancia che ha caratterizzato l’andamento della politica negli ultimi anni
Due scenari elettorali scuotono i dibattiti televisivi del Bel Paese: il referendum costituzionale del prossimo dicembre e la fatidica votazione che sceglierà il prossimo Presidente degli Stati Uniti d’America. Le campagne elettorali dell’ultimo decennio hanno trovato nella rete uno dei principali strumenti di comunicazione: le tecnologie – è noto – stanno ridefinendo il modo di interagire con gli elettori sia sfruttando il web come new media ma anche, e soprattutto, usandolo come fonte preziosa di informazioni. La possibilità di maneggiare l’enorme quantità di dati che ogni giorno cresce, rimpinguata dal nostro (ab)uso dei social network, permette agli analisti di predire facilmente inclinazioni, temi di interesse e comportamenti dell’elettorato. Consente di identificare i singoli elettori in cluster, per poi raggiungerli con messaggi efficaci.
Agli albori dell’epoca social, Facebook e Twitter erano usati come strumento per attuare una sorta di guerrilla marketing. Gli utenti non si facevano scrupoli a esprimere le proprie opinioni sulle pagine personali, e i dati provenienti da queste fonti erano utilizzati fondamentalmente per analisi cosiddette di “sentiment”, e cioè volte a determinare se il “post” fosse positivo, negativo o neutro rispetto a un determinato argomento. Si chiama anche “opinion mining”, letteralmente “scavare nella miniera delle opinioni”. Ma se nel 2008 abbiamo conosciuto le elezioni via social media, pochi anni dopo abbiamo iniziato a fare i conti con le campagne a base di dati. Ne è un esempio la campagna 2012 statunitense, nella quale la squadra democratica a sostegno di Obama ha realizzato una piattaforma software in grado di identificare i probabili elettori analizzando la moltitudine dei social network: pianificando strategie mirate e incrociando i dati – con uno strumento in grado di veicolare messaggi pubblicitari in televisione, in modo da incontrare la audience migliore al prezzo più basso – hanno ottimizzato gli investimenti e raggiunto il risultato.
Raccogliere, organizzare e analizzare
Come? Per leggere e decifrare moli ingenti di dati, sono necessari degli strumenti specifici, potenti e indispensabili, capaci di incrociare in tempo reale le informazioni tra loro in modo sinergico e coerente e ottenerne di derivate. Se il concetto è chiaro nelle strategie di marketing per la comunicazione, e – come dimostrano i due candidati Trump e Clinton in questi giorni – si percepisce che lo sforzo vale il risultato, ciò ancora non avviene del tutto nel contesto urbano. La città è un organismo estremamente complesso e, per fare in modo che le informazioni siano messe in relazione, non basta che per ogni oggetto intelligente, i dati siano memorizzati in maniera ordinata ed efficiente: il criterio di ordine e efficienza deve essere lo stesso per tutti. La ricaduta sui singoli territori è quindi la necessità – per ogni ambiente amministrativo – di possedere metodi e strumenti di analisi che permettano di raccogliere dati in qualsiasi formato provenienti dalla città e porli in un database unico che garantisca una loro gestione contemporanea e integrata. Questo processo prende il nome di normalizzazione, un procedimento volto alla minimizzazione della ridondanza informativa, del rischio di incoerenza e quindi della corretta conservazione dell’informazione. Prepariamoci dunque all’avvento di quel giorno, molto più vicino di quello che crediamo, quando, dai semafori ai tombini, l’Internet sarà davvero in tutti gli oggetti. Sarà indispensabile allora confrontare e mixare i dati estraendo dalla base tutti e soltanto i dati che corrispondano ai criteri dettati dal contesto per produrre così rielaborazioni specifiche che portino a generare report, sistemi di allerta, di reale supporto alle procedure decisionali.
Giulia Cattoni @urbanocreativo