Grandi dati, grandi informazioni?

Come i big data hanno cambiato la nostra quotidianità

I big data rappresentano la sfida che può cambiare il modo di fare business, analizzare il rischio e comprendere il funzionamento dei mercati. Ma attenzione alla privacy e alla performance

Di Francesco Bellini, presidente del Comitato Tecnico ICT di ANDAF e senior partner Eurokleis

TI PIACE QUESTO ARTICOLO?

Iscriviti alla nostra newsletter per essere sempre aggiornato.

I recenti andamenti dei mercati finanziari internazionali, a partire dalla crescita e scoppio delle bolle dei primi anni del decennio passato fino alle più recenti crisi finanziarie, hanno stimolato la comunità accademica e i maggiori esperti e commentatori economico-finanziari a rivedere sostanzialmente le basi teoriche su cui, per decenni, sono state poste le fondamenta dei sistemi finanziari globali. In particolare, è tutt’ora in corso una profonda revisione della nota Ipotesi di Mercato Efficiente (Efficient Market Hypothesis) sviluppata da Eugene Fama nel 1970. Tale teoria afferma che i mercati sono, dal punto di vista informativo, efficienti secondo diversi livelli: efficienza in forma debole, semi-forte e forte. In sostanza, senza voler entrare nei dettagli della teoria, si afferma che tutta l’informazione (pubblica) disponibile sul mercato è immediatamente riflessa nei prezzi azionari che sono, quindi, rappresentazione corretta e realistica del valore intrinseco dell’azienda quotata. Corollario a tale teoria è l’impossibilità di ottenere lecitamente, costantemente e per lunghi periodi, extra rendimenti rispetto alle performance di mercato. Di conseguenza, tale allineamento tra correttezza intrinseca dei valori azionari ed efficienza dei mercati postula l’impossibilità di vedere nascere e poi crescere fenomeni come bolle speculative endogene fino ad arrivare allo scoppio di tali bolle, dovuto a un repentino riallineamento dei valori, precedentemente gonfiati, a un livello maggiormente ancorato ai fondamentali delle aziende. Ma la realizzazione empirica di fenomeni non previsti a livello teorico sta portando gran parte degli esperti a rivedere la supposta razionalità dei mercati nell’ottica di accettazione delle imperfezioni insite negli stessi, della limitata razionalità degli agenti economici e del ruolo dei dati, talvolta apparentemente non correlati, nella determinazione dei valori di mercato. Un recente filone è rappresentato dall’economia e finanza comportamentale, che attribuisce le imperfezioni dei mercati a una combinazione di distorsioni cognitive, eccessi di fiducia, reazioni eccessive, distorsioni informative e a ulteriori errori umani nelle analisi e nel processamento delle informazioni. Tra gli autori di notevole impatto in questa branca dell’economia finanziaria, devono essere inseriti i premi Nobel per l’economia Herbert Simon (1978) e Daniel Kahneman (2002) per i loro lavori relativi, rispettivamente, alla ricerca nei processi decisionali all’interno delle organizzazioni economiche (coniando il termine di “bounded rationality”) e alla “teoria del prospetto” (Prospect Theory) che analizza come, durante reali processi decisionali in campo economico e finanziario, si possa incorrere nell’inversione tra avversione al rischio e ricerca del rischio.

Leggi anche:  Pagamenti internazionali: le sfide e le opportunità per le banche

Modellizzare l’imperfezione

Se la finanza comportamentale analizza i comportamenti umani al fine di riconoscere, studiare e proporre soluzioni ai comportamenti “anomali” distorsivi degli agenti economici, per un attore del sistema economico-finanziario, dal punto di vista analitico è più importante riuscire a modellizzare l’imperfezione insita del mercato per tenerla debitamente in considerazione nel momento in cui deve effettuare analisi previsionali nel breve, medio e lungo termine. Ma non solo devono essere considerate le distorsioni comportamentali prese a sé stanti, ma anche gli eccessi di reazione o di fiducia e le distorsioni informative devono essere analizzate con la stessa dovizia di attenzione. Ai sempre più frequenti comunicati stampa e rapporti ufficiali rilasciati dalle società quotate, dalle società che gestiscono i mercati e dai maggiori analisti finanziari e news provider, si sono aggiunti negli ultimissimi anni gli strumenti di comunicazione basati sulle tecnologie Internet e del web. Il recente massiccio incremento delle informazioni disponibili sui mercati è dovuto, in gran parte, alla diffusione sempre più capillare dei social media (come Twitter e Facebook) che riportano la stessa notizia originale, aggiungendo significati, reazioni nonché analisi che non fanno altro che aumentare la complessità dell’universo informativo. Se da una parte, come dimostrato in diverse ricerche e articoli scientifici, l’impatto dell’informazione sui valori azionari e sui comportamenti degli investitori non è neutro, dall’altra parte emerge il problema di come un analista finanziario possa considerare l’intero universo informativo e utilizzare le informazioni al fine di costruirne un modello utile a fornire previsioni accurate e corrette dell’andamento dei prezzi azionari (e in generale degli strumenti finanziari).

Sentiment analysis

Un ruolo sempre può importante, sui mercati finanziari e non solo, viene quindi ricoperto dalle tecniche volte a svelare il sentiment, sia questo dei trader finanziari rispetto a un titolo o dei clienti rispetto a un prodotto di un’azienda. La sentiment analysis fonda le sue basi su solidi metodi nati nel settore scientifico del Natural Language Processing accompagnati e integrati con metodi e modelli di intelligenza artificiale con l’obiettivo di costruire degli indici derivanti dall’analisi lessicale e semantica su base statistica delle informazioni reperibili sul cosiddetto Web 2.0 (si veda, ad esempio il progetto TrendMiner[1]). E qui, si innesta il ruolo degli strumenti di business intelligence di nuova generazione e della capacità di analizzare i big data generati – da un lato – dallo sviluppo dei social media che alimentano un flusso crescente di informazioni, di norma destrutturate, di natura colloquiale in cui vengono aggiunti commenti brevi e spesso rumorosi (dovuta a errori ortografici) e – dall’altro – dalla sempre maggiore disponibilità di banche dati strutturate, pubbliche o private, sempre più disponibili in modalità aperta (open data). La natura sfumata e difficilmente modellizzabile dei flussi provenienti dai social media pone le basi per approcciare la materia del content analytics in modo nuovo e interdisciplinare per cui già i maggiori player stanno investendo su queste tecnologie. Entro il 2015, Gartner[2] prevede che oltre il 30% dei progetti di analisi dei dati fornirà degli approfondimenti e conoscenza basati su dati non strutturati e l’85% delle top organisation di Fortune 500 richiederà progetti di analisi dei big data. La capacità di utilizzare i big data sta diventando quindi essenziale, non solo per comprendere i mercati finanziari, ma anche per implementare strategie di risk management, di marketing e fidelizzazione del cliente, individuare le frodi o studiare l’andamento dei fenomeni epidemici. Per questi motivi ci si attende che entro cinque anni i tools per social analytics, social media marketing platforms e text analytics saranno in grado di fornire i maggiori benefici.

Leggi anche:  Trustly accelera in Italia

La Commissione europea, già a partire dal settimo Programma Quadro di Ricerca e Sviluppo, e adesso in Horizon 2020, supporta lo sviluppo di tecnologie nel settore dei big data, definite dallo stesso commissario all’Agenda Digitale, Neelie Kroes, come una rivoluzione alla quale l’Unione europea vuole partecipare. Numerose iniziative sono in essere per arrivare a definire una strategia condivisa in ottica 2020 (per esempio la “Strategic Research and Innovation Agenda on Big Data Value[3]”).

Anche qui, di fronte a queste potenzialità e al crescente fermento intorno ai big data, c’è da verificare quali saranno le policy nazionali per favorirne l’uso e l’analisi (si pensi agli open data) e al contempo tutelare i cittadini rispetto alle problematiche di privacy e di affidabilità delle informazioni che potranno emergere.

[1] http://www.trendminer-project.eu/

[2] Hype Cycle for Content and Social Analytics, 2013, Gartner, 23.07.2013, http://www.gartner.com/document/2556115 ref=QuickSearch&sthkw=hype%20cycle%20for%20social%20analytics

[3] http://www.bigdatavalue.eu/index.php/news/57-public-consultation-on-the-big-data-value-strategic-research-and-innovation-agenda

Torna alla Home Page della sezione CFO