Alfabetizzazione dei dati e ambiente multi-cloud saranno i “must have” per raggiungere il successo
I dati hanno un valore inestimabile per tutte le aziende, dalle nascenti startup ai grandi gruppi internazionali. Il loro utilizzo, in continua crescita, sta portando le aziende a implementare soluzioni di Business Intelligence (BI) che consentiranno di migliorare e accelerare le decisioni basate sui dati.
Le realtà aziendali più solide danno la priorità a un moderno approccio alla BI e stanno indirizzando i propri dipendenti a diventare la generazione più esperta della storia in tema di analytics. Nel 2018, per avere un vantaggio competitivo all’interno del mercato, è cruciale per le aziende pianificare strategie, implementare tecnologie e creare ruoli aziendali in linea con questa evoluzione.
Le aziende di successo stanno sfruttando le inarrestabili forze di mercato che spostano dati, elaborazione e utilizzo degli stessi in una direzione decentrata e frammentata. Le strutture più intelligenti sono quelle che hanno saputo captare questa tendenza e hanno iniziato a studiare nuovi modelli di business su di essa. Tuttavia, cercare di adattarsi a questo cambiamento non è semplice e presenta sfide che non tutti sono ancora pronti ad affrontare. La conseguenza di tutto ciò è che il mercato ha la necessità di mettere in atto politiche che possano garantire governance, sicurezza e qualità dei dati. La soluzione non è sicuramente quella che limita l’utilizzo dei dati e che mette le informazioni solo nelle mani di pochi. Occorre invece recuperare informazioni, persone e idee rinchiuse nei silos e collegarli in modi agili, innovativi e gestiti. Da qui la necessità di abbattere i silos di dati.
Nel bel mezzo dell’era che Qlik identifica come quella dell’Alfabetizzazione dei Dati, l’azienda cerca di anticipare 11 trend che coinvolgeranno le analitiche nel prossimo futuro, per suggerire alle aziende come agire per restare al passo con l’innovazione.
- L’alfabetizzazione dei dati acquisirà priorità a livello aziendale e sociale. L’abilità di leggere, utilizzare, analizzare e discutere i dati sta diventando sempre più importante nell’economia analitica di oggi. Gartner prevede che “entro il 2020, l’80% delle aziende inizierà a considerare lo sviluppo delle competenze nel campo dell’alfabetizzazione dei dati”. Per iniziare questo cambiamento, le principali aziende di software cominceranno a offrire programmi di questo tipo nel 2018, e le organizzazioni che ne faranno buon uso riusciranno ad adottare un approccio strutturato alla crescita dell’alfabetizzazione dei dati. Secondo un sondaggio di Qlik, quasi il 50% dei dipendenti riscontra problemi nel distinguere tra dati veri e dati manipolati e meno del 20% si considera preparato in materia. Ma per il futuro, il 65% afferma di voler investire più tempo ed energie per migliorare il proprio insieme di competenze sui dati, se ci fosse la possibilità.
- Il multi-cloud ibrido emergerà per creare connessioni. Il rapido aumento dei servizi cloud supererà le aspettative anche dei leader in ambito IT. Nel 2018, tuttavia, alcuni dati dovranno essere rimossi dal cloud per motivi di regolamentazione, sicurezza, costi e prestazioni, determinando così la frammentazione dei dati e dei domini applicativi. Questo significa che le architetture analitiche in grado di gestire ambienti multi-cloud, multi-piattaforma e ibridi diventeranno sempre più indispensabili.
- I dati stanno aumentando a dismisura. C’è un crescente numero di casi di utilizzo (IoT, dispositivi mobili offline e analitiche immersive) in cui risulta più vantaggioso per le organizzazioni gestire i carichi di lavoro localmente anziché centralmente. Il nuovo anno vedrà un incredibile aumento di carichi di lavoro eseguiti direttamente su un’ampia gamma di dispositivi: entro il 2019, almeno il 40% dei dati creati con l’IoT saranno archiviati, processati, analizzati e usati in prossimità o al limite del network, mentre entro il 2022, il 75% dei dati generati dalle imprese saranno creati ed elaborati al di fuori del tradizionale centro dati o del cloud, con un incremento rispetto al 10% generato attualmente.
- Big Data, data discovery e scienza dei dati convergeranno. Fino a poco tempo fa queste tre aree erano ben separate, dato che i relativi utenti si avvalgono di strumenti e competenze differenti. Ma oggi, i promettenti progressi fatti nel campo dell’intelligenza artificiale, dell’indicizzazione dei Big Data e dell’integrazione engine-to-engine, stanno creando nuove opportunità di integrazione, consentendo agli utenti di esplorare a fondo dati di grandi dimensioni, complessi e variegati.
- I cataloghi di dati saranno la nuova frontiera del self-service. Essere alfabetizzati sui dati significa saperli analizzare, leggere, utilizzare e discuterne. Ecco perché negli ultimi anni la tendenza è stata quella prepararsi i dati in modalità self-service, in un modo visivamente più efficace. Nel 2017 abbiamo visto emergere la stessa tendenza self-service riguardo i cataloghi di dati. Questi sono ancora largamente usati dagli esperti, applicati per lo più ai “data lake”. Nel 2018, le nuove modalità di catalogazione dei dati saranno maggiormente integrate con l’esperienza acquisita di preparazione e analisi. Ciò consentirà di rivolgersi a un pubblico più ampio, in grado di combinare facilmente dati aziendali controllati, data lake e dati as-a-service esterni.
- La necessità di interoperabilità e nuovi modelli di business pone l’accento sulle API. L’incremento della distribuzione di dati, elaborazione e utilizzo degli stessi va di pari passo con l’ampliamento degli ambienti tecnologici delle imprese. Le aziende non sono più alla ricerca di soluzioni end-to-end e stack singoli ma di soluzioni componibili. Ciò significa che le piattaforme analitiche in questo nuovo ambiente devono essere aperte e interoperabili, con estensibilità, integrabilità e API moderne. Questa interoperabilità sposterà l’analisi da una destinazione all’altra per diventare più integrata nei workflow, sfocando la linea di confine tra le applicazioni di BI così come le conosciamo oggi e le app basate sui dati che alimentano l’economia analitica.
- Il lancio del blockchain guiderà le applicazioni sperimentali oltre le criptovalute. Stanno emergendo nuove tecniche di elaborazione, gestione e integrazione di dati distribuiti che renderanno la posizione dei dati un fattore sempre più marginale nelle strategie di informazione. Ciò significa che le idee possono essere ispirate dalle tecnologie blockchain e peer-to-peer. Mentre questa fase è ancora agli inizi, nel 2018 l’innovazione si sposterà oltre le criptovalute fino alle applicazioni sperimentali per l’analisi e la gestione dei dati. All’inizio, la connettività al registro della blockchain avrà dei vantaggi. Ma alla fine, il valore potrebbe risiedere nella capacità di verificare la provenienza e l’autenticità dei dati utilizzando la tecnologia blockchain.
- L’analisi diventa colloquiale. L’uso dell’analisi è stato tradizionalmente incentrato su list box e/o visualizzazioni di dashboard in stile drag-and-drop. Anche se questi utilizzi continuano a essere di valore, esistono ora più approcci disponibili per “l’analisi colloquiale” che semplificano l’analisi, i risultati di ricerca e lo storytelling dei dati, in modo da permettere agli utenti di raggiungere più facilmente un punto dati fondamentale. Questo può includere tecniche come query, elaborazione e generazione in linguaggio naturale potenziate da ricerca e voce. Questa tecnologia, supportata da assistenti virtuali e chatbot attraverso l’integrazione delle API fornisce nuovi strumenti di interazione.
- Reportistica ridefinita e altamente contestualizzata. Non tutti avranno la capacità o il tempo per esplorare i propri dati in dettaglio ogni volta, ma ci saranno utenti con diversi livelli di competenze. Ciò significa che nel 2018 si inizierà a ridefinire la reportistica fornendo sia a analisti che agli altri utenti informazioni altamente contestualizzate, invertendo le analitiche che conosciamo oggi. Invece di doversi recare in un luogo per condurre un’analisi, sarà l’analisi a raggiungere gli utenti, direttamente integrata nel loro spazio di lavoro, fornendo le informazioni giuste alle persone giuste, al momento giusto, nel posto giusto e nel contesto giusto. Questo processo, inoltre, prevede che sempre più persone saranno in grado di raggiungere la propria indipendenza nell’analisi dei dati.
- L’analisi diventa immersiva. Dal momento che i dispositivi di realtà virtuale sono un po’ troppo costosi per un’adozione mainstream, siamo ancora lontani dalla realtà aumentata. Probabilmente la svolta avverrà all’interno di casi di utilizzo aziendali, in cui l’analisi ricoprirà un ruolo importante. Le esperienze immersive possono comunque assumere altri formati, in cui l’utente viene coinvolto da un punto di vista sensoriale e sociale. Grazie a migliori interfacce utente, a display su larga scala in situation room digitali, a un migliore storytelling con dati e funzionalità collaborative, sempre più persone saranno attratte dall’utilizzo delle analitiche.
- I sistemi di intelligenza aumentata trasformano gli utenti in partecipanti e facilitatori. A partire dal 2018 in poi, la combinazione di tecnologie di Augmented Intelligence (agenti intelligenti, bot e attività automatizzate) e di tradizionali strumenti di analisi (set di dati, visualizzazioni, dashboard e report) renderà i dati più utili. Ma questo da solo non sarà sufficiente. Un sistema in cui intelligenza artificiale e essere umani convivono nello stesso ecosistema, con reciproco scambio e apprendimento tra le due parti, è detto intelligenza aumentata. In questo contensto, Governance, sicurezza e qualità dei dati sono più importanti. Per prosperare nell’economia delle analitiche è necessario l’impiego di una piattaforma veramente aperta, con un ecosistema in grado di sfruttare le ultime tendenze, tecnologie e metodologie emergenti, riunendo dati, persone e idee. Questo porterà a un maggior numero di utenti con competenze di Data Literacy, innovazioni e intelligenza aumentata basati sui dati, contribuendo a integrare con successo i dati nella vita quotidiana.