L’obiettivo del “Customer Digital Twin” è andare oltre il concetto tradizionale di cluster per dare il via alla nuova era dell’affinità
Quando si parla di innovazione, il concetto di digital twin è tra i più seguiti e, forse, lungimiranti in tutto lo scenario tecnologico. Nato intorno agli anni ’60, grazie alla prototipazione legata al mondo spaziale per studiare il comportamento di dispositivi e modelli prima che venissero davvero spediti in orbita, oggi il digital twin è un elemento che pervade mercati differenti. Nel più ampio segmento del retail, il gemello digitale può rappresentare un modo elettivo per conoscere meglio i consumatori, andando oltre l’analisi classica di clusterizzazione. Lo sa bene Marco Appetito, Direttore del Centro di Competenza Digital Innovation & Architetture Applicative di Aubay, che proprio sul digital twin ha costruito non una nuova offerta ma una modalità unica e peculiare per unire tecnologia e business e raggiungere inferenze di trend che permettano di costruire strategie di marketing sia su prodotti e servizi esistenti che futuri.
La base di partenza è il termine “affinità”, la cui visione tradizionale, nell’ottica del retail, assume un nuovo significato e viene definito da Aubay “Customer Digital Twin” per l’attinenza con i temi industriali. «Nella nostra proposta» spiega Appetito «siamo partiti dal tradurre concetti, flussi e processi che di norma fanno parte di contesti differenti, per inserirli in segmenti di riferimento per i clienti».
Nel suo lavoro di modellazione del mondo circostante dentro una piattaforma di digital twin, Aubay ha voluto infatti “arricchire” le informazioni che una soluzione simile, almeno nella proposta, deve contenere, valicando la formazione classica dei cluster, grazie all’applicazione di reti neurali e di componenti “umane”, come ad esempio le analisi psicologiche sui gruppi. «L’IA utilizza i dati relativi ai clienti per classificarli in un certo numero di gruppi dalle caratteristiche simili, per poi prevedere il comportamento dei clienti o dei prospect attraverso modelli di machine learning».
L’approccio progettuale parte dal proof of concept, proseguendo per la definizione degli obiettivi e del dominio. Lo step successivo è la definizione del modello dei dati e la costruzione del prototipo di algoritmo e backtracking, che verifica e ottimizza l’algoritmo stesso. I risultati, le performance attese e l’esecuzione diventano processi continuamente da migliorare e non traguardi che, una volta raggiunti, si pongono come termine del flusso applicativo. Questo continuo lavoro di improvement è ciò che consente ai modelli di caratterizzare un quadro esistente ma anche di svolgere operazioni previsionali future, utilizzando le stesse informazioni declinate al domani.
Ancora il manager di Aubay: «Se un certo cluster di clienti presenta interesse per una tipologia di prodotti, possiamo utilizzare la rete neurale generata dal Customer Digital Twin sia per proporne di simili, derivanti anche dalle analisi psicologiche, che per prevedere quali saranno le esigenze specifiche di quel segmento nel tempo». Un esempio su tutti è quello di un’assicurazione che vuole proporre una RC auto ai lead raccolti dal proprio sito web, aumentando così il tasso di conversione. Se l’obiettivo è individuare i lead che hanno maggiore probabilità di acquistare, in modo che siano contattati con priorità dal call center, ad aiutare la “missione” è il modello di machine learning che usa i dati arricchiti per allenarsi e incrementare le vendite. Ma non solo: se la necessità dell’assicurazione è quella di ampliare il suo portafoglio assicurativo, può sfruttare il Customer Digital Twin per capire quali dei suoi già clienti possono essere interessati ad un piano vita, senza dover eseguire le analisi da zero.
Il vantaggio, per Aubay, è quello di aver costruito una piattaforma che non teme la grande mole di informazioni, per evolvere da soluzione al pari di altre a offerta che disegna, minuziosamente, il pubblico di maggior rilievo per il cliente. Aubay applica diverse tecnologie di analisi e debiasing dei dataset, come l’oversampling o le reti generative avversarie, ma l’approccio più efficace per identificare e mitigare i bias è quello di rendere trasparenti i modelli, ossia utilizzare meccanismi che possano spiegare i risultati da essi ottenuti.
«Analizzare nuovi dati, anche in tempo reale, riaddestrare i modelli ML con tali dataset e metterli in produzione richiede l’utilizzo di tecnologie hardware adeguate, come quelle messe a disposizione dai cloud vendor specializzati su temi di “A.I.”. Ma richiede anche la presenza di competenze sulle architetture applicative, di infrastruttura e dati». Know-how che Aubay detiene sia in termini tecnici che accademici, grazie a partnership con Università e Centri di Ricerca. Questo permette al gruppo di validare e certificare gli algoritmi realizzati per garantirne il risultato. Continua Appetito: «Le reti neurali sono, per loro natura, oggetti che perseguono il risultato auspicato replicando il modello neurale del cervello umano: si tratta dunque di uno strumento molto potente, ma se non utilizzato in maniera adeguata comporta il rischio di prendere strade sbagliate, che non portano a reali benefici».