La Generative AI sta vivendo un momento di grande hype, ma gli algoritmi e i concetti che sottostanno ad essa hanno radici antiche (possiamo farli risalire almeno al 1730, con Thomas Bayes). Quello che cambia, oggi, è la disponibilità di risorse: una vasta gamma di fonti di dati e una capacità di elaborazione senza precedenti.
Il Large Language Model, una tecnologia di nuova generazione, si distingue per la sua abilità di fornire risposte sfruttando sia la conoscenza empirica (la rete neurale), sia “tirando a indovinare”. «Questa caratteristica contraddistingue sia i pregi che i difetti dell’LLM» – spiega Fabio Paracchini, corporate vice president innovation di Altea Federation. «Da un lato, attraverso la sua conoscenza empirica fornisce risposte, ma incorre in errori (o allucinazioni) mentre apprende, basandosi sulla fiducia nella persona con cui interagisce».
«Volendo provare a spiegarne semplicemente il funzionamento – prosegue Paracchini – tutto inizia con la preparazione dei dati, che vengono trasformati in vettori attraverso l’elaborazione del linguaggio. Successivamente una rete neurale associa una probabilità alla vicinanza di parole o concetti trasformati in vettori. Questa fase richiede enormi risorse computazionali (l’addestramento di GPT-4, ad esempio, è costato 100 milioni di dollari secondo OpenAI), ma il risultato è una rete in grado di prendere un testo in input e generare una risposta basata sulle probabilità apprese».
L’evoluzione della Generative AI sta procedendo a ritmi travolgenti. I principali player del mercato, soprattutto quelli americani, stanno rilasciando modelli sempre più sofisticati, cercando di superare OpenAI, che finora sembra essere il più largamente adottato. Tuttavia, anche aziende come Meta (con la famiglia dei LLaMA, disponibili come open source) e Google stanno giocando un ruolo significativo, e si è affacciato sulla scena anche un player europeo, Mistral. Insomma, la scelta comincia a diventare ampia.
Come utilizzare dunque, al meglio, le caratteristiche della Generative AI? Per compiti che richiedono la capacità di sintesi di contenuti prevalentemente testuali. «Un modo per concepire gli LLM che trovo estremamente affascinante (e ringrazio Stefano Quintarelli per la definizione), è quello di intenderli come degli “stagisti digitali”, che hanno studiato, possiedono una conoscenza teorica, ma le cui risposte pratiche possono risultare imprecise. Sono in grado di svolgere un’ampia gamma di compiti, ma è essenziale controllare e perfezionare sempre il risultato. Dobbiamo collaborare con loro per migliorare la comprensione reciproca» – sottolinea Fabio Paracchini.
La Generative AI può essere un valido supporto anche alla produttività personale. Un esempio su tutti, CoPilot di Microsoft, che ormai quasi ogni software vendor sta annunciando come integrazione delle proprie suite ERP, CRM o di collaborazione. Questa opportunità, estremamente immediata e destinata a diffondersi, avrà un impatto trasversale su tutti i knowledge workers. Ci sono poi applicazioni emergenti che, secondo diversi studi, stanno guadagnando terreno: analisi dei dati e supporto ai clienti. Esse richiedono uno sforzo maggiore di implementazione, ma potenzialmente offrono un ritorno sul business più elevato, poiché possono cambiare il modo in cui le aziende portano i propri prodotti sul mercato.
«Le applicazioni offrono enormi possibilità ancora inesplorate. Tuttavia, come prima cosa, è cruciale avviare un percorso di coinvolgimento delle persone in azienda, e iniziare a sperimentare con soluzioni pratiche e verticali. Tale approccio mira ad ottenere risultati veloci, per non farsi travolgere da progetti troppo ambiziosi, con un ritorno sugli investimenti difficile da verificare, o che potrebbero diventare rapidamente obsoleti a causa dei continui aggiornamenti dei vendor» – conclude Paracchini.