L’intelligenza artificiale sta trasformando il lavoro intellettuale, ridefinendo la grammatica della creatività nelle imprese e nella vita quotidiana. Riflessioni e prospettive secondo IDC
La capacità di generare programmaticamente contenuti è uno dei risultati più sorprendenti che il machine learning ha realizzato in questi ultimi anni. Già nel 2019, attraverso la sua indagine annuale sullo stato del machine learning e della data science a livello globale, Kaggle osservava che i Transformer stavano cominciando a fare capolino nel mondo delle applicazioni di impresa, seppure all’epoca ci fosse ancora molta strada da fare. Dopo solo tre anni, nonostante le difficoltà e gli ostacoli di una pandemia, moltissime cose sono cambiate e con una velocità assolutamente sconvolgente: dopo il passaggio cruciale con cui OpenAI ha messo le sue API a disposizione delle imprese come servizio a pagamento, è iniziata una competizione tra i “Titani dell’Innovazione” per mandare in soffitta il Test di Turing (ambizione insuperabile secondo molti esperti: gli algoritmi sono diventati abbastanza bravi a imitare, ma non sono senz’altro in grado di pensare). Però, prima di andare avanti, occorre fare un passo indietro, e riassumere le puntate precedenti.
DIALOGHI CON L’INTELLIGENZA ARTIFICIALE
I primi “modelli linguistici” di una certa dimensione, dove per dimensione si intende il numero di parametri che vengono calcolati durante il processo di addestramento, hanno già qualche anno: da ELMo (2018, 94 milioni di parametri) a GPT-2 (2019, 1.5 miliardi), da GPT-3 (2020, 175 miliardi di parametri) a CPM-2 (2021, 198 miliardi). L’ascesa all’apparenza inarrestabile delle moderne architetture NLP sta dimostrando che l’iper-parametrizzazione può consentire di disegnare modelli che riescono a imitare abbastanza bene il linguaggio umano (e quindi riescono a essere ancora più performanti quando vengono applicati ai linguaggi formali e alla programmazione con linguaggio naturale, ovvero, per intenderci, applicazioni come Copilot: “Scrivimi un programma capace di stabilire se una sequenza di testo esprime un sentimento positivo usando un web service”). In particolare, nel 2020 GPT-3 ha attratto l’attenzione della stampa internazionale: addestrato su oltre 40 TB di testo (499 miliardi di parole), una architettura con oltre 175 miliardi di parametri e un investimento stimato tra i 4 e i 12 milioni di dollari, il gioiellino realizzato dalla OpenAI rappresenta il primo vigoroso passo per la democratizzazione delle tecnologie NLP tra le imprese, che attraverso la API potranno finalizzare l’addestramento dell’architettura per applicazioni specialistiche a costi tutto sommato contenuti.
“ATTENTION IS ALL YOU NEED!”
Questo è diventato il mantra di tutti quei tecnici e specialisti che hanno cominciato a sperimentare i Transformer nelle più disparate applicazioni aziendali: dai chatbot agli advisor testuali fino alle applicazioni no-code, architetture come GPT-3 e i suoi cugini (sia quelli più piccoli che l’hanno preceduto, che quelli più grandi che sono arrivati dopo) rappresentano un catalizzatore essenziale per accelerare lo sviluppo di soluzioni “intelligenti” per la generazione automatica di contenuti creativi di qualsiasi tipo (dal testo alle immagini, dai video alla programmazione no-code, e oltre). Ovviamente, i Transformer rappresentano soltanto la punta dell’iceberg di una serie di innovazioni sempre più significative nell’alveo delle ricerche sulle Generative Adversarial Networks (che dal primo paper scritto nel 2014 sono diventate un vero e proprio fiume in piena: oggi, su Arxiv sono presenti oltre 2000 pre-prints soltanto su questo tema). Tanti tasselli e invenzioni degli ultimi dieci anni si stanno componendo, dando vita ad applicazioni impensabili fino a qualche anno fa, come GitHub Copilot (dove Copilot è stato creato usando OpenAI Codex), come le applicazioni nella Chimica Computazionale (e la produzione programmatica di nuove molecole) e così via, in ambiti dove fino a qualche anno fa si pensava che la creatività avrebbe sempre e soltanto indossato un camice bianco, mentre adesso potremmo dire che accanto ai colletti blu e ai colletti bianchi, si sta forse facendo spazio a inediti colletti “grigi”.
MACCHINE INTELLIGENTI E PENSIERO CREATIVO
Di fronte a tanto fermento (e tanti risultati così importanti) molti si pongono una domanda: queste applicazioni riescono davvero a esprimere in qualche forma, anche rudimentale, una specie di pensiero creativo? La risposta più semplice e diretta è: no, in nessuna forma. Questo diventa molto evidente quando si confrontano le capacità di apprendimento di qualsiasi mammifero (primati e non) con quelli di qualsiasi algoritmo: gli algoritmi, perfino quelli più sofisticati, sono anni luce di distanza come capacità di apprendimento elementare basata su un numero limitato di esempi. Il limite insuperabile del machine learning (almeno allo stato attuale dell’arte) è l’impossibilità di replicare quel “senso comune” che discende da un semplice fatto empirico: qualsiasi creatura intelligente è ospitata in un corpo che è gettato nel mondo, e l’intelligenza viene educata dagli stimoli provenienti dall’ambiente naturale. Dunque, difficile, forse perfino velleitario, in questo senso, concepire delle macchine intelligenti come immaginato dalla fantascienza dell’ultimo mezzo secolo? Forse sì, ma la verità è più sfumata di quanto si possa credere. In realtà, il problema vero non sta nelle applicazioni del machine learning in sé e per sé, bensì nel modo in cui si è concepita e immaginata l’intelligenza artificiale fino a oggi: è piuttosto un limite nella comprensione di cosa sia davvero l’intelligenza umana e soprattutto delle possibilità effettive degli algoritmi (che molto spesso sono le prime vere vittime del loro stesso successo, perché vengono volgarizzate da tante e troppe metafore e rappresentazioni che le trascinano a forza fuori dal loro contesto normale di applicazione, che solitamente è molto ben delimitato e specialistico).
CAMBIAMENTO DI PROSPETTIVA
La questione è un po’ tecnica, ma è possibile provare a proporre qualche piccola semplificazione: in sostanza, la qualità di un buon modello previsionale dipende dalla capacità di generalizzare oltre i dati su cui è stato addestrato, senza imitare il rumore che si nasconde in qualsiasi fenomeno reale. Si tratta del canonico trade-off tra underfitting e overfitting, niente di nuovo, ma da anni esiste un dibattito accademico sulla cosiddetta “robustezza” di un modello, che atterra normalmente sul seguente assioma: i modelli “parsimoniosi”, cioè quelli con meno parametri, si dovrebbero comportare meglio dei modelli con moltissimi parametri (e in generale la regola di Akaike va sempre celebrata con il massimo ossequio). Peccato che tutte le applicazioni che stanno avendo maggiore successo sul mercato, come si è visto, si muovono in una direzione completamente diversa e il numero dei parametri stia crescendo in misura esponenziale. Il punto formulato da alcuni ricercatori forse aiuta a dirimere la questione: l’obiettivo di molte applicazioni non è più la generalizzazione, ma la memorizzazione, ovvero, l’imitazione di modelli di risposta, comportamento, stile. Di primo acchito, questo cambiamento può apparire soltanto come un semplice mutamento di prospettiva accademica e niente più, ma in realtà sta avendo conseguenze molto più radicali di quello che si potrebbe immaginare, perché modifica in modo sostanziale quello che l’intelligenza artificiale sta diventando quando entra concretamente a contatto con gli utenti nelle case, nelle fabbriche, nelle imprese: una strumento per la gestione dei processi creativi, un assistente capace di riprodurre programmaticamente qualsiasi processo con la stessa creatività dell’essere umano, ma una efficienza incomparabile. Affinché questo nuovo sodalizio tra l’essere umano e la macchina possa funzionare, l’ultima parola rimarrà sempre a chi con quella creatività “aumentata” dovrà produrre nuovi prodotti, nuovi servizi, nuovo valore. HAL 9000 era sincero e non aveva nessun intento sinistro o malevolo quando affermava: “A me piace lavorare con la gente”.
Giancarlo Vercellino associate director research & consulting di IDC Italia