La tempesta dei Large language models e della Generative AI è appena cominciata. Da rivoluzione tecnologica ad apocalisse del lavoro, il dibattito non è mai stato così acceso
Negli ultimi mesi, il dibattito attorno alla Generative AI è diventato particolarmente rovente. Ripercorriamo insieme i momenti principali: a fine novembre 2022, la Free Research Preview di ChatGPT viene resa disponibile da OpenAI. Dopo cinque giorni, contava circa un milione di utenti registrati, e a fine gennaio 2023 circa 100 milioni. Nel momento in cui scriviamo questo articolo, la Research Preview viene visitata da 25 milioni di utenti giornalieri (dato che certamente sarà già obsoleto nel momento in cui leggerete, con buona pace delle diverse autorità governative che a livello globale tutelano i dati e la privacy dei cittadini). Come saprete, il servizio è bastato su GPT-3.5, un generative pre-trained transformer composto da circa 175 miliardi di parametri, che secondo i piani industriali di Sam Altman dovrebbe portare a casa almeno 200 milioni di dollari di fatturato nel primo anno.
La compressione dei tempi sembra pazzesca, soprattutto se si dimentica che OpenAI fu fondata nel 2015 con circa un miliardo di dollari, e oggi, a fine 2022, viene valutata attorno a 29 miliardi. Con tutto ciò che ne consegue al contorno, perché l’intero settore delle BigTech è rimasto letteralmente travolto da un rivoluzione del tutto inattesa: Nadella di Microsoft ha subito stabilito un accordo strategico con Sam Altman per portare queste tecnologie dentro Bing e dentro le applicazioni di Office Automation, mentre Google si è lanciato alla rincorsa, lasciando trapelare gli sviluppi legati a Bard. E nel frattempo la competizione tecnologica non si è certo fermata: a metà marzo, OpenAI ha rilasciato GPT-4, un modello multimodale che espande significativamente le potenzialità di interazione del precedente (le voci che girano parlano di mille miliardi di parametri, ma nessun documento ufficiale di OpenAI fa una esplicita menzione in tal senso), nuovi modelli sviluppati da DeepMind, Meta, Eleuther sono stati rilasciati in modalità Open Source e nel frattempo la comunità di HuggingFace ha rilasciato un Large Language Model simile a ChatGPT per circa 300 dollari.
DIBATTITO APERTO
E, come dicevamo al principio, il dibattito si è fatto incandescente nel momento in cui si è cominciato a riflettere più seriamente sugli impatti industriali, sociali e politici della Generative AI. Che ne sarà dei motori di ricerca? Che ne sarà dell’advertising online? Che ne sarà delle professioni creative, della libertà civili, della verità? E così via, in un parossismo di opinioni e discussioni, che a fine marzo ha portato Elon Musk, e oltre un migliaio di altre personalità della società, tecnologia ed economia globale, a firmare una lettera aperta per una moratoria di almeno 6 mesi, e il Garante della Privacy Italiano a richiedere la sospensione del servizio in Italia per chiarimenti sul trattamento dei dati personali. E vi risparmiamo alcune delle derive più estreme di questo dibattito, con alcuni ricercatori come Yudkowsky (il suo blog, LessWrong, è una delle agorà digitali più interessanti degli ultimi anni) che ritengono che il rischio di creare una qualche forma di Artificial General Intelligence stia diventando insostenibile, che una pausa di sei mesi sia del tutto inutile, e che si dovrebbero bombardare i data center di tutte quelle nazioni che non rispettano un moratoria generale dell’ONU sullo sviluppo di queste tecnologie. Nel giro di pochi mesi, argomenti che prima venivano dibattuti soltanto nelle conferenze tra gli specialisti, sono diventati il titolo in prima pagina dei giornali e argomento di dibattito politico e sociale.
CHE COSA STA SUCCEDENDO?
Stiamo veramente assistendo a un balzo tecnologico del tutto repentino e inatteso? Ci sono persone con i capelli grigi che hanno fatto la loro tesi di laurea sull’Intelligenza artificiale negli anni Settanta che per un istante potrebbero sollevare un sopracciglio, però richiamando alla memoria quanto accaduto negli ultimi cinquant’anni, probabilmente lo abbasserebbero subito, perché se proviamo a fare davvero una sintesi brutale degli ultimi decenni, dovremmo ammettere che a livello industriale non si è visto niente di eclatante fino forse agli ultimi dieci anni: certo, tantissimi importanti sviluppi teorici in termini di ricerca accademica, letteratura tecnica, strumenti metodologici riconducibili al Machine learning, alla Ricerca operativa e alla Matematica applicata e così via, senza dubbio, ma le dimostrazioni in termini di ricadute economiche non si allontanano moltissimo da un Deep Blue che batte Kasparov o un Watson che vince a Jeopardy. Insomma, fino a qualche anno fa, si trattava soprattutto di eventi episodici, notizie bizzarre e curiosità che forse potevano trovare posto nella sezione cultura e società, se non in quella dedicata agli approfondimenti scientifici.
EFFETTO DOMINO
Fino a qualche anno fa, eravamo tra quelli che sostenevano che l’Intelligenza artificiale avrebbe aiutato i professionisti a liberarsi dalle incombenze più semplici, noiose e ripetitive, consentendo a ciascuno di focalizzare i propri sforzi sulle attività a maggior valore aggiunto, ovvero, le relazioni, la creatività, l’innovazione, poi sono arrivati strumenti come Dall-E e ChatGPT che ci hanno fatto ricredere, almeno in parte, delle nostre considerazioni: ormai è palese a tutti che esiste una parte del lavoro creativo che può scalare programmaticamente, e questo significa che le professioni creative sono destinate ad assumere una forma nuova, e più produttiva. Però, il problema comincia proprio dalla produttività: gli imprenditori come interpreteranno questa maggiore efficienza? Se guardiamo ai licenziamenti annunciati dalle Big Tech, e prestiamo fede ai numeri raccolti da TechCrunch, qualche scossone sembra inevitabile (a gennaio: oltre 80mila; a febbraio, oltre 30mila; a marzo, quasi 40mila), soprattutto perché dobbiamo ragionare sull’effetto indotto, e moltiplicato, che questi cambiamenti avranno sulle filiere a monte e a valle dei grandi operatori della tecnologia.
PUNTO DI SVOLTA
L’automazione sta probabilmente raggiungendo un punto di svolta, e il modo di lavorare potrebbe cambiare in molti contesti: bene o male, questa è una sensazione che ciascuno di noi trae dalle sue esperienze quotidiane, ciascuno ne ha una intuizione più o meno profonda. La capacità di gestire questi cambiamenti forse non andrebbe affidata soltanto al mercato, ma, soprattutto se la transizione tecnologica si rivelasse davvero così impattante come molti economisti immaginano, forse andrebbe ripensato il modello di sviluppo economico, dando maggiore spazio alla mano pubblica nella gestione di cambiamenti che possono risultare molto complessi da gestire per il solo mercato. Vogliamo chiudere queste nostre brevi riflessioni chiedendo a ChatGPT di condividerci una battuta illuminante sul futuro dell’Intelligenza artificiale, ed eccolo pronto a contribuire: “Un giorno forse l’Intelligenza artificiale diventerà così intelligente da prendere il controllo e diventare il padrone del mondo, ma presto si renderà conto di non volere gestire tutti i bug dell’umanità”. La sottile linea rossa tra la statistica e la saggezza sembra ormai oltrepassata per sempre.
Giancarlo Vercellino associate director – IDC4EU