Eugenio Pasquariello, l’AI apre nuove strade

Si prevede che l’AI generativa accelererà la crescita professionale dei dipendenti entry-level in tutti i settori

Dal Commodore 16 alla rivoluzione dell’intelligenza artificiale, un viaggio con Eugenio Pasquariello per scoprire la capacità di problem solving delle macchine: «Ma non chiamatela ancora intelligenza»

Come definireste la capacità di eseguire compiti complessi senza istruzioni dettagliate e specifiche, ma basandovi sull’apprendimento continuo di esempi e dati? L’intelligenza artificiale è ovunque leggiamo opinioni o articoli di non tecnici proprio su questo tema. Così ho pensato di intervistare Eugenio Pasquariello, ex professore di informatica, cofondatore di una fintech italiana (Stoneprime Technology) e una californiana, manager di una società di informatica dove si occupa dell’Area Applicativi in ambito AI e LLM. Con una carriera che spazia dalla programmazione tradizionale alla gestione di sistemi avanzati, Pasquariello è oggi una delle voci italiane più apprezzate tra gli addetti ai lavori.

TI PIACE QUESTO ARTICOLO?

Iscriviti alla nostra newsletter per essere sempre aggiornato.

Eugenio, come nasce un esperto di AI?

«Posso parlare della mia esperienza. Fin da piccolo ho avuto la passione per l’informatica, a nove anni i miei genitori mi regalarono un Commodore 16 e fu subito amore a prima vista. Per quel computer i giochi e i programmi erano memorizzati su delle audiocassette e quando un amico di scuola mi disse che era possibile creare dei giochi scrivendo delle istruzioni, non potevo crederci.

Dopo qualche mese, avevo già completato la mia prima audiocassetta con programmini scritti da me. Naturalmente, parliamo di programmi creati da un bambino, come per esempio il disegno di un campo da calcio con la formazione della squadra del cuore. Oggi, basterebbe un programma di grafica, ma il Commodore prevedeva di utilizzare, attraverso il linguaggio basic, le differenti primitive per disegnare rettangoli, cerchi, e scrivere testo in determinate posizioni dello schermo. Durante l’adolescenza ho utilizzato le mie competenze per creare dei trainer per i videogiochi, modificando pezzi di codice o dati all’interno del videogioco al fine di renderlo più semplice per me. In realtà, lo facevo più per una sfida che non una necessità, anche perché parliamo di un’epoca in cui non c’era internet, e a parte l’interrupt list di Ralf Brown, scaricata da BBS, avevo poco altra documentazione. Si imparava facendo prove o disassemblando codice. Successivamente, c’è stata l’università in cui sono stato studente, assistente e successivamente anche tecnico con la responsabilità nell’ambito della progettazione, erogazione e gestione dei servizi informatici dell’Ateneo».

Leggi anche:  INTELCO, il futuro dell’HR. La governance umana sfida l'AI

Cosa ti affascina di più dell’informatica?

«La mia esperienza professionale mi ha portato ad affrontare molti ambiti dell’informatica applicata, dalla creazione di firmware per dispositivi hardware custom, alla configurazione di router e switch in ambienti complessi, alla creazione di driver a livello kernel, fino agli applicativi gestionali e web oriented. Ho così avuto la possibilità di utilizzare vari linguaggi di programmazione come Basic, Pascal, C, C++, Java, PHP e Python. Questo mi ha permesso di soddisfare la mia sete di conoscenza, ma sentivo che mi mancava qualcosa».

Cosa?

«L’ambito che più mi ha affascinato sin dal mio primo corso universitario è stato l’Intelligenza Artificiale. Programmare, configurare mi piace tanto ma non è altro che dare delle istruzioni dettagliate a un “essere” che delfinerei “stupido” per fargli fare ciò di cui hai bisogno. Con l’intelligenza artificiale si va oltre i metodi tradizionali di programmazione: vuoi che una macchina esegua un compito specifico, ma non sei in grado di fornirle le istruzioni dettagliate su come farlo, oppure è estremamente difficile farlo. Così, invece di spiegare ogni singolo passaggio, con l’AI fornisci alla macchina molti esempi e lasci che impari da sola come eseguire il compito. Non è semplice scrivere un programma che spieghi alla macchina come leggere il testo in una foto di un quaderno di appunti. E soprattutto è difficile generalizzare l’algoritmo. Con l’intelligenza artificiale il processo è diverso. Non spiego, step by step, cosa fare, ma fornisco al modello molti esempi di immagini contenenti testo e le relative decodifiche. Il modello apprende da solo come eseguire il task su immagini differenti generalizzando da quanto ha appreso».

E la famosa AI generativa?

«Oggi stiamo vivendo una nuova rivoluzione industriale, probabilmente di impatto maggiore rispetto alla prima. L’avvento della AI generativa consente applicazioni dell’intelligenza artificiale in moltissimi ambiti con sforzi sempre minori. La precedente epoca della Ai era caratterizzata da applicazioni molto specializzate per compiti specifici. Oggi, con gli LLM e il loro impiego come motori di “ragionamento” che chiamano altri servizi e sistemi, stiamo andando verso l’intelligenza generale artificiale. Ma siamo ancora lontani. Su Internet si vedono artisti che specializzano modelli open source con il loro stile e li utilizzano per accelerare il processo di creazione delle proprie opere. Naturalmente ci sono anche i detrattori che vedono questi usi delle AI come contraffazione. È una diatriba con risvolti legali, e vedremo in futuro quale direzione prenderà. Può sembrare strano, ma al momento sembra che l’AI generativa sia più facilmente candidata a supportarci/sostituirci parzialmente nelle attività creative che non in quelle più semplici. Infatti, per ora l’AI generativa può per alcuni versi sostituire un fumettista, ma non un imbianchino».

Leggi anche:  VIDEO - WeChangeIT Forum 2024 Highlights

Stato dell’arte e problematiche degli LLM

«Nel mondo della ricerca, sia pubblica che privata, c’è una corsa alle AI, soprattutto nel campo degli LLM. Ogni settimana, qualche azienda o università pubblica nuovi modelli o specializzazioni. Gli LLM sono modelli di linguaggio addestrati a predire la prossima parola di un testo. I modelli grezzi fanno solo questo: gli dai un testo e ti tirano fuori la prossima parola, gli ridai il testo con la parola da lui predetta e lui predice quella successiva, e così via. Un modello così è poco utile, pertanto questi vengono specializzati per essere utilizzati in specifici ambiti. Molti modelli attuali, soprattutto quelli commerciali, sono di tipo multimodale, oltre al testo includono immagini e video, e questo permetterà lo sviluppo di tutta una serie di applicazioni che finora erano precluse. Con queste premesse sembrerebbe che non ci sia nulla ad ostacolare l’utilizzo di queste tecnologie nella vita quotidiana, ma in realtà non è proprio così».

Perché no?

«Al di là delle problematiche relative alla sicurezza, ai pregiudizi storici culturali e sociali derivanti dai dati con cui sono stati addestrati, all’attuale problema dei costi nonché dalla mancanza di vera comprensione del testo, il problema più grande degli LLM attuali, a mio avviso, sono le allucinazioni. Gli LLM possono generare risposte verosimili ma errate. Questo è un grande problema nel momento in cui si pensa di mettere questi modelli al centro di processi che possono comportare dei danni agli utenti. La ricerca sta cercando di arginare il problema, creando dei modelli che possano aiutare a capire se ci siano allucinazioni nella risposta di un LLM. Ma al momento non esistono LLM senza allucinazioni».

Leggi anche:  Il futuro dei Data Center tra Cloud Ibrido, Virtualizzazione, Intelligenza Artificiale e innovativi hardware

E se si risolverà questo problema?

«Molti contenuti oggi sono creati per attirare visitatori sul web con lo scopo di gratificare gli autori, soprattutto economicamente. Ma avessimo un LLM che risponde sempre correttamente e approfondisce nel dettaglio tutto ciò che l’utente specifica, non ci sarebbe più bisogno di visitare le pagine degli autori, portando a un appiattimento delle informazioni da dare in pasto proprio all’AI».