L’intelligenza artificiale a scuola di leadership. La transizione dai sistemi IT deterministici a quelli probabilistici richiede non solo un cambiamento tecnologico, ma anche una trasformazione culturale per abbracciare l’incertezza e la flessibilità dell’AI
L’intelligenza artificiale ha catturato l’attenzione del pubblico globale. Termini come Generative AI (GenAI) e Large Language Models (LLM) sono diventati comuni nei contesti aziendali, con la promessa di migliorare la produttività, ottimizzare le operazioni, stimolare la creatività e ridurre i costi. Tuttavia, come consulente ed educatore nel campo dell’AI, ho notato un significativo divario di comprensione di questi strumenti tra leader tecnici e non tecnici. I leader che sperimentano strumenti come ChatGPT di OpenAI, Claude di Anthropic o Gemini di Google inseriscono domande in stile ricerca, ricevono risposte inaspettate e considerano la tecnologia difettosa o irrilevante. Questa visione sottovaluta il potenziale trasformativo dell’AI.
La transizione verso sistemi IT probabilistici
Per decenni, le aziende si sono affidate a sistemi IT deterministici, in cui lo stesso input produce sempre lo stesso output. L’AI, in particolare i modelli GenAI, opera in modo probabilistico, generando una gamma di potenziali output per un determinato input. Sebbene i sistemi probabilistici siano familiari in aree come la modellazione finanziaria, la valutazione dei rischi e le previsioni meteorologiche, possono sembrare estranei a settori abituati alla prevedibilità. Adottare l’AI richiede più di un’integrazione tecnica. È necessario unire l’AI probabilistica con i sistemi deterministici e promuovere un cambiamento culturale per abbracciare questa tecnologia dinamica. Per sbloccare il potenziale dell’AI, i manager devono comprendere questo nuovo paradigma.
Il cuore del machine learning
Le origini dell’AI risalgono agli anni 40, quando i ricercatori cercavano di comprendere le funzioni cerebrali attraverso modelli matematici. Questa esplorazione ha dato vita al machine learning (ML), una branca dell’AI focalizzata sull’identificazione di schemi nei dati e sulle previsioni. Come osservava Norbert Wiener, pioniere della matematica e dell’informatica: “Uno degli aspetti più interessanti del mondo è che può essere considerato fatto di schemi”. Gli schemi sono alla base dei processi aziendali, dei fenomeni naturali, dello sport, della musica e altro ancora.
Il ML sfrutta il riconoscimento degli schemi per analizzare dati, prevedere risultati e generare nuovi dati, permettendo progressi in settori come il rilevamento delle frodi, le raccomandazioni personalizzate e l’analisi predittiva. Comprendere gli schemi è essenziale per implementare efficacemente il ML. Se un problema aziendale non presenta schemi, probabilmente l’AI non è la soluzione.
AI Predittiva vs. AI Generativa
La maggior parte delle aziende conosce gli strumenti di business intelligence, che analizzano gli schemi nei dati per identificare tendenze. L’AI Predittiva estende questa capacità prevedendo eventi futuri e ottimizzando le operazioni. Per esempio, grandi piattaforme di e-commerce come Amazon, Alibaba e Spotify si affidano alla PredAI per guidare le vendite e la personalizzazione, rendendola una pietra angolare dei ricavi globali guidati dall’AI.
L’AI Generativa (GenAI), invece, crea contenuti completamente nuovi basandosi sugli schemi nei dati. Può generare testo, immagini, suoni e video con un realismo straordinario. Questa svolta, resa possibile dal modello Transformer introdotto da Google nel 2017, ha aperto nuove opportunità per l’innovazione creativa e strategica. La GenAI semplifica la creazione di contenuti, automatizza l’assistenza clienti, migliora il design dei prodotti e facilita le simulazioni di formazione.
La base della GenAI
I Large Language Models (LLM) sono i motori della GenAI. Addestrati su enormi quantità di dati presenti su Internet, questi modelli generano testo basandosi su previsioni probabilistiche. Tuttavia, non sono motori di ricerca. A differenza degli strumenti di ricerca che recuperano dati fattuali, i LLM producono contenuti basati sugli schemi appresi durante l’addestramento. Sebbene possano generare contenuti creativi e contestualmente pertinenti, talvolta possono mancare di precisione o affidabilità.
I LLM come meta-strumenti
Un buon modo per decidere come utilizzare i LLM in un’azienda è considerarli come meta-strumenti. La GenAI può interpretare output di dati grezzi da una piattaforma analitica tradizionale e tradurli in insights pronti. In un’organizzazione ben gestita, l’esperienza del tuo team è il motore principale dell’attività. Il modello può assimilare informazioni da più fonti aziendali e sintetizzarle, fornendo chiarezza su questioni complesse, migliorando significativamente la produttività.
Prompt e contesto
L’efficacia di un LLM dipende dalla qualità del prompt e dal contesto fornito. Prompt chiari e dettagliati producono risultati migliori. Aggiungere la descrizione del contesto migliora l’accuratezza delle risposte. Gli strumenti chatbot basati sul web, come ChatGPT, Claude o Gemini, mantengono il contesto della conversazione, consentendo interazioni più coerenti. Se il tuo team di sviluppo deve creare un chatbot simile utilizzando API commerciali per LLM, sarà necessario riprodurre questa capacità di mantenere il contesto in corso. Per utilizzi a livello aziendale, tecniche come il Retrieval Augmented Generation (RAG) o il fine-tuning possono migliorare gli output del modello. Il RAG arricchisce i prompt con contesto in tempo reale dai dati esterni, mentre il fine-tuning personalizza i modelli per domini specifici. A differenza del RAG, il fine-tuning riduce la necessità di scambiare grandi volumi di dati contestuali con il modello linguistico, abbattendo significativamente i costi di rete.
Bilanciare creatività e precisione
Sebbene gli LLM eccellano in compiti creativi, non sono ideali per problemi che richiedono precisione deterministica. Per applicazioni critiche, come il recupero di dati fattuali, le query tradizionali ai database possono essere più efficienti. Combinare gli LLM con i sistemi IT tradizionali garantisce un equilibrio e consente di sfruttare la creatività senza compromettere l’affidabilità.
Rischi di implementazione e governance
L’implementazione dell’AI richiede un’attenta considerazione di sicurezza, privacy e governance. La GenAI spesso elabora dati sensibili, rendendo necessarie misure di crittografia, conformità a regolamenti come il GDPR e solidi framework di governance per prevenire bias o risultati inappropriati. La governance garantisce un uso responsabile dell’AI, con supervisione umana per compiti critici che richiedono empatia e giudizio etico.
Frank Greco
Autorità riconosciuta nel campo dell’AI e del ML, del cloud/mobile computing e della comprensione del valore aziendale dell’IT. Formatore e manager, ma anche prolifico scrittore e autore di numerose pubblicazioni. Pensatore strategico con forti capacità di leadership e team leader con uno spirito imprenditoriale innovativo. Con un ampio background che spazia da Google a una serie di startup tecnologiche, Frank Greco è un oratore di grande esperienza. Per il suo contributo alla comunità Java, è stato insignito del titolo di “Java Champion”. Coautore di JSR381 Visual Recognition, un’API standard di ML per sviluppatori Java, attualmente è presidente del NYJavaSIG, il più grande gruppo di utenti Java del Nord America.
Frank Greco presenterà per Technology Transfer i seminari “L’Intelligenza artificiale per l’impresa moderna” il 14-15 aprile 2025, e “Introduzione all’intelligenza artificiale generativa per sviluppatori Java” il 16-17 aprile 2025. I seminari si terranno online live streaming