E se il prossimo premio Nobel fosse un’intelligenza artificiale?

E se il prossimo premio Nobel fosse un’intelligenza artificiale?

Sistemi autonomi e agenti AI, la nuova frontiera tra scienza, lavoro ed etica. L’intelligenza artificiale che sfida la Corte Suprema. I modelli PhD-level e il rischio per l’Europa di perdere talenti e competitività globale

Siamo nel 2036. Anzi no, magari non arriviamo neanche al 2030. È un mondo dove un avatar guidato dall’intelligenza artificiale discute un caso davanti alla Corte Suprema con una precisione impeccabile, dove un medico che di fatto è un AI, diagnostica malattie rare più rapidamente di qualsiasi specialista umano, oppure ancora uno scienziato che di fatto è un codice informatico, scopre nuovi materiali per il calcolo quantistico. E no. Non è fantascienza, ma magari il futuro prossimo degli agenti AI con competenze da PhD. Quale confine tra marketing e realtà? Questi sistemi autonomi di nuova generazione promettono di rivoluzionare il nostro modo di lavorare, apprendere e innovare.

Ma cosa significa davvero AI a livello PhD? Quali opportunità offre? E quali rischi comporta? E ancora, come viene percepita questa nuova frontiera dell’intelligenza artificiale dalla comunità scientifica e tecnica? Il termine, reso popolare da aziende come OpenAI, indica un’intelligenza artificiale con competenze equivalenti a quelle di un dottorato di ricerca e descrive modelli capaci di affrontare problemi che richiedono competenze accademiche avanzate. Questi sistemi generativi e autonomi sono in grado di condurre ricerche, scrivere e correggere codice complesso, analizzare grandi quantità di dati, formulare ipotesi e persino redigere articoli completi di citazioni.

TI PIACE QUESTO ARTICOLO?

Iscriviti alla nostra newsletter per essere sempre aggiornato.

A differenza delle AI tradizionali, questi agenti non si limitano a riconoscere schemi: utilizzano meccanismi come il “private chain of thought” (P-CoT) simulando un processo di ragionamento interno, iterativo, sempre più simile a quello umano, ma senza rendere espliciti i vari passaggi all’utente. E secondo OpenAI, maggiore è il tempo computazionale dedicato a un problema, migliore sarà la qualità della risposta prodotta. Modelli come o3, recentemente annunciati, hanno registrato performance eccezionali nei benchmark più avanzati: hanno superato l’87% nel test di ragionamento visivo ARC-AGI, raggiunto quasi il 97% all’American Invitational Mathematics Exam, sfiorato il 90% nel GPQA Diamond e, forse più impressionante, risolto oltre il 25% dei problemi nel benchmark Frontier Math, dove nessun altro modello aveva superato il 2%. Numeri che fanno impressione, ma che non bastano a fugare i dubbi sull’effettiva affidabilità di questi agenti nel mondo reale.

Leggi anche:  Grande successo per “Forward 2025”

NUOVE OPPORTUNITÀ, NUOVE COMPETENZE

Un acceso dibattito sul subreddit di OpenAI ha sollevato dubbi sulla reale portata del termine “PhD-level AI”. Alcuni utenti hanno sottolineato come un vero dottorato non sia solo una questione di competenza tecnica, ma di creazione di nuova conoscenza, di pensiero critico, di capacità di porre domande originali. Altri hanno ironizzato sull’idea che un agente AI (PhD-Level) possa costare 20mila dollari al mese (questo è il prezzo ipotetico), ricordando che molti dottorandi, pur brillanti, ricevono compensi ben inferiori. In molti casi, l’espressione sembra uno strumento di marketing più che una reale misura del valore scientifico di questi sistemi.

Nonostante lo scetticismo, l’AI sta già mostrando il suo potenziale trasformativo. In ambito sanitario, sta aiutando nella diagnosi, nella scoperta di farmaci (pensiamo ad AlphaFold, sviluppato da DeepMind) e nella definizione di trattamenti personalizzati.  Nella finanza, supporta il trading algoritmico e il rilevamento di frodi. In ambito scientifico, analizza dati climatici, genetici e sperimentali con velocità e precisione ineguagliabili. Nelle aziende, migliora il servizio clienti e ottimizza i processi produttivi grazie all’automazione robotica e alla manutenzione predittiva. Con l’aumento delle capacità degli agenti AI, anche il mondo del lavoro è destinato a cambiare. Alcuni ruoli tradizionali, come quelli di analista dati, programmatore junior, assistente legale o tecnico diagnostico, potrebbero essere già, almeno in buona parte, sostituiti. Al tempo stesso, emergono nuove professioni legate all’ecosistema dell’intelligenza artificiale. Figure come l’ingegnere di prompt, il curatore di dati, lo specialista di spiegabilità (Explainability) e l’ingegnere della sicurezza stanno diventando sempre più rilevanti. Queste competenze saranno fondamentali per garantire che le AI agiscano in modo sicuro e trasparente senza tralasciare l’aspetto fondamentalmente umano.

Leggi anche:  Il prossimo 9 Aprile, a Roma, si terrà l'AI & Data Summit di Nutanix

SOSTITUZIONE O TRASFORMAZIONE?

La trasformazione del lavoro non sarà però solo una questione di sostituzione. Da oltre dieci anni, lavoro con l’AI e credo fermamente che già oggi possiamo scorgere un’evoluzione dei ruoli: i medici stanno cominciando ad affiancare l’AI nei processi diagnostici, gli avvocati utilizzano l’AI per analizzare documenti legali e interpretare sia la giurisprudenza consolidata che le nuove normative, gli scienziati si affidano all’AI per analizzare dati e accelerare il ciclo di discovery.

Questi nuovi ruoli ibridi combinano la capacità computazionale dell’AI con l’intuizione, la creatività e la responsabilità umana. La collaborazione tra uomo e macchina sta prendendo sempre piede e sta nascendo una nuova forma di “intelligenza”, dove l’elemento umano resta insostituibile nel giudizio, nell’etica e nella visione. Accanto alle opportunità, però, emergono anche le sfide etiche. I modelli AI possono ereditare o amplificare bias presenti nei dati di addestramento, generando decisioni ingiuste o discriminatorie.

TRASPARENZA E RESPONSABILITÀ

La trasparenza dei modelli, soprattutto quelli più complessi, resta un problema aperto. E la responsabilità legale in caso di errore, la protezione della privacy e la sicurezza dei dati sono questioni che non possono essere ignorate. Non mancano di conseguenza le preoccupazioni più ampie, legate all’impatto sociale dell’automazione e, in prospettiva, ai rischi esistenziali associati a sistemi autonomi in contesti militari o strategici. La corsa all’AI non si gioca solo in Occidente. Anche la Cina sta investendo massicciamente nello sviluppo di agenti intelligenti. Startup come DeepSeek e Monica (con il suo agente Manus) stanno rapidamente colmando il divario con gli Stati Uniti. DeepSeek ha dichiarato di aver ridotto il gap tecnologico con OpenAI a soli tre mesi, grazie a un’architettura di modello più efficiente e meno dipendente da infrastrutture costose. Manus, invece, è un agente AI capace di portare a termine task complessi come la scrittura di codice e analisi di mercato in modo completamente autonomo. L’emergere di queste realtà dimostra come la competizione globale sull’intelligenza artificiale non sia più solo una questione di prestazioni, ma anche di sovranità tecnologica e leadership geopolitica. Se l’Europa non investe, è destinata a rimanere indietro, perdendo i suoi migliori talenti nel campo dell’intelligenza artificiale.

Leggi anche:  AI Generativa e democratizzazione dei dati: i 6 vantaggi secondo Denodo

Siamo arrivati alle conclusioni e vorrei chiudere con un mio pensiero sugli agenti AI PhD-level. A mio avviso, rappresentano una forza dirompente con il potenziale di accelerare le scoperte scientifiche, democratizzare l’accesso alla conoscenza e potenziare la produttività. Ma richiedono anche tanta attenzione. Un utente Reddit ha scritto: «Un PhD non è solo conoscenza, è anche curiosità, dubbio e capacità di porre le domande giuste». L’intelligenza artificiale potrà davvero evolversi solo se imparerà a pensare, non solo a rispondere. Fino a quando non riusciremo a replicare completamente il cervello umano, questa evoluzione rimarrà un obiettivo lontano. Come affermava Albert Einstein: «Il vero segno dell’intelligenza non è la conoscenza, ma l’immaginazione».