OpenAi ha lanciato GPT-4, già integrato nel motore di Bing
Quando Microsoft e OpenAI hanno annunciato la loro rinnovata partnership a gennaio, le due società hanno anche rivelato che il motore di Bing avrebbe presto vantato capacità di ricerca potenziate dall’intelligenza artificiale. All’epoca non sapevamo nemmeno come potesse evolvere il modello GPT-3, poi leggermente migliorato con la versione 3.5 e adesso decisamente rivoluzionato con GPT-4. Microsoft immagina Bing – e lo stesso starebbe facendo Google con Bard – non come progetto innovativo in sé ma quale porta per un nuovo modo di cercare informazioni in rete, dove anche argomenti come SEO e posizionamento potrebbero presto divenire obsoleti. Il motivo? Sarà l’IA a restituirci i risultati, di volta in volta, più pertinenti e non solo perché ‘realizzati’ per essere pescati dai crawler.
Piuttosto che indirizzare gli utenti verso altri siti web dove possono trovare le informazioni e il contesto che cercano da soli, Microsoft e Google stanno creando sistemi di intelligenza artificiale generativa (Bard e Bing) in grado di riepilogare e visualizzare automaticamente le informazioni, senza mai lasciare la pagina di ricerca del marchio. Qualsiasi ulteriore contesto rilevante in cui l’utente potrebbe essersi imbattuto durante la sua ricerca sarà deciso dall’algoritmo. GPT-4 va in tale direzione, integrando però nuove opportunità di interazione, basate su contenuti ‘ricchi’, come immagini e video. Non solo quesiti testuali appunto ma anche analisi di foto e di filmati, che l’IA potrà utilizzare per dare maggiori informazioni, quasi come un interlocutore in carne e ossa. Ma molto più veloce e intelligente.
Secondo quanto riferito, OpenAI, che ha collaborato (e recentemente rinnovato i suoi impegni) con Microsoft per sviluppare le capacità di GPT, ha trascorso gli ultimi sei mesi a risintonizzare e perfezionare le prestazioni del sistema in base al feedback degli utenti. La società riferisce che GPT-4 ha superato esami simulati (come Uniform Bar, LSAT, GRE e vari test AP) con un punteggio più alto dei partecipanti ai test rispetto a GPT-3.5. Inoltre, il nuovo GPT ha superato altri modelli LLM (Large Language Model) in una serie di test di benchmark. La società afferma inoltre che il nuovo sistema ha raggiunto prestazioni record in “fattualità, manovrabilità e stabilità di contesto” rispetto al suo predecessore. OpenAI ricorda che GPT-4 sarà reso disponibile sia per ChatGPT che per l’API ma solo per gl iabbonati a ChatGPT Plus, che pagano 20 dollari al mese per usufruire della piattaforma.
L’accesso API per il nuovo modello viene gestito tramite una lista di attesa. “GPT-4 è più affidabile, creativo e in grado di gestire istruzioni molto più sfumate rispetto a GPT-3.5”, ha scritto il team di OpenAI. La funzionalità di input multimodale genererà output di testo, che si tratti di linguaggio naturale, codice di programmazione o altro, basato su un’ampia varietà di input misti di testo e immagini. Fondamentalmente, sarà possibile scansionare i rapporti di marketing e di vendita, con tutti i loro grafici e cifre; libri di testo e manuali di negozio – anche gli screenshot – per far si che ChatGPT possa riassumere i vari dettagli e produrre persino report. Sostituire l’uomo per molte operazioni quotidiane non è più una possibilità così remota.