Meta lancia la Open Innovation AI Research Community

Meta lancia la Open Innovation AI Research Community

Con la volontà di essere da collante tra le iniziative IA accademiche e progetti di sviluppo

Desideroso di rimanere rilevante nel campo dell’IA, Meta ha lanciato una nuova organizzazione, la Open Innovation AI Research Community, per promuovere ciò che descrive come “trasparenza, innovazione e collaborazione” tra i ricercatori di intelligenza artificiale. Inizialmente, il focus del gruppo sarà la privacy, la sicurezza e la protezione di modelli linguistici di grandi dimensioni come ChatGPT di OpenAI ma anche il dare input al perfezionamento dei modelli di intelligenza artificiale e stabilire un’agenda per la ricerca futura. Meta afferma che si aspetta che i propri ricercatori partecipino all’organizzazione, ma la Open Innovation AI Research Community sarà “guidata dai membri”, con il gruppo di ricerca e sviluppo AI di Meta, Meta AI, che fungerà solo da “facilitatore”. “Il gruppo diventerà una comunità di pratica che sostiene grandi modelli di fondazione open source in cui i partner possono collaborare e interagire tra loro, condividere gli apprendimenti e sollevare domande su come costruire modelli di fondazione responsabili e sicuri”, scrive Meta in un post sul blog. 

Meta intende sponsorizzare una serie di workshop incentrati su “domande critiche di ricerca aperta” e “sviluppo di linee guida per la creazione e il rilascio di modelli open source responsabili”. “Meta ha una lunga storia di investimenti nel mondo accademico, formazione della prossima generazione di ricercatori e ingegneri e rafforzamento dell’interazione tra le discipline dell’intelligenza artificiale che possono essere tradizionalmente isolate”, ha dichiarato a TechCrunch Joelle Pineau, vicepresidente della ricerca sull’intelligenza artificiale presso il colosso. “L’iniziativa Open Innovation AI Research Community è il prossimo passo nel nostro costante impegno nel voler approfondire la nostra comprensione dello sviluppo responsabile e della condivisione di grandi modelli linguistici insieme ai ricercatori accademici. Non vediamo l’ora di condividere di più al riguardo presto”. Alla fine dell’anno scorso, Meta è stata costretta a ritirare una demo di intelligenza artificiale dopo che questa aveva prodotto documenti razzisti e imprecisi. Rapporti seguenti indicavano come lo strumento dell’organizzazione fosse, in gran parte, privo di controlli anti-IA-bias. Nel frattempo, gli accademici hanno accusato Meta di esacerbare le disuguaglianze socioeconomiche nei suoi algoritmi di pubblicazione degli annunci e di mostrare un pregiudizio nei confronti degli utenti neri nei suoi sistemi di moderazione automatizzata.

TI PIACE QUESTO ARTICOLO?

Iscriviti alla nostra newsletter per essere sempre aggiornato.

Leggi anche:  Serverplan, innovazione e sicurezza nell’hosting web