L’idea è usare hardware Nvidia per potenziare lo sviluppo di Grok
Elon Musk ha riferito agli investitori che la sua startup xAI sta pianificando di costruire un supercomputer entro l’autunno del 2025 che alimenterebbe una futura iterazione più intelligente del chatbot Grok. Come riporta The Information, questo supercomputer, che Musk avrebbe definito una “gigafabbrica di elaborazione”, farebbe affidamento su decine di migliaia di GPU NVIDIA H100 e costerebbe miliardi di dollari. L’imprenditore aveva precedentemente affermato che la terza versione di Grok richiederà almeno 100.000 chip, un aumento di cinque volte rispetto alle 20.000 GPU che si dice siano in uso per l’addestramento di Grok 2.0. Secondo The Information, Musk ha anche sottolineato che il cluster GPU sarebbe almeno quattro volte più grande di qualsiasi macchina utilizzata oggi dai concorrenti xAI.
Grok è attualmente nella versione 1.5, rilasciata ad aprile, e presto potrà elaborare informazioni visive come fotografie e diagrammi, nonché file di testo. X all’inizio di questo mese ha iniziato a lanciare riepiloghi di notizie generati dall’intelligenza artificiale e forniti da Grok per gli utenti premium. La funzionalità viene definita “Stories on X”, e si affida ai post degli utenti per generare i frammenti di testo. Alcuni sembrano essere più incentrati sulle notizie, mentre altri sono riassunti delle conversazioni che si svolgono sulla piattaforma stessa. Un utente ha pubblicato uno screenshot che mostra storie sul rapporto sugli utili di Apple e sugli aiuti all’Ucraina, nonché uno su “Musk, gli esperti discutono sul debito nazionale”, un riassunto di una “discussione sincera online” tra Musk e altre “figure di spicco” su X. Se qualcosa di tutto ciò suona familiare, è perché è tutto molto simile a Moments, la funzione di Twitter interrotta nel 2022. Come altri strumenti di intelligenza artificiale generativa, i riepiloghi di Grok sono accompagnati da una dichiarazione di non responsabilità.