Esperti globali rimettono al centro dell’opinione pubblica la questione del controllo dell’IA
Una lettera aperta firmata da leader tecnologici e ricercatori chiede ai laboratori e alle aziende attive nel campo dell’IA di “sospendere immediatamente” il loro lavoro. Firmatari come Steve Wozniak ed Elon Musk concordano che i rischi connessi a ChatGPT e simili richiedono una pausa minima di sei mesi per capire dove stiamo andando con gli sviluppi molto veloci dell’IA esistente. La lettera aggiunge che la cura e la previdenza necessarie per garantire la sicurezza dei sistemi di intelligenza artificiale, vengono costantemente ignorate. Il riferimento è ovviamente a GPT-4, il nuovo modello di OpenAI in grado di rispondere alle domande degli utenti, anche immagini, con testo, ma anche a piattaforme pensate per creare grafiche e opere digitali partendo da una descrizione di poche parole.
I dubbi sull’intelligenza artificiale circolano da tempo ma la corsa a implementare la migliore tecnologia da parte di colossi come Microsoft e Google, pare abbia riportato in auge molte più preoccupazioni. “Sfortunatamente, non vediamo alcun livello di pianificazione e gestione, anche perché negli ultimi mesi i laboratori di intelligenza artificiale sono stati impegnati in una corsa fuori controllo per sviluppare e implementare menti digitali sempre più potenti che nessuno, nemmeno i loro creatori, possono capire, prevedere o controllare in modo affidabile”, afferma la lettera. Il documento è stato pubblicato dal Future of Life Institute (FLI), un’organizzazione dedicata a ridurre al minimo i rischi e l’uso improprio delle nuove tecnologie. Musk aveva precedentemente donato 10 milioni di dollari a FLI da utilizzare negli studi sulla sicurezza dell’IA. Oltre a lui e Wozniak, i firmatari includono una serie di leader globali dell’IA, come il presidente del Center for AI e della politica digitale Marc Rotenberg, il fisico del MIT e presidente del Future of Life Institute, Max Tegmark, e l’autore Yuval Noah Harari. Quest’ultimo ha anche co-scritto un editoriale sul New York Times la scorsa settimana che metteva in guardia sui rischi dell’IA, insieme ai fondatori del Center for Humane Technology.