La paura è che la condivisione di informazioni sensibili possa dare un vantaggio ai concorrenti
La US Space Force ha sospeso l’uso di strumenti di intelligenza artificiale generativa basati sul web come ChatGpt per la sua forza lavoro per motivi di sicurezza. Un promemoria datato 29 settembre e indirizzato ai Guardians, il nome con cui la Space Force chiama la sua forza lavoro, proibisce al personale di utilizzare tali strumenti di intelligenza artificiale, inclusi modelli in linguaggio di grandi dimensioni, su computer governativi fino a quando non si riceve un’approvazione formale da parte del Chief Technology and Innovation Office. L’organizzazione afferma che il divieto temporaneo è “dovuto ai rischi di aggregazione dei dati”. Gli usi dell’intelligenza artificiale generativa, alimentati da modelli linguistici di grandi dimensioni che ingeriscono enormi quantità di dati passati da apprendere, sono esplosi nell’ultimo anno, sostenendo prodotti in continua evoluzione.
Lisa Costa, responsabile della tecnologia e dell’innovazione della Space Force, ha affermato nella nota che la tecnologia “rivoluzionerà senza dubbio la nostra forza lavoro e migliorerà la capacità dei Guardians di operare rapidamente”. Nonostante ciò, un portavoce dell’aeronautica militare ha confermato il divieto, spiegando che: “Abbiamo deciso di prenderci una pausa strategica sull’uso dell’intelligenza artificiale generativa. In questo modo potremo determinare il percorso migliore per integrare queste capacità nei ruoli dei Guardians e nelle missioni attuali e future. Costa ha affermato che il suo ufficio ha formato una task force sull’intelligenza artificiale generativa con altri team del Pentagono per riflettere su come utilizzare la tecnologia in “maniera responsabile e strategica”. Lo US Space Force rilascerà nei prossimi mesi ulteriori aggiornamenti sul caso, probabilmente in concomitanza con l’atteso lancio di una IA governativa, che verrà resa disponibile, in maniera verticale, a tutte le principali agenzie degli Stati Uniti.