Microsoft ha scoperto le nuove tecniche utilizzate dai criminali sponsorizzati dai due paesi
Microsoft e OpenAI affermano che diversi gruppi di hacker sostenuti dallo stato hanno cominciato a usare pesantemente strumenti di intelligenza artificiale generativa per rafforzare i loro attacchi informatici. Una nuova ricerca descrive per la prima volta in che modo gli hacker collegati a governi stranieri sfruttano tale tecnologia. I gruppi in questione hanno legami con Cina, Russia, Corea del Nord e Iran.
Secondo le aziende, gli attori statali usano l’IA per il debug del codice, la ricerca di informazioni open source per obiettivi di ricerca, per lo sviluppo di tecniche di ingegneria sociale, per la stesura di e-mail di phishing e per la traduzione di testi. OpenAI (che alimenta i prodotti Microsoft GAI come Copilot) afferma di aver bloccato l’accesso dei gruppi ai suoi sistemi dopo aver scoperto che stavano utilizzando suddetti strumenti. Il famigerato gruppo russo Forest Blizzard (meglio noto come Fancy Bear o APT 12) è stato uno degli attori statali che si dice abbiano utilizzato la piattaforma OpenAI.
Gli hacker hanno adottato gli strumenti OpenAI “principalmente per la ricerca open source sui protocolli di comunicazione satellitare e sulla tecnologia di imaging radar, nonché per il supporto con attività di scripting”, affermano le società. Nell’ambito dei suoi sforzi di sicurezza informatica, Microsoft sottolinea di monitorare oltre 300 gruppi di hacker, tra cui 160 attori di stati-nazione. Ha condiviso la sua conoscenza con OpenAI per aiutare a rilevare gli hacker e chiudere i loro account. OpenAI, da parte sua, investe in risorse per individuare e interrompere le attività degli autori delle minacce sulle piattaforme proprietarie. Il suo personale utilizza una serie di metodi per esaminare l’utilizzo dei suoi sistemi da parte degli hacker, ad esempio impiegando i propri modelli per seguire i contatti, analizzando il modo in cui interagiscono con gli strumenti OpenAI e determinando i loro obiettivi più ampi. Una volta rilevati tali utenti illeciti, OpenAI chiude gli account, terminando i servizi o riducendo al minimo il loro accesso alle risorse.