Se l’AI potesse “sentire” temerebbe attacchi informatici da parte delle persone

Intelligenza artificiale: una call to action per l'Italia

Gli attacchi contro i sistemi di intelligenza artificiale sono già in corso, difficili da identificare e potenzialmente molto più comuni di quanto si possa pensare

L’Intelligenza Artificiale (IA) sta rapidamente trovando applicazioni in quasi tutti gli ambiti della vita. Auto a guida autonoma, social media networks, aziende di sicurezza informatica e tutto ciò che ruota intorno all’IA e ne fa uso. Ma un nuovo rapporto pubblicato dal consorzio SHERPA – un progetto dell’EU che studia l’impatto dell’IA sull’etica e sui diritti umani a cui F-Secure ha aderito nel 2018 – rileva che nonostante gli attaccanti umani abbiano accesso alle tecniche di apprendimento automatico, attualmente stanno concentrando la maggior parte dei loro sforzi sulla manipolazione per scopi dannosi dei sistemi di Intelligenza Artificiale esistenti, invece di creare nuovi attacchi che potrebbero utilizzare l’apprendimento automatico.

TI PIACE QUESTO ARTICOLO?

Iscriviti alla nostra newsletter per essere sempre aggiornato.

Il focus primario di questo studio è sul modo in cui gli attori malintenzionati possono abusare dell’intelligenza artificiale, dell’apprendimento automatico e dei sistemi informativi intelligenti. I ricercatori hanno identificato una varietà di usi potenzialmente dannosi per l’intelligenza artificiale che sono alla portata degli attaccanti di oggi, compresa la creazione di sofisticate campagne di disinformazione e ingegneria sociale.

E se da un lato la ricerca non ha trovato prove definitive che gli attori malintenzionati stiano attualmente utilizzando l’intelligenza artificiale per potenziare gli attacchi informatici, dall’altro è emerso che gli avversari stanno già attaccando e manipolando i sistemi di IA esistenti utilizzati dai motori di ricerca, dai social media, dai siti web di recommendation, ecc.

Per Andy Patel, ricercatore del centro di eccellenza per l’intelligenza artificiale di F-Secure, tutto questo potrebbe sembrare per molte persone sorprendente. I ritratti popolari di Intelligenza Artificiale fanno pensare che l’IA si rivolterà contro di noi e inizierà ad attaccare le persone da sola. Ma la realtà attuale è che, al contrario, sono gli umani che stanno attaccando i sistemi di IA su base regolare.

Leggi anche:  AI e sicurezza gestita, l’evoluzione dei servizi SOC con NovaNext e Fortinet

“Alcune persone identificano erroneamente l’intelligenza artificiale con l’intelligenza umana, e penso che sia per questo che associano la minaccia dell’IA ai robot killer e ai computer fuori controllo”, spiega Patel. “Ma gli attacchi umani contro l’IA avvengono in continuazione. Attacchi Sybil progettati per contaminare i sistemi di IA che le persone usano ogni giorno, come i sistemi di reputazione online, sono un evento comune. Ci sono persino aziende che vendono servizi per supportare tutto questo. Quindi, per ironia della sorte, i sistemi di IA di oggi hanno più da temere dagli umani che non il contrario.”

Gli attacchi Sybil coinvolgono una singola entità che crea e controlla più account fasulli al fine di manipolare i dati che l’IA utilizza per prendere decisioni. Un esempio popolare di questo attacco è la manipolazione del posizionamento nei motori di ricerca o dei sistemi di reputazione per promuovere o abbassare determinati contenuti. Tuttavia, questi attacchi possono anche essere usati per il social engineering di individui in scenari di attacco mirati.

“Questi tipi di attacchi sono estremamente difficili da rilevare per i provider di servizi online ed è probabile che questo comportamento sia molto più diffuso di quanto chiunque possa pensare”, afferma Patel, che ha condotto ricerche approfondite su attività sospette su Twitter.

Ma forse l’applicazione di IA più utile per gli attaccanti in futuro consisterà nell’aiuto che offrirà a questi malintenzionati per creare contenuti falsi. Il rapporto rileva che l’intelligenza artificiale ha raggiunto il punto in cui può produrre contenuti scritti, audio e visivi estremamente realistici. Alcuni modelli di intelligenza artificiale sono stati persino nascosti al pubblico per impedire che venissero sfruttati dagli attaccanti.

Leggi anche:  Chiusa con oltre 1600 partecipanti l’edizione milanese di Security Summit

“Al momento, la nostra capacità di creare contenuti falsi convincenti è molto più sofisticata e avanzata della nostra capacità di rilevarli. E l’IA ci aiuta a migliorare la produzione di audio, video e immagini, rendendo la disinformazione e il contenuto falso più sofisticati e difficili da rilevare”, afferma Patel. “E ci sono molte diverse applicazioni per contenuti convincenti e falsi, quindi mi aspetto che tutto questo finisca per rappresentare un vero problema.”

Lo studio è stato prodotto da F-Secure e dai suoi partner in SHERPA – un progetto finanziato dall’UE fondato nel 2018 da 11 organizzazioni di 6 paesi diversi. Ulteriori risultati e argomenti trattati nello studio includono:

  • Gli avversari continueranno a imparare come compromettere i sistemi di IA man mano che la tecnologia si diffonde
  • Il numero di modi in cui gli attaccanti possono manipolare l’output di IA rende difficile individuare e combattere tali attacchi
  • I poteri in gioco nella competizione per sviluppare i migliori tipi di intelligenza artificiale per scopi offensivi/difensivi possono finire per scatenare una “corsa agli armamenti di intelligenza artificiale”
  • Cercare di proteggere i sistemi di IA contro gli attacchi può causare problemi etici (ad esempio, un maggiore monitoraggio dell’attività può violare la privacy degli utenti)
  • Gli strumenti e i modelli di intelligenza artificiale sviluppati da attori di minacce avanzati e dotati di risorse adeguate finiranno per proliferare ed essere adottati da avversari meno esperti

Il Professore Coordinatore del Progetto SHERPA Bernd Stahl della De Montfort University Leicester afferma che il ruolo svolto da F-Secure in SHERPA – come unico partner del settore della sicurezza informatica – stia aiutando a spiegare come gli attori malintenzionati possano utilizzare l’intelligenza artificiale per minare la fiducia nella società.

Leggi anche:  ESET Threat Report: truffe deepfake sui social media e Formbook nuovo leader tra gli infostealer

“L’obiettivo del nostro progetto è comprendere le conseguenze etiche e sui diritti umani dell’IA e dell’analisi dei big data per aiutare a sviluppare modi per affrontarle. Questo lavoro deve basarsi su una solida conoscenza delle capacità tecniche così come delle vulnerabilità, un’area cruciale di competenza che F-Secure offre al consorzio”, afferma Stahl. “Non possiamo avere conversazioni significative sui diritti umani, sulla privacy o sull’etica nell’IA senza considerare la cyber security. E come fonte affidabile di conoscenza della sicurezza, i contributi di F-Secure sono una parte centrale del progetto. “