L’intelligenza artificiale è un rischio o un’opportunità? Sono in molti a farsi questa domanda in anni di grande trasformazione tecnologica in cui macchine sempre più intelligenti stanno prendendo il posto dell’uomo nello svolgimento di molte attività sia nella vita quotidiana sia – e soprattutto – nelle attività lavorative.
La risposta, come spesso avviene, è però complessa e dipende da molti fattori. Non si possono negare infatti i benefici offerti da questo strumento, in grado di superare i limiti dell’umano: raccoglie ed elabora velocemente una grande quantità di dati, non si stanca e non si distrae. Non a caso, l’aumento dell’utilizzo di programmi basati sull’intelligenza artificiale ha portato opportunità senza precedenti nella produttività delle aziende. Ma, allo stesso tempo, non si possono non considerare i suoi temibili lati oscuri di cui molti sono già consapevoli. Infatti – secondo alcuni dati recenti – quasi cinque milioni di italiani la considerano una minaccia, più di uno su due teme che l’AI possa essere sfruttata da criminali informatici per azioni fraudolente e il 39,6% teme che diventi uno strumento incontrollabile dall’uomo. Più di 5,6 milioni, invece, temono che possa rappresentare la causa della perdita del lavoro.
Inoltre – secondo un’indagine condotta da Sapio Research e Deep Instinct, su 650 esperti e leader di cybersecurity – il 75% dei professionisti dichiara di aver assistito a un’impennata degli attacchi nell’ultimo anno e l’85% ha attribuito l’aumento ai malintenzionati che utilizzano l’AI generativa. Insomma, al netto delle opportunità che riserva, l’intelligenza artificiale apre sicuramente la porta a nuovi e infiniti modi di fare crimine online, davanti ai quali non possiamo farci trovare impreparati. Un bel dilemma, dunque, anche perché d’altro lato l’intelligenza artificiale è indubbiamente un aiuto concreto per contrastare il crimine informatico. Può essere utilizzata per rilevare attività sospette e anomalie della rete, identificare i rischi tecnici nei sistemi hardware e software e le varie minacce, grazie alla capacità di dare priorità ai diversi livelli di rischio in modo più accurato e senza errori.
Il panorama aziendale contemporaneo deve dunque basarsi sulla consapevolezza non solo di ciò che questi strumenti possono realizzare, ma anche sulla valutazione della loro conformità a rigorosi standard di sicurezza. Non stupisce dunque che sempre più IT manager cerchino di rispondere agli attaccanti usando la loro stessa arma. Una recente indagine Gartner sottolinea che il 34% delle organizzazioni sta già utilizzando o implementando strumenti di sicurezza delle applicazioni di intelligenza artificiale per mitigare i rischi associati all’AI generativa.
La trasparenza e una struttura algoritmica chiara sono fondamentali, poiché la mancanza di approfondimenti su come operano i modelli di AI può ostacolarne la comprensione e l’eventuale miglioramento. Va bene, dunque, scegliere programmi di AI per creare barriere protettive, a patto che questi siano supportati da continue verifiche e aggiornamenti in grado di tenere testa alla velocità con cui evolve il crimine informatico che utilizza la stessa AI per attaccare in modo sempre più subdolo e spietato. Ma anche gli stessi utilizzatori umani della tecnologia non devono mai rimanere indietro.
Proprio quel fattore umano, dunque, considerato spesso la causa dell’infiltrazione della criminalità nei dispositivi personali e aziendali, cacciato dalla porta e sostituito con strumenti che non commettono errori, deve rientrare per forza dalla finestra perché rimane un elemento imprescindibile della catena della sicurezza. Per questo una cultura di awareness aziendale sarà sempre più determinante, così come una formazione permanente e un addestramento continuo. Del resto, parliamo di una materia che scotta e che va maneggiata con grande consapevolezza, sapienza e velocità.
di Gianni Baroni AD di CyberGuru