Daniel Rapp, Chief AI and Data Officer di Proofpoint, riflette sulla crescente integrazione dell’AI nei processi aziendali e sul suo impatto relativo in termini di sicurezza
Uno strumento di business sempre più regolamentato
Se qualche anno fa, cloud computing, mobile e zero trust erano apparivano come i trend più caldi del momento, ora fanno parte integrante del tessuto di ogni azienda. La stessa cosa sta avvenendo, ma a velocità decisamente superiore, per l’intelligenza artificiale. Le tecnologie di AI, e in particolare qeulla generativa, vengono esaminate soprattutto dal punto di vista di chi acquista, con molti che le considerano un rischio di terze parti. La loro crescente diffusione chiama in causa i CISO, che devono cercare di capire sia il rapporto generale tra rischi e benefici che la rilevanza del loro pericolo. I CISO desiderano conoscere in modo preciso come i dipendenti utilizzino l’AI per capire se e come possano mettere a rischio le informazioni sensibili e di conseguenza aumenterà il controllo su come i Large Language Model (LLM) alimentano gli strumenti di AI. Proprio come le etichette sulle confezioni degli alimenti – apparse per la prima volta negli anni ‘60 e ’70 – indicano quali ingredienti sono stati utilizzati in un prodotto, i CISO di oggi si chiederanno sempre più spesso “cosa c’è in questo strumento di AI e come facciamo a sapere che sia stato sviluppato e protetto correttamente?”.
Un supporto concreto ai processi di decision making
L’AI generativa andrà oltre la generazione di contenuti e diventerà il motore decisionale di innumerevoli processi aziendali, dalle risorse umane al marketing, fino a DevOps. Nel 2025, l’AI diventerà un supporto di lavoro indispensabile per gli sviluppatori, occupandosi di tutto, dall’automatizzare le correzioni dei bug ai test e all’ottimizzare il codice. La tendenza all’utilizzo di strumenti di sviluppo assistiti da intelligenza artificiale crescerà ulteriormente nel corso del 2025, colmando le lacune di competenze, riducendo i tassi di errore e aiutando gli sviluppatori a tenere il passo con i cicli di rilascio più rapidi di DevOps. L’AI darà il suo contributo anche in questo ambito, prevedendo colli di bottiglia e suggerendo ottimizzazioni in modo preventivo, trasformando di fatto le pipeline DevOps in “linee di produzione predittive”, creando flussi di lavoro in grado di risolvere i problemi prima che abbiano un impatto sulla produzione.
I cybercriminali sfrutteranno l’AI manipolando i dati privati
La convergenza che stiamo vivendo nel mondo dell’intelligenza artificiale è particolarmente affascinante, con modelli sempre più capaci ed agenti AI semi-autonomi che si integrano in flussi di lavoro automatizzati. Si tratta di un’evoluzione che apre interessanti possibilità per gli attori delle minacce, in particolare per la possibilità di manipolare i dati privati utilizzati dagli LLM. Poiché gli agenti di intelligenza artificiale dipendono sempre più da informazioni personali contenute in e-mail, archivi di documenti SaaS e altre fonti simili, la loro protezione diventerà ancora più importante.
Nel 2025 inizieremo a vedere i primi tentativi di manipolare le fonti di dati privati. Ad esempio, potremmo assistere a minacce che ingannano di proposito l’intelligenza artificiale contaminando le informazioni personali utilizzate dai LLM, modificando deliberatamente e-mail o documenti con dati falsi o fuorvianti per confondere l’intelligenza artificiale o farle compiere azioni dannose. Questo sviluppo richiederà maggiore vigilanza e misure di sicurezza avanzate per garantire che l’AI non venga ingannata.