A cura di Dave Wright, Chief Innovation Officer ServiceNow
Il clamore intorno all’intelligenza artificiale ha raggiunto un livello altissimo, e non sembra passare giorno senza che un altro tech leader dichiari che l’intelligenza artificiale migliorerà ogni cosa, dal marketing alla supply chain. Ma attenzione. Stiamo forse riponendo troppa fiducia in questa tecnologia, senza considerare i suoi attuali limiti?
Non c’è dubbio che l’IA sia migliorata a un ritmo inaspettato. Ma prima che l’IA rispecchi le aspettative, è necessario considerare la sua accuratezza e trasparenza. Invece di precipitarsi a implementare l’IA sul posto di lavoro, le aziende dovrebbero ottenere una visibilità completa della propria infrastruttura tecnologica.
QUASI ACCURATA, TUTT’ALTRO CHE INFALLIBILE
Recentemente ho chiesto a ChatGPT di redigere una mia biografia per una conferenza. Il risultato sembrava discreto, ma nel bel mezzo del testo si affermava che avevo conseguito un MBA presso l’Università del Texas (che non ho) e che ero uno dei fondatori di ServiceNow, cosa che non sono. In questo caso, le imprecisioni non sono state un grosso problema perché so quali di questi fatti sono veri e quali no, quindi posso correggerli facilmente. Ma immaginiamo di applicare la stessa tecnologia a dati che potrebbero essere letti da migliaia di dipendenti e da milioni di clienti, soprattutto se non sono in grado di distinguere i fatti dalla finzione. Quale sarebbe la responsabilità di un’azienda se la sua IA fornisse ai clienti risposte non del tutto veritiere? Come potrebbero garantire che l’IA non fornisca al personale informazioni completamente sbagliate in momenti critici come, ad esempio, durante l’esecuzione di una riparazione di emergenza? Inoltre, non dimentichiamo che l’azienda non può permettersi la possibilità che l’intelligenza artificiale abbia allucinazioni inaspettate e imprevedibili. Parte del motivo per cui le persone sono così affascinate da ChatGPT è la sua capacità di rispondere alle domande con certezza. Molti dirigenti d’azienda pensano che l’intelligenza artificiale sia solo una ricerca in un database o in documenti sul web (come fa Google). Non è così. ChatGPT è addestrato per essere un emulatore che si chiede “come prevedo che sarà la prossima parte di questa conversazione?” e fa un lavoro straordinario fornendo risposte plausibili. L’accuratezza non è il suo obiettivo principale.
SBIRCIARE NELLA SCATOLA NERA
Nella biografia generata dall’IA ho potuto intuire come il GPT (Generative pre-trained transformer) sia arrivato a queste due conclusioni sbagliate. Dato che lavoro per ServiceNow da oltre dieci anni, sono apparso abbastanza spesso nelle notizie insieme al fondatore Fred Luddy, per cui l’IA potrebbe aver interpretato erroneamente che io fossi un cofondatore. E dato che molti dirigenti hanno un MBA, potrebbe aver ipotizzato che anch’io lo abbia. Forse c’è anche un certo numero di persone che condividono il mio nome e che hanno conseguito un MBA presso quella particolare università che ChatGPT ha nominato. Quando ho chiesto come fosse arrivato a queste conclusioni, tuttavia, ChatGPT ha potuto solo darmi una risposta generica sul fatto che si tratta di un grande modello linguistico che apprende da enormi quantità di dati. Non ha voluto citare fonti specifiche. Questo sottolinea la differenza fondamentale tra l’IA e una ricerca su Internet. Questa opacità è una delle cose che mi preoccupa di più dell’utilizzo dell’IA sul lavoro. Al momento, gli utenti non sono in grado di individuare esattamente come vengono generate le risposte specifiche. Man mano che un numero sempre maggiore di aziende implementa l’IA, potremmo assistere alla proliferazione di informazioni errate. Senza un’adeguata protezione, l’IA aziendale potrebbe fornire qualcosa di simile ai feed di Facebook, con informazioni rilevanti che appaiono accanto a notizie false, senza una chiara visione del modo in cui entrambe vengono generate e consigliate.
NE VALE LA PENA?
Nonostante i suoi limiti, sono favorevole all’utilizzo dell’intelligenza artificiale. L’automazione ha già eliminato molte attività ripetitive e banali, dalla produzione alla contabilità. L’intelligenza artificiale sta liberando tempo per i dipendenti, che possono così concentrarsi su attività più creative.
La personalizzazione cambierà il modo di concepire l’esperienza dei clienti e dei dipendenti. Utilizzando le preferenze e i dati degli utenti, i GPT possono fornire offerte, raccomandazioni e comunicazioni personalizzate. Con gli assistenti virtuali alimentati dal GPT, i clienti e i dipendenti otterranno un’assistenza migliore e più rapida.
Oltre ai chatbot IA, l’analisi predittiva migliorerà la capacità di prevedere con precisione le tendenze dei dati, dal comportamento dei clienti alle interruzioni della Supply Chain, e altre informazioni aziendali cruciali che aiuteranno le aziende a governare anche in tempi incerti e in rapido cambiamento.
Ogni tecnologia dirompente presenta potenziali insidie, ma l’IA ha più vantaggi che svantaggi. Per sfruttarne la capacità di migliorare l’efficienza, la personalizzazione e il processo decisionale, sarà cruciale che i responsabili IT abbiano una visibilità chiara e in tempo reale di tutte le tecnologie utilizzate dalla loro azienda.
NAVIGARE TRA LE ASPERITÀ
Per utilizzare in modo etico ed efficace l’intelligenza artificiale sul lavoro, le aziende devono pensare a come coordinare e governare l’impresa. Sebbene l’intelligenza artificiale possa apparire a volte come un orizzonte completamente nuovo, alcuni dei modi per tenerla sotto controllo potrebbero essere in realtà strumenti meno popolari e già esistenti tra la tecnologia aziendale. Le aziende dovrebbero adottare i seguenti metodi per sfruttare l’intelligenza artificiale:
- Elenco di controllo degli accessi (ACL): Poiché l’IA diventa un deposito di tutte le conoscenze all’interno di un’azienda, sarà imperativo definire chi può accedere a quale tipo di informazioni. E non dovrebbe esserci modo di aggirare la limitazione chiedendo all’IA di formulare ipotesi. Abbiamo visto molte conversazioni che iniziano con “immagina” o “fai finta” e che mostrano persone che aggirano i controlli. Questo non può accadere in un ambiente aziendale
- Attenuazione dei bias: I sistemi utilizzati dall’azienda potrebbero portare a risultati iniqui che rafforzano i pregiudizi esistenti. Questo non solo non è etico, ma è anche un comportamento scorretto dal punto di vista commerciale. Il monitoraggio continuo e gli aggiustamenti ai modelli di IA sono necessari per risolvere eventuali pregiudizi negli algoritmi utilizzati per prendere le decisioni
- Durata dei contenuti: Man mano che sempre più aziende digitalizzano informazioni sarà importante classificare i contenuti e la loro durata in base alla frequenza degli aggiornamenti, impedendo che le informazioni obsolete sovrastino quelle aggiornate. Un giorno ogni azienda avrà una o più IA proprie, addestrate ad hoc a partire da dati aggiornati e specifici per gli obiettivi dell’azienda
- Privacy dei dati: Come per il consenso ai cookie su Internet, le aziende dovranno dare agli utenti la possibilità di decidere quanti dei loro dati possono essere raccolti, tracciati, conservati e condivisi
Questo elenco è lungi dall’essere esaustivo. Ci saranno molti altri modi per mitigare l’intelligenza artificiale in modo che il suo operato interno sia trasparente e al tempo stesso sicuro da attacchi dannosi. L’intelligenza artificiale di oggi è estremamente abile nello scrivere testi che suonano bene, anche se in parte imprecisi. È un po’ come avere nel proprio team un tirocinante entusiasta che lavora più velocemente di qualsiasi altro essere umano, ma che non è attento ai dettagli e ha la tendenza a inventare. Questo è utile, a patto che un umano esperto sia pronto a curare e modificare ciò che l’IA produce.
Fondamentalmente, una piattaforma in grado di offrire una visibilità completa dell’infrastruttura tecnologica di un’azienda sarà fondamentale per il successo. Come si può vedere, l’alfabeto della governance dell’IA è solo all’inizio. Con una collaborazione continua – tra team ma anche tra esseri umani e IA – possiamo costruire un ecosistema di IA più sicuro e trasparente che funzionerà per ogni azienda.