Nel 1942, Isaac Asimov, uno dei più grandi autori della moderna fantascienza, escogitò, per i suoi mondi immaginari popolati da robot intelligenti (non era neppure stato inventato il transistor, ma la particella elementare scoperta dieci anni prima gli aveva ispirato il geniale concetto di cervello “positronico”) le celebri Tre Leggi comportamentali. La prima e più forte recitava che un robot non può nuocere all’uomo, né permettere che, a causa del suo mancato intervento, l’uomo subisca un danno.
Ottant’anni dopo, all’inizio di quella che può essere considerata la prima vera guerra commerciale dell’AI, forse sarebbe il caso di ripensare a quelle leggi e agli effetti indesiderati che un’intelligenza artificiale troppo disinvolta potrebbe generare senza nessuna forma di ragionevole controllo preventivo.
Il lancio di ChatGPT da parte OpenAI – il gruppo di computer scientist, magnati, imprenditori che Microsoft ha sostenuto con un cospicuo investimento – ha suscitato un’autentica frenesia di esperimenti e commenti su uno strumento che molti definiscono “game changer”, un campione in grado di decidere, da solo, il risultato e forse le regole della partita.
Grazie ai suoi modelli di apprendimento “profondo”, il chatbot è in grado di rispondere in modo appropriato ed esaustivo a quesiti complessi, riassumere un testo, scrivere una tesina su qualsiasi argomento e addirittura generare codice in una decina di linguaggi di programmazione.
Le immediate profezie sul colpo che OpenAI (e Microsoft, che non ha tardato a integrare il cuore, anzi il cervello di ChatGPT in Bing e nel suo ecosistema di applicazioni) avrebbe potuto sferrare alla supremazia raggiunta da Google con il suo motore “tradizionale”, si sono avverate quasi all’istante.
E a dispetto della pronta reazione di Alphabet, con il lancio di Bard, il chatbot basato sul modello alternativo LaMDA. Nella demo-live organizzata per i media, il Bardo di Google ha dato una risposta clamorosamente sbagliata, suscitando, insieme all’ilarità del pubblico, un vero e proprio fuggi fuggi degli investitori, che hanno fatto fare un capitombolo al titolo. In un soffio, il valore di mercato del colosso guidato da Sundar Pichai ha perso 120 miliardi di dollari.
Quella che può sembrare un’arma vincente, è in realtà la classica lama a doppio taglio. Via via che gli analisti mettono meglio a fuoco il fenomeno, l’intelligenza dialogata di Bing e Bard svela i suoi aspetti controversi. Uno di questi riguarda la salvaguardia della proprietà intellettuale dei contenuti che entrambi i chatbot rielaborano senza esplicitare chiaramente le fonti utilizzate, come farebbero i loro “cugini” più stupidi. Insieme al copyright, emerge un’altra problematica di natura giuridica: chi è responsabile delle informazioni “generate” dall’AI quando queste, per gli inevitabili margini di imprecisione, rischiano di recare un danno tangibile (violando così la Prima Legge di Asimov) alla persona che ne usufruisce?
I modelli come ChatGPT disaccoppiano la capacità di svolgere un compito con successo dalla capacità cognitiva. Se interrogato, ChatGPT dichiara di rispettare le Tre Leggi di Asimov. Bene. Dovremmo chiedere di più sia ai fornitori di tecnologia che alle istituzioni: trasparenza, tutela dei diritti fondamentali, responsabilità e valutazione di impatto, come per altro sul tavolo della Commissione europea, al lavoro sulla proposta di testo del cosiddetto AI Act adottata a dicembre 2022.
In attesa delle decisioni del Parlamento europeo che porteranno al nuovo regolamento, la cui portata sarà paragonabile a quella del GDPR, in un contesto generale che sta pesantemente soffrendo per la disinformazione che circola su media digitali dominati da algoritmi che ritagliano contenuti (e slogan) con l’accetta, l’affermarsi di questi straordinari strumenti non deve farci dimenticare che il traguardo della gara non è un’intelligenza artificiale autonoma e incontrollabile, ma un filtro capace di dare senso – umano – agli oceani di dati che stiamo accumulando. Asimov aveva inventato i cobot, non i robot.