Il progetto del Korea Advanced Insitute of Science and Technology non si farà per evitare la proliferazione di macchine da guerra senzienti
Il KAIST, Korea Advanced Insitute of Science and Technology, non porterà a termine il suo SGR-A1. Il progetto intendeva costruire un robot per la guerra, come spesso accade “per scopo difensivo” ma con la pericolosa idea che la macchina si potesse trasformare in qualcosa di potenzialmente più pericoloso. La divisione interna conosciuta come Research Centre of the Convergence of National Defence and Artificial Intelligence, stava lavorando in collaborazione con la compagnia Hanwa per la finalizzazione dell’automa, che aveva suscitato un bel po’ di critiche nel mondo degli accademici, non solo occidentali. Non a caso, qualche giorno fa, 50 specialisti si erano uniti in una lettera comune con cui chiedevano alle agenzie preposte di annullare l’iniziativa, prima che fosse troppo tardi.
Cosa succede
Ebbene, a nemmeno una settimana di distanza ecco il dietrofront, peraltro non troppo convinto da parte delle società coreane. “Come istituzione accademica, condividiamo i valori umani e gli standard etici globali – aveva detto il presidente del KAIST – per questo confermo come non ci sono da parte nostra attività che vanno contro la dignità della persona, come armi autonome che possono sfuggire dal controllo dell’uomo”.
La decisione però sembra definitiva e non sarà solo una coincidenza il fatto che la prossima settimana, presso le Nazioni Unite, vi sarà un meeting focalizzato proprio sulle nuove metodologie di distruzione di massa, per le quali già 20 paesi sono concordi con lo stabilire norme che vietino lo sviluppo di simili artefatti, anche a scopo difensivo. Sul tema il compianto Stephen Hawking avrebbe avuto un bel po’ da dire, come peraltro aveva già fatto in più di un’occasione, riconoscendo i rischi di una AI talmente intelligente dall’infischiarsi degli ordini dati da un ammasso di carne e muscoli.