Etica per le macchine, gerarchia decisionale e responsabilità

Azione, senso, calcolo e autonomia. Non chiamate robot una lavastoviglie

Benessere collettivo e libertà. Quali decisioni e azioni che incidono sui diritti delle persone possono essere affidate all’autonomia operativa di una macchina? I vantaggi e gli svantaggi, prodotti dall’introduzione massiccia della robotica nelle nostre vite, generano dilemmi morali dalle conseguenze imprevedibili

Nel numero precedente abbiamo sottolineato, seguendo le indicazioni di due colleghi robotici (M. Studley e A.Winfield), che gli aspetti ELS (Ethical, Legal and Societal) della robotica avanzata stanno ricadendo anche sui robot industriali collaborativi, i cobot. Questo è solo un aspetto dei problemi che saranno sollevati dall’intelligenza artificiale applicata alle macchine autonome. Un saggio molto completo sul tema è scritto da Guglielmo Tamburrini, “Etica delle macchine. Dilemmi morali per robotica e intelligenza artificiale (Carocci editore, Roma 2020). Tamburrini è professore di Filosofia della scienza e della tecnologia all’Università di Napoli Federico II e si occupa di Roboetica da molti anni. In questo recente saggio approfondisce alcuni aspetti ELS soprattutto relativamente ai veicoli a guida autonoma e alle armi autonome, precisamente i due campi di applicazione della robotica dove la velocità di decisione e azione è così elevata da superare i tempi di intervento di un operatore umano.

TI PIACE QUESTO ARTICOLO?

Iscriviti alla nostra newsletter per essere sempre aggiornato.

Questo fa sorgere gravi problemi di gerarchia decisionale e di attribuzione della responsabilità di eventuali danni. Infatti, la possibilità di fare appello a un controllore umano contro una decisione automatica – sancita nel regolamento generale sulla protezione dei dati (GDPR 2018) adottato dall’Unione Europea – si basa sull’esistenza di un intervallo temporale tra decisione e azione che sia sufficientemente lungo. Ma un controllore umano non può invece usufruire di un intervallo di tempo altrettanto lungo nel caso di un veicolo a guida autonoma che si trova in uno stato di collisione imminente con altri veicoli o pedoni, oppure nel caso di un’arma autonoma dispiegata sul campo di battaglia.

Leggi anche:  FUJIFILM Business Innovation annuncia il Centro di Produzione Circolare per promuovere la circolazione delle risorse in Europa

Tamburrini considera, nella sua analisi, i vantaggi e gli svantaggi provocati dall’introduzione massiccia della robotica nelle nostre vite e propone che ogni decisione importante in tal senso sia pesata con due metri di misura. Per esempio, i veicoli a guida autonoma offriranno la possibilità di ridurre drasticamente gli incidenti stradali grazie all’automazione della guida, promuovendo in questo modo l’integrità fisica e il benessere di tutti gli utenti della strada.

Ma non sempre il benessere collettivo si accorda con l’esercizio della libertà personale: se un veicolo a guida autonoma potrà garantire maggiore sicurezza stradale di un essere umano al volante, sarà ancora moralmente accettabile concedere a un umano di guidare l’automobile? E poiché maggiore sicurezza stradale non significa azzeramento completo del rischio di incidenti, che cosa dovrà fare un veicolo autonomo nel caso di una collisione? Dovrà cercare di minimizzare imparzialmente i danni per tutti – pedoni o passeggeri di tutti i veicoli coinvolti nell’incidente – oppure dovrà privilegiare la protezione dei propri passeggeri? In campo militare, le armi autonome possono attaccare obiettivi bellici legittimi senza richiedere l’approvazione di un operatore umano, ma potrebbero colpire dei civili estranei al conflitto. Di chi è la responsabilità? E se venisse attaccato per errore un bersaglio di una nazione non belligerante, quali potrebbero essere le conseguenze sulla pace nel mondo? In definitiva, quali decisioni e azioni che incidono sul benessere fisico e sui diritti delle persone possono essere affidate all’autonomia operativa di una macchina e quali responsabilità devono rimanere in capo agli esseri umani? Che peso dare alle limitazioni che affliggono la nostra capacità di spiegare e prevedere il comportamento di robot in grado di apprendere dall’esperienza e interagire con altri sistemi informatici e robotici? Ecco gli interrogativi etici affrontati in questo libro, insieme ai dilemmi morali e ai problemi di scelta collettiva che essi generano.

Leggi anche:  Chi ha paura della AI generativa in azienda?

Gianmarco Veruggio scienziato robotico – www.veruggio.it