In televisione o al cinema abbiamo spesso visto robot ubbidire o infrangere le tre leggi della robotica di Asimov. Ma nella vita reale, è possibile insegnare a un robot ad essere buono? È quello che si è chiesto il roboticista Alan Winfield della Bristol Robotics Laboratory che si trova in Inghilterra, che ha creato una trappola etica per un computer e ne ha osservato le sue reazioni.
La premessa
Winfield e i suoi colleghi hanno programmato un robot per prevenire la caduta dentro un buco, prima di uno e poi di due automi che hanno agito da proxy per degli esseri umani. Il robot doveva ubbidire a una versione semplificata della prima legge della robotica: un robot non può permettere che un essere umano si faccia del male.
L’esperimento
Inizialmente il robot ha portato a termine con successo il suo compito, salvando il proxy umano prima che questo cadesse nel buco, deviando il suo percorso. Ma quando è stato aggiunto un secondo proxy umano, anche questo diretto verso il buco, il robot è stato obbligato a scegliere. In alcuni casi ha salvato un umano, lasciando morire il secondo; in altri è riuscito a salvare entrambi ma, in 14 casi su 33, il robot ha perso così tanto tempo a prendere una decisione che entrambi gli umani sono caduti nel buco.
Winfield ha descritto il suo robot come uno ‘zombie etico’ che non ha scelta ed è obbligato a muoversi come gli è stato imposto. Anche se si ritrova a salvare qualcuno comportandosi come prevede il suo codice di comportamento, non comprende i motivi dietro le sue azioni. Winfield ha spiegato all’incontro ‘Towards Autonomous Robotic Systems‘ che si è tenuto a settembre a Birmingham, che in passato pensava che fosse possibile che un robot non potesse fare da solo delle scelte etiche, oggi spiega:
“La mia risposta è: non ne ho idea”.
Una possibile strada da intraprendere potrebbe essere basata su quanto scoperto dallo scienziato del computer Ronald Arkin del Georgia Institute of Technology di Atlanta, che ha costruito un set di algoritmi per robot militari, soprannominati ‘ethical governor’ che aiutano i robot a prendere delle decisioni nel campo di guerra. Attraverso dei combattimenti simulati è stato mostrato che i droni con questa programmazione possono scegliere di non sparare o di minimizzare le casualità durante una battaglia in aree protette dal combattimento secondo le regole dei campi di battaglia, come le scuole e gli ospedali.
Arkin spiega però che ideare dei robot militari a comportarsi in un modo più etico potrebbe essere una cosa facile, perché le leggi della guerra sono ben conosciute. Inoltre a differenza dei combattenti umani che possono non rispettare queste regole mentre sono influenzati dalle proprie emozioni, gli automi non avrebbero questi problemi.
Ci vorrà ancora molto tempo prima che si riesca a creare delle A.I. senzienti come Skynet e Ultron.
Fonte newscientist