Perché le Leggi della robotica di Asimov dovrebbero essere aggiornate per il XXI secolo

Molti progetti finanziati dall’UE stanno lavorando per far progredire la robotica in modo che possa aiutare le persone a superare sfide di carattere sociale, come per esempio fornire assistenza agli anziani o prestare soccorso in caso di calamità. Un accademico che ha lavorato a uno di questi progetti sostiene adesso che le Leggi della robotica dello scrittore Isaac Asimov non sono le linee guida morali che sembrano essere e che dovrebbero invece essere aggiornate.

Isaac Asimov è uno degli scrittori di fantascienza più apprezzati, la cui creazione più famosa sono indubbiamente le “Tre leggi della robotica”. In breve, sono queste: un robot non può recare danno a un essere umano né può permettere che, a causa del proprio mancato intervento, un essere umano subisca un danno; un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non contravvengano alla Prima Legge; un robot deve proteggere la propria esistenza, purché questa autodifesa non contrasti con la Prima o con la Seconda Legge.

Applicare le leggi di Asimov oggi

Il prof. Tom Sorell dell’Università di Warwick, nel Regno Unito, ha recentemente sostenuto che le tre leggi di Asimov sembrano una risposta naturale all’idea che I robot un giorno saranno una cosa normale e che avranno bisogno di essere programmati in modo che non facciano del male alle persone. Sostiene tuttavia che anche se le leggi di Asimov sono organizzate intorno al valore morale di prevenire che si rechi danno agli esseri umani, non sono poi così facili da interpretare. Il prof. Sorell, un esperto di etica robotica, ha lavorato al progetto ACCOMPANY, finanziato dall’UE, che ha sviluppato un compagno robotico che aiuta le persone anziane a vivere in modo indipendente.

Sorell scrive che le leggi di Asimov sembrano ancora plausibili a prima vista, perché riflettono le paure giustificate riguardo il danno che I robot possono arrecare agli esseri umani, un esempio potrebbero essere I recenti incidenti verificatisi negli USA a causa del malfunzionamento di automobili autonome. Viviamo però anche in un’era in cui robot sempre più sofisticati sono utilizzati per eseguire compiti sempre più complessi progettati per proteggere e prendersi cura degli esseri umani.

Tra questi non solo I robot progettati per prendersi cura degli anziani, come in ACCOMPANY (vedere il CORDIS Results Pack sulle TIC per una vita indipendente per altri progetti finanziati dall’UE che utilizzano I robot per assistere gli anziani), ma anche robot che sono progettati per prestare soccorso in caso di calamità. Un esempio di questo è il robot utilizzato da un progetto finanziato dall’UE per esaminare gli edifici danneggiati nella città italiana di Amatrice colpita dal terremoto.

Nuovi robot, nuovi paradossi, nuove leggi?

Le leggi di Asimov cominciano a vacillare quando si considera lo sviluppo di droni militari diretti da esseri umani progettati per uccidere altri esseri umani da una distanza. Paradossalmente, se un robot è guidato da un essere umano per salvare la vita dei suoi concittadini uccidendo gli esseri umani che li stanno attaccando, si può dire che stia contemporaneamente rispettando e violando la Prima legge di Asimov.

Inoltre, se il drone è guidato da un essere umano, si può sostenere che la perdita di vite umane causata dai combattimenti sia colpa dell’essere umano e non del drone. In effetti, se gli eserciti disponessero di droni si potrebbe ridurre enormemente il numero di vite umane perse in totale, forse è meglio usare robot invece di esseri umani come carne da cannone.

Sull’altro piatto della bilancia, le leggi di Asimov sono appropriate se l’obiettivo principale del robot è tenere al sicuro una persona anziana. Spesso però la robotica rientra in una gamma di tecnologie “assistive” che aiutano gli anziani a essere indipendenti, l’obiettivo del progetto ACCOMPANY. Questo significa permettere loro di prendere decisioni, comprese quelle che potrebbero risultare in un danno a loro stessi, per esempio a causa di una caduta. Un robot che permette al suo essere umano di prendere decisioni indipendenti che potrebbero risultare in un danno causato da una caduta violerebbero la Prima legge, a causa del mancato intervento per prevenire il danno all’essere umano.

Sorell sostiene comunque che l’autonomia umana debba essere rispettata, sia dagli altri esseri umani che dai robot. Anche le persone anziane che fanno scelte che garantiscono loro di poter continuare una vita indipendente, ma che potrebbero metterli a rischio, devono essere rispettate.

Pertanto, benché le leggi di Asimov abbiano influenzato gli sviluppatori del settore della robotica per decenni, adesso è forse giunto il momento di riesaminare la loro efficacia e cominciare a discutere un nuovo insieme di leggi che si adatti meglio ai progressi sbalorditivi fatti nel campo della robotica e della tecnologia di IA che si stanno compiendo in Europa e nel mondo.

Per maggiori informazioni, consultare:
Sito web del progetto ACCOMPANY

ultima data di modifica: 2017-03-30 17:15:01
Commenti


Privacy Policy