/*Google Analytics*/

Verso l’era della Robot-etica

Dal Golem di Praga al Frankenstein di Mary Shelley, dalla Macchina Umana di Fritz Lang al R. Daneel Olivaw di Isaac Asimov, da sempre l’uomo ha sognato e lavorato per creare macchine intelligenti che lo sostituissero nel proprio lavoro.

Il termine robot (dal ceco robota, schiavo) è stato coniato da Karel Čapek, giornalista e drammaturgo ceco, che nell’opera “I robot universali di Rossum” così definisce delle macchine costruite in materia organica, nella forma simile agli uomini, prodotte dal dott. Rossum.

Quello che stiamo vivendo sembra essere davvero il decennio dei robot: solo dal 2010 al 2014 le vendite di “macchine intelligenti” sono passate dal 17% annuo al 29% e le richieste di brevetto per tecnologie robotiche si sono triplicate. Gli androidi sono sempre più simili all’uomo che li crea, sia nelle capacità di apprendimento e autoapprendimento, sia nell’aspetto (come ha dimostrato il robot creato da Hiroshi Ishiguro, professore del Dipartimento di macchine adattive all’Università di Osaka). Gli studi nel campo della robotica e dell’intelligenza artificiale sono mirati alla creazione di macchine capaci di portare benefici in termini di efficienza e di risparmio economico in tutti i campi del lavoro umano, dal manifatturiero ai trasporti, dall’assistenza medica alla pulizia di siti contaminati da sostanze tossiche o esplosive.

A fronte delle enormi potenzialità che l’utilizzo dei robot nei più svariati campi sicuramente apporta ed apporterà, vanno però considerati anche gli eventuali rischi soprattutto per ciò che riguarda la sicurezza fisica, ad esempio i danni che un robot può arrecare qualora la sua codificazione si riveli fallibile, o la sicurezza della privacy, nel caso di un difetto sistemico o del pirataggio di alcune macchine. Per mettersi al riparo da questi possibili rischi, alcuni paesi, come gli USA, il Giappone, la Cina e la Corea del Sud, stanno introducendo atti normativi in materia di robotica e di intelligenza artificiale. Il 20 gennaio 2015, la Commissione Giuridica del Parlamento Europeo ha istituito un gruppo di lavoro, guidato da Mady Delvaux, per individuare norme di diritto civile per disciplinare lo sviluppo e l’utilizzo della robotica e dell’intelligenza artificiale nei paesi membri dell’Unione Europea. Dopo due anni, il 12 gennaio 2017, è stata presentata la relazione finale del lavoro di ricerca giuridica che pone l’indirizzo sul quale si dovrà muovere il Parlamento Europeo nei prossimi anni in materia di robotica ed intelligenza artificiale.

Robot intelligenti

Innanzitutto il documento redatto dal gruppo guidato da Mady Delvaux invita la Commissione Europea a proporre una definizione unica di “robot autonomi intelligenti” in base alle seguenti caratteristiche:

  • acquisizione di autonomia grazie a sensori e/o tramite lo scambio di dati con il proprio ambiente (interconnettività)
  • capacità di autoapprendimento
  • presenza di supporto fisico
  • adeguamento del comportamento e delle azioni all’ambiente

La nuova normativa dovrà prevedere la realizzazione di un Registro Europeo per tracciare e agevolare lo sviluppo di robot intelligenti e la loro commercializzazione. Inoltre si auspica un’Agenzia Europea per la Robotica e l’Intelligenza Artificiale, alla quale le imprese che lavorano sul territorio europeo dovranno comunicare il numero dei robot intelligenti impiegati, una stima dei risparmi sugli oneri sociali che tale impiego comporterà e dei vantaggi economici che l’impresa ricaverà.

Un codice etico-deontologico del settore della robotica

La parte più interessante del documento è quella relativa alla proposta di definizione di un Codice etico-deontologico da applicare nel settore della robotica. Tale Codice dovrà interessare sia i progettisti e produttori, sia i comitati etici di ricerca, sia gli utenti fruitori dei robot. Il quadro normativo proposto rispetta in pieno la Carta dei diritti fondamentali dell’Unione Europea e interessa gli aspetti penali e civili del rapporto tra persone e robot.

Relativamente all’aspetto della responsabilità giuridica delle azioni di un robot, il gruppo della Commissione ha infatti individuato alcuni rischi, in particolare per ciò che riguarda gli incidenti causati dalle macchine intelligenti. Attualmente, in caso di danni provocati ad una persona da un robot, le possibilità e le forme di risarcimento che possono essere offerte alla parte lesa sono spesso limitate per il semplice fatto che il danno è provocato da un soggetto non umano.

Il gruppo ha proposto, pertanto, l’istituzione di uno status giuridico specifico per i robot, di modo che almeno quelli autonomi e più sofisticati possano essere considerati come persone elettroniche con diritti e obblighi specifici, compreso quello di risarcire qualsiasi danno da loro causato, nonché il riconoscimento della personalità elettronica dei robot che prendono decisioni autonome in modo intelligente o che interagiscono in modo indipendente con terzi.

Ciò non significa che i robot saranno allineati ai cittadini nei diritti e nei doveri anzi, come ha specificato Mady Delvaux in un’intervista al magazine informativo del Parlamento Europeo, l’obiettivo è quello di creare un quadro giuridico simile a quello che abbiamo ora per le aziende e/o di istituire un’assicurazione obbligatoria per i produttori di robot, a copertura dei danni che i macchinari potrebbero eventualmente causare.

Nell’intervista la Delvaux si è espressa anche su una materia che potrebbe sembrare bizzarra, ma che in realtà concerne i danni psicologici che potrebbero derivare dal rapporto persona-robot, in particolare in quei casi in cui la dipendenza fisica da un robot (come nel caso di anziani o invalidi) potrebbe innescare una dipendenza emotiva. “Dobbiamo sempre ricordarci – ha affermato la Delvaux – che i robot non sono essere umani e non lo saranno mai. […] Non vogliamo che in Europa si producano robot come in Giappone, che assomigliano a persone. Abbiamo proposto al Parlamento Europeo di stabilire che i robot non dovranno mai simulare emozioni umane. Si può essere dipendenti da loro per le attività fisiche, ma non si dovrebbe mai pensare che un robot ti possa amare o no“.

È cominciata l’era della robot-etica

È passato molto tempo da quando Isaac Asimov, alle prime Tre Leggi della Robotica, ne aggiungeva una quarta, la cosiddetta Legge Zero, che stabiliva che “un robot non può recare danno all’umanità, né può permettere che, a causa del proprio mancato intervento, l’umanità riceva danno”, eppure quello che ieri sembrava semplice fantascienza oggi è più reale che mai.

I robot oggi migliorano notevolmente le nostre condizioni di vita, ci proteggono facendo per noi lavori pericolosi, come la bonifica dei campi minati, agevolano lavori pesanti, sostengono le attività fisiche di persone portatrici di handicap, coadiuvano i medici durante interventi chirurgici e di alta precisione, eppure se è emersa l’esigenza di definire una robot-etica è perché nel prossimo futuro potremmo trovarci di fronte a situazioni di difficile gestione ed è nostro compito oggi lavorare per prevenirle o prevedere per esse potenziali soluzioni.

Potrebbe interessarti

Share This