La Risoluzione del Parlamento europeo, che contiene una serie di raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica, dedica spazio anche al codice deontologico, degli ingegneri robotici, invitandoli ad “agire in modo responsabile, tenendo pienamente conto della necessità di rispettare la dignità, la privacy e la sicurezza delle persone”.
In particolare, nel preambolo, viene richiesta “una stretta cooperazione tra tutte le discipline al fine di garantire che la ricerca sulla robotica sia condotta nell’Unione europea in modo sicuro, etico ed efficace”. Anche se si precisa che l’adesione a tale codice deontologico è volontaria e “offre una serie di principi generali e orientamenti per le azioni che tutte le parti interessate devono intraprendere”.
I principi dei ricercatori
Nel documento viene precisato che i “ricercatori del settore della robotica dovrebbero impegnarsi a tenere un comportamento etico e deontologico quanto più rigoroso possibile e a rispettare i seguenti principi”:
beneficenza: i robot devono agire nell’interesse degli esseri umani;
non-malvagità: la dottrina del “primum, non nocere “, in virtù della quale i robot non devono fare del male a un essere umano;
autonomia: la capacità di adottare una decisione informata e non imposta sulle condizioni di interazione con i robot;
giustizia: un’equa ripartizione dei benefici associati alla robotica e l’accessibilità economica dei robot addetti all’assistenza a domicilio e, in particolare, a quelli addetti alle cure sanitarie.
Diritti fondamentali
All’interno di questo capitolo, i politici europei hanno precisato anche una serie di diritti fondamentali, precisando che “le attività di ricerca nel campo della robotica dovrebbero rispettare i diritti fondamentali e, nella loro concezione, attuazione, divulgazione nonché nel loro impiego, dovrebbero essere condotte nell’interesse del benessere e dell’autodeterminazione del singolo e della società nel suo complesso. La dignità umana e l’autonomia – sia fisica che psicologica – vanno sempre rispettate”.
Da qui il principio della precauzione, nel quale si precisa che “le attività di ricerca nel campo della robotica dovrebbero essere condotte nel rispetto del principio di precauzione, prevedendo le eventuali incidenze dei risultati in termini di sicurezza e adottando le debite precauzioni, proporzionalmente al livello di protezione, incoraggiando allo stesso tempo il progresso a vantaggio della società e dell’ambiente”.
Ma occorre tutelare la proprietà intellettuale
Principi generali, quelli elencati dal Parlamento Europeo, del tutto condivisibili e attuabili. Al contrario potrebbero generare non pochi problemi, nella tutela della proprietà intellettuale, una serie di altre indicazioni, tra cui quella relativa all’inclusione, in cui si specifica che “gli ingegneri robotici garantiscono la trasparenza e il rispetto del legittimo diritto di accesso all’informazione di tutti i soggetti interessati. Tale inclusività consente la partecipazione ai processi decisionali di tutti i soggetti coinvolti nelle attività di ricerca sulla robotica o di quelli che nutrono un interesse nella stessa”.
Tutelare le persone e la loro sicurezza
In una fase in cui si è aperto un acceso dibattito sui posti di lavoro che saranno cancellati dalle nuove tecnologie, il parlamento chiede agli ingegneri robotici di “rendere conto delle eventuali incidenze sociali, ambientali e sanitarie della robotica per le generazioni attuali e quelle future”. Un’indicazione abbastanza vaga, perché sarebbe stato come chiedere ad Alessandro Volta quali implicazioni avrebbero avuto le batterie sulle future generazioni.
Al di là di queste considerazioni, sono invece interessanti gli aspetti pratici legati alla sicurezza. In particolare viene richiesto agli ingegneri robotici di “preservare il benessere umano, rispettando nel contempo i diritti umani, e segnalare senza indugio i fattori che potrebbero mettere a rischio la collettività o l’ambiente”.
In questa direzione si orienta anche il principio di reversibilità, ritenuta una “condizione necessaria per la controllabilità”, che “è un concetto fondamentale nel programmare i robot a comportarsi in maniera sicura e affidabile. Un modello di reversibilità indica al robot quali azioni sono reversibili e le modalità di tale reversibilità. La possibilità di annullare l’ultima azione o una sequenza di azioni permette agli utenti di annullare le azioni indesiderate e ritornare alla fase “corretta” del loro lavoro”. Un’indicazione sicuramente preziosa, ma che appare di difficile attuazione nel mondo reale dove, a differenza di quello prettamente digitale, un’azione fisica provoca spesso situazioni irreversibili.
Privacy e robotica
La capacità dei robot di acquisire informazioni, soprattutto quanto vengono impiegati in ambiti sanitari, comporta indubbie ripercussioni anche in termini di privacy. Da qui l’invito agli ingegneri robotici a “garantire che le informazioni private siano conservate in maniera sicura e utilizzate soltanto in modo appropriato. Inoltre, un ingegnere robotico dovrebbe garantire che le persone non siano identificabili personalmente, salvo in circostanze eccezionali e comunque soltanto con un chiaro e inequivocabile consenso informato. Il consenso informato della persona deve essere richiesto e ottenuto prima di qualsiasi interazione uomo-macchina. Di conseguenza, gli ingegneri robotici sono chiamati a definire e applicare le procedure per garantire il consenso valido, la riservatezza, l’anonimato, il trattamento equo e il giusto processo. I progettisti rispetteranno le eventuali richieste di soppressione dei dati e della loro rimozione da qualsiasi insieme di dati”.
Le ultime frasi della risoluzione europea riprendo un principio che, per molti versi, è lo spesso al quale devono attenersi gli OEM: “Di norma, il rischio di danno non dovrebbe essere superiore a quello incontrato nella vita normale, il che significa che le persone non dovrebbero essere esposte a un rischio maggiore o aggiuntivo rispetto a quelli cui sono esposte con il loro normale stile di vita. Il funzionamento di un sistema robotico dovrebbe sempre basarsi su un rigoroso processo di valutazione dei rischi, che dovrebbe essere improntato ai principi di proporzionalità e di precauzione”.Risoluzione del Parlamento europeo