CAPITOLO 3: Gli aspetti etici dei sistemi cyber-fisici
3. Le iniziative per l’Europa
L'attenzione che è stata posta dalla commissione giuridica guidata da Mady Delvaux sugli aspetti etici dei sistemi CPS ha portato a una serie di iniziative che, con eccezione del reddito di cittadinanza e della tassazione del lavoro dei robot, sono state approvate dal Parlamento europeo per passare ora alla Commissione. Il principale intento della commissione giuridica è quello di creare un diritto univoco e armonizzato sulla materia dei robot e dell'automazione che vada a completare le mancanze del diritto in essere e che possa essere allargato a tutti gli stati membri cosicché non ci possano essere differenze nella tutela dell'uomo anche da parte dei robot. Un approccio basato su un livello di Unione può incentivare la diffusione di queste tecnologie oltre i singoli confini nazionali e contribuire, in questo modo, allo sviluppo degli stati e dell'intera Unione dal momento che la robotica e questi sistemi contribuiscono alla produttività, al benessere della società e, quindi, alla sua crescita.
L'Unione si prefigge l'obiettivo di creare uno strumento che possa delineare le linee guida per il corretto utilizzo dei robot e per sensibilizzare le persone che li utilizzano e coloro che li producono sugli effetti non sempre positivi che una loro costante e diffusa presenza possono creare. Questa guida deve basarsi su alcuni principi che pongono le loro radici nelle tre leggi di Asimov:
Beneficenza: i robot devono essere utilizzati nei migliori interessi degli uomini;
Non-malvagità: i robot non devono danneggiare gli uomini;
Giustizia: distribuzione equa dei benefici derivanti dall'uso dei robot e possibilità per tutti diusufruire dei care robot;
Autonomia: capacità di prendere una decisione in modo libero e informato sulla relazione chesi vuole avere con il robot.
e su tutti i principi e valore espressi nell'articolo 2 del Trattato sull'Unione Europea e nella Carta dei diritti fondamentali. Come riportato dal report europeo, i principi e valori che devono essere tenuti conto per tracciare la giusta disciplina in materia di robot sono:
"human dignity, equality, justice and equity, non-discrimination, informed consent, private and family life and data protection, as well as on other underlying principles and values of the Union law, such as non-stigmatisation, transparency, autonomy, individual responsibility and social responsibility" (Report UE- Mady Delvaux, 2017).
119
3.1 L'Agenzia europea
In questa materia, come in qualunque altra, l'Unione europea vuole riuscire a creare la massima collaborazione e interazione tra le parti coinvolte per fare in modo che ci sia un rispetto condiviso da tutti delle leggi e dei principi etici descritti.
Il modo proposto per mantenere questa collaborazione è la creazione di un'Agenzia Europea per la robotica e l'intelligenza artificiale che funga da punto di riferimento per informazioni tecniche, etiche e regolamentari rivolte alla pubblica amministrazione degli stati, non solo a livello di Unione ma anche di singolo stato membro. L'Agenzia ha il compito di trasmettere tutte le conoscenze utili per assicurare la massima consapevolezza sulla materia in modo che ogni Stato sia preparato a qualsiasi conseguenza e a cogliere tutte le opportunità e le sfide che le innovazioni gli presentano.
L'Agenzia, data la forte esigenza del suo ruolo, sarà totalmente autonoma e dotata di un proprio budget e di lavoratori esperti sia da un punto di vista tecnico, sia di quello etico. Questi esperti avranno il compito di controllare il rispetto delle norme nelle diverse applicazioni dei robot, di stabilire degli standard per garantire il miglior utilizzo e fornire nuove indicazioni comportamentali e principi qualora manchino e siano necessari.
3.2 La carta della robotica
Il lavoro di analisi che la commissione giuridica sta portando avanti ha portato anche all'identificazione di una Carta sulla robotica che contiene tutti i principi cui far riferimento qualora si presenti un problema di tipo legale ed etico con i robot. Questo codice di principi dovrà essere realizzato sulla base di diversi casi che si possono presentare e che permettono di valutare se un particolare comportamento sia giusto o sbagliato così da individuare la soluzione più appropriata tenendo conto dei valori e principi. La funzione di questo codice è di facilitare la categorizzazione etica dei robot, spingere a un'innovazione nella robotica responsabile ed educare il pubblico alle problematiche più attuali.
I principi fondamentali riportati nella Carta dei robot sono legati ai principi generali dell'Unione europea della dignità e libertà umana fisica e psicologica, rispettati nell'interesse del benessere e dell'autodeterminazione dell'individuo e della società. Questi principi sono39:
1) Precauzione: la ricerca nella robotica deve essere portata avanti nel rispetto dei principi di precauzione e anticipando gli effetti positivi e negativi che si potrebbero presentare e individuando le giuste precauzioni verso questi effetti;
2) Completezza: i produttori di robot devono assicurare la massima trasparenza d’informazioni a tutti coloro che utilizzano i robot, e assicurare una compartecipazione nel decision making;
120
3) Responsabilità: gli ingegneri robotici dovranno essere responsabili di tutti gli impatti sociali, ambientali e fisici che i robot potrebbero causare ora e in futuro;
4) Sicurezza: gli ingegneri e i designer devono tenere in considerazione e rispettare il benessere fisico, la sicurezza, la salute e i diritti delle persone rendendo noti quali sono i fattori pericolosi per la vita e l'ambiente;
5) Reversibilità: la capacità di annullare le ultime azioni del robot permette di evitare conseguenze indesiderate e ripartire da uno stato più positivo;
6) Privacy: i produttori devono garantire alla persona che la sua privacy sia totalmente tutelata, che le informazioni siano usate nella massima confidenzialità e nel modo più corretto possibile, assicurando la loro eventuale eliminazione dai dataset su richiesta della persona;
7) Massimizzare i benefici e minimizzare il danno: lo scopo dell'impiego dei robot è di aiutare e sostenere l'operato di una persona, quindi non deve arrivare a danneggiarla. E' importante che si faccia una valutazione del rischio a priori sulla base dei principi di precauzione e di proporzionalità per poi limitarne i danni più gravi.
La disciplina cui cerca di puntare la commissione può essere rappresentata nella forma di un codice di condotta indirizzato ai costruttori di robot, ma anche ai progettatori e agli utilizzatori basata sui principi descritti sopra.