QUALCHE NUOVO S/OGGETTO TRA ALGORITMI, INTELLIGENZA ARTIFICIALE, BIG DATA
I.1. Dalla storia dei desideri e dei simulacri umani – 2 ai moderni meccanism
3. La risoluzione del Parlamento europeo sulla robotica
I cenni di robotica, qui in breve proposti, richiedono che sia rinvenuta, per un verso, una definizione largamente condivisa di robot e di intelligenza artificiale, e, per l’altro, che la stessa de-
38 Ivi, Introduzione, lett. M.
39 Come noto: 1) Un robot non può recar danno a un essere umano né
può permettere che, a causa del proprio mancato intervento, un essere uma- no riceva danno; 2) Un robot deve obbedire agli ordini impartiti dagli esse- ri umani, purché tali ordini non contravvengano alla Prima Legge; 3) Un robot deve proteggere la propria esistenza, purché questa autodifesa non con- trasti con la Prima o con la Seconda Legge. A queste va aggiunta la legge 0, che con il suo carattere ‘meta’ è in grado di infrangere la prima legge: un robot, infatti, non può recar danno all’umanità e non può permettere che, a causa di un suo mancato intervento, l’umanità riceva danno.
finizione resti flessibile e non ostacoli l’innovazione. La questio- ne diventa tanto più importante se si considera che autonomia, caratteristiche, natura (struttura e funzione) del robot, mettono in evidenza l’inadeguatezza delle norme tradizionali, insufficienti per attivare sia la responsabilità in caso di danni causati da un robot – non sempre consentirebbero di determinare il soggetto responsabile del risarcimento –, sia la responsabilità contrattuale nel caso di macchine progettate per scegliere le loro controparti, come pure per negoziare termini contrattuali e concludere con- tratti. Del resto, già quelle enormi capacità dei computer di me- morizzare, confrontare e valutare in tempo reale rendono eviden- te che queste macchine non possono essere considerate meri stru- menti e che le nuove regole devono necessariamente tenere con- to di questo peculiare aspetto anche in vista di una eventuale re- sponsabilità legale di alcuni soggetti (quali l’analista, il fabbrican- te, l’operatore, il proprietario, l’utente, ecc.) per le azioni o le omis- sioni imputabili agli strumenti stessi e per i danni che si sarebbe- ro potuti evitare nel caso non si fossero seguite – decidendo qual- che volta in pochi attimi – le valutazioni, le proposte, le allerte dei medesimi. Circostanza questa che ricorda l’ammarraggio for- tunato dell’Airbus A320-214 nel fiume Hudson.
Conviene riprendere quanto detto: si definisce macchina men- tale quel che vive e si sviluppa nell’interazione con l’ambiente e che risponde in modo adattivo ed evolutivo alle sollecitazioni esterne tramite – a seconda delle diverse ipotesi – software, hard- ware, interfaccia omeostatica del corpo. Più in particolare, secon- do i principi generali riguardanti lo sviluppo della robotica e del- l’intelligenza artificiale per uso civile della già citata Risoluzione, le caratteristiche di un robot intelligente sono le seguenti: a) la ca- pacità di acquisire autonomia grazie a sensori e/o mediante lo scambio di dati con il proprio ambiente, e grazie allo studio e al- l’analisi di tali dati; b) la capacità di apprendimento attraverso l’e- sperienza e l’interazione; c) la forma del supporto fisico del robot;
d) la capacità di adeguare il suo comportamento e le sue azioni
all’ambiente; e) l’assenza di vita in termini biologici.
Del tutto evidente è l’importanza dell’ultima caratteristica (as- senza di vita in termini biologici), se si pensa alle recenti applica- zioni mediche dell’ingegneria biologica e della robotica, e con que- ste al progressivo cambiamento delle relazioni tra corpo e identità e alle nuove interazioni individuo-computer. Se ad esempio,
con Allucquère Rosane Stone, ci si domanda dove si trovava,
dove si fermava, chi era, come era Stephen Hawking, si può tran-
quillamente osservare che una parte importante dello scienziato si estendeva alla scatola posta sulle sue ginocchia. E non solo: come un’immagine allo specchio, una parte importante di quel silicio e di quella plastica assemblata sulle sue ginocchia si esten- deva analogamente in lui – per non parlare delle modalità invi- sibili, dislocate nello spazio e nel tempo, attraverso cui i discor- si di tecnologia medica e le loro estensioni corporee avevano e hanno già permeato sia lui sia noi. Altrimenti detto: niente sca-
tola, niente discorso!
“Senza protesi l’intelletto di Hawking sarebbe (stato) come un albero che cade nella foresta, senza che nessuno lo possa sentire. D’altra par- te, con la scatola la sua voce (era) al tempo stesso ascoltabile ed elet- trica, in un modo radicalmente diverso da quella di una persona che
parla al microfono. Dove si (fermava)? Quali (erano) i suoi confini? La
sua persona e le sue protesi comunicazionali (ponevano) dei problemi attinenti al concetto di delimitazione, di terra di confine/frontera” 40.
Quanto da ultimo osservato è legato a questioni e temi propo- sti dalla Risoluzione. Qui (Mezzi di trasporto autonomi 24-40), ol- tre a considerare i veicoli autonomi e i droni (RPAS), come pure il trasferimento di compiti dannosi e pericolosi dall’essere uma- no al robot, si rinvia in particolare ai robot impiegati per l’assi- stenza (di anziani, di persone affette da demenza o disturbi co- gnitivi), che senza disumanizzare le pratiche di accudimento, pos- sono svolgere compiti di ausilio automatizzati e agevolare così il lavoro di cura del personale sanitario. Si rinvia, inoltre, ai c.d. robot medici che continuano a migliorare le loro performance soprattutto nello svolgimento di mansioni di alta precisione e, da ultimo, si rinvia alle sempre più innovative protesi robotiche e ai più recenti software, i cui aggiornamenti sono essenziali per ovviare a malfunzionamenti e vulnerabilità, e d’altra parte la loro protezione è fondamentale per scongiurare il rischio di hacking, ovvero la possibile disattivazione o cancellazione della memoria dei CPS integrati nel corpo umano.
40 A.R. STONE, Desiderio e tecnologia. Il problema dell’identità nell’era di
4. ...e i suoi principi etico-giuridici
Le questioni sono complesse e diverse. Macchine della e per la
mente, macchine del e per il corpo, macchine del e per il corpo- mente, tutte richiamano comunque l’osservanza di principi e di
regole. Non a caso tecno-etica e robo-etica 41 conquistano sempre
più spazi, sia perché l’attuale sviluppo tecnologico entra in senso proprio nella vita delle persone – ora condizionandola e ora do- minandola –, sia perché l’interrogativo iniziale e fondamentale è diventato: tra un’assimilazione verso l’alto delle macchine all’uo- mo e, al contrario, un’assimilazione verso il basso dell’uomo alle macchine, sino a che punto si può spingere la tecnologia? E d’al- tra parte, anche il tecno-diritto via via si afferma, quale insieme di norme e procedure che sono prodotte dalla tecnica e dal diritto che in modo sinergico si sviluppano ed evolvono.
Considerando che la robotica ha implicazioni sociali, medi- che, bioetiche, la Risoluzione sotto il titolo Principi etici (punti 10 e 12) raccomanda di valutare l’uso della robotica dal punto di vista della sicurezza delle persone, della loro salute, della li- bertà, della vita privata, dell’integrità, della dignità, dell’autode- terminazione, della non discriminazione, nonché della protezio- ne dei dati personali. Di qui il rilievo dato al principio di traspa- renza, che in questo caso significa la possibilità di conoscere la logica alla base di ogni decisione presa con l’ausilio dell’intelli- genza artificiale e di ricondurre i calcoli di un sistema di IA a una forma comprensibile per l’uomo 42. Di qui ancora l’auspicio
41 Quale disciplina che ha come obiettivo quello di migliorare la comuni-
cazione tra uomo e robot, aiutare studiosi, stakeholder e opinione pubblica ad apprezzare l’uso positivo della robotica, prevenirne gli abusi (v. in tal sen- so, G. VERUGGIO,F.OPERTO, Roboethics: Social and Ethical Implications, in
B. SICILIANO,O.KHATIB (eds.), Handbook of Robotics, Berlin, Springer, 2008,
p. 1499 ss.).
42 Circa l’attenzione e il rilievo che l’Europa ha riconosciuto – e sta rico-
noscendo – all’Intelligenza Artificiale, merita d’esser qui ricordata la Co-
municazione della Commissione al Parlamento europeo, al Consiglio, al Co- mitato economico e sociale europeo e al Comitato delle regioni del 25 aprile
2018, recante L’Intelligenza Artificiale per l’Europa. Fra le finalità della Co- municazione quella di: 1) implementare gli investimenti nella ricerca e nel- l’innovazione; 2) preparare i cittadini europei ai mutamenti socioeconomici apportati dall’Intelligenza Artificiale; 3) predisporre e assicurare un quadro giuridico adeguato (Ulteriori indicazioni in materia sono reperibili anche
che i robot avanzati siano dotati di scatole nere, così da registra- re i dati di ogni operazione effettuata dalla macchina, includen- do i passaggi logici che hanno contribuito alle sue decisioni.
Un’attenzione speciale è inoltre riservata (punto 13) ai prin- cipi di beneficenza, non-malvagità, autonomia e giustizia, non- ché ai principi e valori sanciti all’art. 2 del Trattato sull’Unione Europea e nella Carta dei diritti fondamentali dell’Unione (qua- li la dignità umana, l’uguaglianza, la giustizia, l’equità, la non discriminazione, il consenso informato, la vita privata e fami- liare, la protezione dei dati). Attenzione speciale perché nell’al- legato Codice etico-deontologico degli ingegneri robotici i prin- cipi e valori accennati costituiscono l’orientamento di fondo per le azioni che in questo ambito si intraprendono.
Accanto a questi principi etico-giuridici, devono essere prese in seria considerazione le possibili soluzioni giuridiche relative al- la questione della responsabilità. La caratteristica prima dei robot avanzati, pur nella loro varietà (di qui l’esigenza di un sistema di registrazione valido nell’Unione Europea), è quella di essere dotati di capacità autonoma di adattamento e apprendimento, capacità questa che determina una interazione con l’ambiente in base alle esperienze diversificate di ogni IA e un certo grado di imprevedibilità nella loro azione. Se così, l’attuale normativa, e nonostante l’ambito di applicazione della direttiva 85/374/CEE, non è sufficiente a coprire i danni causati dalla nuova generazio- ne di robot (Principi generali – Responsabilità AI).
Si tratta intanto di capire quale approccio seguire, quello della responsabilità oggettiva, che richiede una semplice prova del dan- no avvenuto e l’individuazione di un nesso di causalità tra il fun- zionamento lesivo del robot e il danno subito dalla parte lesa, op- pure quello della gestione dei rischi, che si concentra sulla per- sona che, in determinate circostanze, è in grado di minimizzare i rischi e affrontare l’impatto negativo? La soluzione non è af- fatto semplice e, del resto, anche l’idea di responsabilità in que- sto ambito non è agevole. Si pensi, ad esempio, a eventi provo- cati in generale da un mal funzionamento del sistema e per i quali va accertata la responsabilità. Potrebbe, infatti, trattarsi di un errore del sistema, verificatosi ora nella fase di programma-
nella nota strategica del Centro di Strategia Politica della Commissione,
zione e ora in quella di esecuzione. In ogni caso, bisognerebbe comprendere di che tipo di sistema si tratta e che grado di inco- gnite di funzionamento ha, poiché se si dovesse trattare dei c.d. sistemi esperti, allora il cattivo funzionamento potrebbe essere determinato da cause insite nel motore inferenziale oppure nel- la base di conoscenza, la responsabilità, quindi, ricadrebbe su fi- gure diverse e occorrerebbe, inoltre, rinviare a più persone per il lavoro di équipe che solitamente viene intrapreso. Quando, poi, il cattivo funzionamento del sistema riguardasse la fase di esecu- zione, anche qui si tratterebbe di capire se sia l’operatore il vero responsabile, in quanto ha seguito procedure sbagliate o ha in- serito dati errati, o se non lo sia piuttosto colui che ha fornito le istruzioni e i dati a fondamento dell’attività stessa.
Sotto questo profilo, una possibile soluzione alla complessità dell’attribuzione della responsabilità per il danno causato da ro- bot avanzati potrebbe essere un regime di assicurazione obbliga- torio (punto 57) per produttori e proprietari di robot, integrato da un fondo che consenta di risarcire i danni in caso di assenza di copertura assicurativa (punto 58) e che dia la possibilità alle diverse figure di questa catena (produttore, programmatore, pro- prietario, utente) di beneficiare di una responsabilità per dir così limitata qualora sottoscrivano un’assicurazione e/o costituiscano un fondo di risarcimento.
Qualsiasi soluzione giuridica si scelga di seguire (ad esempio la creazione di un fondo generale per tutti i robot oppure di un fondo individuale per ogni categoria di robot, e ancora il ver- samento di un contributo una tantum all’immissione sul merca- to di un robot o versamenti regolari durante la vita stessa del robot), diventa ormai imprescindibile in particolare il c.d. nu- mero d’immatricolazione individuale, così da associare il robot al suo fondo e consentire a chiunque interagisca con il robot di essere informato sulla natura del fondo, sui limiti della respon- sabilità in caso di danni alle cose, sui nomi e sulle funzioni dei contributori e su tutte le altre informazioni pertinenti. In gene- rale, poi, diventa indispensabile non limitare le forme di risar- cimento che possono essere offerte alla parte lesa per il sempli- ce fatto che il danno è provocato da un soggetto non-umano (punto 59 a-f).