• Non ci sono risultati.

Verso una visione socio-tecnica della responsabilità

Quando all’interno di un sistema socio-tecnico vengono introdotte tecnologie ad elevata automazione, inevitabilmente, la maggiore complessità del sistema porta con se un aumento della complessità dei compiti1. Da un lato, l’inno-

vazione tecnologica è in grado di aumentare le prestazioni complessive del si- stema, coadiuvando e migliorando il lavoro degli esseri umani e talvolta per- mettendo di intervenire laddove prima non era possibile - si pensi ai vantaggi apportati dai sistemi di chirurgia robotica mini-invasiva, che rendono oggi pos- sibile una chirurgia prima difficile o impossibile - dall’altro raramente riducono la complessità dei compiti e delle funzioni svolte dagli esseri umani.

La crescente complessità dei compiti e delle funzioni di controllo, si riverbera inevitabilmente sulla responsabilità, e in particolare sulla difficoltà di collegare in modo efficace la responsabilità ai compiti e ai ruoli all’interno dell’organizza- zione.

In un contesto di questo tipo, può essere utile definire in modo preciso l’al- locazione dei compiti, così da garantire una corrispondenza adeguata tra ruoli e responsabilità. Tuttavia, una mappatura univoca di compiti e responsabilità può non essere sufficiente a garantire la sicurezza e l’efficienza all’interno del siste- ma. Essa può talvolta rivelarsi inadeguata, specie all’interno di sistemi che non possono essere del tutto specificati e in cui è necessario stabilire compiti relati- vamente ampi e sovrapposti, talvolta ridondanti, e la cui realizzazione richiede una cooperazione flessibile tra gli agenti coinvolti2. All’interno di sistemi socio-

tecnici molto complessi, come il sistema sanità, l’interazione uomo-macchina è

1Woods, D. D. Behind human error. Ashgate Publishing, Ltd., 2010; Perrow,Normal accidents:

Living with high risk technologies, cit.

2Hollnagel, E. «The Human in Control: Modelling What Goes Right Versus Modelling What

spesso ricorsiva, dando vita ad un Sistema Cognitivo Integrato3. La nozione di

Sistema Cognitivo Integrato ha origine nelle teorie del controllo di supervisio- ne4. Secondo tali teorie, l’operatore umano rimane al vertice del sistema e può

sostituirsi ad esso, quando una particolare situazione lo richieda. Si pensi ai protocolli d’intervento in telechirurgia, che richiedono la presenza di un secon- do chirurgo in sala operatoria che possa sostituirsi al robot in caso di necessità; o nei casi di chirurgia robotica, alla presenza di un équipe formata all’assistenza dell’intervento robotico, sempre presente in sala operatoria, o ancora all’uso di sistemi esperti per la diagnostica.

A ciò si aggiunga che i sistemi presi in considerazione in questo lavoro, so- no intimamente connessi al cd. rischio da ignoto tecnologico. Tale espressione identifica un contesto di incertezza scientifica, in cui "le modalità del calcolo del rischio, come sono state sinora definite dalla scienza e dalle istituzioni legali, col- lassano."5. Secondo una parte della dottrina, negli odierni sistemi socio-tecnici,

il rischio di incidente diventa non solo ineliminabile, ma addirittura "normale"6.

Tali caratteristiche del sistema possono avere un notevole impatto sulla ri- partizione delle responsabilità. In tema di responsabilità penale legata all’uso di sistemi di automazione e d’intelligenza artificiale, all’interno del sistema sanità, sono state evidenziate alcune aree di particolare interesse, che saranno oggetto di trattazione nelle sezioni successive. In un ambiente così caratterizzato, è mol- to importante avere presente che i sistemi ad elevata automazione, e in particola- re i sistemi d’intelligenza artificiale, possono essere considerati come strumenti nelle mani degli operatori umani e, al tempo stesso, come agenti autonomi, che operano all’interno del sistema, contribuendo attivamente allo svolgimento di compiti e talvolta sostituendosi, in tutto o in parte, all’operatore umano.

In particolare saranno analizzate: (a) la responsabilità penale da prodotto di- fettoso, con riferimento alla responsabilità per danno da dispositivi medici difet- tosi; (b) la responsabilità medica, connessa all’uso di tecnologie ad alto rischio, nelle ipotesi di danni derivanti dall’uso di dispositivi difettosi; e (c) la respon- sabilità penale legata all’uso di sistemi d’intelligenza artificiale, caratterizzati da un elevato grado di autonomia e i modelli elaborati dalla dottrina per regolare tale fenomeno. Analizzando le tecnologie in uso nel settore sanitario, è emersa

3In questo senso, Hollnagel, E. Cognitive reliability and error analysis method (CREAM). Elsevier,

1998.

4Sheridan, T. B. «Human supervisory control of robot systems». In: Robotics and Automation.

Proceedings. 1986 IEEE International Conference on. Vol. 3. IEEE. 1986, pp. 808–812.

5Beck,«La società del rischio, trad. it», cit., 29.

6Perrow, C. Normal Accidents: Living with High Risk Technologies (Updated). Princeton University

Press, 1999. Nello stesso senso Centonze,La normalità dei disastri tecnologici: il problema del congedo dal diritto penale, cit.

la difficoltà di ricomprenderle tutte all’interno di un’unica categoria concettua- le, capace di definirne le caratteristiche in modo univoco. Esse hanno proprietà estremamente eterogenee e differenti tra loro, pur essendo accomunate da un elevato grado di automazione. Abbiamo evidenziato come alcune si caratteriz- zino principalmente come strumenti di ausilio per l’operatore umano, mentre altre, pur mantenendo tale caratteristica, si atteggino come agenti che operano autonomamente all’interno del sistema. Tali proprietà non possono che rifletter- si sia sui livelli di automazione dei singoli sistemi, sia sui profili di responsabilità che derivano dal loro impiego.

Prima di procedere con l’analisi della responsabilità da prodotto difettoso, è indispensabile dedicare una parte della trattazione alla qualificazione giuri- dica dei sistemi di automazione nell’e-health e alla disciplina applicabile, eu- ropea e nazionale. Come vedremo, essa, da un lato, è strettamente legata alla responsabilità da prodotto difettoso, e al tempo stesso è in grado di incidere sui profili della responsabilità del medico, per danni al paziente nelle ipotesi di malfunzionamento del sistema.

3.2 La qualificazione giuridica dei sistemi di automazione