• Non ci sono risultati.

L’applicazione dell’articolo 2052 cc, relativo ai danni cagionati da animali, potrebbe sembrare frutto di un’ipotesi dalle connotazioni grottesche. Tuttavia, l’idea ad un’attenta analisi è meno azzardata di quanto sembri. Almeno due opinioni autorevoli infatti si muovono in questa direzione, sebbene di diversa natura.

La prima, di natura filosofica nasce dal “discorso sul metodo” del filosofo Cartesio168, già trattato precedentemente in queste pagine. Come visto il pensatore francese già nel 1600 stabiliva un parallelismo tra animali e automi, introducendo l’argomento del meccanicismo dei corpi, e riconducendo entrambi nella categoria della “res extensa”. Per Cartesio non vi era differenza tra gli animali e

gli automi, considerando appunto gli animali come corpi “meccanici” privi di res cogitans.169

La seconda ipotesi di parallelismo invece è di concreta giurisprudenza. Si tratta infatti del caso “Popov vs Hayashi” deciso dalla Suprema Corte della California nel 2002. Il giudice McCarthy si trovò a decidere una controversia in merito al diritto di possesso di una palla da baseball afferrata da spettatori della partita, e decise di utilizzare come precedenti casi relativi alla cattura di animali in fuga. In questo caso il giudice ha voluto evidenziare la presenza di similarità tra il comportamento di un animale e il moto della palla. Così come l’animale infatti, l’oggetto in moto è capace di muoversi “autonomamente” in uno spazio circostante.170

L’articolo 2052 cc, nel caso di danno procurato da animale, sarà il proprietario, o chi ha “uso”, dell’animale stesso, responsabile non per condotta colposa o dolosa (sia essa

169Allo stesso modo comparazioni tra le ”menti” di animali e robot sono state oggetto di studio da istituti di ricerca quale ad esempio l’MIT, che nel 1993 ha pubblicato un testo dal titolo “Intelligent behaviour in animals and robots” di David McFarland

commissiva o omissiva) ma in virtù di una responsabilità oggettiva sulla base del rapporto tra lo stesso e l’animale e di un nesso causale tra l’attività dell’animale stesso e l’evento dannoso.171

Anche in questo caso, prova liberatoria è fornita dalla dimostrazione del caso fortuito.

Tuttavia, una possibile obiezione (di natura evidentemente non ontologica) è riscontrabile nell’analisi del comportamento del robot autonomo, se paragonato a quello di un animale. Sebbene adeguatamente istruito infatti, l’animale, è mosso principalmente da istinti, difficilmente paragonabili ad una attività “cognitiva” come quella del robot autonomo. Allo stesso modo, l’attività del robot autonomo è forse ancor più imprevedibile di quella di un animale, caratteristica che renderebbe (così come visto per l’ipotesi della custodia) troppo gravoso l’impegno del proprietario del robot, necessario ad escluderne la responsabilità.

171Come confermato dalla corte di Cassazione con sentenza 28 luglio 2014 numero 17091

8 Le proposte di regolazione in campo europeo

Il campo della responsabilità extracontrattuale degli agenti robotici è probabilmente quello che suscita maggiori perplessità in sede europea, dovute ad un’assoluta inadeguatezza del quadro normativo attuale.

Tale inadeguatezza viene sottolineata nella risoluzione approvata dal Parlamento europeo del 16 Febbraio 2017 , riguardante principi di diritto civile applicato alla robotica. 172

Nel campo della responsabilità extracontrattuale, sottolinea il testo, la normativa attualmente applicabile al danno provocato da robot autonomo, risulta essere la direttiva 85/347/CEE, la quale però, come visto, “copre soltanto i danni causati da difetti di fabbricazione dei robot e a condizione che la persona danneggiata sia in grado di dimostrare il danno effettivo, il difetto del prodotto e la

172Su proposta di una commissione giuridica guidata dall’europarlamentare lussemburghese Mady Delvaux.

connessione causale tra difetto e danno”173 configurando così un’ipotesi di responsabilità oggettiva nei confronti del produttore. Si sottolinea inoltre come la suddetta direttiva non sia in linea con i moderni robot, i quali godono di un’ampia autonomia, di una capacità di apprendimento e adattamento che “implica un certo grado di imprevedibilità nel loro comportamento”174. L’assoluta imprevedibilità delle loro azioni renderebbe quindi troppo gravosa la responsabilità oggettiva del produttore.

La responsabilità oggettiva resterebbe comunque, nelle intenzioni dei relatori, lo strumento centrale del sistema, accompagnato però da una “semplice prova del danno avvenuto e la dimostrazione del nesso di causalità tra il comportamento lesivo del robot ed il danno subito dalla parte lesa”. Il risarcimento del danno, si sottolinea, “non dovrebbe in alcun modo limitare il tipo o l’entità dei danni risarcibili, né limitare le forme di risarcimento che possono essere offerte alla parte lesa”. La più grande innovazione

173Norme di diritto civile sulla robotica- Risoluzione Parlamento europeo16 Febbraio 2017

alla disciplina sarebbe dettata però dalla previsione di una responsabilità “mobile” che si configuri come proporzionale al livello di autonomia del robot (ed alla sua capacità di apprendimento), ed all’effettivo livello di istruzioni impartite al robot. Infatti bisogna commisurare il livello di responsabilità del soggetto, definito “insegnante”, e distinguere nettamente le azioni dettate dalla sua “educazione” dalle azioni frutto dell’auto apprendimento del robot stesso. In questo modo, tanto maggiore è l’autonomia del robot, tanto minore dovrebbe essere la responsabilità delle altre parti.

Vista la complessità del problema riguardante l’attribuzione di responsabilità, il progetto di relazione individua un’ulteriore possibile soluzione, ovvero la nascita di un regime di assicurazione obbligatoria sul modello dell’assicurazione obbligatoria per i veicoli. In tale modello, sarebbe il produttore a dover stipulare una polizza assicurativa che copra gli illeciti (civili) posti in essere dal robot autonomo prodotto. Il modello di assicurazione

obbligatoria potrebbe inoltre essere integrato da un fondo “generale” che in primis garantisca il risarcimento in caso di mancata stipula della polizza, ma che inoltre consenta di condurre investimenti, donazioni, retribuzioni dei robot “intelligenti”. Tale fondo costituirebbe inoltre un beneficio per programmatore e proprietario, i quali potrebbero godere in tale caso di una forma di responsabilità limitata, in quanto i soggetti elettronici sarebbero dotati di un fondo di riferimento al quale le parti contribuirebbero in proporzione variabile, con la possibilità che determinate categorie di danno possano essere risarcite solo entro il limiti del fondo.

Per quanto riguarda i versamenti al fondo, questi potrebbero essere determinati in via normativa, scegliendo tra la soluzione “una tantum”(all’immissione del robot sul mercato) o versamenti regolari durante la vita del robot. Altra scelta di natura “tecnica” alla quale la commissione dovrebbe far fronte riguarda la natura del fondo. Lo stesso infatti potrebbe essere rappresentativo di tutti i robot in

commercio o di natura “settoriale” secondo quelle che sono le caratteristiche dei robot stessi. Tale fondo, qualunque fosse la sua natura, sarebbe correlato all’agente attraverso un numero di immatricolazione individuale fornito ad ogni agente, attraverso il quale chiunque interagisca con lui possa ricevere informazioni sulla natura del fondo, sulle limitazioni di responsabilità in caso di danno alle cose e su altre informazioni pertinenti.

Il testo approvato dal Parlamento Europeo, inoltre, auspica un intervento della Commissione anche sul piano etico, considerando che i rischi derivanti dallo sviluppo della robotica debbano essere valutati in modo serio per salvaguardare la sicurezza di cittadini. Per raggiungere tale scopo vengono previsti anche codici di condotta per ingegneri robotici, così da regolare anche la fase di sviluppo del prodotto, colmando una delle lacune evidenziate con riferimento alla direttiva macchine175.

175Direttiva 2006/42/CE del Parlamento europeo e del Consiglio, del 17 maggio 2006 , relativa alle macchine e che modifica la direttiva 95/16/CE

Conclusioni

La recente risoluzione del Parlamento europeo sulle norme di diritto civile sulla robotica sembra evidenziare un approccio politico che porti alla nascita di un complesso unitario di norme che regolino gli aspetti relativi alla responsabilità degli agenti robotici. Sembra infatti che il Parlamento europeo abbia stabilito che, nel campo della robotica, il sistema normativo non sia sufficientemente adeguato a regolare la materia, e dunque non abbastanza “elastico” da poter richiedere l’applicazione delle norme già presenti nel sistema stesso. Decisiva a giustificare la scelta unitaria è la crescente ambizione e velocità di sviluppo della robotica, la quale, pur facendo riferimento a diverse altre discipline per mettere a punto i propri prodotti, sembra dover godere di una dignità giuridica propria, presentando caratteristiche specifiche e distinguibili176.

L’approccio unitario sembra infine giustificato poiché un quadro completo di diritti e doveri potrebbe essere di supporto ai piani di sviluppo, ricerca ed investimento degli operatori del campo della robotica favorendo dunque lo sviluppo del mercato nella garanzia del rispetto dei diritti fondamentali.177

Tuttavia, anche la trattazione unitaria, come evidenziato dagli studiosi del progetto Robolaw178, un consorzio interdisciplinare condotto tra giuristi ed ingegneri focalizzato su singoli casi di studio, coordinato dalla scuola Sant’Anna di Pisa, presenta delle complessità.

Il progetto infatti ha evidenziato come una rappresentazione unitaria del fenomeno della robotica sia impossibile, considerata l'estrema diversità delle applicazioni robotiche. A questo proposito, un ruolo cardine, potrebbe essere affidato alla soft law.

La regolazione privata potrebbe infatti dimostrarsi più adeguata della legislazione nel fornire regole tecniche e

177Ibidem

standard, benché questa presenti aspetti critici legati alla legittimazione democratica degli enti da cui le prescrizioni stesse hanno origine.

L’auspicabile intervento della Commissione europea in materia sarebbe l’unico evento probabilmente idoneo, sia esso favorevole all’approccio unitario o a quello eccezionale, a fugare i dubbi sulle norme da adottare in tema di responsabilità scaturente dal danno ingiusto provocato da un robot.

BIBLIOGRAFIA

Allen, Widdison, Can Computers Make Contracts? In Harv. J. L & Tech

26 (1996)

Asimov, Tutti i miei robot, in Oscar Mondadori, 1989. Bacchi, Robot arma del futuro? Disponibile online presso

http://www.retedellapace.it/wp-content/uploads/2014/06/Bacchi- Droni-maggio-2014.pdf

Bertolini, Andrea, Insurance and risk management for robotic devices:

identifying the problems, in Global Jourist (2016) n1

Bellotti, Glossario di diritto. Alpha Test 2002.

Biasiotti, Romano, Sagri, La responsabilità degli agenti software per i

danni prodotti a terzi in Informatica e Diritto, vol XI, 2002, n2, pp 157-

167.

Bourgeois, Loiseau, Du robot en droit à un droit de robots in La

semaine juridique édition générale n48, 2014.

Chipman Gray, The nature and sources of the law in Columbia

University Lectures, Columbia University Press 1909.

Chopra, White, Artificial Agents and the Contracting Problem: A

Solution Via an Agency Analysis (April 13, 2010) in University of Illinois Journal of Law Technology & Policy, p. 363, 2009.

Cicu, Gli automi nel diritto privato, 1901, in Scritti minori, Milano 1965.

Descartes, Discorso sul metodo (1637) in edizione Oscar Classici,

Mondadori, 2000

Finocchiaro, La Conclusione del Contratto Telematico Mediante i

“Software Agents”: un Falso Problema Giuridico? In Contratto e impresa, n.2, 2002.

Hildebrandt, Jaquet-Chifelle Koops , Bridging the Accountability Gap:

Rights for New Entities in the Information Society? in 11 Minn. J.L. Sci. & Tech. 497,2010.

Harrison, Holder, Khurana, Jacobs, Robotics and law: Key legal and

regulatory implications of robotic age in Computer Law and Security Review 32, 2016

Hobbes- Il Leviatano, 1651, Biblioteca Universale Laterza, 2008

Irti, Scambi senza accordo, in Rivista trimestrale diritto e procedura

civile I/1998, pp.347-364 1997

Locke, Two Treatises of Government 285-302,Peter Laslett ed.,198, 1690.

Karnow, Liability for Distribuited Artificial Intelligences, in 11 Berkely

Tech, L.J. 147, 1996

Maggiolo, il contratto predisposto, CEDAM 1996.

Marini, Aprea , Le Guidelines on regulating robotic:una sfida per il

diritto dell’Unione, Osservatorio sul diritto della bioetica N.5/2015.

Matthias, Automaten AIS Tragen von Rechten. Pladoyer fur eine

Gesetzanaderung in Berkeley Electronic Press Selected Works., 2008. Onida, Romano, Santoro, Agenti Elettronici e Rappresentanza

Volontaria nell’Ordinamento Giuridico Italiano in Informatica e diritto

Vol XII, 2003, n.1-2 pp197-214.

Palmerini, Erica, Robotica e diritto: suggestioni, intersezioni sviluppi a

margine di una ricerca europea in Responsabiltà Civile e Previdenza,

Giuffrè editore, pp 1816-1850, 2016

Putnam, I robot: macchine o vita creata artificialmente? In Mente

Sartor, Gli agenti software: nuovi soggetti del ciberdiritto? In

Contratto e Impresa, 2, 2002. pp.466 e ss.

Searle, Minds, brains, and programs. Behavioral and Brain Sciences 3 (3): 417-457.

Solum, Legal Personhood for Artificial Intelligences in North Carolina

Law Review, Vol. 70, p 1231, 1992.

Stanzione, Biodiritto Postumano e Diritti Fondamentali,

www.comparazionedirittocivile.it, 2012

Taddei Elmi- Soggettività artificiali e diritto, 2004.

Turing, Computer Machinery and Intelligence, Mind, 59, 433-460. 1950

Wetting, Zehendner, The electronic Agent: a Legal Personality Under

German Law? In proceedings of the law and electronic agents workshop pp97-112, Oskamp & Weitzenbock Edson.2003

Documenti correlati