1. IL REGIME DI RESPONSABILITA APPLICABILE AI DRONI:
1.4. La responsabilità per danni causati da mezzi autonomi
1.4.3. La responsabilità dei sistemi autonomi di apprendimento
Tra i droni di ultima generazione, vi sono dei prototipi militari che sono coadiuvati da sistemi autonomi dotati dei cosiddetti “software di autoapprendimento”. Sebbene tali soluzioni siano, per il momento, appannaggio dei mezzi più sofisticati e non siano reperibili in commercio, non è da esclude che in un prossimo futuro essi conoscano una diffusione importante: già da tempo, infatti, i programmi di auto-apprendimento vengono adoperati nei programmi di traduzione automatica o per il riconoscimento d’immagini. Nonostante il loro crescente utilizzo, la società è ancore diffidente all’idea di lasciare a un computer i comandi di una macchina, un drone o addirittura di una nave. Basti pensare alle reazioni dell’opinione pubblica nei confronti delle recenti esperienze di guida autonoma di Uber453. Quello che spaventa maggiormente è proprio l’ipotesi
che possa verificarsi di un incidente grave imputabile ad un errore dell’algoritmo d’apprendimento.
A differenza dei sistemi automatizzati, nei quali le istruzioni sono immutabili, l’autoapprendimento permette l’evoluzione delle conoscenze in funzione del proprio vissuto. A questo scopo, l’algoritmo «ricorda» le esperienze passate e, tramite un ragionamento induttivo, le applica alla situazione presente, creando delle nuove regole. La laboriosità del meccanismo complica notevolmente l’attribuzione della responsabilità, poiché diviene quasi impossibile ricostruire il processo cognitivo che ha
(452) In relazione alle difficoltà incorse dai piloti di aeromobile per riprendere i comandi in seguito ad un errore del sistema automatizzato v. R. SCHMID, “Pilot in Command or Computer in Command? Observations on the conflict between technological progress and pilot accountability”, in Air
& Space Law, vol. XXV, n. 6, 2000, 286-287.
(453) Sull’incidente mortale che ha visto coinvolta una macchina a guida autonoma di Uber v.
http://www.repubblica.it/motori/sezioni/attualita/2018/03/19/news/uner_blocca_l_auto_a_guida_aut onoma-191701544/
portato a una specifica decisione454. Proprio in ragione della complessità
che caratterizza il funzionamento di questi programmi, non è da escludere che la persona legalmente riconosciuta come danneggiante in virtù delle disposizioni del Codice della Navigazione, cerchi di trasferire in tutto o in parte la propria responsabilità su altri soggetti. Tra le azioni eventuali da intraprendere vi sarebbe, ad esempio, la possibilità di agire in via obliqua nei confronti del produttore del mezzo o del creatore di software. Nei confronti del produttore potrebbe essere invocato l’art. 114 del codice del consumo, secondo il quale egli “è responsabile del danno cagionato dai difetti del suo prodotto”. Tuttavia, la legge esige che il difetto sia preesistente al momento in cui il prodotto è stato messo in circolazione455. Nel nostro
caso, l’algoritmo non è necessariamente nato difettoso ma può esserlo diventato nell’ambito del processo di apprendimento456. In conseguenza,
per invocare la responsabilità del produttore e sanzionare i difetti nati posteriormente alla messa in circolazione, sarebbe necessario modificare o quantomeno riformulare le cause d’esclusione enunciate dal codice del consumo457.
Un’altra soluzione potrebbe essere quella di creare una nuova tipologia di responsabilità per danno cagionato dall’autonomia decisionale del mezzo tecnologico458. Il pregiudizio sarebbe imputabile al creatore del
software, poiché deriverebbe da un errore nella programmazione dell’algoritmo. Per il programmatore la prova liberatoria consisterebbe,
(454) L.GODEFROY, « Les algorithmes : quel statut juridique pour quelles responsabilités ? », in Comm. com. électr., 2017, étude 18, 19. Nella risoluzione del Parlamento europeo del 16 febbraio 2017 recante raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica (2015/2103(INL)) si precisa al punto n° 12 che «dovrebbe sempre essere possibile indicare la logica alla base di ogni
decisione presa con l'ausilio dell'intelligenza artificiale che possa avere un impatto rilevante sulla vita di una o più persone”.
Inoltre, si “ritiene che debba sempre essere possibile ricondurre i calcoli di un sistema di intelligenza artificiale a una forma
comprensibile per l'uomo” e “che i robot avanzati dovrebbero essere dotati di una "scatola nera" che registri i dati su ogni operazione effettuata dalla macchina, compresi i passaggi logici che hanno contribuito alle sue decisioni”. Per raggiungere
questi traguardi è necessario favorire la trasparenza e la responsabilità dei costruttori, un fenomeno conosciuto con il nome di “accountability by design”.
(455) Art. 118 1b) del Codice del consumo.
(456) A.BENSAMOUN,G.LOISEAU, “La gestion des risques de l’intelligence artificielle – De l’éthique à la responsabilité”, in JCP G 2017, doctr. 1203, 2070.
(457) Art. 118 del Codice del Consumo, in particolare i punti 1b) e 1e).
(458) L.GODEFROY, « Les algorithmes : quel statut juridique pour quelles responsabilités ? », in Comm. com. électr., 2017, étude 18, 20.
119
allora, nel dimostrare che il danno era inevitabile, giacché attribuibile al cosiddetto “rischio tecnologico” 459.
Due brevi considerazioni meritano di essere aggiunte. Entrambe le proposte trasferiscono la responsabilità in capo ad un soggetto distinto dall’esercente, considerando il danno come una conseguenza di un errore o di un difetto di concezione460. Così facendo, si trasferisce il peso economico
dell’indennizzo che ricade in capo alle grandi aziende produttrici. È tuttavia necessario ricordare che, mentre gli algoritmi d’apprendimento sono frequentemente il frutto del lavoro di grandi gruppi internazionali, lo stesso discorso non vale per le aziende produttrici che possono avere anche dimensioni ridotte. Inoltre, l’introduzione di una tale responsabilità è vista essenzialmente come un freno allo sviluppo tecnologico. Le azioni precitate, infine, pur essendo in relazione diretta con un danno arrecato dall’impiego di un drone, esulano dal contenuto del Codice della Navigazione. Di conseguenza la responsabilità per danni generati da un mezzo autonomo risulterebbe disciplinata da disposizioni di diritto comune. Un fenomeno analogo, anche se di portata minore, è riscontrato nei confronti delle azioni a protezione della privacy e dei dati personali, in cui il pregiudizio è il risultato dell'impiego irriflessivo degli strumenti tecnologici che l’equipaggiano.
(459) La nozione di alea tecnologico proposta da Godefroy è commutata da quella di rischio terapeutico. L.GODEFROY, « Les algorithmes : quel statut juridique pour quelles responsabilités ? », in
Comm. com. électr., 2017, étude 18, 20.
(460) Merita di essere sottolineato il fatto che entrambe le tipologie di responsabilità sono allo studio anche in relazione alle auto autonome. Sul punto v. G. BENELLI, “Auto a guida autonoma: profili di responsabilità civile e prospettive di riforma”, in Diritto dei Trasporti, numero speciale, Atti dell’incontro di studi “L’automazione nei trasporti marittimi, aerei e terresti”, Cagliari, 9-10 novembre 2018, edizioni A.V., 2019, 357; C. SEVERONI, “Prime considerazioni su un possibile inquadramento giuridico e sul regime di responsabilità nella conduzione dei veicoli a guida autonoma, in Diritto dei trasporti, 2018, 351.
2. Problematiche legate alla privacy e alla protezione dei dati