• Non ci sono risultati.

Primo modello: The perpetration through another

3.6 Personalità giuridica e responsabilità penale degli AI

3.6.1 Primo modello: The perpetration through another

Il primo modello affonda le proprie radici lontano nel tempo, e più in particolare nel modello della responsabilità vicaria, riconosciuta dal diritto civile e penale e un tempo basata sul concetto di schiavitù e proprietà80.

78 Si veda, Mind the Gap. The Lack of Accountability for Killer Robots, lo studio è di-

sponibile all’indirizzohttps://ildirittodeirobot.files.wordpress.com/2015/04/ arms0415_forupload_0.pdf. Si veda anche McFarland, T. e McCormack, T. «Mind the Gap: Can Developers of Autonomous Weapons Systems be Liable for War Crimes». In: Int’l L. Stud. Ser. US Naval War Col. 90 (2014), p. i

79Hallevy,When Robots Kill: Artificial Intelligence Under Criminal Law, cit.

80L’origine storica della responsabilità vicaria è certamente inquadrabile nella tradizione giu-

ridica romanistica, caratterizzandosi originariamente per la responsabilità del pater familias per i reati commessi dai membri della propria famiglia e dagli schiavi soggetti a patria potestà. Agli inizi del XIX secolo, l’evoluzione di questo modello ha portato a delineare tre ipotesi principali di responsabilità vicaria. La prima è riconducibile alla figura classica del concorso nel reato. Se più persone cooperavano nel commettere il medesimo reato si ricorreva alla figura del concorso, anche nel caso in cui fosse possibile riscontrare una relazione gerarchica tra i soggetti coinvol- ti. Tuttavia, nel caso in cui la relazione gerarchica fosse accompagnata da un gap informativo, o dall’uso di una posizione di forza per far sì che una delle parti coinvolte non fosse in grado di avere piena coscienza e volontà del fatto di reato, quest’ultima era considerata un agente inno- cente, e penalmente non responsabile per il reato commesso. Da questa ipotesi emergono le basi

Il modello della perpetration through another, già previsto da diversi ordina- menti nazionali, è stato formalmente accolto dal diritto penale internazionale, ex art. 25 comma 1, lett. a) dello Statuto di Roma della Corte Penale Internazionale là dove afferma che è personalmente responsabile anche chi ha commesso il fat- to through another person. Il perpetrator di un crimine è colui che realizza l’ipotesi criminosa attraverso l’azione o l’omissione di un’altra persona, utilizzando que- st’ultima come uno strumento per la commissione del crimine. Il reato, dunque, viene attribuito al soggetto che, dominando il fatto, utilizza l’autore materia- le del crimine come uno strumento, senza incidere sul piano della formazione della volontà di quest’ultimo81. L’autore mediato, ovvero il perpetrator, è rite-

nuto responsabile a prescindere dalla responsabilità dell’autore materiale. La naturale applicazione di questa forma di responsabilità si ha quando il reato è materialmente commesso da un agente innocente, penalmente non perseguibile perché, per esempio, ha agito in stato di incapacità o intossicazione, o perché in- fermo di mente o perché minore non imputabile. Il soggetto che materialmente realizza la condotta è solo uno strumento nelle mani di chi lo utilizza per realiz- zare il crimine. Tale forma si distingue pertanto da una forma di istigazione in cui l’esecutore materiale agisce con un’intenzione formatasi in tutto o in parte sotto l’impulso dell’istigatore.

Il primo modello presentato da Hallevy considera l’AI privo di capacità co- gnitive e assimilabile all’incapace di intendere e volere, o al minore non impu- tabile. L’AI è quindi un agente innocente e le sue capacità cognitive non sono sufficienti a incontrare i requisiti della mens rea. Esso è quindi lo strumento di chi architetta e commette il reato, il perpetrator. Come tale, è quest’ultimo a esse- re penalmente responsabile per la condotta criminosa (actus reus) dell’AI. L’ele- mento soggettivo del reato (mens rea) è, infatti, determinato dallo stato mentale

del modello dellaperpetration through another. L’agente innocente era considerato uno strumento funzionale alla commissione del reato di cui era penalmente responsabile il cosiddetto perpetrator. Tra la fine del XIX e l’inizio del XX secolo, emerge un terzo modello di responsabilità vicaria. La figura dell’agente innocente si espande fino a ricomprendere ipotesi non riconducibili a relazioni gerarchiche tra i soggetti coinvolti, come per esempio casi di coercizione o minacce. Nel corso del XX secolo, questo modello finisce per inglobare l’ipotesi dell’agente semi-innocente: tipicamente un soggetto negligente, non pienamente consapevole della situazione di fatto. Oggi molti ordina- menti riconoscono la figura dell’agente semi-innocente come parte del modello della perpetration through another, riconoscendo il semi-innocente responsabile del reato a titolo di colpa e le altre parti a titolo di dolo. L’esempio classico è quello dell’infermiera che si trova in sala operatoria con il chirurgo, il quale si accinge ad operare una persona che tempo prima aveva aggredito l’in- fermiera. Quest’ultima decide di infettare gli strumenti operatori, ingannando il chirurgo che li utilizza successivamente durante l’intervento. In caso di morte del paziente, l’infermiera rispon- de a titolo di dolo e se il chirurgo aveva l’obbligo di controllare la sterilità degli strumenti, sarà considerato un agente semi-innocente e risponderà a titolo di colpa.

del perpetrator82.

Esistono due candidati principali per il ruolo di perpetrator through another: il programmatore del software e l’utente. Il programmatore dell’AI potrebbe aver ideato e costruito un programma al fine di commettere un reato attraverso l’AI. Tra gli esempi portati da Hallevy c’è quello del programmatore che costruisce un robot operativo, intenzionalmente collocato all’interno di una fabbrica e il suo software è programmato per appiccare un incendio durante la notte, mentre i lavoratori non ci sono. Il robot appicca l’incendio ma sarà il programmatore, in questo caso perpetrator through another, ad essere penalmente responsabile per la condotta criminosa del robot, nel caso specifico incendio doloso. Il secondo candidato a svolgere il ruolo di autore mediato è l’utente, ovvero l’utilizzatore dell’AI. L’utente non ha progettato e programmato il software ma utilizza l’AI e il suo software per raggiungere scopi illeciti. L’esempio è quello dell’utente che acquista un robot domestico programmato per eseguire qualsiasi ordine datogli dal padrone. Il robot identifica il nostro utente come il padrone, che gli ordina di attaccare e assalire chiunque si introduca in casa. Il robot esegue l’ordine esatta- mente, attaccando l’intruso e provocandogli lesioni gravi. Questa ipotesi non è diversa dal caso in cui una persona ordini al proprio cane di attaccare qualsiasi intruso83. Il robot mette in atto la condotta criminosa ma sarà il programmatore

a rispondere del reato commesso dall’AI.

In entrambi gli scenari l’actus reus è posto in essere dall’AI, il programmato- re e l’utente non hanno compiuto nessuna azione conforme alla condotta crimi- nosa del reato specifico. Il modello della perpetration through another considera l’azione commessa dall’AI come se fosse stata commessa dal programmatore o dall’utente. La ratio alla base della responsabilità di questi ultimi risiede nel- l’uso strumentale dell’AI come agente innocente. La mens rea richiesta per l’at- tribuzione della responsabilità è imputabile al programmatore e all’utente, in entrambi gli scenari. Tutte le volte in cui un programmatore o un utente utiliz- zano un AI in modo strumentale per commettere un reato ricadono nella figura del perpetrator. Questo modello di responsabilità assume che l’AI sia completa- mente dipendente dal programmatore o dall’utente e non possa autogovernarsi e autodeterminarsi. Esso è valido per due scenari possibili. Il primo riguarda il caso in cui l’AI sia strumentalmente utilizzato per commettere un reato senza che l’utilizzatore o il programmatore si avvalgano delle capacità avanzate del- l’AI. Il secondo è il caso in cui si utilizzi un robot o un AI privo delle avanzate capacità cognitive dei moderni sistemi d’intelligenza artificiale. Tuttavia, l’AI è

82Hallevy,When Robots Kill: Artificial Intelligence Under Criminal Law, cit.; idem,«I, Robot—I,

Criminal”—When Science Fiction Becomes Reality: Legal Liability of AI Robots Committing Cri- minal Offenses», cit.; idem,«Criminal Liability of Artificial Intelligence Entities: From Science Fiction to Legal Social Control», cit.

utilizzato per la sua capacità di eseguire un ordine e commettere un reato. Un semplice cacciavite non può eseguire un ordine, diversamente da un cane che tuttavia non è in grado di eseguire ordini sofisticati e complessi, mentre un AI sì84. Il modello della perpetration through another non può, quindi, essere appli-

cato a ipotesi in cui l’AI decida di commettere un reato sulla base della propria esperienza o conoscenza. Non può essere applicato nel caso in cui commetta un reato pur non essendo stato programmato per commettere un reato specifico e nonostante questo l’AI abbia commesso un reato e, infine, nel caso in cui l’AI agisca come agente semi-innocente.85.