3.6 Personalità giuridica e responsabilità penale degli AI
3.6.2 Secondo modello: The Natural Probable Consequence
Il secondo modello assume un profondo coinvolgimento dell’utente o del pro- grammatore nello svolgimento delle attività dell’AI. La responsabilità come Na- tural Probable Consequence si basa sulla capacità di programmatori e utenti di pre- vedere la potenziale commissione di reati da parte di robot e sistemi d’intelligen- za artificiale. Essi saranno penalmente responsabili del reato commesso dall’AI, se tale reato è la conseguenza naturale o probabile di un loro comportamento colposo o doloso.
Hallevy distingue due ipotesi principali che portano a esiti differenti. La prima si verifica quando programmatori o utenti non hanno intenzione di commettere alcun reato, ma a causa di un comportamento negligente, nel- la programmazione o nell’uso dell’AI, quest’ultimo commette un reato. Tra gli esempi proposti da Hallevy86, troviamo quello di un AI progettato per identifi-
care minacce provenienti da Internet e proteggere un dato sistema informatico. Pochi giorni dopo l’attivazione del software, l’AI comprende che il modo più efficace per rilevare tali minacce è accedere a siti internet e sistemi informatici, distruggendo qualsiasi software riconosciuto come una minaccia alla sicurezza del sistema protetto. L’AI commette il reato di accesso abusivo e danneggiamen- to di sistema informatico, nonostante il programmatore non abbia programmato l’AI, o l’utente non se ne sia servito, per commettere il reato. Questa ipotesi non permette di applicare il modello della Perpetration Through Another, che presume l’intenzione criminale del programmatore e/o dell’utente. Nel nostro esempio essi non sono a conoscenza del reato, e non lo hanno previsto, difettano del requisito dell’intenzione e non hanno partecipato alla condotta criminosa. Ciò
84ibid.
85ibid., 74 e ss.. Hallevy, descrive un agente semi-innocente come una parte negligente, non pie-
namente consapevole della situazione di fatto, mentre qualsiasi altra persona ragionevole, nelle medesime circostanze, avrebbe potuto essere a conoscenza della situazione.
che rileva ai fini di una responsabilità criminale del programmatore o dell’uten- te, secondo il modello della Natural Probable Consequence, è l’aver adotatto un comportamento negligente, penalmente rilevante nell’ipotesi in cui, secondo un criterio di normale diligenza, avrebbero dovuto prevedere la possibilità che il reato fosse commesso, evitando quindi il verificarsi del danno87.
La seconda ipotesi si occupa dei casi di responsabilità riconducibili alla fi- gura del concorso nel reato, vale a dire quando programmatori o utenti hanno programmato o utilizzato un AI per commettere un reato, ma l’AI ha deviato il proprio comportamento rispetto al piano originario commettendo un’altro rea- to, in aggiunta o in sostituzione al reato programmato. In questo caso Hallevy sembra fare ricorso a una particolare ipotesi di aberratio delicti, e in particolare alla figura del concorso anomalo nel reato, prevista da numerosi ordinamenti e dal nosro Codice Penale ex art. 11688. Secondo questo istituto, qualora il reato
commesso sia diverso da quello voluto da taluno dei concorrenti, anche questi ne risponde, se l’evento è conseguenza delle sua azione od omissione. Perché ricorra tale figura è necessaria la presenza di tre requisiti: a) l’adesione psichica dell’agente ad un reato concorsuale diverso; b) la commissione da parte di altro concorrente di un reato diverso; c) un nesso psicologico in termini di prevedi- bilità tra la condotta dell’agente compartecipe e l’evento diverso concretamente verificatosi. L’esempio di scuola è quello di un gruppo di correi che concorda inizialmente di commettere un furto: mentre uno dei partecipi si limita a fa- re da basista e palo, gli esecutori materiali commettono, in difformità dal piano criminoso originario, una rapina e un sequestro ai danni del soggetto rapinato89.
Similmente, Hallevy costruisce l’esempio in cui un programmatore progetta un AI per commettere una rapina in banca, senza prevedere nel piano criminoso, e a causa della propria negligenza, l’uccisione di un essere umano. Durante l’esecuzione della rapina l’AI uccide una delle persone presenti all’interno della banca, che aveva tentato di resistere alla rapina.
È necessario analizzare separatamente la responsabilità per il reato pianifi- cato e la responsabilità per in reato non pianificato.
Se il programmatore ha progettato l’AI per commettere il reato e l’AI ha agito come agente innocente, allora si applicherà il modello della Perpetration Through Another. Il programmatore o l’utente saranno gli unici ad essere penalmente responsabili per il reato pianificato, in quanto autori mediati. Nel caso in cui l’AI non sia un agente innocente, si avrà un ipotesi di concorso nel reato, applicando
87ibid.; idem,«Criminal Liability of Artificial Intelligence Entities: From Science Fiction to Legal
Social Control», cit.
88cfr., Cass., I, 23 febbraio 1995, n. 3381.
il modello della responsabilità diretta, esaminato nella sezione successiva, in combinazione alla responsabilità del programmatore.
Per il reato non pianificato è necessario un approccio diverso. Hallevy di- stingue tra intelligeza artificiale forte e intelligenza artificiale debole.
Se l’AI appartiene alla prima categoria, ed è in grado di soddisfare i requisiti della mens rea, sarà penalmente responsabile per il reato commesso, secondo il modello della Direct Liability, e la responsabilità del programmatore, o dell’u- tente, sarà determinata secondo il modello della Natural Probable Consequence, appena descritta. Essi saranno responsabili per il reato pianificato e per il reato non pianificato.
Se l’AI è qualificabile come un sistema d’intelligenza artificiale debole, e non è in grado di soddisfare i requisiti della mens rea, l’AI non sarà responsabile del reato non pianificato. Se si verificano queste condizioni l’AI è considrato un agente innocente. La responsabilità per il reato non pianificato rimane in capo al solo programmatore o utente, a causa del comportamento negligente in fase di progettazione o nell’uso dell’AI, e si aggiunge alla responsabilità per il reato pianificato, secondo il modello della Natural Probable Consequence.
In conclusione, se l’AI ha agito come agente innocente, non sarà responsabi- le né del reato pianificato, né del reato non pianificato. In queste circostanze le azioni dell’AI ricadono nel modello della Perpetration through another. Tuttavia, se l’AI non ha agito come agente innocente, alla responsabilità del programma- tore o dell’utente, secondo il modello della Natural Probable Consequence, si ag- giunge la responsabilità dell’AI, secondo il modello della responsabilità diretta, come descritto di seguito.