• Non ci sono risultati.

La punibilità degli AI

3.6 Personalità giuridica e responsabilità penale degli AI

3.6.4 La punibilità degli AI

Una volta elaborati i modelli di responsabilità applicabili agli AI, e appurata la possibilità che siano ritenuti penalmente responsabili, Hallevy costruisce un sistema di pene applicabili, sulla base dei medesimi fondamenti teorici che il diritto penale prevede per gli esseri umani. Secondo l’autore, le pene previste dagli ordinamenti penali possono essere applicate, con alcuni adattamenti agli AI. Il vantaggio più significativo di tale adattamento è che il significato della pena rimane identico sia che si tratti di esseri umani, sia che si tratti di AI.

Così, Hallevy costruisce un sistema di equivalenze, per esempio tra pena capitale, che priva il condannato della propria vita, rendendolo ovviamente in- capace di commettere ulteriori reati in futuro, e la cancellazione del programma d’intelligenza artificiale che controlla l’AI. Una volta terminato il programma, l’AI sarà a sua volta incapace di commettere ulteriori reati. La cancellazione del programma, termina l’esistenza autonoma e indipendente dell’agente, nel- lo stesso modo in cui la pena di morte pone fine alla vita degli esseri umani. Ancora, nei sistemi giuridici occidentali, il significato della carcerazione per gli esseri umani risiede nella forte limitazione o privazione della libertà personale. La libertà di un AI, include la libertà di agire nella propria area di pertinenza, così una pena equivalente consiste nel mettere fuori uso l’agente per un periodo di tempo determinato, limitando la sua libertà di azione. La condanna ai servi- zi sociali ha una funzione risarcitoria rispetto al danno arrecato alla collettività e allo stesso modo un AI può essere impiegato per svolgere lavori di pubblica utilità, nelle aree più disparate. In conclusione, secondo Hallevy, le pene più co- muni previste dagli ordinamenti giuridici nazionali sono applicabili agli AI, con gli opportuni adattamenti, senza che tali sanzioni perdano la propria funzione e natura. L’autore sostiene ancora che gli AI non hanno un’anima, e alcuni di essi non hanno né anima né corpo, e tuttavia non vi sarebbe alcuna differenza giuridica sostanziale tra la ratio alla base della responsabilità penale imposta alle società e la ratio alla base di una responsabilità penale imposta agli AI.

Alcune prime considerazioni

Dopo aver analizzato i modelli elaborati dalla dottrina, per regolare le ipotesi in cui un AI ponga in essere una condotta astrattamente riconducibile a una fatti- specie criminosa, secondo i criteri del diritto penale, possiamo fare alcune prime considerazioni. La responsabilità penale delle persone giuridiche ha certamente costituito una svolta innovativa, nell’area del diritto penale, e i modelli utilizza- ti forniscono preziosi indizi, per costruire e approfondire un quadro dogmatico plausibile per la responsabilità penale degli agenti artificiali. Il diritto penale,

contrariamente a quanto possa immaginarsi a un primo sguardo, dimostra un certo grado di flessibilità qualora, per ragioni di politica criminale, tale flessibi- lità risulti necessaria e a condizione che certe premesse dogmatiche siano soddi- sfatte. Nel prossimo capitolo, proveremo a verificare più nel dettaglio se un AI sia potenzialmente in grado di soddisfare i requisiti dell’actus reus e della mens rea, analizzando il funzionamento e le tecniche utilizzate per costruire alcuni si- stemi d’intelligenza artificiale. Procederemo all’analisi di un caso concreto che, seppur non attinente alla sfera dell’e-health, a chi scrive, appare significativo del fenomeno, costruendo scenari e verificando possibili responsabilità di agen- ti autonomi intelligenti, produttori e utilizzatori del sistema, secondo i modelli di responsabilità qui esposti.

Inoltre, qualora riuscissimo a dimostrare la capacità di un AI di soddisfare i requisiti dell’elemento oggettivo e soggettivo del reato, dovremmo chiederci non tanto se sia possibile applicare il diritto penale agli AI, quanto piuttosto se dovremmo farlo, a quale scopo, e in che modo. Quale utilità avrebbe applicare sanzioni agli AI, nel modo in cui sono descritte da Hallevy? Esistono altri modi per regolare le ipotesi in cui un AI commetta dei reati? Ci sembra possibile fin da ora anticipare che, prima di arrivare ad applicare sanzioni penali agli AI, seppur con alcuni adattamenti, allo stato attuale, vi siano modelli di regolazione informatico-giuridica, utili a prevenire e a controllare l’emergenza di fenomeni criminali riconducibili agli AI.

Casi di studio, scenari e modelli di rego-

lazione

4.1 Una breve introduzione

Sulla base dei modelli presentati nella sezione 3.6, le prime sezioni di questo capitolo sono dedicate a verificare se un agente autonomo intelligente sia con- cretamente in grado di soddisfare i requisiti dell’actus reus e della mens rea, quali condizioni necessarie all’attribuzione di responsabilità secondo il diritto penale. In particolare, si è scelto di analizzare la capacità di un AI di soddisfare i requisiti del dolo, poiché esso rappresenta la più alta forma di intenzione. Qualora un AI sia capace di sviluppare forme di intenzione e volontà, si cercherà di verificare quali soluzioni siano disponibili per ridurre le ipotesi che un agente autonomo intelligente ponga in essere condotte criminose.

Nella sezione 4.5 sarà esaminato un caso concreto sulla base dei modelli di- scussi nel capitolo precedente. Il caso, seppur non attinente alla sfera dell’e- health, appare a chi scrive esemplificativo del fenomeno. Non sempre, infatti, è possibile attribuire la responsabilità per il reato compiuto da un AI a program- matori o utilizzatori, con il rischio che si verifichi un vuoto di responsabilità davanti a tali fenomeni e che questi diventino incontrollabili.

A tal fine saranno presi in considerazione alcuni dei modelli informatico- giuridici, utili a regolare i casi in cui un AI violi una norma, ponendo in essere una condotta criminosa che, se compiuta da un essere umano, sarebbe punibile secondo le leggi del diritto penale.

Infine, torneremo all’area dell’e-health, provando a costruire uno scenario che prenda in considerazione un sistema d’intelligenza artificiale utilizzato co- me supporto alla diagnostica e ad indagare i rapporti tra uomo e macchina, eventuali aspetti problematici e a delineare infine profili di responsabilità, nel ca- so in cui, da una diagnosi errata del sistema derivino danni al paziente. Cerche- remo anche di verificare l’applicabilità del principio di affidamento, di cui si è trattato nella prima parte del capitolo precedente, quale limite alla responsabilità penale del medico.

4.2 Requisiti per l’attribuzione della responsabilità pena-