Processo penale e Intelligenza Artificiale. Position Paper / 1

Testo completo

(1)

Processo penale e Intelligenza Artificiale

Position Paper / 1

(2)
(3)

Processo penale e Intelligenza Artificiale

Conversazione 20 ottobre 2020

DANILA APREA

Cura e Revisione dei testi

(4)

La presenza delle tecnologie legate all’intelligenza artificia- le caratterizza ormai il nostro mondo ed anche le nostre vite molto più di quanto non se ne abbia comunemente coscien- za. Basta, per rendersi conto di ciò, rifarsi alle cifre fornite dal report Global Digital 2019: nel 2018 il numero degli utenti di internet nel mondo ha superato i 4 miliardi; oltre la metà dell’intera popolazione mondiale è oggi connessa alla rete. A ciò si aggiunga che nel 2020 i dispositivi collegati al web sono stimati in 50 milioni, mentre nel 2014 erano 10 milioni.

Un gran numero di dati e di statistiche evidenziano lo straor- dinario impatto prodotto dalla rivoluzione tecnologica sulla società, sull’economia e sulla cultura; tuttavia, per rendersi conto di quanto le nostre vite siano condizionate dai disposi- tivi elettronici è sufficiente, come è stato di recente ricorda- to (Casini), guardarsi intorno. È sufficiente ritrovarsi in uno spazio pubblico, con altra gente, in una stazione o in una me- tropolitana, per constatare che tutti stanno consultando (o, meglio, compulsando) il proprio smartphone.

Veramente le tecnologie digitali sono penetrate nelle nostre vite: lo esprime in modo assai efficace Dyson, quando, nel suo volume su Turing (La cattedrale di Turing. Le origini dell’universo digitale) afferma che “Facebook definisce chi siamo, Amazon definisce cosa vogliamo e Google definisce cosa pensiamo”.

Sembra che le domande più significative della riflessione umana – quelle sulla coscienza di noi stessi e sul nostro de- stino, sulla direzione della nostra volontà, sul contenuto del nostro pensiero e sulle nostre aspirazioni – debbano ormai trovare risposte nelle iniziative dei grandi players del mercato dell’intelligenza artificiale.

Le grandi innovazioni tecnologiche, come tutte le grandi sco- perte, non si limitano ad aggiungere novità all’esistente, ma lo plasmano e lo modificano, gli danno contenuti nuovi, esi- gono pensieri nuovi e nuove forme organizzative dei poteri pubblici e della società.

Siamo entrati in una lunga ma veloce era di transizione, la transizione da una società analogica ad una società digi- tale. È per tale ragione che autorevoli commentatori della vita pubblica hanno posto in luce come l’avvento del web e degli strumenti di intelligenza artificiale abbiano, in qual- che modo, messo in crisi le tradizionali nozioni di governo, di Stato ed anche le forme della democrazia. Sabino Cassese parla espressamente di democrazia elettronica, alcuni autori pongono in connessione l’avvento del web con l’incremento del populismo (Y. Meny, Popolo ma non troppo. Il malinteso de- mocratico), mentre altri (S. Levinsky e D. Ziblatt) vedono in questo processo una vera e propria morte della democrazia (Come muoiono le democrazie). C’è, infine chi parla di capita- lismo della sorveglianza (S. Zuboff). D’altra parte, lo stesso Mark Zuckeberg ha affermato che Facebook sarebbe “more

ALESSANDRO PAJNO

Presidente emerito del Consiglio di Stato e direttore scientifico della Fondazione Leonardo – Civiltà delle Macchine

(5)

like a government than a traditonal company”.

L’emersione di tecnologie caratterizzate da sistemi di intelli- genza artificiale ha, così, inaugurato una stagione di dibattito fra i soggetti pubblici e privati in ordine alle principali que- stioni etiche, giuridiche, sociali, costituzionali poste dall’im- piego di tali tecnologie ed alle conseguenze sulla stessa vita istituzionale e democratica.

È su una condizione sociale ed istituzionale di questo genere che si è abbattuta la pandemia da coronavirus, contribuendo ad una accelerazione senza precedenti della transizione di- gitale.

La pandemia ci costringe a cambiare le nostre vite e le nostre relazioni. La pandemia ha introdotto limitazione dei diritti fondamentali che non avremmo mai immaginato, forme di distanziamento sociale destinate a durare nel tempo e che rischiano di mettere a repentaglio la nostra attitudine alla so- cialità, un conflitto fra salute come diritto soggettivo e salute come interesse collettivo, un conflitto fra tutela della salute ed esigenze dell’economia.

Le risposte a questi conflitti sono fornite anche con l’aiuto del web e con i sistemi di intelligenza artificiale: al distanzia- mento si risponde con i collegamenti da remoto, al conflitto fra diritto alla salute e interesse collettivo con il tracciamento elettronico, ai difficili rapporti tra diritto ed economia anche con l’uso di algoritmici e strumenti di intelligenza artificiale.

La pandemia ha accelerato in modo significativo anche i cambiamenti dello Stato e della modalità di esercizio del- le sue funzioni. Alcuni di essi hanno caratterizzato in modo specifico la funzione giurisdizionale ed il servizio giustizia:

il processo telematico, il processo da remoto, il processo al- goritmico, la calcolabilità giuridica, la giustizia predittiva, la decisione robotica sono altrettante regioni di un universo per molti aspetti ancora da esplorare

Si aprono, così, questioni nuove, che attengono all’accessibi- lità degli algoritmi, al contraddittorio, all’istruttoria, alla for- mazione della prova, all’indipendenza del giudice ed alla sua capacità di tener conto dei precedenti senza perdere l’oriz- zonte del cambiamento.

Questi problemi riguardano l’esercizio della giurisdizione, e quindi i diversi tipi di processo che l’ordinamento conosce;

tuttavia assumono un valore per dir così esemplare nel pro- cesso penale, proprio perché esso riguarda la sanzione stre- ma, che mette in discussione la libertà personale e perché in esso la questione della costruzione della prova, della prova scientifica, del rapporto tra uomo e macchina assumono il volto di una sfida che mette in discussione la persona umana e, con essa, la dimensione quotidiana della democrazia.

La Fondazione Leonardo ha scelto di seguire con attenzione questa faticosa transizione verso un umanesimo digitale; è

(6)

proprio la speciale rilevanza per la vita democratica di que- gli aspetti della transizione che riguardano la giurisdizione penale che essa ha scelto di iniziare la propria riflessione in comune con i propri amici con questo incontro su processo penale ed intelligenza artificiale.

Occorre partire dalla definizione dello statuto epistemologico e costituzionale del processo penale moderno, la cui funzione cognitiva e aletica s’ispira al modello occidentale del raziona- lismo critico: il “paradigma indiziario o divinatorio” a fronte del

“paradigma galileiano o scientifico” (C. Ginzburg, Spie. Radici di un paradigma indiziario, in Crisi della ragione, Einaudi, 1979). Il processo penale s’innerva, infatti, intorno ai concetti di ipo- tesi e fatti, indizi e prove, verità e dubbio, conferma e falsifi- cazione dell’ipotesi, giustificazione razionale della decisione, controllo impugnatorio della motivazione. Di qui, l’ormai ac- quisita consapevolezza della valenza soltanto probabilistica del giudizio di conferma dell’enunciato di partenza, in fun- zione dell’accertamento dell’ottimale corrispondenza, vero- simiglianza, plausibilità dell’ipotesi rispetto al fatto realmen- te accaduto nel passato (lost facts). Il paradigma indiziario postula, cioè, non la certezza o verità materiale e assoluta, ma l’alta credibilità razionale della soluzione decisoria di confer- ma dell’enunciato di accusa, in termini di alta e qualificata probabilità.

Nel trial by probabilies si annida il rischio che la decisione pos- sa essere inficiata da distorsioni o errori cognitivi del giudi- ce (Kanheman-Slovic-Tversky, Judgement under Uncertainty, Heuristics and Biases, Cambridge University Press, 1982), per ridimensionare il quale l’ordinamento giuridico appresta una fitta rete di regole epistemologiche e di legalità sia del proce- dere che del ragionamento probatorio. Esse s’ispirano ai me- tavalori costituzionali che disciplinano il “giusto processo”: la presunzione di innocenza dell’imputato e l’onere della prova a carico soltanto dell’accusa; il principio del contraddittorio come metodo dialettico di verifica delle prove e di ricerca del- la verità; il giudizio conclusivo di conferma o falsificazione dell’ipotesi, nel contesto di una motivazione e alla stregua del criterio dell’ “al di là di ogni ragionevole dubbio”; il controllo im- pugnatorio di legalità e di logicità della giustificazione.

In estrema sintesi: la legge (art. 101, comma 2 Cost.) e la ra- gione (art. 111, comma 6 Cost.) costituiscono presidi della ra- zionalità del giudicare e fonti di legittimazione della giurisdi- zione e dei giudici.

2. Nel vedere due filosofi che si affrontavano in una disputatio Leibniz invitava entrambi a “sumere calamos e abacos”, le tavo- lette di calcolo, e attraverso la formalizzazione del linguaggio

GIOVANNI CANZIO

Presidente emerito della Corte di Cassazione

(7)

e dei concetti, a convertirsi in “calculatores” per risolvere cor- rettamente la controversia. Al “Calculemus” di Leibniz (1684) rispose negli anni ’30 del secolo scorso B.N. Cardoso, giudice della Corte Suprema USA, sostenendo che “ancora non è stata scritta la tavola dei logaritmi per la formula di giustizia”.

Da alcuni decenni si assiste tuttavia alla decisa irruzione nel processo penale della prova tecnologica e scientifica, e, an- cora più di recente, al progressivo ingresso di varie e inedite forme di intelligenza artificiale.

Va emergendo il fenomeno dell’utilizzo, da parte di alcune Corti statunitensi (il leading case è identificato in Wisconsin S.C., State v. Loomis, 881, Wis. 2016; v. anche Indiana S.C., Malenchick v. State, 928, Ind. 2010), di tecniche informatiche per misurare il rischio di recidivanza del condannato, ai fini della determi- nazione dell’entità della pena o di una misura alternativa alla detenzione.

L’apprezzamento di merito del giudicante in ordine alla pro- pensione dell’imputato a ripetere il delitto non trova la solu- zione in un criterio metodologico di accertamento del fatto e neppure in una puntuale prescrizione della legge, ma viene affidato a un algoritmo di valutazione del rischio (Risk Asses- sment Tools), elaborato da un software giudiziario (COMPAS:

acronimo di Correctional Offender Management Profiling for Al- ternative Sanctions), brevettato e prodotto dalla società privata Northpointe, che vanta il segreto industriale su codice sor- gente, database e tecniche di elaborazione dei dati.

Sono evidenti i risultati pratici, in termini di risparmio di tempi e costi, di semplificazione delle procedure e di tenden- ziale calcolabilità e uniformità delle decisioni (oltre che di ridotta responsabilità del giudicante), conseguiti dall’impie- go del modello matematico-statistico nell’esercizio di quel- la che viene definita “giustizia predittiva”. Sicché, neppure le cautele e i warnings delle Corti o lo scetticismo dei giuristi, quanto al rispetto delle garanzie del “due process”, nella rac- colta delle informazioni utili per la valutazione del rischio nel mondo reale, e all’eventuale pregiudizio discriminatorio, sono riusciti a frenare l’impetuosa avanzata delle tecniche informatiche di tipo predittivo nel sistema statunitense di giustizia penale.

Si è forse agli inizi di uno sconvolgente mutamento dello scenario tradizionale della giurisdizione penale, in un pro- fondo e inquieto rimescolamento delle coordinate tipiche dei due paradigmi, indiziario e galileiano, che non sembra- no più concettualmente distinti e autonomi? A fronte della complessità tecnica e della fatica delle tradizionali opera- zioni giudiziali ricostruttive del fatto, la postmodernità sta mettendo in crisi l’equità, l’efficacia e le garanzie del modello del razionalismo critico, oppure resta ben salda e vitale l’arte del giudicare, seppure “reasonig under uncertainty” e “by pro-

(8)

babilities”? Quali saranno le nuove frontiere delle strategie di crime control per la giustizia penale: dalla giustizia giusta alla giustizia esatta?

3. Le decisioni delle Corti statunitensi hanno suscitato – com’era largamente prevedibile – serie e fondate critiche da parte della comunità dei giuristi con riguardo al rischio di distorsioni cognitive dello stesso algoritmo (Bias Automation), per l’opacità del database, l’indeterminatezza del codice sor- gente, l’automatica implementazione del software, l’accredi- tamento di pratiche discriminatorie. Di qui l’intervento della comunità internazionale (si veda, ad esempio, la “Carta etica sull’uso dell’intelligenza artificiale nei sistemi giudiziari e nel loro ambiente”, adottata il 3 dicembre 2018 dalla Commissione eu- ropea per l’efficienza dei sistemi di giustizia - CEPEJ), diretto ad assicurare che l’utile arricchimento delle fonti informative del giudice e le predizioni del modello statistico-matematico si coniughino sempre con il nucleo epistemologico tradizio- nale delle garanzie del giusto processo e rispondano comun- que a criteri di specifica responsabilità dell’uomo. La coeren- za logica del calcolo algoritmico va verificata in un processo d’integrazione fra le misurazioni quantitative, ricche e impo- nenti, da esso offerte con il percorso cognitivo e decisorio del giudice, nel rispetto dei metavalori dell’ordinamento.

Insomma, sembra avere titolo ad accedere al processo pena- le soltanto lo standard “debole” della intelligenza artificiale, che consenta all’uomo di mantenere comunque il controllo della macchina. Come, d’altra parte, già avvertiva la S.C. del Wisconsin nella sentenza Loomis (il software COMPAS “[…]

should be always constitute merely one tool available to a Court, that need to be confirmed by additional sound informations […]”), anche le linee guida della citata Carta etica europea rimarcano il criterio della non esclusività del dato algoritmico per la deci- sione, che dev’essere viceversa riscontrato – corroborato – da ulteriori e diversi elementi di prova (sul punto, v. anche l’art.

8 del D.lgs. n. 51/2018 in tema di privacy). Come pure merita- no rilievo gli ulteriori criteri, indicati dalla Carta, della tutela dei diritti fondamentali della persona, della non discrimina- zione, della trasparenza, equità e comprensibilità dei metodi di elaborazione dei dati informatici, della controllabilità dei percorsi di calcolo, della qualità e attendibilità scientifica del risultato. Dunque: fitness, ma anche discovery, corroboration, ac- countability.

4. Occorre porsi a questo punto le seguenti domande: come organizzare correttamente l’accesso nel contesto del proces- so penale di questo tipo di electronic evidence, un peculiare sottoinsieme della prova scientifica e tecnologica, al fine di implementare la qualità delle performance cognitive e decisio-

(9)

nali del giudicante? come assicurare che sulla prova così ac- quisita trovi spazio il diritto di difesa, attraverso il confronto dialettico, la confutazione, la prova contraria, il dubbio? come garantire il contraddittorio “sulla” prova, in funzione della va- lidazione scientifica del risultato probatorio e contro la deriva tecnocratica della giurisdizione? Sono noti i criteri enuncia- ti nel 1993 dalla Corte Suprema statunitense nella sentenza Daubert v. Merrel Dow Pharmaceuticals, Inc., 509 US 579 (1993), in base ai quali il giudice deve vagliare l’effettiva affidabili- tà di una teoria o un metodo e di un expert testimony, ai fini della loro ammissibilità come prova scientifica nel processo:

la controllabilità mediante esperimenti; la falsificabilità me- diante test di smentita con esito negativo; la peer review della comunità scientifica di riferimento; la conoscenza della per- centuale di errore dei risultati; infine, il criterio subordinato e ausiliario della generale accettazione da parte della comunità degli esperti. La Corte di Cassazione italiana (Cass., Sez. IV, 17 settembre 2010, n. 43786, Cozzini), nel condividere sostan- zialmente i Daubert standard, ne ha arricchito la portata, con riguardo alla fase della valutazione della prova scientifica da parte del giudice, aggiungendo i criteri dell’indipendenza e dell’affidabilità dell’esperto, l’ampiezza e il rigore del dibatti- to critico che hanno accompagnato la ricerca, le finalità e gli studi che la sorreggono, l’attitudine esplicativa dell’elabora- zione teorica.

5. Ma risulta davvero efficace rinviare la verifica della coeren- za logica di questa speciale categoria di prova tecnologica al contraddittorio “sulla” prova, quando essa sia stata già am- messa e acquisita e le parti siano ormai posizionate dentro il dibattimento; oppure sarebbe più utile costruire, nell’orga- nizzazione del processo, un filtro di accesso, preventivo e a maglie strette, al fine di escludere – all’esito di un contrad- dittorio “per” la prova - addirittura che entrino nel patrimo- nio probatorio informazioni non sorrette da legittima vali- dazione scientifica? La scienza e la tecnologia irrompono nel crogiuolo dell’esperienza giuridica. Ciò comporta che il fun- zionamento delle Corti, nelle questioni in cui sono coinvolte dimensioni tecniche e scientifiche, soprattutto se nuove per l’interprete, debba essere più flessibile, quanto al controllo delle parti sulle modalità di assunzione della prova, alla di- scovery e al contraddittorio, nel momento e in funzione sia dell’ammissione che della valutazione della prova, e, dall’al- tro, più rigoroso quanto alla verifica di attendibilità del risul- tato probatorio. Merita di essere segnalato, in proposito, un passo della Relazione al Progetto preliminare del nuovo codi- ce di procedura penale del 1989 (p. 60), riguardante la porta- ta dell’art. 189 c.p.p.: «È sembrato che una norma così articolata possa evitare eccessive restrizioni ai fini dell’accertamento della

(10)

verità, tenuto conto del continuo sviluppo tecnologico che estende le frontiere dell’investigazione, senza mettere in pericolo le garanzie difensive». Norma cardine, questa, nell’intentio legis, diretta ad assicurare, con l’apporto della scienza nella ricerca del- la verità, l’opportuna flessibilità del sistema processuale in materia di prova scientifica o tecnologica (nuova). L’apprez- zamento di rilevanza, non superfluità e concreta idoneità (fi- tness) della prova “ad assicurare l’accertamento dei fatti” – senza che ne resti pregiudicata “la libertà morale delle persone” – è rimesso al vaglio critico del giudice. Allo scopo di garantire l’anticipata conoscenza delle parti circa le metodologie che saranno applicate nell’accertamento, il giudice, dopo ave- re sentito le parti sulle modalità di assunzione della prova, provvede all’ammissione con ordinanza, fissando le rego- le per la corretta applicazione dei metodi e delle procedure tecniche di acquisizione della stessa. Come si vede, un filtro, questo dell’art. 189, a maglie ben più strette rispetto a quello previsto dall’art. 190, comma 1, che, ai fini dell’ammissione della prova in genere, si limita a selezionare negativamente solo «le prove vietate dalla legge e quelle che manifestamente sono superflue o irrilevanti»: un filtro, inoltre, che è assistito da un significativo rafforzamento del contraddittorio antici- pato, “per” la prova, ancor prima che “sulla” prova.

6. Al bivio tra tecnologia e tecnocrazia, ancora una volta la sfida della postmodernità si sposta, a ben vedere, sul terreno della concreta efficacia del modello processuale. La moderna ricerca socio-giuridica, anche alla luce delle prassi applicati- ve già in corso in alcuni Paesi, auspica che l’approccio della giurisdizione al fenomeno dell’IA si basi su una metodologia estremamente pragmatica. Non vi è dubbio che il livello di efficacia, qualità e prevedibilità della giurisdizione penale sarebbe più alto ed apprezzabile se essa venisse esercitata nell’ambito di una procedura articolata in una dinamica inte- razione fra i saperi e le operazioni logiche tradizionalmente affidate al giudice e alle parti, da un lato, e le evidenze della prova informatica o di quella digitale o del calcolo di un algo- ritmo, dall’altro.

D’altra parte, è cresciuta nella società la legittima pretesa che il giudice, nell’esercizio dell’arte del giudicare e nella pratica giudiziaria, sia un buon ragionatore e un decisore di qualità.

Sicché la professionalità, l’etica e l’implementazione del grado di expertise accumulata dal giudice nell’utilizzo delle tecniche inferenziali del ragionamento e nella verifica degli schemi statistico-probabilistici, acquisiti con l’ausilio della tecnolo- gia digitale, di software informatici e algoritmi predittivi o con l’apporto della robotica e della logica dell’IA, potrebbero cer- tamente contribuire a restituire al funzionamento della giu- stizia penale una più adeguata immagine di efficacia e qualità.

(11)

L’intelligenza artificiale è cosa ben diversa dalla semplice ge- stione di grandi masse di dati e anche dal machine learning, che pure ne è premessa. La capacità dell’intelligenza artificiale di apprendere, sulla base di questi dati e della ingegneria del- la macchina, introduce un elemento ulteriore: l’estrazione, attraverso algoritmi, di conclusioni valutative e predittive che possano interagire con un esperto umano o determinare un’azione automatica. Questo è molto importante perché di- stingue questo profilo specifico da molte applicazioni in vari settori della giurisdizione.

Come ricordato dal Presidente Canzio, la sentenza Loomis mette in evidenza il ruolo finale ed ineliminabile del giudi- ce e qualifica il ricorso a questi strumenti come un mezzo e non come il risultato. Ciò può essere al momento considerato per dato, anche se in futuro si porranno problemi derivanti dall’evoluzione di questi strumenti valutativi, comprendenti forse anche elementi emozionali, che potranno modificare il quadro, ma al momento l’intervento umano è l’intervento decisorio.

L’aspetto più interessante della sentenza Loomis, tuttavia, è quello relativo alla trasparenza del meccanismo di raccolta del dato (quali dati costituiscono il database) e degli algorit- mi di funzionamento. Rispetto a questo aspetto, la ditta pro- duttrice oppone il segreto industriale. La Corte supera, in quell’ordinamento, il problema attraverso la certificazione del meccanismo nel suo complesso, che corrisponda a deter- minati paradigmi; perciò l’impuntato è in grado di valutare la correttezza dell’esito, non solo perché lo acquisisce in una sorta di contraddittorio davanti al giudice, ma anche perché ne conosce i presupposti attraverso la certificazione.

Si supera così un problema di fondo che non riguarda solo l’intelligenza artificiale: qual è l’attendibilità del programma utilizzato e la sua capacità di certificare la correttezza in- trinseca dell’informazione fornita. Quindi il contraddittorio come il produttore sulla correttezza dell’intero processo tec- nico, che va dalla raccolta, alla elaborazione e alla fornitura del dato.

Il contrasto tra il diritto di accesso alle basi dell’organizza- zione dell’intelligenza artificiale e il diritto di proprietà indu- striale non potrà che trovare bilanciamenti specifici, a secon- da del mezzo di prova, oggetto della valutazione.

Un altro problema preliminare è costituito dalle caratteristi- che delle banche dati, perché per poter essere utilizzate de- vono avere dei dati che siano omogenei o che possano essere resi omogenei. Questo problema è enorme quando si tratta di banche date sulle quali lavora l’intelligenza artificiale. Esi- stono anche in Italia i primi tentativi di giustizia predittiva, soprattutto nel civile. La banca dati della Corte di Cassazione è un fortissimo ed omogeneo strumento, almeno per i giu-

GIOVANNI SALVI

Procuratore generale presso la Corte di Cassazione

(12)

dici di legittimità. Il Consiglio Superiore della Magistratura vorrebbe ripristinare le banche dati delle decisioni di me- rito, e già questo costituirebbe una base che può portare ad una tipologia di giustizia predittiva, ancora molto elementa- re, ma che può essere utile al fine di favorire la mediazione e stemperare le controversie; mai in termini decisori ma può predire alle parti quello che potrebbe essere, sulla base de- gli orientamenti di merito e legittimità e addirittura su base territoriale, l’esito della controversia. Più diventa raffinato il meccanismo, più la predizione diventa semplice.

In futuro, da parte privata, pensate all’utilizzo delle banche dati giudiziarie pubbliche insieme a quelle private per avere dei risultati operativi, che orientino le scelte. Per esempio, un grande istituto di credito che possiede il 50% circa delle ese- cuzioni immobiliari fa già questo lavoro, perché è in grado di fare accurate previsioni, su basi territoriali, dei tempi e degli esiti delle procedure e dunque anche di riscossione effettiva del credito, e sulla base di questo decidere a chi concedere il credito. Una capacità predittiva che, se posta al servizio di un interesse privato, funziona già bene.

Non possiamo immaginare che questo sostituisca il giudice, ma oltre ad essere un importante ausilio, può nel civile sti- molare la mediazione e, un domani, potrebbe essere finaliz- zata a valutare la temerarietà della lite.

Nel penale questo è certamente più complesso. Una cosa sin- golare su cui dovremmo riflettere è che negli Stati Uniti, in alcuni Stati nei quali si sono introdotti questi strumenti, gli esiti non hanno portato come immaginabile ad aumentare, ma a diminuire la carcerazione, aumentando invece le misu- re alternative. La previsione di recidivismo basata sull’elabo- razione di dati è stata, in altri termini, più favorevole rispetto a quella effettuata dal giudice senza il ricorso allo strumento di indagine.

I rischi sono ormai ben noti, ma sono forse maggiori quelli che vengono dal settore privato. Noi abbiamo il vizio di fondo, derivante dalla formazione illuministica, che temiamo tutto ciò che deriva dal pubblico e questo ha consentito a potenze sovrannazionali da cloud di agire senza regolazione e senza che nemmeno ci ponessimo il problema della regolazione. Se uno Stato immagina di poter controllare gli spostamenti delle persone attraverso l’intelligenza artificiale immediatamente scatta un meccanismo d’allarme. Il fatto che questo venga fat- to quotidianamente da società private, lasciava indifferenti almeno fino a qualche mese fa.

Queste sono solo piccole parti dei problemi. I problemi veri sono costituiti dai reati consumati attraverso l’intelligenza artificiale – ad esempio, i reati contro la personalità dello Sta- to, gli algoritmi che danno informazioni per la creazione di consenso o che alterano le dinamiche pubbliche o del mer-

(13)

cato – e, di conseguenza, gli strumenti investigativi che si possono costruire in parallelo e in contrapposizione a queste specifiche caratteristiche dei delitti che si consumano attra- verso l’intelligenza artificiale.

Di fronte agli scenari aperti dall’innovazione tecnologica, è giusto guardare con interesse ed attenzione alle potenzialità che questa offre anche nel settore – peculiare e delicato – del diritto, e del controllo sociale. Quando però ci confrontiamo con l’aspetto specifico della giustizia penale bisogna sempre accompagnare all’entusiasmo per le potenzialità delle res no- vae una cauta attenzione.

Infatti, l’intelligenza artificiale e l’utilizzo degli algoritmi nel- le diverse fasi del procedimento del processo penale sembre- rebbero promettere l’illusione della giustizia infallibile.

Questa promessa di una giustizia esatta trova oggi un terreno particolarmente fertile per varie ragioni: promette di ripa- rare all’inefficacia della prevenzione e nella repressione del crimine, che è uno dei vessilli del populismo penale, e quindi soddisfare il relativo bisogno di sicurezza e di prevenzione;

riparare alle inefficienze del processo e della giustizia; e di surrogare all’avanzante crisi di legittimazione della giurisdi- zione e dei giudici, che appaiono spesso soggetti troppo fal- libili. Di fronte a questi difetti che la giurisdizione manifesta, le promesse dell’intelligenza artificiale sono prodigiose e ri- schiano di determinare una sorta di ubriacatura tecnologica o tecnocratica, perché dell’intelligenza artificiale si parla or- mai in tutti i più diversi momenti del procedimento penale. Si parla addirittura di razionalizzazione delle risorse di polizia attraverso l’uso di algoritmi; di strumenti di verifica della pe- ricolosità sociale e del rischio di recidiva.

Nel citato caso Loomis, il giudice del Wisconsin utilizzava il programma Compas; ma se in molti Stati americani oggi l’utilizzo di software algoritmici di predittività è facoltativo e rimesso alla discrezionalità dei giudici, in altri Stati, quali, per esempio, l’Ohio e la Georgia, la capacità a delinquere e il rischio di recidività sono calcolati obbligatoriamente con algoritmi.

Si parla poi di utilizzo di algoritmi anche nel sentencing, per aiutare il giudice a decidere bene, in modo equanime, attri- buendo agli stessi fatti le stesse pene proprio alla luce delle standardizzazioni algoritmiche. Questo rievoca un po’ nell’e- sperienza americana una rivoluzione culturale che qualche anno fa prese il nome di modello del giusto merito affidato a una serie di linee guida.

Rispetto a tutte queste aspettative – o a queste promesse –, da più parti sono stati avanzati una serie di rilievi di caratte- re critico, ragionevoli dubbi in ordine ai rischi che l’adozione

VITTORIO MANES

Professore ordinario di Diritto penale - Università di Bologna

(14)

di un modello epistemologico nuovo, a seconda del dosaggio con cui viene erogato nel processo penale, può determinare.

Anzitutto sul fronte del problema trasversale dell’eguaglian- za, perché gli algoritmi, che nascono da standardizzazione di casi precedentemente decisi, hanno una vocazione struttu- ralmente antiegualitaria. Vi è poi il problema della frizione dell’utilizzo dei dati personali con diritto al rispetto della vita privata e familiare, tematica di cui si è già occupata l’Unio- ne europea. Vi sono poi una serie di ricadute immediate sul fronte endo-penalistico, endo-processuale, sia di carattere sostanziale che di carattere processuale. L’utilizzo degli algo- ritmi rischia di allontanare dal modello del diritto penale del fatto ed avvicinarsi al modello del diritto penale d’autore. Vi sono le forti torsioni che questo può determinare sul piano del giusto processo, in ordine all’affidabilità scientifica e alla controllabilità giuridica nell’esercizio del diritto di difendersi nel processo sull’algoritmo, sulla sua produzione. Tanto più vivo il problema quando gli algoritmi e i dati del software sono in grado di autogenerarsi ed autoaggiornarsi. Si pone inoltre il problema che riguarda una serie di garanzie disciplinari come per esempio il diritto al silenzio, il nemo tenetur se detege- re. Ravviso anche un altro rischio, che non è detto si verifichi, rappresentato dal fatto che questa fiducia sempre maggiore, se non talvolta cieca, consegnata a questi strumenti tecnolo- gici così innovativi e così prodigiosi, rischi di comportare un trend sempre maggiore alla degiurisdizionalizzazione dell’ac- certamento penale, cioè rischia di espropriare sempre più la giurisdizione, sottraendola dalle mani dei giudici.

Forse anche per queste ragioni, l’utilizzo degli algoritmi ha già suscitato alcune forme di disincanto, alcune reazioni di rigetto non solo in sede in armonizzazione eurounitaria, quando si è affermato a più riprese il diritto a una giurisdizio- ne non basata esclusivamente su trattamenti automatizzati, ma anche da una pronuncia recente che viene dal Nord Ame- rica, dove questi strumenti vengono largamente utilizzati sia in fase decisionale che dalle forze di polizia (sentenza quarto circuito della Corte d’Appello di Richmond), che ha contestato fortemente l’utilizzo di strumento di polizia predittiva, met- tendone in luce la valenza anti-egualitaria e disvelando i pre- giudizi razziali che spesso contaminano questi modelli.

La storia del processo penale e il percorso di secolarizzazione che lo ha determinato, ha generato una progressiva de-divi- nizzazione del processo, che un tempo era affidato a metodi di accertamento come le ordalie, consegnando sempre più al giudice e alla sua fallibilità umana, ma al suo libero convinci- mento, alla sua capacità emozionale, la decisione.

È storia di una progressiva antropizzazione del giudizio.

Oggi, il rischio è che la tecnica rischia di sostituire quelle che una volta potevano essere le ordalie divine; non è pensabile

(15)

immaginare che si possa sostituire l’uomo con una macchina e per questo temo che un fiducia cieca rispetto a questi stru- menti debba essere ponderata con sorvegliata attenzione, per evitare una deriva dalla tecnologia alla tecnocrazia.

Sullo spunto della provocazione del professor Manes, invite- rei i magistrati a un esame di coscienza su quanto non sia anche colpa dei magistrati questa ricerca di strumenti mi- racolosi, che nascono dalla tecnologia ma trovano terreno fertile nelle troppe contraddizioni e incertezze della giustizia penale.

Il web già oggi schiaccia la giustizia penale. Ad esempio, sono forse milioni i reati consumati tramite il web ma che sostan- zialmente abbiamo rinunciato a perseguire perché sono trop- pi e perché non abbiamo lo strumento per farlo, dal momento che gli attori che gestiscono le piattaforme rifiutano di dare le informazioni necessarie per iniziare un procedimento. La risposta che gli Stati Uniti danno a qualsiasi rogatoria in que- sta materia è negativa, perché fare diversamente inciderebbe – nella loro prospettazione – sulla libertà di pensiero, che è protetta dalla Costituzione e sembra non conoscere limiti. C’è poi, con ogni evidenza, anche il calcolo economico di questi protagonisti planetari dell’economia, che condizionano le po- litiche nazionali, comprese quelle degli stessi Stati Uniti.

Secondo elemento. Si è accennato ai modelli predittivi di po- lizia, che sembra non interessare il processo penale. In real- tà anche in questo caso ci sono rischi significativi sia sotto il profilo della discriminazione tra i cittadini a seconda dei dati che vengono inseriti sia perché la destinazione delle risorse in questa fase incide poi fatalmente tanto su quali processi si andranno a fare, quanto sull’andamento del del singolo pro- cesso.

Dobbiamo però prendere atto che il progresso non si può fer- mare.

Il Presidente Canzio ha ricordato i problemi attualissimi del trojan. Da parte mia, a conferma di quanto appena detto sull’impossibilità di fermare il processo, ricordo in estrema sintesi i cambiamenti nella disciplina giuridica del trojan. Nel giro di due anni abbiamo avuto dapprima una presa di posi- zione della Procura Generale presso la Cassazione che cerca- va di porre dei paletti, ma la sentenza della Corte andò oltre i paletti proposti dalla Procura Generale. A inizio di quest’an- no, con la sentenza Cavallo, le Sezioni Unite hanno daccapo posto paletti precisi, ma il legislatore ha divelto questi paletti, consentendo di fatto l’uso del trojan entro limiti amplissimi.

Di fronte alle potenzialità che offre la tecnologia, resistere è ben difficile ed è anche poco più di un’illusione la speranza di poter ridurre (almeno in parte) i rischi avvalendosi di stru-

GIUSEPPE PIGNATONE

Già procuratore della Repubblica di Roma;

presidente del Tribunale dello Stato della Città del Vaticano

(16)

menti predisposti dalle autorità statali. Da 40 anni tutti noi parliamo di sistema delle intercettazioni gestito direttamente dal Ministero, e da 40 anni continuiamo invece ad essere to- talmente affidati a operatori privati, con tutte le conseguenze che ciò comporta e che ben conosciamo. Dobbiamo, secondo me, avere chiaro che al progresso tecnologico non si può ri- nunciare, ma dobbiamo sforzarci di erigere barriere e paletti affinché ciò rimanga sempre e soltanto un aiuto al giudice, con la consapevolezza dei limiti di questi strumenti e delle nuove problematiche che essi pongono.

Il Presidente Violante ricorda spesso che stiamo attraversan- do un cambiamento d’epoca, non semplicemente un’epoca di cambiamento. Più della metà degli esseri umani sono in- terconnessi. Più del 70% del prodotto interno lordo dei Paesi del G7 deriva da beni immateriali che a loro volte dipendono dalle tecnologie. Non è la prima volta che il mondo cambia, pensiamo alla scoperta dell’elettricità o del vapore, spiegava il Presidente della Fondazione Leonardo nel primo numero della rivista “Civiltà delle macchine”.

L’avvento dell’intelligenza artificiale nel mondo è risolutivo.

Nulla è più come prima e nulla sarà più come prima.

Anche gli studiosi del diritto e del processo penale, pertanto, devono avere la lungimiranza e la visione, di non restare re- legati in posizioni antistoriche, conservatrici a prescindere, una sorta di isolotto del medioevo in un arcipelago della mo- dernità.

L’obiettivo non può che essere l’umanesimo digitale, cioè a dire il corretto intreccio (nel senso virtuoso del termine, di fusione, di unione proficua) tra umanesimo e nuove tecno- logie. Del resto, già Giuseppe Ungaretti si chiedeva come fa- cesse l’umano a non essere disumanizzato dalla macchina, a rendere quest’ultima moralmente arma del progresso.

La questione è dunque di prospettiva: anche per quello che riguarda il processo penale non possiamo porci in senso an- tagonista allo sviluppo, ma viceversa indirizzarlo, mettendo a fuoco alcuni capisaldi irrinunciabili, tra cui il principio più generale della umanizzazione del giudizio. Dobbiamo dun- que cambiare paradigma, capovolgerlo, pensare all’innova- zione del processo penale, essere aperti, non conservatori di un mondo che non c’è più, e capire cosa vi sia di irrinunciabi- le nella decisione dell’umano.

Procedendo per improprie semplificazioni, che non dovreb- bero essere consentite vista la complessità e l’importanza del tema, possiamo dire che tutte le decisioni “umanamen- te automatiche” possono essere ingegnerizzabili. Dovrem- mo quindi compiere un’opera di circoscrizione o, per meglio dire, di perimetrazione di quelle parti del processo che con-

FABIO PINELLI

Aavvocato; Comitato scientifico Fondazione Leonardo-Civiltà delle Macchine

(17)

dividiamo non possano essere disumanizzate, pena la confu- tazione che il processo penale resta pur sempre una (tragica) relazione tra uomini. Parametriamo ciò che è umanamente irrinunciabile e per il resto apriamo alla tecnologia.

Un approccio corretto sul tema non può prescindere dalla (per certi versi banale) considerazione che il processo penale non si caratterizza esclusivamente dallo svolgersi di incom- benti centrali come l’assunzione della testimonianza davan- ti al giudice naturale, uomo e terzo, o ad altri procedimenti conoscitivi complessi rispetto ai quali la condivisione tra le parti dell’effettività del contraddittorio deve rimanere condi- zione di legittimità di ogni decisione e il cui mantenimento sembra dunque irrinunciabile. Ma affianco a questa esigen- za, non si vede la ragione per impedire l’affermazione di per- corsi decisionali automatizzati rispetto ad accertamenti non complessi, come – solo per citare alcuni esempi – le udien- ze di conferimento di incarico peritale, ovvero le udienze di applicazione della pena su richiesta, dove le parti hanno già concordato le pena medesima, e cosi via.

Rispetto a determinate attività anche il processo penale po- trebbe modernizzarsi diventando più “telematico”, non solo e non tanto a proposito della produzione di atti scritti e docu- menti (penso a udienze in camera di consiglio con partecipa- zione facoltativa delle parti), bensì intraprendendo un cauto percorso di spersonalizzazione del rapporto tra le parti.

Ma non basta, perché una volta intrapresa in modo ordinario questa strada, venendo meno quel prerequisito della giuri- sdizione sino ad oggi considerato come assoluto, e cioè a dire la presenza fisica del giudice, non c’è dubbio che risulterà’

meno in salita il viatico per aprire alle decisioni automatiz- zate, rimesse – seppur in via non esclusiva e non definitiva – alla determinazione del sistema algoritmico dell’intelligenza artificiale.

L’esperienza professionale quotidiana consente di constatare che la sostanziale totalità dei processi destinati a concludersi con l’irrogazione della sola pena pecuniaria si definiscono in- terlocutoriamente, in assenza di contraddittorio tra le parti, attraverso l’emissione del decreto penale di condanna.

Com’è noto, il decreto in esame è pronunziato dal GIP su ri- chiesta scritta del PM, all’esito di un controllo meramente cartolare degli atti d’indagine, se emerge la prova della re- sponsabilità dell’imputato. Nella prassi giudiziaria è spes- so sufficiente la presenza nel fascicolo delle indagini di una c.n.r. e/o di una querela, per determinare il giudice alla pro- nunzia del decreto; in modo uguale e contrario, le reiezioni delle richieste di emissione del decreto, da parte del GIP, al- lorquando – raramente – intervengono, fanno quasi sempre riferimento alla non congruità della pena rispetto alla gravi- tà del fatto (legata, ad esempio, nei reati tributari da omes-

(18)

so versamento di imposte, al dato quantitativo di esso) o alla personalità del reo (mutuabile dal certificato del casellario e/o dei carichi pendenti).

È evidente che un’attività conoscitiva come quella appena ricordata, e che è retrostante l’emissione di un decreto penale di condanna, risulta accessibile ad un sistema automatizzato d’intelligenza artificiale, in quanto quest’ultimo è certamente in grado di processare i dati elementari necessari alla produzione della richiesta decisione.

È altrettanto intuibile come l’automatizzazione algoritmica del procedimento per decreto produrrebbe l’effetto di liberare una quantità molto ingente di risorse umane della macchina giudiziaria penale, che potrebbero essere destinate a migliorare il funzionamento di essa, in tutto il restante contesto nel quale l’azione umana è imprescindibile.

A tale prospettiva si potrebbe obiettare che, rispetto ad una parte non insignificante delle fattispecie concrete che si con- cludono con l’emissione di un decreto penale di condanna, il titolo di reato per il quale si procede ha rilevanza sostanzial- mente amministrativa e natura così bagatellare, da far sì che la vera liberazione di risorse utili al funzionamento della giu- risdizione dovrebbe passare, più che per l’automatizzazione della decisione, attraverso una massiccia opera di depenaliz- zazione, recuperando la prospettiva classica della sussidia- rietà residuale del diritto penale.

Tuttavia, è purtroppo incontestabile che la temperie politi- co-culturale del tempo presente, tendente alla pan-penaliz- zazione e all’anticipazione di tale forma di tutela dal danno al mero rischio, si mostra del tutto refrattaria rispetto a qual- siasi prospettiva depenalizzante. Con la conseguenza che, in termini pragmatici, non può più essere valutata con sfavore pregiudiziale la via dell’automatizzazione decisoria in fun- zione del recupero dell’efficienza della giurisdizione.

La necessità di superare la decisione automatizzata e di in- trodurre il controllo umano sulla stessa sarebbe rimessa – in perfetta aderenza ai principi del diritto UE in materia, su cui infra – alla disponibilità del condannato, cui spetterebbe co- munque l’opzione finale se accettarla, ovvero superarla con la – già di sistema – opposizione al decreto penale, con richie- sta di celebrazione del processo davanti a un giudice umano.

Un altro tema molto importante da considerare e ponderare riguarda il consenso dell’interessato alla decisione automa- tizzata. Siamo così sicuri che le future generazioni non la pre- diligano, apprezzandone la maggiore equità nonché il rispet- to del principio di prevedibilità della decisione? Non è forse la prevedibilità della decisione, assieme alla accessibilità, la forma contemporanea della legalità penale declinata, rispet- to al comando, dalla Corte Europea dei diritti dell’Uomo?

Ancora, il D.Lgs. 18.05.2018 n. 51, in attuazione della diretti-

(19)

va UE 2016/680, prevede espressamente il divieto delle de- cisioni interamente automatizzate, ma con la precisazione che tale divieto opera solo se le decisioni producono effetti negativi sull’imputato. Perché non prevedere l’ammissibilità/

legittimità delle decisioni totalmente automatizzate se pro- ducono solo effetti favorevoli?

In conclusione, il cuore del problema è trovare il giusto pun- to di equilibrio tra umanesimo e tecnologia nel processo pe- nale, senza precostituite chiusure. Dobbiamo pensare ad un mondo nuovo, e ad agire in modo nuovo; come diceva Lin- coln, dobbiamo emanciparci.

In fondo la tradizione è il progresso che è stato fatto ieri, come il progresso che dobbiamo fare oggi sarà la tradizione di domani.

Il tema va articolato e agganciato in relazione a una definizio- ne: intelligenza artificiale è un termine generico, che si riferi- sce ad ogni macchina o algoritmo che sia capace di osservare il proprio ambiente, imparare e sulla base dell’esperienza e della cognizione acquisita, intraprendere azioni intelligenti o proporre decisioni (Flagship Report, Commissione europea).

Ci sono numerosi strumenti che rientrano in questa defini- zione, e al momento il machine learning IV è la tecnica che più significativamente vi rientra.

Una ricognizione dell’attuale interazione tra soluzioni digitali che sono state utilizzate oltreoceano con il contesto europeo suggerisce un certo ottimismo. Siamo attrezzati per affron- tare in maniera opportuna il fenomeno di estremo cambia- mento che stiamo vivendo. Sarebbe inescusabile non provare a sfruttare a favore della giustizia penale i vantaggi che certe soluzioni digitali possono offrire.

Nel sistema dei principi e delle garanzie fondamentali che permeano tutti gli ordinamenti europei, grazie principal- mente alla Convenzione europea dei diritti dell’uomo, abbia- mo tutti gli strumenti per affrontare le varie problematiche presentate sia sul piano probatorio sia sul piano decisorio, che sono strettamente collegati.

A condizione che ci liberiamo dall’atteggiamento distopico che pervade anche il vocabolario che ci stiamo abituando ad usare, possiamo essere in grado di gestire adeguatamente la transizione che viviamo. Ad esempio, il termine “predizio- ne” è un preconcetto. In primo luogo, “predire” è qualcosa di molto diverso rispetto a “prevedere”. Inoltre, gli strumenti comunemente definiti “di giustizia predittiva”, non sono af- fatto predittivi ma sono sistemi quantitativi, molto accurati, che hanno la capacità, soprattutto grazie a reti neurali sofi- sticate, di analizzare enormi di dati (anche collezioni intere di giurisprudenza) e offrirci proiezioni statistiche partico-

SERENA QUATTROCOLO

Direttore del Dipartimento di Giurisprudenza e Scienze Politiche, Economiche, Sociali-Università del Piemonte Orientale

(20)

ingenuamente chiamiamo di giustizia predittiva, ci offrono:

scenari dettagliati, molto attendibili, ma che rappresentano esclusivamente un report di ciò che è accaduto in precedenti casi simili (e non v’è tempo per soffermarsi sulla difficoltà di stabilire tale similitudine).

Se ci liberiamo di questo concetto possiamo affrontare il di- scorso in maniera consapevole.

Innanzitutto, sul piano probatorio. Nel citato caso Loomis, le doglianze formulate dal ricorrente non erano basate esclu- sivamente sulla natura digitale degli strumenti, ma erano in parte legate alla teoria psico-criminologica che informa il software in questione. Tutti gli strumenti di risk assessment, infatti, si basano su una teoria criminologica che individua e calibra una serie di fattori causali del comportamento cri- minoso. Trasportando il discorso sul piano interno, però, tro- viamo un impianto di garanzie che ci pone di fronte al divieto dell’art. 220 secondo comma, che vieta di far entrare perizie psico-criminologiche nella fase di precognizione. Gli stru- menti per reagire e affrontare correttamente situazioni ap- parentemente inedite ci sono.

Una questione importante è che oggi si consente l’ingresso nel procedimento penale a prove che non sono digitali ma che sono generate automaticamente (automatedly regenerated evidences), che sono informazioni importanti per il processo, ma che non sono generate nell’ambito di un procedimento probatorio e quindi risulta molto difficile porre filtri di am- missione rispetto a questi dati cognitivi e informativi. Nella giurisprudenza della Corte europea dei diritti dell’uomo, il principio della parità delle armi implica che l’elemento es- senziale, irrinunciabile del processo equo (art. 6) è la possi- bilità delle parti di confrontarsi davanti al giudice, nelle me- desime condizioni, materi probatoria. In una sentenza non penale, la Corte europea ha affermato che l’essenza di tale garanzia è la possibilità che le parti abbiano le stesse chances per convincere il giudice della fondatezza della propria pro- spettazione dei fatti.

Il filtro all’ingresso di prove di cui non è possibile riscontra- re l’attendibilità esiste già. Laddove la condizione minima, per un adeguato confronto probatorio, così come prospet- tato dalla giurisprudenza di Strasburgo – non possa essere rispettata, la soluzione inevitabile: la prova sarà inammissi- bile perché trascende il limite minimo di rispetto della parità delle armi e ciò accade tutte le volte in cui, ad esempio, per la natura stessa del software i suoi output non sono verificabili o spiegabili ex post, in ragione di un segreto industriale oppure per via dei sistemi di autoapprendimento utilizzati.

Occorre sganciarsi anche a livello semantico dal termine

“predittivo” perché il rischio è enorme di sovrastimare la portata degli strumenti in questione. Dobbiamo essere in

(21)

grado di capire cosa offrono gli sviluppatori di intelligenza artificiale; qual è l’effettiva natura degli strumenti e cosa pos- sono effettivamente fare. Devono essere i penalisti a dire agli informatici cosa serve per supportare il loro lavoro.

Né si può collegare alla giustizia predittiva quel valore es- senziale del principio di legalità dato dalla conoscibilità del precetto penale e di prevedibilità della sanzione che ad esso conseguirà in ipotesi di violazione. Gli strumenti di cui oggi disponiamo non sono predittivi: possono avere il pregio di dare alle parti un quadro chiaro della situazione, che consen- ta loro di fare delle valutazioni, ma non si può immaginare che queste siano “previsioni di decisioni”, né che esse serva- no a dare attuazione al principio di conoscibilità del precet- to e della sanzione penale che oggi costituisce elemento es- senziale della moderna concezione del principio di legalità, all’art. 25 Cost.

Gli interventi dei relatori che mi hanno preceduto, i quali si sono interrogati, secondo cadenze diverse tra loro, sulle op- portunità e sui limiti derivanti dall’impiego dell’intelligenza artificiale nel sistema di giustizia penale, segnano dei punti di contatto. Traspare difatti una grande omogeneità di vedute tra coloro che sembrano aver assunto delle posizioni più in- novative, i quali, in realtà, si sono espressi in maniera estre- mamente equilibrata, e coloro che, seppur non mancando di manifestare le proprie perplessità, si sono mostrati aperti a individuare delle soluzioni che permettano di sfruttare le po- tenzialità di questa nuova scienza.

Penso in primo luogo alle parole dell’avv. Pinelli, il quale ha opportunamente sottolineato che non si può assumere un atteggiamento recessivo e di chiusura nei confronti dell’ine- vitabile ingresso della tecnologia nel processo penale; piutto- sto, dal momento che tutte le decisioni umane possono esse- re adottate dalle macchine, il nostro sforzo deve essere quello di delimitare in modo preciso ambiti di legittimazione e spazi di intervento di questa nuova scienza, selezionando gli speci- fici segmenti di decision-making che, per le loro caratteristiche e per gli interessi che vengono in rilievo, non sono delegabili ad algoritmi.

Nel condividere questa posizione, penso ad esempio, al con- sueto ricorso, da parte del giudice chiamato a deliberare in tema di infortuni sul lavoro, alle apposite tabelle per la va- lutazione dell’indennizzo. Non vedrei nulla di strano se alle tabelle si sostituissero dei meccanismi di calcolo attraverso algoritmi, dal momento che ciò potrebbe ovviare alle esigen- ze di speditezza e di deflazione del sistema giustizia. Dovre- mo comunque verificare il modo con cui l’algoritmo è stato costruito – e questo è un tema comune ai relatori – tuttavia,

PAOLA SEVERINO

Vicepresidente dell’Università LUISS Guido Carli

(22)

mi pare si tratti della medesima questione che si pone già per le tabelle relative alla materia antinfortunistica, delle quali dobbiamo validare l’origine e i criteri in base ai quali sono state elaborate.

Anche la prof.ssa Quattrocolo, nel dimostrarsi favorevole all’uso dell’intelligenza artificiale in campo processual-pe- nalistico, ha fornito delle indicazioni importanti, nel senso di provare anzitutto a depurare il linguaggio dalle suggestioni.

Per esempio, parlare del “giudice robot” porta fuori strada, poiché l’obiettivo non è – e non deve essere – quello di sosti- tuire l’uomo con una macchina, bensì quello di porre la mac- china – o meglio, l’informatica – al servizio del giudice, al fine di beneficiare delle straordinarie opportunità che la stessa può offrire nell’amministrazione della giustizia. Questi nuovi strumenti, in altre parole, devono accrescere l’autonomia de- cisionale dell’utente e mai ridurla o comprometterla.

La sensibilità del tema era ben presente allorquando si è di- scusso del problema del valore probatorio degli outcome al- goritmici. Mi riferisco, tra gli altri, alle risultanze ottenute attraverso i software di predictive policing grazie ai programmi di riconoscimento facciale, all’incrocio di informazioni di contenuti in banche date delle forze dell’ordine, o di notizie proveniente da social network, o da impianti a circuito chiuso, rispetto alle quali si pone dunque il quesito se e, eventual- mente, a quali condizioni si possono trasformare in auten- tici elementi di prova. A mio avviso, simili informazioni non possono transitare automaticamente nel processo penale; e al riguardo soccorre la garanzia del contradditorio, la quale rappresenta quell’elemento umano di controllo indispensa- bile rispetto alle fonti puramente tecnologiche.

Allo stesso modo, il Presidente Canzio, esprimendosi con cautela, ha ribadito che l’informatica può arricchire, ma non sostituire, il giudizio, e ciò in considerazione del fatto che il controllo dell’uomo è essenziale anche al fine di porre rime- dio alle distorsioni cognitive – e non solo discriminatorie – in cui può incorrere l’algoritmo; d’altra parte, il procuratore Sal- vi ha posto l’accento sulla necessità di valutare le conclusioni predittive attraverso la verifica di attendibilità del program- ma utilizzato, tuttavia al contempo egli ha dato atto della diffi- cile conciliabilità del diritto di accesso alle basi di conoscenza dei tools algoritmici con il divieto di accesso al segreto indu- striale che sottostà ad essi.

Ebbene, credo che proprio le criticità intrinseche dell’algorit- mo – segnatamente, l’opacità del modus operandi cui consegue altresì una scarsa affidabilità – siano i temi concreti da supe- rare e rispetto ai quali occorre sin da subito instaurare una riflessione approfondita e dal carattere trasversale tra ope- ratori del diritto e scienziati, che sappia coniugare il proficuo utilizzo di questi strumenti con il rispetto dei canoni del giu-

(23)

sto processo, e in primo luogo il principio del contradditto- rio. Inoltre, come ha acutamente ricordato il prof. Manes non dobbiamo dimenticare che gli algoritmi hanno una vocazione antiegualitaria e che possono generare un diritto penale del tipo d’autore, allontanando dalla valutazione del fatto e del- le caratteristiche reali di esso. Un simile rischio deve essere, a mio avviso, scongiurato attraverso la più volte richiamata controllabilità giuridica; dobbiamo dunque rigettare con for- za l’idea secondo cui con gli strumenti informatici si possa ri- solvere tutto, quella tendenza alla degiurisdizionalizzazione che è la vera demonizzazione del giudizio umano.

Del resto, non deve stupire che tutte le elaborazioni e la massimizzazione dell’uso di intelligenza artificiale avven- gono negli Stati Uniti, dove il valore del precedente ha una rilevanza assoluta; pertanto, preso atto di ciò, non possiamo ammettere che tale scienza sia impiegata nello stesso modo in un Paese nel quale il valore del convincimento del giudice si basa su presupposti completamente diversi. Il contributo dell’uomo, anche quando si utilizzino dei mezzi informatici, è certamente molto più valorizzato in un sistema come il no- stro, piuttosto che in uno di matrice anglosassone.

Potrebbe dunque a certe rigorose condizioni ipotizzarsi un utilizzo dei sistemi algoritmici come strumento di ausilio all’organo giudicante, per operazioni prodromiche alla deci- sione, al fine di assicurare un panorama pienamente esau- stivo degli elementi rilevanti per assumere le proprie deter- minazioni oppure nei campi della giustizia alternativa, della giustizia semplificata, laddove la valutazione del giudice è limitata a evenienze puramente descrittive.

Come è emerso in particolare dalle parole del Presidente Pi- gnatone, impiegare strumenti tecnologici nel mondo giuridi- co senza causare irrimediabili ripercussioni su princìpi, di- ritti e libertà fondamentali è un risultato auspicabile ma non di facile realizzazione, specie allo stato attuale. È necessario quindi, in definitiva, trovare un punto di equilibro tra diritto e tecnologia, per garantire l’innovazione e lo sviluppo senza mettere da parte in alcun modo il nucleo centrale del nostro sistema giuridico, costituito da principi e garanzie non nego- ziabili. L’obiettivo è certamente complesso ma non possiamo sottrarci a questo fondamentale compito.

(24)

Discussione

Siamo ben attrezzati ad affrontare i temi della giustizia pre- dittiva, perché ormai abbiamo un quadro di riferimento cul- turale e gli strumenti che ci consentono di farlo.

Mi preoccupa il fatto che vi sono sfide nuove, che vengo- no dall’intelligenza artificiale quando viene utilizzata come strumento per commettere reati, e non parlo solo di reati online. Pongo il problema dell’utilizzo dell’intelligenza artifi- ciale, della possibilità di elaborazione di enormi quantità di dati con una reazione da parte della macchina che svolge del- le azioni conseguenti, che sono finalizzate a realizzare obiet- tivi illeciti. Può avvenire, per esempio, nell’abuso di mercato, attraverso un’attività che condizioni il mercato attraverso l’o- rientamento dei consumatori.

Come si contrasta dal punto di vista dell’accertamento l’uti- lizzo di quella tipologia specifica, per commettere reati stret- tamente legati al mezzo? Lo si può fare, in parte, soltanto con strumenti che sono anch’essi analoghi e opposti, che servono a conoscere il meccanismo.

Dobbiamo cominciare a pensare non soltanto nei termini della giustizia predittiva, ma per arrivare ad avere una serie di strumenti utili, correlati e finalizzati alla tipologia specifi- ca del reato. Ogni reato richiede una sua specifica metodo- logia di conoscenza ed approccio, nonché specifici mezzi di prova, che devono essere a loro volta garantiti in un quadro di riferimento legale.

Mi limito a segnalare tre aspetti:

un primo aspetto attiene a cosa entra nell’algoritmo, cioè tut- to il discorso viene determinato dalla stock of knowledge, dal bagaglio di conoscenze e di criteri che vengono introdotti nell’algoritmo per procedere a questa standardizzazione; ed è proprio su questo punto che la Corte americana di appel- lo di Richmond ha manifestato le sue principali perplessità perché è proprio nel bagaglio di criteri assunto a base della standardizzazione che si possono annidare tutta una serie di aggressioni implicite ai diritti dell’imputato, quando per esempio si utilizzano dati personalissimi o comunque rien- tranti in quell’ambito di protezione dell’art. 8 della Conven- zione europea. Segnalo che non è un problema che riguarda solo l’imputato, ma una recente legge francese ha vietato, sot- to sanzione penale, di raccogliere informazioni e dati anche relativi alle precedenti decisioni di un giudice;

un secondo problema che segnalo riguarda la maggior per- plessità rispetto l’utilizzo e l’impiego di questi strumen- ti informatici che possa generare il pericolo di un’ulteriore

VITTORIO MANES

Professore ordinario di Diritto penale - Università di Bologna

GIOVANNI SALVI

Procuratore generale presso la Corte di Cassazione

(25)

burocratizzazione del giudice, dal momento che dinnanzi qualsiasi innovazione tecnologica si è manifestato questo ri- schio. Ad esempio, nel caso della grande novità dischiusa dalle neuroscienze, è stata studiata questa tendenza ad at- tribuire una valenza ad un mezzo di prova ancora non epi- stologicamente, suffragato, riscontrato verificato un crisma di oggettività perché la scientificità di determinati modelli o neo modelli tende ad attribuirgli un crisma di oggettività e scientificità tutto da verificare con un effetto che la psicologia cognitiva definisce come la tendenza del giudice di ancorarsi a determinati dati;

un terzo e ultimo punto che sottolineo, dalla mia prospettiva, attiene a una possibile strada percorribile per gli algoritmi:

possono essere usati come utensili, strumenti nelle mani del giudice nel suo percorso motivazionale, offrendo un termine di riscontro rispetto a quello che è il primo limite logico della discrezionalità del giudice cioè’ l’onere di motivazione; cosic- ché il giudice quando motiva, se avrà un riscontro a suffragio dato dall’algoritmo, la sua motivazione potrà essere corrobo- rata, viceversa se l’algoritmo dovesse indicare una direzione di senso opposto a quella indicata dal giudice nella decisione, si potrebbe ipotizzare in capo al giudice un onere di motiva- zione rafforzata per smentire come argomentazione l’appor- to in direzione contraria offerto dall’algoritmo, nel caso in cui questo tenda ad una decisione più severa; tale onere potreb- be invece non essere necessario nel caso di un esito più favo- revole generato dall’algoritmo.

Si è discusso della possibilità di affidare alle macchine le de- cisioni seriali. Sarei assolutamente d’accordo, però bisogna essere consapevoli che una soluzione di questo genere urta completamente con l’orientamento dei giudici.

L’esperienza dimostra che le procure possono anche mettersi d’accordo, e non sempre ci riescono, per creare un modello standard (che preveda contestazioni e sanzioni uniformi in situazioni uguali), ma i giudici rivendicano la loro autonomia e la loro indipendenza anche per elementi apparentemente seriali e da un giudice all’altro cambiano spesso in misura si- gnificativa i sistemi di valori e i criteri di valutazione.

Ritengo meritevole di particolare attenzione e per certi versi più preoccupante dell’introduzione e dell’apertura in alcune fasi processuali della I.A., l’utilizzo ormai fuori controllo del- la stessa o comunque della tecnologia informatica nella fase delle indagini, con i moderni e assai invadenti mezzi captativi.

Forse anche negativamente influenzati dalla attuale pan- demia Covid-19, viviamo oramai una sorta di accettazione

GIUSEPPE PIGNATONE

Già procuratore della Repubblica di Roma;

presidente del Tribunale dello Stato della Città del Vaticano

FABIO PINELLI

Aavvocato; Comitato scientifico Fondazione Leonardo-Civiltà delle Macchine

(26)

passiva, potremmo dire di assuefazione, al fatto che tutte le persone siano o possano essere monitorate, controllate, re- gistrate, profilate e che ciò possa essere (perché no a questo punto?!) utilizzato, se del caso, nel processo penale. Si tratta di una distorsione dei principi fondamentali, un utilizzo im- proprio della tecnologia nella fase delle investigazioni, con utilizzo delle captazioni anche quando i conversanti siano soggetti terzi e le persone interessate dalla sfortunata con- versazione non siano neppure sottoposte ad indagini.

È come se la comunità intera fosse sottoposta alla logica del Panòpticon di Jeremy Bentham, un solo soggetto in grado di osservare tutti, senza che questi possano comprendere se e quando la sorveglianza è attiva. Ma, come è noto, il progetto del filosofo utilitarista britannico riguardava la costruzione degli Istituti carcerari, non il fisiologico funzionamento di una democrazia occidentale di matrice liberale. Basta questo ricordo scontato per capire la pericolosità della situazione che ci riguarda e che rende assolutamente attuali le rifles- sioni di Foucault, proprio sul Panòpticon (in “Sorvegliare e punire”) quale modello tecnico contemporaneo di esercizio del potere, che si diffonde a raggiera nella collettività, che tra- sforma la sovranità e la pretesa di obbedienza, in una forma di autentico dominio e soggiogamento.

Per tornare al processo penale, contravvenendo all’elemen- tare principio che lo Stato non può indagare per sapere se c’è una notizia di reato, bensì perché riceve formalmente una notizia di reato.

Rispetto a questa messa in pericolo dei diritti e delle libertà fondamentali sanciti dalla nostra Costituzione si annida un reale pericolo dell’evoluzione dei sistemi di intelligenza arti- ficiale e del loro utilizzo nel processo penale.

Abbiamo parlato di giustizia predittiva ma in verità i siste- mi esistenti di giustizia predittiva sono software che si basa- no sull’analisi quantitativa del precedente. Gli ordinamenti romano-germanici, però, non sono basati sulla vincolatività del precedente, e perciò – in questo contesto geografico – tali software non possono fornire un risultato considerato una predizione, perché il giudice continentale non è tenuto al ri- spetto dello stare decisis, ovvero del precedente anche quando lo ritenga sbagliato.

I programmi di intelligenza artificiale utilizzano l’analisi del linguaggio naturale, con sistemi sofisticati, basati sulla logica non monotonica, che cercano di distinguere sul piano seman- tico il diverso ruolo che un singolo vocabolo riveste in ambiti differenti. L’analisi della decisione giudiziaria contiene in sé questa enorme difficoltà sul piano tecnico, cioè attribuire un valore semantico differenziato allo stesso termine, che ten-

SERENA QUATTROCOLO

Direttore del Dipartimento di Giurisprudenza e Scienze Politiche, Economiche, Sociali-Università del Piemonte Orientale

(27)

ga in considerazione il contesto diverso valutato da ciascuna sentenza.

Infine, quante sono le variabili processuali e sostanziali che incidono sulla decisione di un giudizio penale? Possiamo ef- fettivamente individuare corrispondenze davvero rilevanti al fine di stabilire che un caso è simile ad un altro e deve essere deciso nello stesso modo?

Ho un serio dubbio che si possa stabilire in maniera valida una correlazione così incisiva tra precedenti in ambito penale.

La discussione che ha preceduto questo intervento ha posto in luce con chiarezza ciò che oggi viviamo, una difficile ma ineluttabile transizione da quella che indichiamo come so- cietà analogica ad una società (sempre più) digitale. Gli in- terventi di tutti i partecipanti hanno evidenziato le lusinghe, le promesse, le opportunità, ma anche i rischi connessi con questa transizione.

Mi sembra anche che dalla discussione sia emerso un ap- proccio ad un tempo consapevole ed equilibrato: occorre guardare con favore alle opportunità che la diffusione degli strumenti informatici può offrire, ma nel contempo essere consapevoli dei loro limiti e della necessità di assicurare l’in- sostituibile presenza dell’uomo nel momento della decisione.

In questo contesto, due ulteriori notazioni sembrano emer- gere con chiarezza.

In primo luogo, l’uso degli strumenti di intelligenza artificiale nel processo e la dialettica, a tale uso connessa, tra apertura all’innovazione e garanzia del carattere umano della decisio- ne, sembra porre, in qualche modo, in tensione l’intero ordi- namento e ci induce ad una rilettura di alcune grandi que- stioni.

L’uso dell’intelligenza artificiale ci costringe, infatti, ad inter- rogarci nuovamente sul significato del principio di legalità, sul ruolo del legislatore e su quello del giudice, sulle insidie di un populismo politico che diviene populismo giudiziario e talvolta anche populismo legislativo, sulla burocratizzazione del processo, sulla continua oscillazione tra depenalizzazio- ne e panpenalizzazione.

Estremamente interessante è, in particolare, la questione del precedente giudiziario, specie in un tempo nel quale si assi- ste ad una progressiva convergenza dei sistemi di common law e di quelli di civil law.

Tecniche proprie dei sistemi di common law, come quella dell’overruling, sono da tempo transitate anche nella giuri- sprudenza dei giudici di ultima istanza del nostro Paese; il codice di procedura civile, il codice del processo amministra- tivo ed il codice della giustizia contabile contengono disposi- zioni simili, riguardanti l’obbligo delle sezioni semplici della

ALESSANDRO PAJNO

Presidente emerito del Consiglio di Stato e direttore scientifico della Fondazione Leonardo – Civiltà delle Macchine

(28)

Cassazione, del Consiglio di Stato e della Corte dei conti di attenersi al principio di diritto enunciato dalle Sezioni unite, dall’Adunanza plenaria e dalle Sezioni riunite. Tali disposi- zioni sono state lette talvolta, da parte di alcuni studiosi – a mio avviso non correttamente – come idonee ad introdurre nell’ordinamento il c.d. precedente vincolante.

In secondo luogo il dibattito ha contribuito a fornire una in- dicazione di grande importanza, che può legittimamente essere definita di tipo costituzionale. Lo scenario dell’intelli- genza artificiale ci mette di fronte a soggetti privati, che sono stati protagonisti di forma di regolazione orizzontale e che si muovono come veri e propri poteri. Di fronte ad uno scenario del genere occorre avere un approccio di tipo costituzionale:

tutti i poteri, pubblici o privati, vanni infatti delimitati e con- trollati. Da qui la necessità, al di là dei problemi del processo penale, di una governance dell’intelligenza artificiale, e cioè dell’introduzione di una regolazione verticale, possibilmente di tipo sovranazionale e di un sistema di autorità chiamate ad autorizzare ed a certificare l’uso di strumenti di intelligenza artificiale da parte del giudice e delle pubbliche amministra- zioni.

Il cammino del cambiamento è aperto, ma è ancora lungo e denso di problemi.

(29)
(30)

Progetto grafico: Vertigo Design

ALESSANDRO PA JNO GIOVANNI C ANZIO GIOVANNI SALVI VIT TORIO MANES GIUSEPPE PIGNATONE FABIO PINELLI

SERENA QUATTROCOLO PAOL A SEVERINO

figura

Updating...

Riferimenti

Updating...

Argomenti correlati :
Outline : PAOLA SEVERINO