• Non ci sono risultati.

Vicepresidente dell’Università LUISS Guido Carli

mi pare si tratti della medesima questione che si pone già per le tabelle relative alla materia antinfortunistica, delle quali dobbiamo validare l’origine e i criteri in base ai quali sono state elaborate.

Anche la prof.ssa Quattrocolo, nel dimostrarsi favorevole all’uso dell’intelligenza artificiale in campo processual-pe-nalistico, ha fornito delle indicazioni importanti, nel senso di provare anzitutto a depurare il linguaggio dalle suggestioni.

Per esempio, parlare del “giudice robot” porta fuori strada, poiché l’obiettivo non è – e non deve essere – quello di sosti-tuire l’uomo con una macchina, bensì quello di porre la mac-china – o meglio, l’informatica – al servizio del giudice, al fine di beneficiare delle straordinarie opportunità che la stessa può offrire nell’amministrazione della giustizia. Questi nuovi strumenti, in altre parole, devono accrescere l’autonomia de-cisionale dell’utente e mai ridurla o comprometterla.

La sensibilità del tema era ben presente allorquando si è di-scusso del problema del valore probatorio degli outcome al-goritmici. Mi riferisco, tra gli altri, alle risultanze ottenute attraverso i software di predictive policing grazie ai programmi di riconoscimento facciale, all’incrocio di informazioni di contenuti in banche date delle forze dell’ordine, o di notizie proveniente da social network, o da impianti a circuito chiuso, rispetto alle quali si pone dunque il quesito se e, eventual-mente, a quali condizioni si possono trasformare in auten-tici elementi di prova. A mio avviso, simili informazioni non possono transitare automaticamente nel processo penale; e al riguardo soccorre la garanzia del contradditorio, la quale rappresenta quell’elemento umano di controllo indispensa-bile rispetto alle fonti puramente tecnologiche.

Allo stesso modo, il Presidente Canzio, esprimendosi con cautela, ha ribadito che l’informatica può arricchire, ma non sostituire, il giudizio, e ciò in considerazione del fatto che il controllo dell’uomo è essenziale anche al fine di porre rime-dio alle distorsioni cognitive – e non solo discriminatorie – in cui può incorrere l’algoritmo; d’altra parte, il procuratore Sal-vi ha posto l’accento sulla necessità di valutare le conclusioni predittive attraverso la verifica di attendibilità del program-ma utilizzato, tuttavia al contempo egli ha dato atto della diffi-cile conciliabilità del diritto di accesso alle basi di conoscenza dei tools algoritmici con il divieto di accesso al segreto indu-striale che sottostà ad essi.

Ebbene, credo che proprio le criticità intrinseche dell’algorit-mo – segnatamente, l’opacità del dell’algorit-modus operandi cui consegue altresì una scarsa affidabilità – siano i temi concreti da supe-rare e rispetto ai quali occorre sin da subito instausupe-rare una riflessione approfondita e dal carattere trasversale tra ope-ratori del diritto e scienziati, che sappia coniugare il proficuo utilizzo di questi strumenti con il rispetto dei canoni del

giu-sto processo, e in primo luogo il principio del contradditto-rio. Inoltre, come ha acutamente ricordato il prof. Manes non dobbiamo dimenticare che gli algoritmi hanno una vocazione antiegualitaria e che possono generare un diritto penale del tipo d’autore, allontanando dalla valutazione del fatto e del-le caratteristiche reali di esso. Un simidel-le rischio deve essere, a mio avviso, scongiurato attraverso la più volte richiamata controllabilità giuridica; dobbiamo dunque rigettare con for-za l’idea secondo cui con gli strumenti informatici si possa ri-solvere tutto, quella tendenza alla degiurisdizionalizzazione che è la vera demonizzazione del giudizio umano.

Del resto, non deve stupire che tutte le elaborazioni e la massimizzazione dell’uso di intelligenza artificiale avven-gono negli Stati Uniti, dove il valore del precedente ha una rilevanza assoluta; pertanto, preso atto di ciò, non possiamo ammettere che tale scienza sia impiegata nello stesso modo in un Paese nel quale il valore del convincimento del giudice si basa su presupposti completamente diversi. Il contributo dell’uomo, anche quando si utilizzino dei mezzi informatici, è certamente molto più valorizzato in un sistema come il no-stro, piuttosto che in uno di matrice anglosassone.

Potrebbe dunque a certe rigorose condizioni ipotizzarsi un utilizzo dei sistemi algoritmici come strumento di ausilio all’organo giudicante, per operazioni prodromiche alla deci-sione, al fine di assicurare un panorama pienamente esau-stivo degli elementi rilevanti per assumere le proprie deter-minazioni oppure nei campi della giustizia alternativa, della giustizia semplificata, laddove la valutazione del giudice è limitata a evenienze puramente descrittive.

Come è emerso in particolare dalle parole del Presidente Pi-gnatone, impiegare strumenti tecnologici nel mondo giurico senza causare irrimediabili ripercussioni su princìpi, di-ritti e libertà fondamentali è un risultato auspicabile ma non di facile realizzazione, specie allo stato attuale. È necessario quindi, in definitiva, trovare un punto di equilibro tra diritto e tecnologia, per garantire l’innovazione e lo sviluppo senza mettere da parte in alcun modo il nucleo centrale del nostro sistema giuridico, costituito da principi e garanzie non nego-ziabili. L’obiettivo è certamente complesso ma non possiamo sottrarci a questo fondamentale compito.

Discussione

Siamo ben attrezzati ad affrontare i temi della giustizia pre-dittiva, perché ormai abbiamo un quadro di riferimento cul-turale e gli strumenti che ci consentono di farlo.

Mi preoccupa il fatto che vi sono sfide nuove, che vengo-no dall’intelligenza artificiale quando viene utilizzata come strumento per commettere reati, e non parlo solo di reati online. Pongo il problema dell’utilizzo dell’intelligenza artifi-ciale, della possibilità di elaborazione di enormi quantità di dati con una reazione da parte della macchina che svolge del-le azioni conseguenti, che sono finalizzate a realizzare obiet-tivi illeciti. Può avvenire, per esempio, nell’abuso di mercato, attraverso un’attività che condizioni il mercato attraverso l’o-rientamento dei consumatori.

Come si contrasta dal punto di vista dell’accertamento l’uti-lizzo di quella tipologia specifica, per commettere reati stret-tamente legati al mezzo? Lo si può fare, in parte, soltanto con strumenti che sono anch’essi analoghi e opposti, che servono a conoscere il meccanismo.

Dobbiamo cominciare a pensare non soltanto nei termini della giustizia predittiva, ma per arrivare ad avere una serie di strumenti utili, correlati e finalizzati alla tipologia specifi-ca del reato. Ogni reato richiede una sua specifispecifi-ca metodo-logia di conoscenza ed approccio, nonché specifici mezzi di prova, che devono essere a loro volta garantiti in un quadro di riferimento legale.

Mi limito a segnalare tre aspetti:

un primo aspetto attiene a cosa entra nell’algoritmo, cioè tut-to il discorso viene determinatut-to dalla stut-tock of knowledge, dal bagaglio di conoscenze e di criteri che vengono introdotti nell’algoritmo per procedere a questa standardizzazione; ed è proprio su questo punto che la Corte americana di appel-lo di Richmond ha manifestato le sue principali perplessità perché è proprio nel bagaglio di criteri assunto a base della standardizzazione che si possono annidare tutta una serie di aggressioni implicite ai diritti dell’imputato, quando per esempio si utilizzano dati personalissimi o comunque rien-tranti in quell’ambito di protezione dell’art. 8 della Conven-zione europea. Segnalo che non è un problema che riguarda solo l’imputato, ma una recente legge francese ha vietato, sot-to sanzione penale, di raccogliere informazioni e dati anche relativi alle precedenti decisioni di un giudice;

un secondo problema che segnalo riguarda la maggior per-plessità rispetto l’utilizzo e l’impiego di questi strumen-ti informastrumen-tici che possa generare il pericolo di un’ulteriore

Documenti correlati