• Non ci sono risultati.

Intelligenza Artificiale (IA) e Giurimetria. L'Intelligenza Artificiale (IA) e Giurimetria*

N/A
N/A
Protected

Academic year: 2022

Condividi "Intelligenza Artificiale (IA) e Giurimetria. L'Intelligenza Artificiale (IA) e Giurimetria*"

Copied!
16
0
0

Testo completo

(1)

L'Intelligenza Artificiale (IA) e Giurimetria*

PREMESSA

Vi sono tanti, forse addirittura troppi concetti intorno all'attualissima materia dell'Intelligenza Artificiale, col paradosso che molti, troppi, non ne capiscono il significato e l'importanza.

È una delle tecnologie più promettenti, in grado di salvare vite umane, migliorare il sistema economico - rendendo più sostenibile le Politiche Agricole, Industriali e dei Servizi - e far evolvere l'Umanità permettendole di risolvere problemi complessi e irrisolti: Energia, Medicina, Gestione Intelligente delle Risorse Planetarie. Ovviamente è un argomento che solleva diversissime preoccupazioni portando nei summit - e non solo - di organizzazioni internazionali e community di scienziati, ricercatori ed esperti le questioni etiche, di sicurezza e di controllo che non possono assolutamente essere ignorate.1

Alla fine questo scritto vuole cercare di raccontare cos'è l'Intelligenza Artificiale (con qualche accenno, in questa sede, alla giurimetria, meglio nota come "Informatica Giuridica"), dalla nascita, quali sono le sue caratteristiche e quelle che potrebbero essere le tecnologiche che vi rientrano.

Non ignoro l'analisi dell'etica e l'impatto sull'economia, in particolare, quella del mercato del lavoro: dalle nuove competenze richieste al ruolo che i "Makers Regulations" dovrebbero avere sia come guida che come primi utilizzatori per instaurare (restaurare), per mezzo dell'Intelligenza Artificiale un miglior rapporto tra "Governanti-Governati".

NASCITA DI UN FUTURO RICCO DI PROMESSE SCIENTIFICHE

Semplificando possiamo descrivere l'Artificial Intelligence (AI) come "la facoltà di un sistema tecnologico, sia informatico che telematico, di risolvere problemi complessi o svolgere mansioni proprie dell'intelletto umano. Nell'informatica l'AI sarebbe la scienza che si occupa di concepire e realizzare macchine (hardware e software)2 in grado di agire autonomamente (risolvere problemi complessi e compiere operazioni, ecc.). Quando, invece, parliamo di giurimetria: "ci si riferisce all'operatività dei calcolatori elettronici nel sistema legale e la nascita di questa disciplina scientifica si colloca, formalmente, intorno alla metà degli anni "40 del 900".3

La fecondità e vivacità odierne che caratterizzano questa l'AI si spiegano con la maturità tecnologica raggiunta sia nel calcolo computazionale - oggigiorno i sistemi hardware sono molto potenti, di ridottissime dimensioni e con bassissimi consumi energetici - sia nella possibilità di analisi in tempo reale ed in tempi ridotti di enormi quantità di dati e di qualsiasi forma (Analytics)4.

Anche nell'informatica giuridica si possono ritrovare due concetti distinti: infatti, se ci si riferisce ad un fenomeno ben più ampio - della giurimetria - che guarda l'insieme dei rapporti tra il diritto e le scienze formali, allora la storia dell'informatica giuridica affonda le sue radici sin agli albori dell'umanità e tende ad identificarsi con la storia del diritto stesso.5 Ma tutta l'evoluzione del pensiero che ruota attorno al diritto mostra una interminabile oscillazione tra tendenze formalistiche e realistiche come tra metodologie logiste e storiciste: le prime senza alcun dubbio preproinformatiche e le seconde sicuramente resistenti all'informatizzazione6.

Quindi, se di giurimetria si tratta, la ricerca non coinvolge tutto il dominio giuridico, bensì, si concentrava prevalentemente su tre aree: "l'archiviazione ed il reperimento elettronico delle informazioni giuridiche, la previsione delle decisioni giuridiche sulla base di analisi comportamentali e la formalizzazione del diritto e della scienza giuridica per mezzo della logica simbolica.

D'altro canto, l'interesse della comunità scientifica per l'AI risale agli inizi del '900: ma il vero primo progetto di Artificial Intelligence - ormai nota ai più con l'acronimo "AI" - è del 1943 quando due ricercatori - Warren McCulloch e Walter Pitt - proposero alla comunità scientifica il primo NEURONE ARTIFICIALE, che portò nel 1949 alla pubblicazione del libro di Donald Olding Hebb, psicologo del Canada, per mezzo del quale vennero analizzati dettagliatamente i collegamenti tra i neuroni artificiali e i modelli complessi del cervello umano7.

(2)

I primi prototipi di reti neurali8 si ebbero poi alla fine degli anni "50 e l'interesse pubblico si fece maggiore grazie ad Alan Turing che già, precedentemente, cercava di spiegare come un computer potesse comportarsi come un essere umano9.

È così che si giunge nel 1944, all'architettura del matematico ungherese John Von Neumann (1903-1957), che grazie al progetto ENIAC, eppoi, al progetto EDVAC, stese una propria prima bozza dell'architettura di un nuovo calcolatore - e benché vi fossero idee anche dei capiprogetto Mauchly e Eckert - poiché circolò col suo solo nome venne esclusivamente attribuito al lui, divenendo, appunto, nota come "Architettura di Von Neumann": riferimento per la maggior parte dei calcolatori digitali degli anni successivi a tutt'oggi. Le caratteristiche principali sono:

realizzazione di un calcolatore universale - General Purpose - contente dispositivo di memorizzazione in cui è possibile rappresentare con la stessa codifica "dati ed istruzioni", che utilizzi l'aritmetica binaria anziché decimale - più semplice da progettare con componenti elettroniche - e che vi sia separazione netta tra dispositivo di memorizzazione e dispositivo di elaborazione.

Per mezzo di quest'architettura, il calcolatore è così composto:

1. il processore - CPU, Central Processing Unit - legge - dalla memoria - le istruzioni e le esegue operando trasformazione di dati - pure in memoria -;

2. la memoria è un insieme di unità elementari di memorizzazione - celle - ciascuna delle quali può contenere un dato od un'istruzione ed è identificata da un indirizzo numerico;

3. l'interfaccia, che può essere scomposta in interfaccia di input ed interfaccia di output, gestisce l'interazione coll'ambiente esterno, è più precisamente, con gli utenti del calcolatore, collegandosi con le periferiche: i dispositivi di input e/o output - I/O;

4. il bus che è un canale di comunicazione che gestisce lo scambio di informazioni tra i sottosistemi.

Un calcolatore così costruito, secondo l'Architettura di Von Neumann, è Turing completo: in grado cioè di simulare la macchina di Turing universale e, quindi per la tesi di Church-Turing10, potente almeno quanto tutti i modelli di calcolo esistenti, in grado di calcolare tutte le funzioni intuitivamente considerate calcolabili.

Tuttavia, il termine Artificial Intelligence esordì ufficialmente solo con il matematico statunitense John McCarthy - nel 1956 - e con esso il lancio dei primi linguaggi di programmazione - Lisp nel 1958 e Prolog nel 1973 - specifici per l'Artificial Intelligence. Da lì la storia della ricerca sull'AI è stata pieni di successi, come di fallimenti dal punto di vista di hardware e reti neurali. La prima vera svolta si ebbe negli anni "90, con l'ingresso del mercato allargato - cioè del grande pubblico: sono i tempi in cui muovono le gesta gli attuali big dell'Informazione Tecnologica - dei processori grafici, le GPU (Graphics Processing Unit). Queste sono chip con capacità di elaborazione dati molto più veloci delle CPU, provenienti dal mondo dei videogiochi e capaci di supportare processi complessi molto più velocemente, peraltro operando a basse frequenze e, dunque, consumando meno energia. Ma la vera svolta è arrivata nel nuovo millennio, coni chip neuromorfici: "microchip che integrano elaborazione dati e storage in unico micro componente - grazie all'accelerazione della ricerca nel campo delle Nanotecnologie - per emulare le funzioni sensoriali e cognitive dell'intelletto umano.

QUALITÀ E CARATTERISTICHE DELL'AI E DELLA GIURIMETRIA

Nella sua definizione, puramente informatica, l'AI potrebbe essere classificata come la disciplina che raccoglie le teorie e le tecniche pratiche per lo sviluppo di algoritmi che permettano alle macchine - in particolare ai calcolatori - di esibire attività intelligente, quanto meno in specifici domini ed ambiti applicativi.

Già, partendo, da questa prima definizione è chiaro che occorrerebbe attingere ad una classificazione formale delle funzioni sintetiche e/o astratte di ragionamento, meta-ragionamento ed apprendimento dell'uomo per riuscire a edificare su di essi dei modelli computazionali capaci di concretizzare siffatte forme di ragionamento ed apprendimento. Un compito davvero difficile dato che, come già anticipato, a tutt'oggi non si conosce a fondo il reale funzionamento del cervello umano 11.

(3)

E non è tutto, infatti, quando si ricorre di facoltà - capacità - di ragionamento ed apprendimento automatico s'incappa, inevitabilmente, nel cosìddetto "Cognitive Computing" che va, tuttavia, inteso come "l'insieme delle piattaforme tecnologiche basate sulle discipline scientifiche dell'Artificial Intelligence - tra cui Machine Learning e Deep Learning - ed il "Signal Processing": cioè la facoltà di elaborare segnali12.

Dall'altro lato (quello del diritto), la giurimetria - ergo "il trattamento elettronico delle informazioni giuridiche" - è stata la logica conseguenza all'esplosione delle fonti del diritto, soprattutto quelle legislative13. Ma l'uso dei metodi logici nello studio dei problemi giuridici era il risultato della diffusione di un approccio epistemologico, ancora più ampio, proprio della filosofia della conoscenza logico-positivista, già delineato da Ludwig Wittgenstein 14.

Le tre aree citate - l'archiviazione ed il reperimento elettronico delle informazioni giuridiche, la previsione delle decisioni giuridiche sulla base di analisi comportamentali e la formalizzazione del diritto e della scienza giuridica per mezzo della logica simbolica - indipendenti sia per l'oggetto che per il metodo, erano legate da unico denominatore comune: la tecnologia informatica15. I tre approcci giurimetrici sviluppatisi negli USA risentono fortemente dell'ambiente giuridico-culturale dov'è il diritto giurisprudenziale gioca un ruolo dominante. È così del resto si spiega il forte impulso che riceve negli anni '50 il secondo ambito di applicazioni, quello behavioristico-decisionale: la previsione computerizzata dei comportamenti decisionali dei giudici appare al mondo giuridico statunitense come un mezzo di fondamentale utilità pratica 16. È ciò spiega anche il fatto perché questo filone di ricerche informatiche, resterà al lungo confinato negli USA dove il principio dello stare decisis è di gran lunga più rigido rispetto all'applicazione che ne viene fatta nel mondo giuridico britannico (benché sia un ordinamento di Common Law) ed, a maggior ragione, spiega perché il behaviorismo giudiziale non troverà alcun seguito nei sistemi continentali di Civil Law dove il precedente giurisprudenziale ha puro valore indicativo17.

Gli altri due approcci, sia quello informativo che prenderà il nome di legal information retrieval, sia quello logico che prenderà il nome di legal expert system, avranno, invece larga fortuna in Europa, dove l'inflazione legislativa renderà arduo, se non addirittura impossibile, discernere il diritto vigente dal diritto non vigente ed ancora più complessa la consulenza e la decisione del caso concreto.

AI e giurimetria che sviluppi avranno?

Intanto, l'AI ne ha fatta di strada, come suddetto, tant'è che ormai dal pdv delle abilità intellettuali, il funzionamento dell'AI si sostanzia fondamentalmente attraverso quattro differenti livelli funzionali:

1. comprensione: attraverso la simulazione di facoltà cognitive di correlazione dati ed eventi - l'AI - è in grado di riconoscere testi, immagini, tabelle, video, voce ed estrapolarne informazioni;

2. ragionamento: tramite la logica i sistemi riescono a collegare la moltitudine di informazioni raccolte (mediante precisi algoritmi matematici ed in modalità automatizzate);

3. apprendimento: qui ci si riferisce a sistemi con funzionalità specifiche per l'analisi degli input di dati e per la loro corretta restituzione in output: è il caso del classico esempio dei sistemi di Machine Learning che con tecniche di apprendimento automatico fanno sì che le AI imparino e svolgano varie funzioni;

4. interazione, "Human Machine Interaction": in questi casi si fa riferimento alle modalità di funzionamento dell'AI in riguardo alla sua interazione coll'uomo. Ed è qui che si sta fortemente assistendo all'avanzata dei sistemi di Nlp (Natural Language Processing), tecnologie che consentono all'uomo di interagire con le macchine - e viceversa - sfruttando il linguaggio naturale18.

È così allo stesso modoo, la matematica entra sempre più con maggior forza nel dominio Giustizia, riproponendo il tema da sempre discusso della “calcolabilità del diritto”; tema legato all'ideale di una maggiore certezza e prevedibilità anche dell’esito giudiziario."

(4)

Un ideale questo che, complice lo sviluppo proprio dell'Intelligenza Artificiale e dei modelli predittivi applicati alla Giustizia, ha fatto affacciare nel mondo degli studi legali e dei tribunali il tema della predittività anche negli ordinamenti di Civil Law19. Ormai non c’è riflessione sul futuro della Giustizia che non si chieda se, come e quando dovremo fare i conti con la “Giustizia Predittiva" propriamente intesa.

È facile comprendere come la calcolabilità del diritto sia una questione spinosa: finora la dottrina e la giurisprudenza prevalenti hanno escluso con toni assertivi molto decisi questa possibilità, nel presupposto che una formula matematica applicata alla decisione del giudice ne mortificherebbe il libero convincimento, il potere che l’ordinamento gli riconosce di interpretare la norma in modo da plasmarla fin nelle sue fibre più recondite per adattarla al caso concreto.

Tuttavia, anche non volendo mettere in discussione l’irrinunciabilità della creatività del diritto per via giurisprudenziale, che ha fatto evolvere la trama dei diritti tutelati dall’ordinamento, è altrettanto indubbio che all’interno della stessa magistratura (per non parlare poi degli operatori sul mercato, oltre che dei cittadini) stia crescendo la consapevolezza che il libero convincimento del giudice non debba trasformarsi in arbitrarietà e in cambi di giurisprudenza repentini e contraddittori, lasciando gli operatori e l’ordinamento senza bussole di riferimento. Anche la riflessione sul pieno recupero della funzione nomofilattica della Corte di Cassazione si inserisce nella scia di un recupero di qualche certezza e stabilità. Per questioni di efficienza e di economia; ma non solo20.

Ed a queste necessità che si ispira il progetto della Corte di Appello di Brescia che Avvocato 4.0 ha raccontato in Giustizia predittiva: il progetto (concreto) della Corte d’appello di Brescia.

Le premesse scientifiche di questo lavoro operativo sono state ora pubblicate nel testo

“Intelligenza artificiale e Giustizia”, autori Claudio Castelli e Daniela Piana.

Sommario:

La giurimetria per misurare legge, norme e probabilità Calcolare il tasso di usura è un fatto per matematici Modelli matematici per la interpretazione della legge

Un premio al software predittivo per gli assegni di mantenimento Le nuove frontiere dei mathematical tools

La giurimetria per misurare legge, norme e probabilità

In questa aspirazione di maggiore certezza a tutela dei diritti e del principio di uguaglianza, si inseriscono alcune riflessioni da parte di operatori che sono convinti che un qualche innesco matematico nel ragionamento giuridico possa essere utile per ottenere decisioni più calibrate, almeno in presenza di circostanze specifiche. Warning: nessuno di questi progetti che qui raccontiamo mira a “destabilizzare” il libero convincimento del giudice. Piuttosto aspirano a studiare sistemi e metodi matematici a supporto della decisione, provando a disegnare una “via italiana” alla innovazione che sia in grado di creare non solo modelli predittivi di AI (su base statistica e sul calcolo della probabilità su di una ampia mole di dati) ma anche di realizzare funzioni matematiche che possano essere applicate a ciascun caso specifico concreto, preservandone le specificità e nel contempo garantendo maggiore prevedibilità. Entriamo più nel dettaglio di questi progetti.

Calcolare il tasso di usura è un fatto per matematici

"Nella mia esperienza di avvocato impegnato nel diritto di impresa, mi veniva sovente richiesto di occuparmi dell’analisi di rapporti bancari e finanziari stipulati dalle aziende clienti. In questo frangente, mi sono reso conto che in questa materia al professionista non basta effettuare un’analisi giuridica delle clausole dei contratti, perché i prodotti bancari sono progettati e realizzati da specialisti di settore che utilizzano metodi fondati su attenta conoscenza della

(5)

matematica finanziaria”, racconta Agatino Di Stallo Agatino Luigi Di Stallo che ha fondato Giurimatica, insieme a un matematico, Francesco Rundo“. “Di contro, l’analisi tecnica dei rapporti veniva spesso affidata da parte dei clienti e anche dei tribunali in sede di CTU, non a matematici, bensì a professionisti provenienti da specializzazioni diverse che spesso non erano in grado di cogliere alcuni tipi di vizi riconducibili a elaborate sofisticazioni matematiche e finanziarie. Per fare un esempio, la normativa in tema di usura richiede la misurazione del costo complessivo del rapporto bancario in riferimento al momento genetico o pattizio di stipula contrattuale. Per tale ragione è indispensabile, per alcuni tipi di rapporto come ad esempio per i mutui, utilizzare un modello matematico che attualizza al momento della stipula i flussi finanziari generati sulla base delle pattuizioni contrattuali. Nella pratica forense questi tipi di analisi non avvengono e viene tralasciata l’analisi sugli effetti della “attualizzazione dei flussi” in tutte le possibili variabili che un rapporto finanziario non concluso a scadenza naturale poteva determinare, ad esempio sulla valutazione usuraria dello stesso. Ho espresso queste le mie perplessità al matematico, ed insieme abbiamo lavorato alla costruzione di una tecnica di analisi integrata dei rapporti bancari in grado di rilevare anche eventuali vizi rilevabili solo ricorrendo a tecniche di calcolo sofisticate”.

Per Di Stallo l’analisi matematica in alcune materie può fornire un contributo decisivo al giurista, sia in fase di analisi che nella successiva fase di impostazione della strategia più utile da adottare, suggerendo, ad esempio, l’approccio in grado di offrire le maggiori possibilità di successo. Sotto quest’ultimo profilo risulta di particolare ausilio, ad esempio, la c.d. Teoria dei Giochi. Di Stallo segnala inoltre che l’apporto della matematica è utile in molti altri settori del diritto, in apparenza meno affini, come per esempio per dirimere questioni sindacali complesse.

Il team di Giurimatica ha ottenuto un apprezzabile risultato realizzando un algoritmo mediante il quale una importante azienda è stata aiutata a trovare, nel pieno rispetto del contratto collettivo di lavoro, un accordo con i dipendenti e i sindacati, finalizzato a gestire in modo scientificamente inoppugnabile gli avanzamenti di carriera. Abbiamo lavorato ad un algoritmo in grado di operare sulla base delle regole del contratto collettivo, superando le preoccupazioni espresse da parte dei sindacati e dei singoli lavoratori. Il risultato ottenuto è stato infatti adottato da tutte le parti sociali”, racconta Di Stallo che annuncia che questa esperienza sarà presto oggetto di una pubblicazione.

Un altro ambito che si annuncia ricettivo è quello della crisi d’impresa, alla luce della recente riforma che ha assegnato all’imprenditore, tra gli altri, l’obbligo di monitorare costantemente la sua azienda allo scopo di potere garantire la continuità aziendale. “Giurimatica è nata un anno fa prima come associazione professionale tra un avvocato e un matematico, ma da un paio di mesi si è aperta al mercato ed è stata trasformata in srl. Al momento produciamo prototipi basati su applicazioni di intelligenza artificiale applicati alle scienze giuridiche ed economiche e pubblichiamo gli studi scientifici . Stiamo collaborando attivamente con più Università per la realizzazione di vari prototipi commissionati da clienti o realizzati autonomamente. Il passo successivo è quello di giungere dal prototipo alla commercializzazione di prodotti innovativi che possono essere d’ausilio per avvocati, commercialisti e imprese. Giurimatica è iscritta al registro speciale delle start up di Infocamere”, aggiunge Di Stallo.

Modelli matematici per la interpretazione della legge

Luigi Viola, avvocato e docente, ha studiato una equazione che supporta l’operatore nella interpretazione della legge seguendo alla lettera (è il caso di dire) l’articolo 12 delle preleggi,

“che è l’unica regola del codice che indica al giudice il percorso da seguire”, specifica Viola. Ha pubblicato un volume, “Interpretazione della legge con modelli matematici, che si inserisce nella riflessione relativa alla calcolabilità e prevedibilità del diritto, e che ha suscitato molto interesse raggiungendo le prime posizioni in diverse classifiche di libri di diritto e una menzione sulla rivista di matematica Prisma. Il volume è stato tradotto in inglese e in tedesco. Il 21 giugno sarà presentato a Londra nel corso di un confronto su prevedibilità e predittività del diritto nei sistemi di civil law e in quelli di common law, in un evento che vede come relatori giuristi, avvocati e ingegneri italiani ed inglesi.

(6)

"L’algoritmo “interpretativo”, lungi dall’idea di poter sostituire l’attività interpretativa del giudice, può diventare uno strumento integrativo e di supporto dell’attività del giurista; la certezza giuridica è un valore fondamentale anche per l’economia e può essere raggiunta solo tramite l’ausilio delle scienze esatte, pur senza farne un’applicazione automatizzata e generalizzata, salvaguardando le singole specificità; ad esempio: nell’ambito del diritto di famiglia, gli algoritmi non devono entrare”, dichiara Viola.

Warning ed eccezioni permettono di recuperare all’interprete i concetti valoriali a cui la stessa legge a volte lo richiama (per esempio la buona fede; l’interesse del figlio etc.).

L’equazione trasforma in simboli l’operazione logica dell’interprete così come disciplinata dall’articolo 12 (in progressione: interpretazione letterale, interpretazione telelogica, interpretazione analogica). “Non è un calcolo numerico ma esprime una calcolabilità della norma. E’ evidente che le variabili sono le argomentazioni giuridiche e spetta al giurista inserirle. Questa applicazione può essere applicata nel civile, escludendo le materie più sensibili, la famiglia, i risarcimenti del danno illecito. Di differente rispetto ai sistemi di modelli predittivi attuali è che la formula non si cala dall’alto sul caso trattato, ricercando nella quantità di precedenti la risposta giusta. Ma considera il singolo caso specifico e le argomentazioni specifiche utilizzabili in quel caso. Può essere molto utile sia negli appelli, visto che le argomentazioni delle parti sono nella sentenza di primo grado; sia nei giudizi di legittimità”.

È chiaro che anche questa equazione deve superare la prova dei fatti e Viola, oltre che studiare la traduzione informatica per automatizzare il percorso logico, conduce dei test su questioni di diritto sottoposti alla Corte di Cassazione. Il libro documenta alcune delle “previsioni centrate”: il caso della forma scritta nei contratti di investimento e delle non necessità della sottoscrizione ad substantiam dell’intermediario (Sezioni Unite 898/2018) o il riconoscimento all’interno dell’ordinamento dei danni punitivi accertati da una sentenza straniera (Sezioni Unite n.

16601/2017).

Un premio al software predittivo per gli assegni di mantenimento

Avv 4.0 ha già parlato di ReMida (Prevedibilità degli assegni di mantenimento: il caso ReMida Famiglia), cha ha appena vinto il premio “bigenetorilaità” riconosciuto dalla Fonfdazione Gesef per la “rilevanza sociale” e il contributo alla superamento dei conflitti familiari. Il software lavora su la raccolta di case history di separazioni e di divorzi consensuali, nei quali la composizione di interessi tra i due coniugi è -per così dire- spontanea e rappresenta una dinamica concreta di meccanismi di riequilibrio economico tra coniugi. Con l’aiuto di informatici e matematici sono stati individuati i dati più significativi e tra questi quelli maggiormente ricorrenti per far emergere le regolarità della ripetizione degli effetti e degli elementi; è stata poi ipotizzata una scala di misurazione e le correlazioni fra le misure con la individuazione dei redditi e dei patrimoni e della loro relazione specifica rispetto agli ordini di grandezza, per poi definire un modello logico su cui è stato elaborato il modello matematico, l’algoritmo. Ovviamente ai parametri quantitativi si sono aggiunti alcuni parametri qualitativi, con la creazione di scale di valore convenzionale. Il software viene utilizzato nel tribunale di Sondrio, dove è nato a cura di Gianfranco D’Aietti (già presidente del Tribunale ora dicente di Informatica giuridica alla Scuola di Specializzazione delle professioni forensi in Bocconi) e nella sezione famiglia di Genova.

Le nuove frontiere dei mathematical tools

Se anche la rivista Questione Giustizia ci dedica una ampia riflessione in uno degli ultimi numeri vuol dire che la questione si sta facendo importante. Anche nel processo penale, dove la sfida è riuscire a misurare l’ “oltre ogni ragionevole dubbio”. Nel 2015 è successo a Milano -riporta la rivista QG in un articolo a firma di Claudio Costanzi quando il Tribunale ha verificato che -bayasianamente- un errore inferiore al 99,9% nella valutazione esclude la prova21.

(7)

CONCLUSIONI

Da futurista22 convinto che sono, è chiaro che sono di parte in questo scritto, (lo sono sin dall'infanzia, anche se non avevo la più pallida idea di esserlo), penso anche che ogni tecnologia per quanto avanzata e sorprendente sia, alla fine, resta solo un strumento che nelle mani sbagliate può nuocere, ma al contrario, in quelle giuste, e, comunque in un sistema di regole ben congegnato, può solo apportare migliorie alla condizione umana (e dunque del diritto che a sua volta vuole essere un sistema di regole per la tutela delle libertà umane da ogni qual forma di aggressione illegittima). Resta il fatto che per quel che riguarda la giurimetria, ed in particolare la cd. "Giustizia Predittiva", debbano essere solo l'ennesimo ausilio di cui l'operatore del diritto si avvalga, senza però soccombere ad esso, e facendosi sempre guidare da quelli che sono i principi del diritto, in primis, quelli costituzionali. Ed, infatti, l'art. 101, comma 2, Cost. prevede: "I giudici sono soggetti soltanto alla legge", e l'art. 102, comma 1, Cost.

continua: "La funzione giurisdizionale è esercitata da magistrati (omissis) regolati dalle norme sull'ordinamento giudiziario". Quindi, alla fine resta sempre questa, per così dire, la prima stella da seguire 23. Assieme ovviamente a tutti gli altri principi costituzionali (ed a maggior ragione: gli artt. 13-14-15-16-21-23-24-25-26-27-28 Cost., ed ancora: artt.

35-36-37-38-39, ecc., credo che alla fine sia chiaro che è già la Carta Costituzionale ad indicare la via da percorrere).

Mi piacerebbe concludere col pensiero di un grande giurista24, accanito cultore della Costituzione, e che di diritti e tecnologie, si è occupato, senza peraltro pretendere di dare risposte definitive:

"La tecnologia sta cambiando non solo i modelli di organizzazione sociale e la vita degli individui, ma anche il quadro istituzionale. Si pensi a come il computer e le tecnologie informatiche incidano sulla vita privata; a come la biotecnologia influisca sulla famiglia, sulla nascita, sulla morte, sul destino di ciascuno che può essere predeterminato dalla genetica. Vi sono senza dubbio alcuno: delle relazioni tra il cambiamento tecnologico, il mutamento sociale e la risposta istituzionale che comunque non può mancare ed a cui l'operatore del diritto non può sottrarsi, in primo luogo il legislatore, eppoi chi è chiamato ad interpretare e applicare quella risposta"25.

~~~~~~~~~~~~~~~~~~~~~~ NOTE ESPLICATIVE: ~~~~~~~~~~~~~~~~~~~~~

*L'elaborato è frutto non solo di corsi, studi e letture precedenti riguardanti l'IA (in italiano; in inglese: "AI: Artificial Intelligence"), e la "Giurimetria" (sempre in italiano; dall'inglese:

"Jurimetrics", di Loevinger, in "Minnesota Law Review", 33, 1949, p.455), ma soprattutto della riflessione "personale" grazie alla partecipazione del panel (convegno-studi): "MKAILIVE Could Artificial Intelligence be different ti other technologies" (in italiano: Perché l'AI è diversa dalle altre ondate tecnologiche), reso possibile con il gentile supporto di Data Reply UK ed ospitato da Richard Foster-Fletcher, in qualità di relatore mediatore, con ospiti: Vibhav Mithal (avvocato dei DPI presso ANAND AND ANAND - Panel Lead), Linda Bano (Business Data Analyst presso Data Reply UK), Odilia Coi (PhD. Candidata presso l'Agenzia Spaziale Francese), Charles Radclyffe (Partner di EthicsGrade | AI & ESG) e Michael Kanaan (Direttore delle Operazioni, Dipartimento dell'Aeronautica Militare / MIT Intelligenza Artificiale).

Ed essendo, appunto, una "mia" personale riflessione, si riferisce solo "marginalmente"

a quanto si è detto in quella sede. Ovviamente l'elaborato è pieno di ulteriori fonti.

1. Il panorama di scienziati, ricercatori, imprenditori (pubblici e privati), organizzazioni internazionali ed esperti è vastissimo e variegato; è di certo non può essere affrontato in questa sede. Preme sottolineare a chi scrive soltanto quanto segue ad indicarne gli estremi della complessità del tema trattato: non solo ingegneri, filosofi, politologi, economisti, giuristi, criminologi, criminalisti, fisici, matematici, ma anche "sociologi, psicologi e, soprattutto, neurologi"! Per questi ultimi, in particolare, l'intento è capire cosa esattamente faccia il sistema neurale umano (per questo le mappature dello

(8)

stesso) per cercare di riprodurlo artificialmente! Infatti, tutti gli studi passati sulla psiche ed il cervello umani (Sigmund Freud e seguire) sono, ad oggi, postulati teorici frutto per lo più di speculazioni scientifiche. È da anni che vi sono dei progetti al MIT proprio riguardanti ciò. Nel frattempo la ricerca procede ed i vantaggi sono sotto gli occhi di tutti.

Recente è, ad esempio, un modello che utilizza il machine learning - che insegna ai computer ed ai robot ad assimilare azioni ed attività in maniera naturale ed autonoma come gli umani o gli animali: imparando dall'esperienza. In sostanza, gli algoritmi di Machine Learning (letteralmente in inglese, per l'appunto: "Apprendimento Automatico") usano metodologie matematico-computazionali per apprendere informazioni direttamente dai dati, senza modelli matematici ed equazioni predeterminate - per leggere al meglio le scansioni di un cervello e individuarne le strutture anatomiche. In sostanza, il sistema genera automaticamente dati per il processo di segmentazione della scansione, il che rende più semplice la suddivisione dell’immagine in regioni formate da pixels, più semplici da analizzare e ricche di significato. Il tutto è possibile grazie a un Convolutional Neural Network (CNN), machine learning in grado di analizzare molte scansioni provenienti da vari pazienti e varie attrezzature per discriminare tra differenze anatomiche, di luminosità e di contrasto. Quanto appreso viene quindi applicato a una scansione con etichetta per creare nuove scansioni che sono insieme realistiche ed etichettate. Queste nuove scansioni vengono poi inserite in una nuova CNN che impara quindi come segmentare una nuova immagine, come la scansione di un dato paziente. Lo studio è stato presentato durante la Conference on Computer Vision and Pattern Recognition, che si è tenuta dal 16 al 20 giugno 2019 a Long Beach - California - (fonte: Stefania Somaré per tecnicaospedaliera.it)..

Non solo! Più recentemente, tramite un altro studio, si è dimostrato con successo come:

l'Intelligenza Artificiale riesce a prevedere il declino cognitivo legato al morbo di Alzheimer nell'arco dei successivi due anni, fornendo un aiuto concreto alla ricerca volta a mettere a punto nuove terapie ed a individuare i pazienti che potrebbero rispondere meglio a quelle attualmente disponibili. Il sistema e' stato messo a punto negli Stati Uniti, presso il Media Lad del Massachusetts Institute of Technology (Mit), e la presentazione si è avuta durante la conferenza su Apprendimento delle macchine e salute. È un risultato davvero importante, inseguito da un ventennio circa dalle tante ricerche condotte in questa direzione dalle aziende farmaceutiche: il rapporto pubblicato nel 2018 dall'associazione delle aziende farmaceutiche americane (Pharmaceutical Research and Manufacturers of America, PhRMA) calcola che siano state ben 146 nel periodo compresso fra il 1998 e il 2017 e quasi tutte senza successo. Attualmente sono 90 i candidati farmaci in via di sviluppo. Il sistema ha prima dovuto 'imparare' e l'ha fatto per mezzo della piu' grande banca di dati clinici sull'Alzheimer, l'Alzheimer's Disease Neuroimaging Initiative (Adni), che contiene dati su 1.700 persone.

"Previsioni accurate del declino cognitivo da sei a 24 mesi sono cruciali per progettare le sperimentazioni cliniche", ha rilevato Oggi Rudovic, del Media Lab del Mit. "Essere in grado di prevedere il declino cognitivo - ha aggiunto - potrebbe ridurre il numero di visite che attualmente i pazienti sono costretti a fare". Un altro obiettivo è ridurre i costi delle sperimentazioni cliniche e rendere piu' facile affrontare test su larga scala (fonte:

Redazione ANSA 5 agosto 2019).

2. Il termine "software" (SW) è costituito dall'unione di due termini inglesi "soft" - morbido - e ware - manufatto, merce, articolo - e la sua origine risale alla Seconda Guerra Mondiale quando i criptoanalisti inglesi, sotto la guida di Alan Turing, erano impegnati a decrittare i messaggi che i nemici tedeschi crittografano con la macchina Enigma.

Dopo, la scoperta che le istruzioni per la configurazione della macchina, che mutavano giornalmente, erano scritte su carta solubile nell'acqua per consentirne una più facile distruzione prima che cadessero nelle mani del nemico, chiamarono tali istruzioni software (componente morbida) in contrapposizione ad hardware (componente

(9)

dura, HW), la ferraglia con cui Enigma era costruita. Con riferimento all'architettura di Von Neumann, per "software" ci si riferisce alle istruzioni codificate all'interno della memoria per essere eseguite dall'hardware, termine che identifica all'opposto tutte le altre parti del calcolatore. L'hardware è dunque costituito dalle componenti tangibili (meccaniche, elettriche, elettroniche, …), invece il software, codificato nell'hardware, è costituito dai programmi che descrivono all'hardware stesso gli algoritmi da seguire nelle sue elaborazioni.

Secondo un detto diffuso tra gli esperti del settore, l'HW si riconosce dal SW nel caso di malfunzionamenti perché il primo può essere preso a calci mentre contro il secondo si può soltanto imprecare!

Spesso al termine "software" viene attribuito un significato più ampio che comprende, oltre alle istruzioni, anche i dati (e le informazioni) rappresentati su un dispositivo di memorizzazione di un calcolatore. - Così: "Marco Lazzari, Alessandra Bianchi, Mauro Cadei, Cristiano Chesi, Sonia Maffei; Informatica umanistica; McGraw-Hill 2010; a pagina 15.

3. Fino a quel momento, infatti, l'uso di applicazioni elettroniche erano relegate verso fini industriali, o verso domini propri delle cd. "scienze esatte", e non erano mai state adoperate in aree "tradizionalmente" umanistiche. Tant'è che al riguardo nacquero tanti aneddoti proprio riguardanti certi bibliofili e bibliotecari resti ad innovare i settori coll'uso di siffatte tecnologie. Oggi, invece, è abitudine scansionare testi (ovviamente con la massima cautela per quelli d'antiquariato) nelle biblioteche e dipartimenti umanistici per rendere una maggiore diffusione, e quindi fruizione, degli stessi da remoto. Comunque, nel 1946 Norbert Wiener, padre fondatore della cibernetica, accennava alla possibile applicazione della teoria dei servomeccanismi al funzionamento del diritto e, nello stesso anno, un manager-giurista americano, Lee Loevinger, proponeva espressamente di sfruttare i vantaggi derivanti dalle tecniche elettroniche per meglio studiare e risolvere i problemi giuridici. E con questo nuovo settore di indagine, che venne chiamata, appunto, "jurimetrics" - giurimetria - si intendeva far riferimento alla "scientific investigation of legal problem": letteralmente, in italiano, "indagine scientifica del problema giuridico".

4. Per Analytics, si intende: "il processo scientifico di scoperta e comunicazione dei modelli significativi che possono essere trovati nei dati. In pratica i dati grezzi vengo trasformati in insights (intuizioni) utili per prendere decisioni migliori e si basa su un insieme di scienze, tecniche e tecnologie che vanno dalla statistica, alla matematica, alle tecnologie di business intelligence di base, al reporting, all’elaborazione analitica online (Olap) e varie forme di analisi avanzate." Da qui i ben noti Big Data. In termini simili:

Nicoletta Boldrini, Direttore responsabile di "AI4Business.it" e codirettore di Digital 4Trade. Nonché: Patrizia Fabbri, giornalista professionista dal 1991 e cultrice di innovazione e trasformazione digitale, direttore di zerouno.it

5. Per citare gli antichi brocardi romani: da quello di gaiana memoria, "Ubi homo, ubi societas, ibi ius" - "Dove c'è l'Uomo (l'essere umano), c'è la società (civile), c'è il diritto (perché nessuna società civile può fondarsi senza diritto)" - a quello di Cicerone,

"Legum servi sumus ut liberi esse possimus" - "Siamo schiavi delle leggi per poter essere liberi" - così possiamo scrivere che praticamente da sempre ci sono tecnologie a servizio del diritto che aiutano a disciplinare in modo quasi ingegneristico l'essere umano. Così intesa l'informatica giuridica non rappresenta nulla di veramente nuovo ma solo l'ultimo stadio, certamente straordinario, di una concezione logico-formale del diritto. Ma in questa sede, come suddetto, discorrerò dell'informatica giuridica moderna, appunto, la giurimetria.

6. In questi termini: TADDEI ELMI, Cultura giuridica e cultura informatica in Informatica e Diritto 1-2, 1992, pp. 113 e ss.; VON STEPHANITZ, Recht und die exakte Wissenschft, Berlino, 1970; e da ultimo, sempre, TADDEI ELMI, Corso di Informatica Giuridica, III edizione "Edizioni giuridiche SIMONE 2010", pp. 17-18 e ss.

(10)

Ma se vogliamo guardare oltre l'informatica giuridica ed il diritto, lo stesso può dirsi per l'informatica stessa, infatti, già i Sumeri in Mesopotamia svilupparono la scrittura cuneiforme verso il 3000 a. C. con cui crittografavano informazioni:

memorizzando, recuperando e manipolando le stesse. Ma il termine tecnologia dell'informazione - e informatica (dall'inglese: informazione automatica) - nel suo senso moderno apparve per la prima volta in un articolo del 1958 pubblicato nella Harvard Business Review; gli autori Harold J. Leavitt e Thomas L. Whisler. È la loro definizione consiste di tre categorie: tecniche di elaborazione, l'applicazione di metodi statistici e matematici al processo decisionale e la simulazione di pensieri di ordine superiore attraverso programmi informatici.

7. Vedi nota 1.

8. Algoritmi matematici sviluppati per riprodurre il funzionamento dei neuroni biologici al fine di poter risolvere problemi di intelligenza artificiale intesa, in quel periodo, come la la facoltà di una macchina di compiere funzioni e fare ragionamenti come un cervello umano.

9. Alan Mathison Turing (1912-1954), matematico, logico e criptoanalista britannico, è considerato il padre della moderna informatica. Tra l'altro ideò la Macchina di Turing (MdT), un primo prototipo di dispositivo complesso per l'elaborazione dell'informazione che, pur nella sua semplicità, si dimostra in realtà molto potente. Non è concepito per essere realizzato praticamente ma piuttosto come entità astratta, lo studio delle cui proprietà permette di comprendere i concetti, le proprietà e gli eventuali limiti connessi all'elaborazione dell'informazione, agli algoritmi e alla complessità. Informalmente una MdT è costituita da:

a. un alfabeto, un insieme finito di simboli contenente il simbolo speciale blank e uno o più altri simboli;

b. un nastro - che si assume di lunghezza indefinita - suddiviso in celle - una vicina all'altra - ognuna delle quali contiene un simbolo tratto dall'alfabeto;

c. una testina che è sempre posizionata su una cella del nastro - la cella corrente - ed è in grado di leggere il simbolo contenuto nella cella corrente, scrivere un simbolo nella medesima, spostarsi nella cella adiacente a quella corrente in uno dei due versi del nastro - sinistra o destra -;

d. un insieme finito di stati contenente uno stato iniziale ed uno o più altri Stati, alcuni dei quali sono individuati come stati finali;

e. un registro di stato che memorizza, in qualsiasi momento, lo stato corrente scelto nell'insieme degli stati. All'inizio dell'elaborazione il registro è impostato automaticamente a contenere vlo stato iniziale;

f. una tabella delle azioni o funzione di transizione, una tabella con cinque colonne ed un numero finito di righe in cui, per ciascuna riga, sono indicate:

● uno stato corrente;

● un simbolo presente nella cella corrente del nastro;

● un simbolo da scrivere nella cella corrente;

● il verso, sinistra o destra, in cui la testina deve spostarsi;

● il nuovo stato da memorizzazione nel registro di stato.

In altri termini, la MdT è un sistema automatico per l'elaborazione dell'informazione nel quale:

a. il nastro è il supporto fisico su cui è inizialmente codificata con simboli dell'alfabeto, l'informazione in input;

b. la testina è incaricata, sotto la guida dell'algoritmo codificato dalla tabella delle azioni, di muoversi lungo il nastro leggendone e modificandone il contenuto ed operando quindi quella trasformazione fisica che porta progressivamente a rappresentare, nel nastro medesimo, l'informazione di output;

c. il registro degli stati costituisce la memoria interna del sistema che, in ogni momento, tiene traccia dello stato di avanzamento nell'elaborazione.

Quando la MdT è attiva, inizia a iterare su un ciclo che prevede, a ogni passo, l'esecuzione delle seguenti operazioni:

a. lettura del simbolo contenuto nella cella corrente;

(11)

b. individuazione, nella tabella delle azioni, della riga in cui i primi due elementi sono rispettivamente lo stato corrente ed il simbolo contenuto nella cella corrente: essa riporterà, a lato, il simbolo X, il verso V e lo stato S;

c. scrittura di X nella cella corrente;

d. spostamento della testina nella cella adiacente nel verso V;

e. impostazione di S nel registro di stato.

L'interazione si conclude nel momento in cui lo stato corrente risulta avere uno dei stati finali.

Si consideri, ad esempio, un semplice alfabeto costituito da due soli simboli "0" - blank - e "1".

Con esso possono essere rappresentati sul nastro di una MdT numeri interi in formato "unario"

come di seguito (che contiene "11111" e "111", separati da un solo blank, a rappresentare rispettivamente i numeri "5" e "3"):

"000111110111000"

Se si vuole costruire una MdT in grado di calcolare la somma di due numeri così raffigurati che, applicata al nastro dell'esempio suddetto, dovrebbe quindi generare questa raffigurazione:

"000111111110000"

(5+3= 8, infatti, ci sono otto "1"; il sistema è "unario" si ricordi.)

La tabella delle azioni, con l'aggiunta di una sesta colonna di commenti sarebbe come segue - ipotizzando che S0 sia lo stato iniziale, Sh l'unico stato finale e che all'avvio la testina sia posizionata sulla prima cella del nastro a sinistra -.

(L'immagine ritrae la "Tabella delle azioni per una MdT che calcola la somma di due numeri interi" è proviene da p. 12 di Informatica umanistica: vd. nota 2.)

Dunque, una MdT si comporta come un calcolatore in grado di eseguire un ben preciso algoritmo, quello espresso dalla sua tabella delle azioni. Turing arrivò a definire, successivamente, "Macchina di Turing Universale" - UTM, Universal Turing Machine - una macchina di Turing che fosse stata in grado di simulare il funzionamento di qualsiasi tipo di macchina di Turing e ne descrisse in dettaglio una possibile simulazione.

10. La "tesi di Church-Turing" o "Congettura di Church-Turing" formulata indipendentemente dal Turing, ma con contenuto sostanzialmente equivalente, a distanza di pochi mesi dapprima del matematico e logico statunitense Alonzo Church eppoi dallo stesso Turing - è perciò nota semplicemente anche come tesi di Church o tesi di Turing - afferma:

"che se una funzione è intuitivamente considerata calcolabile, allora esiste una macchina di Turing in grado di calcolarla".

11. Vedi nota 1.

12. Riguardo al "Machine Learning" vedi: nota 1. Qui basti aggiungere che a coniare per primo il termine nel 1959 fu Arthur Lee Daniel - scienzato americano pioniere del campo dell'AI - seppur, ad oggi, la definizione più accolta dalla comunità scientifica è quella data, invece, da un altro scienzato, sempre americano, Tom Michael Mitchell - direttore del dipartimento Machine Learning della Carnegie Mellon University - che afferma: <<Si dice che un programma apprende dall'esperienza "E" con riferimento ad alcune classi di compiti "T" e con misurazione delle performance "P", se le due performance nel compito "T", come

(12)

misurato da "P", migliorano con l'esperienza "E">>. Detta in parole più semplici: "il Machine Learning permette ai computer d'imparare (a reimparare) dall'esperienza".

Per quel che riguarda il "Deep Learning" - letteralmente dall'inglese: "Apprendimento Profondo" - invece, possiamo dire che

(ed è qui la differenza tra l'Intelligenza Artificiale e quella Umana: la prima può calcolare un'infinità di opzioni possibili in un brevissimo lasso di tempo alla "Doctor Strange"

segliendo l'opzione più appropriata, mentre la seconda, per quanto prudente - letteralmente dal latino "prudentìa", da "providentìa", provvidenza; quindi: "accortezza, senso di saggia misura nell'agire"; che vuol dire allora: "pre-vedere", "vedere prima";

essere, appunto: "PRE-VIDENTE" - non sarà mai capace di vagliare quell'infinità di opzioni in un'infinità di vite, figuriamoci in un brevissimo lasso di tempo [personaggio fumettistico, apparte, anche se per ironica coincidenza interpretato dal medesimo attore, è proprio quel che nei medesimi termini affermò Alan Turing a proposito della Macchina

"Enigma" e della necessità di un'altra Macchina che riuscisse ad anticiparla: la

"Macchina di Turing"])

esso è la logica evoluzione di quegli approcci pratici al "Machine Learning": i modelli statistici.

Parliamo per esempio dei cosidetti "alberi delle decisioni" basati su simboli tramite i quali di sviluppano modelli predittivi per mezzi dei quali è possibile scoprire le conseguenze - output - di determinate decisioni - input.

Altri esempi concreti di quelli modelli statistici sono il "clustering" - ossia modelli matematici che permettono di raccogliere dati, informazioni e oggetti simili; che vanno dall'identificazione delle strutture (cosa definisce un cluster e qual è la sua natura) alla capacità di riconoscere oggetti, che devono far parte di un insieme piuttosto che un altro - ed i modelli probabilistici il cui processo di apprendimento si basa sul calcolo delle probabilità - il più noto dei quali credo sia la

"rete di Bayes": modello probabilistico che rappresenta in un simbolo l'insieme delle variabili casuali e le corelative dipendenze condizionali -.

Ed è così che si giunge al Deep Learning: infatti, ci sono reti neurali artificiali che utilizzano per l'apprendimento algoritmi ispirati all'architettura, al funzionamento ed alle connessioni di reti neurali biologiche - ergo quelle degli esseri umani -. Ora quando queste sono "multi-strato"

consentono appunto il "Deep Learning".

13. L'indagine statistico-informatica sul comportamento dei giudici nei processi decisionali rifletteva l'impostazione del realismo giuridico statunitense - infatti, fu proprio Oliver Wendel Holmes Jr., presidente della Corte Suprema, che già prima degli anni "40, divenne noto per un'affermazione: "le predizioni di ciò che faranno i tribunali, e niente di più pretenzioso, sono ciò che intendo per diritto". Importantissima perché afferma proprio il realismo giuridico, ossia, quella corrente filosofica secondo la quale il diritto è valido in quanto le sue norme sono effettivamente applicate, sia perché i cittadini le rispettano sia perché i giudici hanno il potere di farle applicare. - Il diritto consiste, dunque, nella giurisprudenza, anzi, il diritto è la giurisprudenza. Ed infatti, l'ordinamento statunitense, come si sa, è un ordinamento di Common Law, nella quale la legge ha una funzione, davvero, meramente residuale. Sia nei manuali, che nella carriera forense quel che conta è il la decisione del giudice e la vincolatività del precedente. Ed è proprio in base al precedente (stare decisis: letteralmente

"decisione stella", che fa da "stella illuminando la via al giurista nell'oscuro labirinto faunistico del diritto permettendogli di non smarrire la via, o peggio ancora rimanere vittima dei guardiani di kafkiana memoria") che si afferma una prevedibilità delle decisioni del giudice. Il precedente diventa importante, perché grazie a questo ci si può fare un'idea di quale sarà la decisione del giudice in relazione ad un fatto analogo.

14. In particolare, nella sua opera maggiore - "Tractatus logico-philosophicus": "Trattato logico-filosofico" - si rintracciano sette asserzioni fondamentali:

•1 Il mondo è tutto ciò che accade.

•2 Ciò che accade, il fatto, è il sussistere di stati di cose.

(13)

•3 L'immagine logica dei fatti è il pensiero.

•4 Il pensiero è la proposizione munita di senso.

•5 La proposizione è una funzione di verità delle proposizioni elementari.

•6 La forma generale della funzione di verità è: "tutte le proposizioni atomiche, qualsiasi insieme di proposizioni scelte, la negazione di tutte le proposizioni, cioè tutto ciò che è complesso può essere ricavato da ciò che è semplice. Questa è la forma generale della proposizione (poichè questa applicazione è sprovvista dei strumenti adatti per scriverla matematicamente, gli addetti del mestiere - ingegneri, matematici, scienzati in genere - dovranno accontentarsi della versione letterale!).

•7 Su ciò di cui non si può parlare, si deve tacere.

E non è un caso, nemmeno, che nel campo delle indagini penali si ricorra alle leggi scientifiche ai fini della sussunzione del rapporto causale "causa-effetto" per rispondere ad uno dei punti di maggiore debolezza della teoria condizionalistica - della responsabilità penale, in particolare, per i reati omissivi - ovvero, la sua incapacità di spiegare perché è dato affermarsi che, senza una determinata azione, l’evento non si sarebbe verificato. In fondo, essa affidava all'intuito del Giudice la ricerca delle regole di derivazione causale tra antecedenti e conseguenti. Con il modello in questione, si configura, invece, un sistema di spiegazione causale ancorato a regole generali. Le dette regole generali devono avere carattere scientifico ed essere il più possibile certe e controllabili. D’altro lato, questo modello di spiegazione causale risponde meglio della teoria della causalità adeguata alle istanze proprie del principio di tassatività e legalità. E pertanto:

secondo la teoria della sussunzione del rapporto causale sotto leggi scientifiche, non è sufficiente che l'azione sia condizione necessaria dell'evento. È, inoltre necessario che essa, in forza di una legge generale di copertura dotata di validità scientifica, rientri nel novero di quegli antecedenti che portano ad eventi del tipo di quello verificatosi in concreto. Diventa, quindi, necessario stabilire quali sono le leggi di copertura accessibili all'organo giudicante sul terreno del processo penale. È di fatto, a livello scientifico, il rapporto causale può essere spiegato sia sulla base di leggi universali sia sulla base di leggi statistiche. Le leggi universali sono quelle che affermano una regola di derivazione causale tra un dato antecedente e un dato conseguente in termini assoluti ed invariabili (è il caso delle Leggi della Gravità di Newton, oppure delle Leggi sui caratteri ereditari in biologia di Mendel).. Ma nelle stesse scienze naturali, non sempre si prefigura questa regola universale di derivazione causale tra un antecedente e un conseguente. Questo limite, è ancora più pregnante, come correttamente osservato dai teorici della sussunzione del rapporto causale sotto leggi scientifiche, in sede di accertamento della responsabilità penale. Il fatto oggetto di imputazione penale, spesso, viene comprovato sulla base di elementi indiziari che, sebbene univoci e convergenti, nulla hanno a che fare con le leggi scientifiche universali. Allora, secondo la teoria della sussunzione del rapporto causale sotto leggi scientifiche, le leggi di copertura richieste per accertamento del nesso di causalità si configurano come leggi statistiche. E queste sono: leggi scientifiche che dimostrano una regola di derivazione causale non in termini assoluti ed invariabili, ma solo in termini percentuali. La percentuale dei casi in cui la legge statistica trova applicazione può variare. Più alto è il grado statistico dei casi in cui si verifica la derivazione causale tra antecedente e conseguente, maggiore sarà la validità della legge di copertura del nesso causale. In questo senso, però, il modello della sussunzione del rapporto causale sotto leggi scientifiche, rischia di esporsi alla stessa obiezione mossa alla teoria della causalità adeguata.

Se non si individua un livello minimo di validità statistica della legge di copertura, continua a restare incerto il grado di probabilità che, in assenza dell’azione, l’evento non si sarebbe verificato. Ed ecco perché secondo la versione migliore del modello di sussunzione del rapporto causale sotto leggi scientifiche, si dovrebbe richiedere un alto grado di probabilità. Inoltre, come la stessa giurisprudenza di legittimità precisa, si esige il massimo rigore nella verifica della fondatezza probabilistica della legge di copertura. Non solo la più recente dottrina - in qualche modo più garantista - sostiene che il modello della sussunzione del rapporto causale sotto leggi scientifiche, richiede una duplice verifica:

(14)

•1. La legge statistica di copertura deve, quindi essere in grado di spiegare il maggior numero di casi in cui rientra l’azione umana;

•2 e nel contempo, bisogna accertare che non sussista una spiegazione, alternativa, del nesso causale che risponda ad una legge scientifica dotata di maggiore probabilità statistica.

Infine, secondo questo modello di spiegazione causale, il nesso di causalità si può descrivere nei seguenti termini. L’azione umana è condizione necessaria dell’evento quando, con alto grado di probabilità derivante dalla migliore scienza, è dato affermare che, in sua assenza, l’evento non si sarebbe verificato.

15. Il calcolatore sembrava lo strumento più idoneo sia per incanalare la continua valanga legislativa, sia per gestire i complicati calcoli necessari per l'analisi behavioristica (dall’ingl.

behaviorism [der. di behaviour «comportamento», in grafia d’America behavior], termine coniato dallo psicologo statunitense J. B. Watson nel 1912. La psicologia behaviorista si dedica quindi allo studio del comportamento per risalire alle caratteristiche dell'attività mentale degli individui, sia sani che malati) delle probabilità e sia per discernere la logica vera dalla pseudo-logica.

16. In termini simili: TADDEI ELMI, Corso di Informatica Giuridica, III EDIZIONE 2010, a pp.18 e ss.

17. Tuttavia, c'è da precisare che negli ultimi anni si assiste ad un fenomeno, quanto meno similare, persino in Italia:

"assegni di mantenimento, tasso di usura ed alert della crisi di impresa, fino alla interpretazione della norma seguendo le regole dell’articolo 12 delle preleggi tradotte in un'equazione.

"La Corte di Cassazione è dunque chiamata a ricondurre a sistema le linee interpretative che emergono nell’impetuosa fluidità del diritto contemporaneo: un compito di stabilità e di ordinata evoluzione a garanzia dell’uguaglianza di cittadini di fronte alla legge (…) Queste prerogative, considerate in termini concreti e non astratti, costituiscono la chiave di volta della funzione della giurisdizione nella società moderna, ove è avvertita più che mai l’esistenza di certezza nei rapporti giuridici e la giurisprudenza costante e condivisa costituisce un presupposto dell’ordinato svolgersi dei rapporti sociali, economici.

Istituzionali della collettività. Obiettivi raggiungibili con pronunce credibili e convincenti, redatte con trasparenza e all’esito del confronto con le parti processuali e i loro difensori”, ha dichiarato il primo presidente della Corte di Cassazione Giovanni Mammone in occasione della relazione di inaugurazione dell’anno giudiziario 2019.

18. Come accennato il tema della robotica industriale, cioè ai fini dell'automazione dei processi produttivi è uno degli ambiti tecnologici dove l'AI è già impegnata, dagli anni '60, ma con l'internet delle cose (IoT), analisi dei dati più sofisticati e facoltà di predictive analytics già inizia a registrare una nuova ondata di adozione soprattutto di robot destinati alla collaborazione con gli esseri umani (cobots) per una sicurezza migliore proprio dei stessi lavoratori. Ma i settori dove davvero è da tempo esplosa l'AI è il Marketing digitale, la Medicina robotica e l'HealthCare (Assistenza Sanitaria), CyberCrime e gestione del rischio reato (la prevenzione delle frodi è, infatti, una delle applicazioni dove, certamente, l'AI si concretizza con quelli che vengono chiamati "advanced analytics", analisi estremamente sofisticate che correlano dati, eventi, comportamenti e - condotte - abitudini per comprendere anticipatamente eventuali attività fraudolente: si pensi, a titolo esemplificativo, alla clonazione di carte di credito;

se poi questi sistemi vengono adoperati all'interno di contesti aziendali, diventano un utile strumento di prevenzione del rischio reato: si pensi, ad esempio, alla protezione di informazioni commerciali o di dati sensibili dei consumatori, od ancora al cybercrime), nel c.d.

"Supply Chain Management" (ovverosia, la gestione degli ordini: qui le tecnologie che adoperano l'AI oltre a semplificare i processi aziendali, li integrano totalmente: "acquisti, inventario, magazzino, vendite sino ad arrivare ad integrarsi col Marketing gestendo preventivamente forniture in funzione delle attività aziendali di promozione! In particolare, in

(15)

quest'ambito si assiste ad un'incisività da parte dell'AI nell'ottimizzazione massima delle giacenze di magazzino evitando che v'è ne siano in eccesso: FENOMENO QUESTO CHE SE ACCADDESSE IN MERCEOLOGIA È DEFINITO NON A CASO, IN MANIERA PITTORESCA, "DENARO MORTO") ed, infine, l'AI a servizio della Pubblica Sicurezza (la ben nota CyberSecurity: in grado di analizzare una gigantesca quantità di dati in tempo reale e di dedurne mediante correlazioni d'eventi, comportamenti, abitudini, attitudini, sistemi e dati di geolocalizzazione, nonché, per mezzo di GPS, monitoraggio continuo degli spostamenti di beni e persone permette un miglioramento dell'efficienza e dell'efficacia della sicurezza pubblica:

come, a mò di esempio, per la sicurezza e prevenzione di crimini che colpiscono le infrastrutture - aeroporti, porti, stazioni ferroviarie, città metropolitane - nonché la prevenzione ed una migliore gestione di crisi emergenziali: dalle calamità naturali a quelle di altri tipo).

19. Ma sarebbe, riduttivo, semplicistico ed un esercizio quantomeno di poca onestà intellettuale, riservare la complicità solo all'AI. Infatti, come negli USA, anche da noi è proprio quell'esplosione normativa che ci spinge verso una così similare direzione. Infatti, già nel 1988, la Corte Costituzionale con sentenza 364, dichiarando "incostituzionale l'art. 5 c.p. nella parte in cui non prevede la scusabilità dell'ignoranza inevitabile della legge penale".

Riconoscendo in qual modo che: "l'ipertrofia patologica del sistema, il moltiplicarsi inarrestabile di fattispecie artificiali (o, come anche si dice, di pura creazione legislativa) vagolanti extra codicem, nell'immenso e torbido mare del diritto penale accessorio, sprovviste di un tangibile disvalore sul piano socio-culturale e talvolta difficilmente accessibili agli stessi addetti ai lavori, fece ben presto apparire illogica e anacronistica, nella sua assolutezza, (persino) la regola draconiana posta dall'art. 5 c.p.: che nella sua originaria formulazione perentoriamente affermava che <<nessuno può invocare a propria scusa l'ignoranza della legge penale>> - ignorantia legis non exusat - Laddove, invece, nella selva oscura della vigente legislazione, non era (e non è) per nulla difficile smarrire la diritta via. E non si poteva continuare ad addossare ai cittadini il rischio dell'inconoscibilità dei precetti penali, rendendoli comunque responsabili della loro violazione. La norma, d'altra parte, deve poter essere riconosciuta e compresa dai suoi destinatari, se vuole davvero funzionare come direttiva di comportamento diretta ai consociati." (quasi l'intero periodo è di Giulio De Simone, mi piaceva la semantica, in Manuale di diritto penale, parte generale, Edizione il Mulino 2007, a pp. 613 ss., "Coscienza dell'illiceità").

Se a ciò poi si aggiunge che: la Corte EDU ha coniato una nozione autonoma di legge, mediante la sua giurisprudenza.

È chiaro quanto ormai il nostro sistema sia sempre più simile a quello USA. Infatti, secondo la Corte EDU per legge deve intendersi un atto che presenti due caratteristiche peculiari, ovvero, RAGIONEVOLE CONOSCIBILITÀ, e RAGIONEVOLE PREVEDIBILITÀ DELLA SUA APPLICAZIONE, senza che rilevi il problema del rapporto tra fonti primarie e secondarie nazionali nella definizione del fatto di reato. Nella sentenza Sunday Times c. Regno Unito, 26 aprile 1979 la Corte EDU afferma una concezione sostanziale ed antiformalistica di legge dicendo che "non è importante che il precetto penale sia contenuto in una legge del parlamento, in un decreto legge, in un decreto legislativo o in un decreto ministeriale, quel che conta è che il precetto penale esprima due caratteristiche: RAGIONEVOLE CONOSCIBILITÀ e RAGIONEVOLE PREVEDIBILITÀ DELLA SUA APPLICAZIONE". La legge, per la Corte EDU, è, dunque, un precetto normativo che al contempo deve essere ragionevolmente conoscibile e la cui applicazione deve essere ragionevolmente prevedibile. Ed ormai da tempo, dunque, che persino da noi l'approccio behavioristico-giudiziale, un tempo relegato nel sistema giuridico statunitense, si fa sempre più sentire persino da noi.

20. In questi termini, sostanzialmente, V. MANES, Il giudice nel labirinto: profili delle intersezioni tra diritto penale e fonti sovranazionali, Editore Dike Giuridica 2012.

21. Tale e quale l'intero periodo riguardante Avvocato 4.0, in: Altalex, 10 giugno 2019. Articolo di Claudia Morelli.

(16)

22. Da intendersi in questo caso come persona che confida nel progresso tecnologico e scientifico è di come questi possano servire l'Umanità guidandola verso il miglioramento della condizione umana.

23. Vedi nota 13.

24. Stefano Rodotà, che peraltro è stato co-estensore della prima versione dell'altra nostra costituzione (la Carta dei Diritti Fondamentali dell'Unione Europea; da non confondere assolutamente con la "Convenzione Europea dei Diritti Umani").

25. In questi termini: STEFANO ROTODÀ, Tecnologie e Diritti, il Mulino 1995.

Riferimenti

Documenti correlati

 Il corpo docenti annovera tra i più prestigiosi ricercatori internazionali del settore..  Il corpo docenti annovera tra i più prestigiosi ricercatori internazionali

• ESMIS sistema esperto per il monitoraggio delle infezioni nosocomiali e la validazione delle analisi microbiologiche.. • Infezione nosocomiale: infezione sviluppatasi nel paziente

Nel calcolo del voto finale dell’esame completo, la votazione ottenuta nella prova intermedia sarà normalizzata sul punteggio massimo previsto per la corrispondente parte nella

Nel calcolo del voto finale dell’esame completo, la votazione ottenuta nella prova intermedia sarà normalizzata sul punteggio massimo previsto per la corrispondente parte nella

Nel calcolo del voto finale dell’esame completo, la votazione ottenuta nella prova intermedia sarà normalizzata sul punteggio massimo previsto per la corrispondente parte nella

Nel calcolo del voto finale dell’esame completo, la votazione ottenuta nella prova intermedia sarà normalizzata sul punteggio massimo previsto per la corrispondente parte nella

Nel calcolo del voto finale dell’esame completo, la votazione ottenuta nella prova intermedia sarà normalizzata sul punteggio massimo previsto per la corrispondente parte nella

Nel calcolo del voto finale dell’esame completo, la votazione ottenuta nella prova intermedia sarà normalizzata sul punteggio massimo previsto per la corrispondente parte nella