• Non ci sono risultati.

Il Diritto civile al tempo dell'intelligenza artificiale: spunti per una problematizzazione.

N/A
N/A
Protected

Academic year: 2021

Condividi "Il Diritto civile al tempo dell'intelligenza artificiale: spunti per una problematizzazione."

Copied!
26
0
0

Testo completo

(1)

L’impiego dell’intelligenza artificiale influenza ormai ogni aspetto della vita indi-viduale e collettiva e sta mutando con rapidità non solo l’ambito dell’economia, ma anche quello politico e sociale, senza che peraltro si possano ipotizzarne con certezza gli esiti. A fronte di tale travolgente progresso, la riflessione giuri-dica è ancora in forte ritardo. Il legislatore fatica a inseguire fattispecie mutevoli e sfuggenti e non è chiaro quali strumenti interpretativi ed applicativi possano essere in concreto adoperati dai giuristi. Questa raccolta di scritti si propone per l’appunto di colmare la lacuna, stimolando un percorso di riflessione che ponga nuovamente al centro dell’investigazione il diritto ed i suoi fondamenti. L’obietti-vo è quello di esplorare - e se possibile comprendere - come l’uso di macchine e programmi intelligenti possa influenzare lo sviluppo ed il compimento del ragio-namento giuridico. Si tratta di trovare una sintesi tra l’innovazione tecnologica ed i principi che devono guidare l’attività del giurista, al fine di garantire comun-que una adeguata tutela dei diritti.

Stefano Dorigo è professore associato di diritto tributario presso l’Università di Firenze. Membro del Comitato di redazione della Rivista trimestrale di diritto tri-butario, è autore di tre monografie e di circa ottanta saggi di diritto tritri-butario, pubblicati in collettanee e riviste scientifiche italiane ed europee.

Il ragionamento giuridico

nell’era dell’intelligenza artificiale

Il ragionamen

to giuridico nell’era dell’in

telligenza artificia

le

A cura di

Stefano Dorigo

(2)
(3)
(4)
(5)

Il ragionamento giuridico

nell’era dell’intelligenza

artificiale

(6)

© Copyright 2020 by Pacini Editore Srl ISBN 978-88-3379-166-1 Realizzazione editoriale Via A. Gherardesca 56121 Pisa Responsabile di redazione Gloria Giacomelli Fotolito e Stampa

Industrie Grafiche Pacini

Le fotocopie per uso personale del lettore possono essere effettuate nei limiti del 15% di ciascun volume/fascicolo di periodico dietro pagamento alla SIAE del compenso previsto dall’art. 68, commi 4 e 5, della legge 22 aprile 1941 n. 633.

Questo volume è frutto della giornata di studi tenutasi il 15 novembre 2018 presso il Dipartimento di Scienze giuridiche dell’Università di Firenze e risulta finanziato con i fondi “Il trasfer pricing nei gruppi di imprese” del Dipartimento di Scienze giuridiche.

(7)

Indice

Stefano Dorigo, Presentazione ... p. XV

PARTE PRIMA - I PRINCIPI

Enrico Francesconi, Intelligenza Artificiale e Diritto: tra scienza e

fantascienza ...» 1

1. Intelligenza Artificiale e Diritto: un binomio che nasce da lontano...» 1

2. L’Intelligenza Artificiale anni ’40-’90: dai primi successi all’AI Winter ....» 3

3. AI e il Web: ovvero la fine dell’AI Winter ...» 4

4. L’AI per il Diritto ...» 5

5. Uno scenario prossimo per l’AI e il Web ...» 7

6. Uno scenario futuro per l’AI e il Web ...» 9

Adelina Adinolfi, L’Unione europea dinanzi allo sviluppo dell’intelligenza artificiale: la costruzione di uno schema di regolamentazione europeo tra mercato unico digitale e tutela dei diritti fondamentali ...» 13

1. Introduzione ...» 14

2. Intelligenza artificiale e Digital Single Market ...» 16

3. Le prospettive di regolazione a livello europeo ...» 21

3.1. Normative in vigore e applicazioni dell’intelligenza artificiale ...» 21

3.2. La costruzione di nuovi schemi di regolamentazione ...» 25

4. Intelligenza artificiale e rispetto dei diritti fondamentali e dei valori dell’Unione ...» 29

Andrea Simoncini, Diritto costituzionale e decisioni algoritmiche ...» 37

1. Premessa. Edipo e l’oracolo: la predizione del futuro e la libertà ...» 37

2. Dalla “cibernetica” all’avvento dell’intelligenza “artificiale” ...» 39

3. L’impatto della rivoluzione cibernetica su diritto costituzionale: intelligenza artificiale, autonomia e libertà ...» 41

3.1. Il soggetto “catturato” dallo strumento ...» 43

(8)

Il ragionamento giuridico nell’era dell’intelligenza artificiale

VI

A) Caso “Compas” ...» 46

B) La mobilità degli insegnanti nella legge 107/2015 ...» 48

4. Nuove questioni di costituzionalità ...» 51

5. Il quadro normativo europeo-nazionale ...» 51

A) Il principio di conoscibilità ...» 52

B) Il principio di non esclusività ...» 54

C) Il principio mancante: non discriminazione ...» 59

6. Verso una dottrina della “precauzione costituzionale” ...» 61

7. Verso un diritto costituzionale ibrido ...» 63

8. Profeti inascoltati: Marcuse ...» 64

Giovanni Passagnoli, Il diritto civile al tempo dell’intelligenza artificiale: spunti per una problematizzazione ...» 67

1. Considerazioni introduttive ...» 67

2. Diritto, tecnica, globalizzazione ...» 68

3. Il ragionamento giuridico e l’Intelligenza artificiale ...» 73

4. Segue. Smart Contracts e Blockchain ...» 75

Michele PaPa, Future crimes: intelligenza artificiale e rinnovamento del diritto penale ...» 77

1. Considerazioni introduttive ...» 77

2. I possibili percorsi di ricerca ...» 78

3. La liberazione delle norme dal testo ...» 79

3.1. Il sistema penale come network ...» 81

3.2. Dal network alle playlist ...» 82

4. Crisi della fattispecie e risorse dell’intelligenza artificiale ...» 83

4.1. Le ragioni della crisi ...» 83

4.2. Intelligenza artificiale e nuove progettualità normative ...» 84

5. Conclusioni ...» 86

Roberto Cordeiro Guerra, L’intelligenza artificiale nel prisma del diritto tributario ...» 87

(9)

VII

Indice

1. Premessa: i molteplici profili di contatto tra intelligenza artificiale

e diritto tributario ...» 87

2. Il dibattito sulla tassazione dei robot quale punta dell’iceberg del problema della policy fiscale in tema di IA ...» 88

3. I possibili modelli impositivi ...» 91

4. Il possibile ruolo dell’intelligenza artificiale nell’applicazione delle norme tributarie ...» 94

5. L’uso del data processing per selezionare situazioni di potenziale evasione » 97 Riccardo Del Punta, I diritti del lavoro nell’economia digitale ...» 99

1. Premessa ...» 99

2. Economia digitale e dematerializzazione dei processi produttivi ...» 100

3. Economia digitale e nuove forme di etero-organizzazione...» 101

4. Economia digitale e subordinazione economica ed organizzativa ...» 102

5. Economia digitale, controllo dei lavoratori e diritto alla privacy ...» 103

6. Digitalizzazione del lavoro e social media ...» 104

Stefano Pietropaoli, Fine del diritto? L’intelligenza artificiale e il futuro del giurista ...» 107

1. Apologia di un filosofo del diritto. Breve premessa sul rapporto tra informatica e scienza giuridica ...» 107

2. Fine del diritto? ...» 110

3. Fine del giurista? ...» 113

4. Verso un giurista ibrido? ...» 116

5. In conclusione: senza timori, senza nostalgie ...» 117

PARTE SECONDA - LE APPLICAZIONI Stefano Dorigo, Intelligenza artificiale e norme antiabuso: il ruolo dei sistemi “intelligenti” tra funzione amministrativa e attività giurisdizionale » 121 1. Introduzione: intelligenza artificiale e diritto tributario ...» 122

2. Il possibile ruolo dell’intelligenza artificiale nell’interpretazione delle Convenzioni contro le doppie imposizioni ...» 125

(10)

Il ragionamento giuridico nell’era dell’intelligenza artificiale

VIII

4. Sistemi di intelligenza artificiale e interpretazione delle clausole

antiabuso di natura pattizia ...» 129

5. Il “chi”: l’utilità dei sistemi di intelligenza artificiale per l’amministrazione finanziaria al fine dell’individuazione di fattispecie abusive » 132 5.1. Segue: un utilizzo “ragionevole” dell’intelligenza artificiale per l’amministrazione finanziaria ...» 136

6. Segue: intelligenza artificiale e giudice tributario ...» 138

7. Conclusioni ...» 140

Enza Cirone, Big data e tutela dei diritti fondamentali: la ricerca di un (difficile) equilibrio nell’ambito delle iniziative europee ...» 143

1. Big data: tra raccolta di dati e tecniche di profilazione ...» 144

2. Datafication, Artificial intelligence e bias: quali tutele per i diritti della persona? ...» 147

3. La cornice giuridica attuale: il Regolamento generale sulla protezione dei dati ...» 149

4. Il quadro delle tutele può dirsi completo? Le soluzioni di compromesso alla luce delle fonti di diritto europeo ...» 154

4.1. Le linee guida del Consiglio d’Europa ...» 154

4.2. La risoluzione del Parlamento europeo sulle implicazioni dei Big data per i diritti fondamentali ...» 156

5. La “Digital Clearinghouse”: un primo passo verso un modello di Living Cognitive Society? ...» 159

6. Conclusioni ...» 161

Carla Pernice, Smart contract e automazione contrattuale: potenzialità e rischi della negoziazione algoritmica nell’era digitale ...» 163

1. Introduzione e delimitazione del campo di indagine ...» 163

2. Smart contracts: cosa sono e come funzionano ...» 164

3. Blokchain, bitcoin e Smart Contract: nuovi modelli di fiducia ...» 165

4. Vantaggi e rischi della contrattazione smart ...» 166

5. Smart Contract e proposizioni normative: il diverso ruolo dell’interprete » 168 6. Traduzione in codice della volontà negoziale: linguaggio umano e robotico a confronto ...» 169

(11)

IX

Indice

7. Automazione “adattiva”: lo Smart Contract quale strumento di gestione

delle sopravvenienze ...» 170

8. Inevitabilità dell’effetto e vessazione del contraente debole ...» 174

9. Automazione esecutiva e tecniche di tutela: il “ritorno del giudice” ...» 176

10. Lo Smart Contract illegale ...» 176

11. Rilievi conclusivi ...» 177

Alessandro Drigo, Sistemi emergenti di Intelligenza Artificiale e personalità giuridica: un contributo interdisciplinare alla tematica ...» 179

1. Introduzione ...» 179

2. L’Intelligenza Artificiale ...» 181

3. Gli approcci giuridici alla personalità giuridica: la prospettiva “ontologica” ...» 188

4. L’approccio funzionalistico ...» 194

5. Conclusioni ...» 197

Luca Giacomelli, Big Brother is “Gendering” You. Il diritto antidiscriminatorio alla prova dell’intelligenza artificiale: quale tutela per il corpo digitale? ...» 199

1. Premessa: ma gli androidi sognano pecore elettriche? ...» 200

2. Big data, big concerns: ha ancora senso parlare di privacy? ...» 202

3. Dietro il velo della neutralità: algoritmi e profilazione ...» 207

4. Il diritto antidiscriminatorio alla prova dell’intelligenza artificiale: uno sguardo comparato ...» 209

4.1. I paradossi del disparate impact nell’esperienza americana ...» 210

4.2. La “recidività” del pregiudizio: la lezione canadese ...» 215

4.3. GDPR e algoritmi discriminatori: un’arma spuntata? ...» 221

5. Osservazioni conclusive ...» 224

Alessandro Marchini, Intelligenza artificiale e responsabilità civile: dal “Responsibility Gap” alla personalità elettronica dei robot ...» 231

1. L’alba di una nuova rivoluzione industriale a propulsione robotica: una sfida per il diritto ...» 232

2. La mediazione giuridica dell’intelligenza artificiale: tendenze verso un approccio “normativista” ...» 234

(12)

Il ragionamento giuridico nell’era dell’intelligenza artificiale

X

3. La responsabilità civile dei robot nella Risoluzione del Parlamento Europeo [2015/2103 (INL)]: dall’“autonomia” delle macchine intelligenti

al problema del c.d. “responsibility gap” ...» 236

4. Considerazioni in una direzione opposta, ossia sull’opportunità di un’attenta ricognizione della normativa esistente ...» 237

5. La normativa in tema di responsabilità da prodotto difettoso ...» 240

6. Spigolature sulla normativa interna: “nuove” applicazioni per “vecchie” norme? ...» 242

7. Postilla finale: sulle soluzioni individuate dal Parlamento Europeo in generale e sulla “personalità elettronica dei robot” in particolare ...» 244

Federico Pistelli, Algoritmi e contratti nel sistema finanziario ...» 249

1. L’inclusione finanziaria tra umanizzazione e meccanizzazione ...» 249

2. La decisione algoritmica nella sfida della certezza e dell’effettività: la codificazione del diritto ...» 252

3. Algoritmo e contratto ...» 255

3.1. La formazione del contratto ...» 256

3.2. La determinazione del contenuto ...» 258

3.3. La conclusione e l’esecuzione del programma negoziale ...» 260

4. Algoritmi e riferibilità dell’interesse negoziale ...» 263

Gianmarco Gori, Lost in Translation. I rischi per diritto e diritti nella transizione verso una società data-driven ...» 265

1. Il ritorno dell’Intelligenza Artificiale ...» 265

2. “Da mihi data, dabo tibi jus”: il governo delle macchine ...» 268

3. “In Data We Trust” ...» 270

4. Diritto, Diritti e Intelligenza Artificiale ...» 274

5. Trasparenza, contestabilità e giustificazione ...» 277

6. Conclusioni ...» 280

Marco Rizzuti, Il peculium del robot. Spunti sul problema della soggettivizzazione dell’intelligenza artificiale ...» 283

1. Il robot e lo schiavo ...» 283

(13)

XI

Indice

Alberto Cappellini, Machina delinquere non potest? Brevi appunti

su intelligenza artificiale e responsabilità penale ...» 289

1. Macchine e modelli imputativi ...» 290

2. Le origini del machina delinquere non potest ...» 292

3. L’imprevedibilità delle IA avanzate e la crisi del modello vicario ...» 293

4. La responsabilità diretta dell’IA: la tesi positiva di Gabriel Hallevy ...» 298

5. Prima critica: persistente assenza di colpevolezza ...» 300

6. Seconda critica: perdita di senso delle funzioni della pena ...» 302

7. Terza critica: fallacia del parallelo con la corporate liability ...» 303

8. Oltre il machina delinquere non potest: prospettive attuali e future ...» 304

Emilia Giusti, Intelligenza artificiale e sistema sanitario ...» 309

1. Intelligenza artificiale cosa è? ...» 310

2. L’intelligenza artificiale nel sistema sanitario ...» 312

3. Intelligenza Artificiale in sanità: chi è responsabile? ...» 313

Daniele Canè, Intelligenza artificiale e sanzioni amministrative tributarie ....» 317

1. La sostituzione dell’intelligenza umana con quella artificiale nell’attuazione dei tributi ...» 317

2. Il Matching Database ...» 319

3. Il problema della black box ...» 321

4. L’attuazione partecipata dell’imposta e i doveri strumentali, non delegabili, di conoscenza della legge tributaria ...» 323

5. Applicabilità delle cause esimenti: obiettiva incertezza della legge ed errore di diritto incolpevole ...» 325

6. Black box e culpa in eligendo ...» 327

7. Segue. Legittimo affidamento e scusabilità dell’errore ...» 329

8. Il consulente che si avvale della IA ...» 329

9. Spunti operativi ...» 331

Rafael Köche, L’intelligenza artificiale a servizio della fiscalità: il sistema brasiliano di selezione doganale attraverso l’apprendimento automatico (SISAM) » 333 1. Introduzione ...» 334

(14)

Il ragionamento giuridico nell’era dell’intelligenza artificiale

XII

3. Il processo decisionale, essere-nel-mondo ...» 342

4. Considerazioni finali ...» 346

Hugo Machado – Laura Nathalie Hernández Rivera, Artificial intelligence and tax administration: uses and challenges in Brazil ...» 349

1. Introduction ...» 350

2. Government Tax Efficiency ...» 351

3. What is Artificial Intelligence? ...» 352

4. AI-enabled tax solutions in Brazil ...» 354

4.1. Facial recognition at customs ...» 354

4.2. SISAM ...» 355

4.3. PGFN Analytics ...» 355

4.4. Tax assessment ...» 355

5. Artificial intelligence and trial of tax proceedings ...» 356

6. Challenges ...» 358

6.1. Data quality and accuracy ...» 358

6.2. Facial recognition ...» 359

6.3. Public decisions ...» 359

6.4. Privacy and personal data protection ...» 360

7. Concluding remarks ...» 361

Ettore Innocenti – Alessandro Zacchi, Il lavoro su piattaforma digitale: una sfida per il diritto del lavoro ...» 363

1. Il capitalismo delle piattaforme digitali nel quadro della digitalizzazione del lavoro ...» 364

2. L’accesso al lavoro tramite Big Data, IA e algoritmi ...» 366

3. I sistemi di rating e gli effetti delle valutazioni online ...» 369

3.1. Gli effetti delle valutazioni negative: il potere di controllo ...» 370

3.2. (Segue): il potere disciplinare ...» 372

4. L’estinzione del rapporto di lavoro ...» 374

5. La qualificazione giuridica del rapporto di lavoro su piattaforma digitale: la vicenda Foodora ...» 375

(15)

XIII

Indice

5.1. (Segue): il sentiero tracciato dal caso Foodinho nella direzione

di un approccio rimediale ...» 379 5.2. (Segue): conclusioni ...» 381

(16)
(17)

Il diritto civile al tempo dell’intelligenza artificiale:

spunti per una problematizzazione

Giovanni Passagnoli*

Abstract: La diffusione dell’intelligenza artificiale sollecita le riflessioni del civilista sotto più profili: dalla responsabilità civile alle regole concernenti i contratti conclusi me-diante sistemi di IA, sino alla questione – capace di sovvertire le possibili soluzioni per le problematiche precedenti – della ipotizzata istituzione di una personalità elettronica dei si-stemi di IA. Muovendo dal problema, centrale, del rapporto tra diritto e tecnica, si propon-gono alcune riflessioni critiche su questi tre aspetti, adottando una interpretazione attenta al quadro assiologico e quindi orientata alle conseguenze.

Abstract: The diffusion of artificial intelligence pushes the reflections of the civilist from

several points of view: from civil liability to the rules concerning contracts concluded through AI systems, up to the question – subverting the possible solutions for the previous problems – of an electronic personality of the AI systems. Moving on from the central problem of the relationship between law and technique, some critical reflections are proposed on these three aspects, following an interpretation attentive to the axiological framework and therefore oriented to the consequen-ces.

Keywords: Diritto civile – Intelligenza artificiale – Ragionamento giuridico –

Smart Contracts.

Sommario: 1. Considerazioni introduttive. – 2. Diritto, tecnica, globalizzazio-ne. – 3. Il ragionamento giuridico e l’Intelligenza artificiale. – 4. Segue. Smart Contracts e

Blokchain.

1. Considerazioni introduttive.

La diffusione di apparati dotati di intelligenza artificiale1, nei sensi che

ab-biamo inteso dalla relazione del Professor Francesconi2, sollecita le attenzioni del

diritto civile. E non è un caso che la Risoluzione del Parlamento Europeo, ripetu-tamente menzionata3, si riferisca principalmente, ancorché non esclusivamente, a

tale ambito di disciplina, per quanto estensivamente inteso.

* Professore ordinario di diritto civile, Università degli Studi di Firenze; giovanni.passagnoli@unifi.it. 1 La denominazione in uso – persona elettronica, computer, algoritmo, robot, agente elettronico,

agente digitale – è in realtà tanto variegata quanto equivoca, nella misura in cui dà prevalenza, di volta in volta, a profili parziali del fenomeno, come illustra analiticamente Teubner, Soggetti

giuri-dici digitali, a cura di Femia, Esi, 2019, 19 ss. e, ivi, nota 2.

2 Francesconi, Intelligenza artificiale e diritto: tra scienza e fantascienza, in questa raccolta. 3 Risoluzione del Parlamento europeo del 16 febbraio 2017, recante raccomandazioni alla

(18)

Giovanni Passagnoli

68

La materia può osservarsi da prospettive ed a livelli diversi di generalità. L’elenco delle problematiche di dettaglio è ampio4. Di esse ci offrono un

effi-cace saggio proprio i papers predisposti dai nostri giovani studiosi per gli interventi odierni, dai quali emergono analisi indubbiamente rilevanti, che si collocano nel contesto di una discussione ormai ampia sulla materia:

(i) dall’esame della responsabilità civile, in generale e per settori rilevanti, come quello medico o dei trasporti;

(ii) all’analisi delle regole concernenti i contratti conclusi mediante sistemi di IA5,

sotto i profili più disparati che ne investono la formazione e l’esecuzione, o concernono la protezione dei dati personali e più in generale dei diritti fonda-mentali;

(iii) sino alla questione – capace, evidentemente, da sola, di sovvertire le possibili soluzioni per le problematiche precedenti – della ipotizzata istituzione di una personalità elettronica dei sistemi di IA.

Non volendo sottrarre tempo alle analisi di dettaglio, mi limiterò ad alcune considerazioni preliminari e d’insieme.

2. Diritto, tecnica, globalizzazione.

La prima riflessione concerne un aspetto tanto generale quanto non preter-mettibile del discorso, che prende avvio proprio dalla constatazione della volontà

regolatoria espressa, con la citata Risoluzione del 2017, dal Parlamento Europeo.

Si tratta di un dato che merita di essere considerato in sé ed alla luce di taluni suoi specifici contenuti6.

È evidente, in effetti, che lo straordinario sviluppo tecnologico di queste macchine – capaci di self learning7 e, proprio per ciò, dotate di un crescente grado

di autonomia nel c.d. decision making – alla luce della loro attuale diffusione e degli

4 Lo stesso Parlamento Europeo, nella propria Risoluzione, affronta molteplici temi: dai

princi-pi, anche etici, che dovrebbero essere rispettati nell’uso civile della robotica avanzata, alle grandi problematiche giuridiche concernenti la responsabilità – civile e penale – per i danni arrecati dai robot, la proprietà intellettuale, il flusso dei dati dei privati, le applicazioni robotiche ai “mezzi di

trasporto autonomi” nonché ai “robot medici” e “per l’assistenza”, sino agli scenari di grande respiro

concernenti la ricerca e l’innovazione, l’educazione e il lavoro, l’impatto ambientale e gli aspetti internazionali.

5 Per una lettura antesignana, Benedetti, Parola scritta e parola telematica nella conclusione del

contratto, in Scrittura e diritto, Giuffrè, 2000, 87 ss.

6 Il Parlamento Europeo conclude la propria Risoluzione chiedendo «alla Commissione, a norma

dell’articolo 225 TFUE, di presentare, sulla base dell’articolo 114 TFUE, una proposta di direttiva relativa a norme di diritto civile sulla robotica».

7 La capacità di self learning, ossia di auto apprendimento, sarebbe la principale peculiarità dell’IA

e costituirebbe, a sua volta, la premessa per la autonomia nel decision making, quindi nell’assunzione di decisioni, nella effettuazione di scelte, in parte incalcolabili a priori. Per una prima sintesi delle implicazioni civilistiche derivanti da questa caratteristica delle macchine intelligenti, cfr. Ruffo-lo, Per i fondamenti di un diritto della robotica self-learning; dalla machinery produttiva all’auto driverless: verso una “responsabilità da algoritmo”?, in Ruffolo, (a cura di), Intelligenza artificiale e

(19)

Il diritto civile al tempo dell’intelligenza artificiale: spunti per una problematizzazione 69

impieghi prossimi che da più parti se ne ipotizzano, ci prospetti il problema, da tempo centrale, del rapporto tra diritto e tecnica.

È, questo, un rapporto tra ordinante e ordinato?

Oppure, come pur è stato teorizzato, il dominio della tecnica, specie in una fase, come la attuale, di vera e propria rivoluzione industriale, tende alla suprema-zia o quanto meno alla autoreferensuprema-zialità, quindi a determinare l’inversione di tale rapporto?

Sicché, sarebbe la tecnica a determinare i contenuti del diritto, ridotto ad un ruolo, anche sotto questo aspetto, ancillare8.

Questa riflessione, come sappiamo, eccede la specificità della IA.

Essa in effetti può condursi, su un piano più generale, con riferimento alla selezione di tutto ciò che, per quanto reso possibile dal progresso scientifico e dalle ricadute tecnologiche di questo, debba poi passare al vaglio di liceità, collocandosi coerentemente nell’ordinamento. Solo per esemplificare, il fatto che siano possibili la clonazione, la maternità surrogata9, la fecondazione post mortem10, non le rende

per ciò solo lecite. E, ancora, la loro qualificazione in termini di illiceità non risolve da sola l’esigenza di regolazione degli effetti che, anche contra legem, scaturiscano dall’impiego de facto di simili metodiche. In breve, quelle applicazioni della tecnica e le loro conseguenze reclamano, a vari livelli, la qualificazione, ovvero la funzione

ordinante del diritto.

Ma certo la questione, che pur è comune alle applicazioni dell’IA, sembra porsi per quest’ultima in modo peculiare.

8 Per una riflessione introduttiva, si veda per tutti, Irti, Severino, Dialogo su diritto e tecnica,

Laterza, 2001, e ivi, in particolare i contributi di Natalino Irti, in specie, in termini conclusivi, 111.

9 Al riguardo, il dibattito in giurisprudenza è serrato: per la posizione della Corte EDU, in tema

di riconoscimento dello status filiationis, da parte di genitori genetici del minore partorito da una gestante surrogata all’estero v. Corte EDU, sez. V, 26 giugno 2014, n. 65192, Mennesson c. Francia, in FI, 2014, 12, IV, 561 con nota di Casaburi, e Corte EDU, sez. V, 26 giugno 2014, n. 65941,

Labassee c. Francia, in RCP, 2014, 6, 2041. Nell’ordinamento interno, recentemente, Corte

Co-stituzionale, 18 dicembre 2017, n. 272 in FI, 2018, 1, I, 5, con nota di Casaburi, e in Diritto di

Famiglia e delle Persone, 2018, 1, I, 15; Cass., sez. un., 8 maggio 2019, n. 12193, in D&G, 8 maggio

2019,vche ha negato il riconoscimento dell’efficacia del provvedimento giurisdizionale straniero, con cui sia stato accertato il rapporto di filiazione tra un minore nato all’estero mediante il ricorso alla maternità surrogata ed il genitore d’intenzione, in forza del divieto della surrogazione di mater-nità previsto dall’art. 12, comma 6, l. n. 40/2004, qualificabile come principio di ordine pubblico.

10 Sul tema dell’impianto di embrioni criocongelati, nonostante il decesso del marito (“donante”)

della ricevente, Trib. Bologna, 16 gennaio 2015, in Fam. e Dir., 2015, 488, con nota di Scalera, ed in CG, 2015, 933, con nota di Attademo. Prima della legge 40 del 2004, Trib. Palermo, 8 gennaio 1999, in Fam. e Dir., 1999, 52, con nota di Dogliotti.

(20)

Giovanni Passagnoli

70

L’IA in effetti si alimenta di big data nella rete globale11 e si sviluppa in un

territorio povero di regole dotate di un grado accettabile di effettività12: quello

dell’economia globalizzata.

Sicché, il tentativo regolatorio dei singoli Stati13 parrebbe per più versi

inade-guato a contrastare l’avvento di una tecnocrazia autoreferenziale.

Proprio in questa prospettiva, l’attenzione dedicata allo sviluppo tecnologi-co dagli organi dell’Unione appare apprezzabile, tecnologi-come dicevo, in sé. Poiché, in tal modo, si sposta la normazione a un livello territoriale e ordinamentale suscettibile di maggior effettività, di quanto accadrebbe per quella dei singoli Stati membri14.

Sul piano dei contenuti della regolazione che la Risoluzione ipotizza, tut-tavia, sono molte le perplessità e tra esse spicca un interrogativo, che a me appare centrale: se l’approccio del Parlamento preluda a risposte adeguate all’esigenza di contrapporre al mero dominio della tecnica una politica del diritto, che implichi scelte di valore attente al sistema e ai diritti fondamentali. Oppure, se il Parlamento abbia assunto un atteggiamento corrivo rispetto alle pervasive ragioni della tecnica, o, per meglio dire, alle pressioni dell’economia.

Per abbozzare una risposta a questo interrogativo di fondo, è utile riferirsi proprio alla ricordata e paradigmatica ipotesi, formulata nella Risoluzione, di isti-tuzione di una personalità elettronica degli apparati dotati di IA15.

La questione è centrale, poiché, come accennavo, è capace da sola di sovver-tire i termini problematici del rapporto tra il diritto civile e le conseguenze dell’im-piego della intelligenza artificiale.

11 V. Mayer Schonberger, Cukier, Big Data: a Revolution That Will Transform How We Live,

Work, and Think, Harcourt, 2013; Mantalero, AI and Big Data: a blueprint for a human rights, social and ethical impact assessment, in Computer Law and Security Review, 2018, 34, 4, 754; Gui-delines on the Protection of Individuals with regard to the Processing of Personal Data in a world of Big Data, Consultative Committee of the Convention for the Protection of Individuals with regard to

Automatic Processing of Personal Data, Strasburgo, 2017.

12 Sul principio di effettività, per tutti e senza alcuna esaustività, Vettori, Contratto giusto e rimedi

effettivi, in RTDPC, 2017, 3, 787; Id., Effettività delle tutele (diritto civile), in Enc. dir., Ann. X,

Giuffrè, 2017, 381 ss.; e, in ampio spettro temporale, Imbruglia, Effettività della tutela e poteri del

giudice, in RTDPC, 2017, 3, 961 ss.; Pagliantini, Diritto giurisprudenziale e principio di effettività,

in Persona e Mercato, 2015, 4, 112; Scalisi, Giustizia contrattuale e rimedi: fondamento e limiti di un

controverso principio, in Il contratto in trasformazione, Giuffrè, 2011, 337 ss.; Di Majo, Tutela (dir. priv.), in Enc. dir., XLV, Giuffrè, 1992, 360 ss.

13 È lo stesso Parlamento Europeo, al Considerando R) della citata Risoluzione, a osservare: «che

alcuni Stati esteri quali Stati Uniti, Giappone, Cina e Corea del Sud stanno prendendo in considera-zione, e in una certa misura hanno già adottato, atti normativi in materia di robotica e intelligenza artificiale, e che alcuni Stati membri hanno iniziato a riflettere sulla possibile elaborazione di norme giuridiche o sull’introduzione di cambiamenti legislativi per tenere conto delle applicazioni emergenti di tali tecnologie».

14 In tal senso il Considerando S): «considerando che l’industria europea potrebbe trarre beneficio da

un approccio efficiente, coerente e trasparente alla regolamentazione a livello dell’UE».

15 Il Parlamento, in effetti, al §59, lettera f), invita la Commissione a ponderare l’impatto della

«istituzione di uno status giuridico specifico per i robot nel lungo termine, di modo che almeno i robot

autonomi più sofisticati possano essere considerati come persone elettroniche responsabili di risarcire qual-siasi danno da loro causato, nonché eventualmente il riconoscimento della personalità elettronica dei robot che prendono decisioni autonome o che interagiscono in modo indipendente con terzi».

(21)

Il diritto civile al tempo dell’intelligenza artificiale: spunti per una problematizzazione 71

Si tratta, del resto, di una tematica ampiamente presente in una letteratura ormai fiorente all’estero e, di recente, rielaborata ex professo da un Autore16.

L’as-sunto centrale di simili riflessioni è che all’inadeguatezza delle regole tradizionali in materia di IA, specie riguardo alla responsabilità per il suo impiego (il c.d.

re-sponsibility gap), si debba reagire con l’attribuzione di una soggettività al c.d. agente software.

Salvo poi discutere se debba trattarsi (i) di una “soggettività giuridica

pie-na”17, oppure, (ii) di una “soggettività giuridica parziale”18. Soluzione, quest’ultima,

a favore della quale deporrebbe il “ruolo servente” della macchina rispetto all’uo-mo, che non renderebbe affatto necessario attribuirle una “capacità giuridica gene-rale”, cioè una personalità giuridica, ma una semplice e parziale soggettività intesa come status “determinato funzionalmente”, in considerazione dell’interesse alieno che la macchina pur sempre perseguirebbe.

Un simile approccio funzionalistico – nella misura in cui assume la gradua-bilità di un siffatto status19 – sdrammatizza certo il dilemma tra oggetto e soggetto,

ma non fuga la perplessità di fondo che l’idea di una soggettivizzazione suscita ri-spetto alla esigenza di una piena tutela dei diritti fondamentali di fronte agli illeciti commessi tramite apparati di IA.

E in vero, la Risoluzione che ci occupa alimenta il sospetto che l’attività di

lobbying delle grandi imprese sia riuscita a prevalere, nell’indurre il Parlamento ad

ipotizzare un modello di responsabilità civile che, almeno sotto questo profilo – sotto le spoglie di una maggior tutela del consumatore – favorisca l’interposizione, con la personalità elettronica, di un centro d’imputazione di diritti e obblighi, dotato di un proprio peculium, tra i responsabili e il danneggiato20.

Col discutibile risultato di alleviare o escludere la responsabilità dell’ideatore, del produttore, del fornitore, rispetto al modello attualmente offerto dalla Dir. 85/374/CEE (come modificata dalla 1999/34/CE), da noi recepita nel Codice del Consumo21.

16 Per le considerazioni che seguono, nonché per la ampia bibliografia internazionale esistente,

Teubner, op. cit., 32 ss.; e vedi già Pagallo, The Laws of Robots. Crimes, Contracts, and Torts, Springer, 2013, 102 ss.

17 Per una ricognizione critica della relativa letteratura vedi ancora Teubner, op. cit., 28 ss. ed ivi

nota 24.

18 In tal senso Teubner, op. cit., passim, in specie 32 e, ivi, nota 36, anche per ampi riferimenti

bibliografici; Gruber, Was spricht gegen Maschinenrechte? in Gruber, Bung, Ziemann (a cura di),

Autonome Automaten: Kuenstliche Koerper und artifizielle Agenten in der technisierten Gesellschaft,

trafo Wissenschaftsverlag, 2015, 191 ss.

19 Si lascia apprezzare in questo sforzo di diversificazione, cioè di risposta articolata ai problemi

di disciplina in funzione dei diversi contesti di impiego degli agenti software, Teubner, op. cit.,

passim e in specie 125-127; ma sulla relativizzazione della nozione di capacità il dibattito è, come

si sa, risalente nella civilistica: per tutte, le classiche riflessioni di Rescigno, Capacità giuridica (dir.

civ.), in NDI, Utet, 1981, 873 ss.; e già Galgano, Delle persone giuridiche, Zanichelli-Roma Società

editrice del Foro italiano, 1969, passim. Riprende di recente la tematica, Rizzuti, La soggettività dei

patrimoni destinati ai fini della trascrizione, in GI, 2017, 1820 ss.

20 In tal senso anche Amidei, Robotica Intelligente e responsabilità: profili e prospettive evolutive del

quadro normativo europeo, in Ruffolo, (a cura di), op. cit., 63 ss.

(22)

Giovanni Passagnoli

72

Insomma, una scelta assai più orientata al modello statunitense del mero

risks assessment che a quello – comune in Europa e ben più aderente al sistema dei

nostri diritti fondamentali – del principio di precauzione22.

Per additare quindi una direzione di ricerca, credo che prima di avventurarsi nella soggettività, si debba riflettere sui risultati dei quali l’esistente normativa23 sia

suscettibile rispetto ai prodotti della robotica24, tramite una interpretazione attenta

al quadro assiologico e quindi orientata alle conseguenze.

In particolare, ma senza dilungarmi qui sugli aspetti tecnici, mi sembra cen-trale circoscrivere, in via interpretativa, sia il contenuto dell’onere della prova gra-vante sul danneggiato25, sia l’esimente costituita dal c.d. rischio da sviluppo26.

tecniche ed informazione sui rischi di danno alla salute, nota a Cass., 15 febbraio 2018, n. 3692, in RCP, 1, 2019, 278; Al Mureden, La sicurezza dei prodotti e la responsabilità del produttore,

Giap-pichelli, 2017, 29 ss.; Sangermano, Principi e regole della responsabilità civile nella fattispecie del

danno da prodotto agricolo difettoso, Giuffrè, 2012, passim, e bibliografia ivi citata.

22 In questo senso, vedi anche Palmerini, Robotica e diritto: suggestioni, intersezioni, sviluppi a

margine di una ricerca europea, in RCP, 2016, 6, 1816, in specie 1836, ove osserva che non sono

ben chiare le ragioni per le quali ai rischi della robotica debba riservarsi un trattamento così speciale rispetto, appunto, al principio di precauzione. Considerazioni critiche anche in Perlingieri,

L’inci-denza dell’utilizzazione della tecnologia robotica nei rapporti civilistici, in Rass. dir. civ., 2015, 4, 1235

ss., 1243, che ben evidenzia in qual modo l’interesse allo sviluppo della robotica non possa prevalere sulle esigenze di tutela della persona, dando luogo ad ingiustificate esclusioni od attenuazioni della responsabilità.

23 Circa l’applicabilità di tale normativa ai danni da prodotti utilizzati in ambito professionale,

cfr. Corte Giust. UE, 4 giugno 2009, causa C-285/08, Moteurs Leroy Somer c. Dalkia France, in FI, 2009, IV, 441 ss., con nota di Bitetto; nonché in RCP, 2010, 1006 ss., con nota di Venchiarut-ti, Applicazione estensiva della direttiva sulla responsabilità dei danni da prodotti difettosi: un nuovo

equilibrio tra competenze comunitarie e interne?; in D&R, 2010, 125 ss., con nota di Arbour, Ar-monizzazione del diritto e prodotti difettosi. Per un quadro d’insieme delle fonti rilevanti, vedi anche

Santossuosso, Boscarato, Caroleo, Robot e diritto: una prima ricognizione, in Nuova giur. civ., 2012, 7-8, 2494.

24 Cfr. Ruffolo, op. cit., 21 ss.; Amidei, op. cit., 88.

25 L’art. 120 del Codice del Consumo, che in linea con l’art. 4 della Direttiva 85/374/CEE, prevede

che il danneggiato debba provare il danno, il difetto e la connessione causale tra difetto e danno è risultato di dubbia interpretazione circa il riparto ed il contenuto del relativo onere probatorio. Sul tema, Zurlo, Responsabilità da prodotto difettoso: la ripartizione dell’onere probatorio, nota a Cass., 20 novembre 2018, n. 29828, in Giurcivile, 2018, 11; Stella, Causa ignota del danno derivante dall’uso

del prodotto e responsabilità del produttore per prodotto difettoso, in RCP, 5, 2017, 1444 ss.; Fusaro, Prodotti difettosi, danni da vaccino e onere della prova: la posizione della corte di giustizia, in Europa dir. priv., 2, 2018, 345; Piraino, Il nesso di causalità, in Europa dir. priv., 2, 2019, 399; Davola,

Pardo-lesi, In viaggio col robot: verso nuovi orizzonti della R.C. Auto (Driverless)?, in D&R, 2017, 5, 616.

26 Dispone l’art. 7, lett. e) della Direttiva 85/374/CEE che «Il produttore non è responsabile, ai sensi

della presente direttiva, se prova: … e) che lo stato delle conoscenze scientifiche e tecniche al momento in cui ha messo in circolazione il prodotto non permetteva di scoprire l’esistenza del difetto». Si tratta

della c.d. state of art defence – che trova il proprio omologo nell’art. 118 del Codice del Consumo – eccezione che ha destato in effetti notevoli problemi interpretativi: su cui, per tutti, anche per un quadro bibliografico, D’Alessio, La responsabilità del produttore di alimenti tra difetto e sicurezza del

(23)

Il diritto civile al tempo dell’intelligenza artificiale: spunti per una problematizzazione 73

3. Il ragionamento giuridico e l’Intelligenza artificiale.

Il tema dell’interpretazione ci conduce, così, ad un ulteriore livello proble-matico generale, non a caso posto, felicemente, al centro del tema di questa giorna-ta: il ragionamento giuridico e l’IA.

Le questioni sarebbero numerose, ma mi limito a segnalarne talune, a mio avviso centrali.

La diffusione di programmi di IA esperti di diritto – alcuni già in uso in vari contesti giudiziali27 e professionali28 – sottende, con la creazione di una sorta

di automa giudicante, alla possibilità di inverare il mito, caro a Montesquieu, del giudice quale bouche de la loi.

È il mito della certezza, o come ormai si dice della calcolabilità del diritto, che torna, incurante di secoli di studi e dell’esperienza giuridica che stanno a dimo-strarne la fallacia, se è vero, come certamente è vero, che la stessa Ecole de l’exégèse, nonostante la fedeltà programmatica al testo del Code Civil, sia infine andata par le

Code, au-delà du Code.

Tutto congiura, in effetti, contro un automatismo giudiziale.

Già in un astratto e, direi, irreale sistema di diritto legale positivo, che fosse tradizionalmente connotato da fattispecie chiuse e ben definite, la naturale incom-pletezza delle fonti legali comporterebbe l’imprescindibile necessità dell’analogia, quindi l’intrinseca valutatività di tale procedimento logico.

Se, poi, da un modello astratto si passi alla concretezza dell’esperienza, non v’è dubbio che le regole, quand’anche esistenti, subiscano, grazie all’interazione col sistema e al mutare degli interessi rilevanti, una eterogenesi di fini e perciò un continuo mutamento di senso nell’apparente invarianza del loro testo.

Sicché, la valutatività dell’interpretazione opera con un vero effetto molti-plicatore nel rapporto tra testo, fatto e principi, nell’interazione ermeneutica con l’interprete29. Ed a mio avviso, solo un punto di vista alquanto schematico può

scorgere in ciò un limite, anziché una opportunità, anzi, direi, la grande opportu-nità del diritto.

Il diritto civile – più d’altri grandi settori dell’ordinamento, nei quali ha maggiore peso il principio di legalità – è immerso in questa dimensione.

27 Alcuni sistemi algoritmici di tal fatta, com’è noto, sono stati impiegati nell’ambito della

giusti-zia penale statunitense per valutare il rischio di fuga o di reiterazione del reato, proprio in funzione della opportunità o meno di limitare, con misure di detenzione preventiva, la libertà personale dell’imputato. Si veda, al riguardo, lo studio realizzato dal Electronic Privacy Information Center (EPIC) Algorithms in the Criminal Justice System, disponibile all’indirizzo https://epic.org/algorith-mic-transparency/crim-justice/.

28 Gli apparati capaci di “leggere e comprendere” testi giuridici, formulando pareri, anche analitici,

si moltiplicano e le più grandi law firm internazionali ne dispongono: cfr. Ashley, Artificial

Intel-ligence and Legal Analytics, Cambridge University Press, 2017, 350-391. Ma, in generale, sui rischi

dei sistemi predittivi, cfr. Barocas, Selbst, Big Data’s Disparate Impact, in California Law Review, 2016, 104, 674 ss.

29 Sul ruolo dell’interprete e per una non superata rappresentazione del dibattito ermeneutico, per

tutti, Benedetti, Oggettività esistenziale dell’interpretazione. Studi su ermeneutica e diritto, Giappi-chelli, 2014, passim.

(24)

Giovanni Passagnoli

74

Esso, come sappiamo, è connotato dalla pervasiva presenza delle clausole generali e, ancor più, nel sistema multilivello delle fonti30, è caratterizzato dalla

perdita di fattispecie degli istituti31, ormai attratti nell’ambito diretto di

applica-zione di principi32, i quali, nell’esperienza delle Corti, tendono ad affrancarsi dalla

mediazione delle regole.

E un tale fenomeno, mentre si allontana dal modello irreale della separazio-ne dei poteri, consegna al giurista un più intenso compito valutativo ed un accre-sciuto onere argomentativo33, che rendono incongrua l’idea stessa, a prescindere

dalla sua possibilità tecnica, di qualsivoglia automatismo.

Tale constatazione, si noti, non si limita al versante dell’applicazione dei principi deduttivi, cioè di quelli gerarchicamente sovraordinati, ma investe anche quelli ricavati dal basso per generalizzazione delle regole: da un lato, infatti, ridurre il procedere induttivo ad una mera computazione statistica della frequenza34,

irrigidi-sce l’applicazione sul già detto e nega la intrinseca evolutività della norma rispetto a testi pur letteralmente immutati; dall’altro, suppone – si pensi alla decisiva scelta qualificatoria tra la eccezionalità e la specialità di una norma – un criterio di co-erenza dell’interpretazione con l’intero sistema e, quindi, coi medesimi principi deduttivi.

Sicché, alla valutazione – che è capacità di concretezza e di adeguamento al nuovo e non mera ed astratta replicazione di senso – non si sfugge.

Salvo che, in funzione della calcolabilità, voglia farsi a meno dell’ermeneuti-ca, quindi, in definitiva, della stessa giustizia della decisione.

Se, come reputiamo, la norma non è un dato ma un costruito, se la sua costruzione suppone un percorso argomentativo induttivo e valutativo nei sensi detti, risulta difficile ridurla alla dimensione di un semplice input informatico; ed è altrettanto incongruo immaginare che l’output possa dar conto del percorso argo-mentativo che ha condotto alla decisione. Laddove, invece, l’onere argoargo-mentativo e

30 Sia consentito il rinvio a Passagnoli, La retroattività tra leggi e sentenze, in Persona e Mercato,

2017, 3, 134.

31 Su cui, per tutti, la magistrale pagina di Irti, La crisi della fattispecie, in Riv. dir. proc., 2014, 1,

36 ss.

32 Cfr. Vettori, Regole e principi. Un decalogo, in Persona e Mercato, 2015, 2, 51 ss.; Id., La

funzio-ne del diritto privato in Europa, in Persona e Mercato, 2018, 2, 143 ss.; Passagnoli, Ancora su regole e principi: l’usurarietà sopravvenuta, in Persona e Mercato, 2015, 103 ss.

33 Sul vero e proprio ruolo inventivo dell’interprete, nell’accezione latina del termine del “cercare

per trovare”, Grossi, Sull’esperienza giuridica post-moderna (a proposito dell’odierno ruolo del notaio),

in Palazzo, Conte, (a cura di), Crisi della legge e produzione privata del diritto, Galli Edizioni S.r.l., 2018, 31 ss.

34 È questa, in definitiva, l’idea alla base del c.d. Machine Learning, ossia della tecnica su cui si

basano le macchine intelligenti ed il loro apprendimento automatico: cfr. Mitchell, Machine

(25)

Il diritto civile al tempo dell’intelligenza artificiale: spunti per una problematizzazione 75

la sua trasparente conoscibilità35 costituiscono l’unico antidoto all’imprescindibile

liquidità del diritto nelle fasi di grande transizione, come la nostra36.

A mio avviso, diviene perciò del tutto secondario il fatto che la tecnologia renda possibile l’automazione del giudizio: un tale modello, semplicemente, non pare

desiderabile, nella misura in cui ci allontana dal perseguimento di un ideale di giustizia della decisione.

Del resto, anche sul piano dell’accertamento del fatto, mi domando in qual modo l’IA possa compiere quella ulteriore attività consistente nella libera valu-tazione delle prove, se non attraverso la surrettizia reintroduzione, attraverso lo schematismo di un programma, di un sistema di prova legale; il che davvero non parrebbe un passo in avanti.

4. Segue. Smart Contracts e Blockchain.

La seconda e altrettanto grave implicazione dell’uso dell’IA nel ragionamen-to giuridico riguarda ancora l’interpretazione, ma questa volta del contratragionamen-to.

Rispetto ad essa, mutatis mutandis, possono riproporsi analoghe considera-zioni sul ruolo dell’ermeneutica applicata al regolamento contrattuale.

E proprio guardando al contratto, non può non stigmatizzarsi l’evidente

cri-ticità dell’impiego37, che alcuno vorrebbe salvifico, del cosiddetto Smart Contract,

all’interno del sistema Blockchain, sottratto, sì, all’incertezza esecutiva, ma al con-tempo sottratto all’esigenza – che è invece al centro dell’art. 1462 c.c. – di effettività

dell’autotutela mediante eccezione38.

L’idea stessa di un contratto che sia immancabilmente – perché automatica-mente – eseguito, anche nei casi in cui l’eccezione preclusa sia di nullità, annullabilità

o rescindibilità, si pone in contrasto coi limiti sistematici della clausola solve et repete. Ne deriva, anche alla stregua di una corretta applicazione dell’art. 1419 c.c.,

in punto di estensione della nullità parziale, la nullità dell’intero contratto affidato al Blockchain.

35 Non a caso il punto è centrale nel Regolamento (UE) 2016/679 del Parlamento europeo e del

Consiglio, del 27 aprile 2016, sulla protezione delle persone fisiche con riguardo al trattamento dei dati personali; su cui, per tutti, Malgieri, Comandè, Why a Right to Legibility of Automated

Decision-Making Exists in the General Data Protection Regulation, in International Data Privacy Law,

2017, 7, 4, 262 ss.

36 Sul tema, in generale Di Ciommo, Troiano, (a cura di), Giurisprudenza e autorità indipendenti

nell’epoca del diritto liquido. Studi in onore di Roberto Pardolesi, La Tribuna, 2018.

37 Su cui in generale, Taylor, Blockchain: understanding the potential, 2015, in

www.barclayscor-porate.com; Di Maio, Rinaldi, Blockchain e la rivoluzione legale degli Smart Contracts, in www. dirittobancario.it.

38 In argomento, tra gli altri, Finocchiaro, Il contratto nell’era dell’intelligenza artificiale, in

RT-DPC, 2018, 2, 441 ss.; Caggiano, Il Contratto nel mondo digitale, in Nuova giur. civ., 2018, 7-8,

1152 ss. Di Sabato, Gli smart contracts: robot che gestiscono il rischio contrattuale, in CI, 2017, 2, 378-402; Cuccurru, Blockchain ed autonomia contrattuale. Riflessioni sugli smart contract, in

Nuova giur. civ., 2017, 1, 107-119; Raskin, The law and legality of smart contracts, in L. Tech. Rev.,

(26)

Giovanni Passagnoli

76

Osservo, infine, e con questo concludo, che considerazioni non dissimili posson farsi per la preclusione frapposta de facto alla exceptio doli, con riferimento all’ipotesi regolata dal comma secondo dello stesso art. 1462 c.c.

Riferimenti

Documenti correlati

 Il corpo docenti annovera tra i più prestigiosi ricercatori internazionali del settore..  Il corpo docenti annovera tra i più prestigiosi ricercatori internazionali

• ESMIS sistema esperto per il monitoraggio delle infezioni nosocomiali e la validazione delle analisi microbiologiche.. • Infezione nosocomiale: infezione sviluppatasi nel paziente

Nel calcolo del voto finale dell’esame completo, la votazione ottenuta nella prova intermedia sarà normalizzata sul punteggio massimo previsto per la corrispondente parte nella

Nel calcolo del voto finale dell’esame completo, la votazione ottenuta nella prova intermedia sarà normalizzata sul punteggio massimo previsto per la corrispondente parte nella

Nel calcolo del voto finale dell’esame completo, la votazione ottenuta nella prova intermedia sarà normalizzata sul punteggio massimo previsto per la corrispondente parte nella

• Supportato anche con fondi dedicati alla ricerca da parte della Comunità Europea. • Coinvolge enti e strutture europee sia nella fase della ricerca anche come partner per i

rimane oscuro perfino ai suoi stessi programmatori 27. Tale funzionamento assomiglia, quindi, a quello di un “oracolo”, ma, contrariamente ai suoi antichi predecessori, ad un

Lo standard TCP/IP rappresenta il background di internet: è una sorta di “lingua franca” (Floridi) che connette tra loro reti diverse, indipendentemente da come sono fatte (sia a