• Non ci sono risultati.

BioLaw Journal Rivista di BioDiritto

N/A
N/A
Protected

Academic year: 2022

Condividi "BioLaw Journal Rivista di BioDiritto"

Copied!
23
0
0

Testo completo

(1)
(2)

BioLaw Journal – Rivista di BioDiritto

Editor in chief: Carlo Casonato

Steering Committee: Roberto Bi , A to io D’Aloia

Scientific Committee:

Roberto Andorno, Vittorio Angiolini, Charles H. Baron, Alberto Bondolfi, Paolo Benciolini, Patrizia Borsellino, Roger Brownsword, Massimiano Bucchi, Stefano Canestrari, Cinzia Caporale, Paolo Carrozza, Fabio Cembrani, Lorenzo Chieffi, Ricardo Chueca Rodríguez, Roberto Giovanni Conti, Roberto Dias, Frédérique Dreifuss-Netter, Gilda Ferrando, Silvio Garattini, Francesca Giardina, Stefano Guizzi, Stéphanie Hennette-Vauchez, Sheila McLean, Laura Palazzani, Barbara Pezzini, Cinzia Piciocchi, Alessandra Pioggia, Anna Poggi, Carlo Alberto Redi, Fernando Rey Martinez, Stefano Rodotà , Carlos Maria Romeo Casabona, Amedeo Santosuosso, Stefano Semplici, Paula Siverino Bavio, Mariachiara Tallacchini, Chiara Tripodina, Gianni Tognoni, Paolo Veronesi, Umberto Veronesi , Paolo Zatti.

Associate Editors: Lucia Busatta and Marta Tomasi

Editorial Boards:

Trento: Lucia Busatta, Ilja Richard Pavone, Simone Penasa, Ludovica Poli, Elisabetta Pulice, Marta Tomasi.

Ferrara: Lucilla Conte, Gianmario Demuro, Pietro Faraguna, Andrea Guazzarotti, Andrea Lollini, Nicola Lucchi, Roberto Perrone.

Parma: Stefano Agosta, Giancarlo Anello, Maria Chiara Errigo, Simone Gabbi, Valentina Gastaldo, Gabriele Maestri, Valeria Marzocco, Erika Ivalù Pampalone, Giovanna Razzano, Lucia Scaffardi, Michele Tempesta, Paola Torretta, Veronica Valenti.

Email: biodiritto@gmail.org Website: www.biodiritto.org/rivista

Peer review system: All academic articles that are submitted to BioLaw Journal – Rivista di BioDiritto are subject to a double blind peer review. Referees remain anonymous for the author during the review procedure and the author's name is removed from the manuscript under review.

Febbraio 2019 ISSN 2284-4503

© Copyright 2018

Università degli Studi di Trento Via Calepina, 14 – 38122 Trento

Registrazione presso il Tribunale di Trento . dell’ / /

In collaborazione con

o To ba del tuffatore , Paestu , th

(3)

C on ten ts

Downloaded from www.biodiritto.org. ISSN 2284-4503

Table of contents

BioLaw Journal – Rivista di BioDiritto n. 1/2019

Table of contents

Editoriale – Quaranta anni di Servizio Sanitario Nazionale, e prima? ...

Silvio Garattini

1

F

OCUS ON

I

NTELLIGENZA

A

RTIFICIALE

Il diritto verso il o do uovo . Le sfide dell’I tellige za Artifi iale ...

Antonio D’Aloia

3

I sistemi robotici ad autonomia crescente tra etica e diritto: quale ruolo per il controllo umano? ...

Daniele Amoroso e Gugliemo Tamburrini

33

Artificially Intelligent Law ...

Lawrence B. Solum

53 L’algorit o i ostituzio ale: i tellige za artifi iale e il futuro delle li er-

tà ...

Andrea Simoncini

63

I robot possono avere diritti? ...

Alfonso Celotto

91

Intelligenza artificiale e pluralismo: uso delle tecniche di profilazione nel- lo spazio pubblico democratico ...

Marta Fasan

101 U a odesta proposta: il politi o virtuale. Pri e ote sull’i tellige za

artificiale come provocazione in tema di rappresentanza politica ...

Fabio Pacini

115

Equo processo penale e sfide della società algoritmica ...

Serena Quattrocolo

135

Intelligenza artificiale e diritto: le sfide giuridiche in ambito pubblico...

Fernanda Faini

145 L’i tellige za artifi iale ei servizi so iali e sanitari: una nuova sfida al

ruolo delle istituzioni pubbliche nel welfare italiano?

Elena A. Ferioli

163

Pote zialità e sfide dell’i tellige za artifi iale...

Carlo Casonato

177

(4)

C on te n ts

Table of contents

Downloaded from www.biodiriISSN 2284-4503

F

OCUS ON

I

L MEDICO FRA ETICA

,

DEONTOLOGIA E DIRITTO

:

CONVER- GENZE E ANTINOMIE

Codifier l’in odifia le: la legge ge erale e astratta e l’irridu i ile si golarità dell’atto edi o. Dai dile i di Crito ulo al Siste a nazionale linee guida ...

Antonio Vallini

183

Standardizzazione, automazione e responsabilità medica. Dalle recenti ri- forme alla definizione di u odello d’i putazio e solidaristi o e li era- le ...

Andrea Perin

207

Autonomia e responsabilità medica: la scelta deontologicamente (dis)orientata ...

Elisabetta Pulice

237

Autonomia decisionale nella quotidianità clinica ...

Giacomo Beggio

261

E

SSAYS

S

AGGI

Voluntary Euthanasia, Assisted Suicide & Law Reform: A Sketch of the Canadian Experience ...

Thomas McMorrow

267

Sul contenuto della DAT tra autodeterminazione del paziente e decisioni di altri: profili civilistici ...

Teresa Pasquino

283

La tutela del diritto alla salute del minore. Riflessioni a margine della leg- ge n. 219/2017 ...

Caterina Di Costanzo

299

I vaccini per i minori tra salute pubblica e giustificazione di scelte indivi- duali. Argomenti e riflessioni critiche su un tema controverso...

Lorena Forni

325

Diritti e ricerca biomedica: una proposta verso nuove consonanze ...

Carlo Casonato, Marta Tomasi

343

Ok Google, am I sick? : artificial intelligence, e-health, and data protec- tion regulation ...

Paolo Guarda

359

Nuovi modelli procreativi, diritto allo status e principi di ordine pubblico ...

Andrea Sassi, Stefania Stefanelli

377

(5)

C on ten ts

Downloaded from www.biodiritto.org. ISSN 2284-4503

Table of contents

I paradig i or ativi dell’a i istrazio e psi hiatri a. Servizi territoria- li e stru e ti per l’autodeterminazione terapeutica a quarant’a i dalla Legge Basaglia...

Francesco Dalla Balla

399 U ’i troduzio e riti a alla o dizio e i tersex ...

Giacomo Viggiani

433

Al crocevia tra i diritti delle diverse specie: a proposito degli xenotrapian- ti ...

Franca Meola

453 Diritto a i ale, diritto degli a i ali e diritti degli a i ali. L’auspi io di

un intervento riorganizzativo del legislatore tra esigenze sociali e neces- sità giuridiche di sistema ...

Giuseppe Settanni, Manuela Ruggi

477 L’eser izio del diritto al di là della terapia: lo human enhancement ...

Lidia Ricci, Beatrice Di Nicolò, Pasquale Ricci, Francesco Massoni, Serafino Ricci

497

C

OMMENTARIES

Te i he uove , o lighi uovi ? La CGUE i «ris rittura giudiziaria»

della direttiva n. 18/2001 CE. Nota a Confédération paysanne v. Ministre de l’Agri ulture (C-528/16)...

Elisa Spiller

513

(6)

F ocu s

ed from www.biodiritto.org. ISSN 2284-4503

145 Intelligenza artificiale e diritto: le sfide giuridiche in ambito pubblico

Intelligenza artificiale e diritto:

le sfide giuridiche in ambito pubblico

Fernanda Faini

ARTIFICIAL INTELLIGENCE AND LAW: LEGAL CHALLENGES IN PUBLIC LAW

ABSTRACT: The contribution aims to examine the main legal challenges related to the use of artificial intelligence in the public sphere. In this context, the problems are pe- culiar as a consequence of the public nature of the subject involved, of the complex governance and of the significant ethical and social implications. Artificial intelligence solutions in the public sphere must comply with the relevant legislation and may lead to critical issues in the definition of ownership and in the identification of the related responsibilities; compliance with the data protection rules necessary to protect the person can be particularly problematic. The analysis aims to show that the technolog- ical approach alone is not enough, but it must be guided by the ability to direct the technique by means of law and by a solid ethical approach, based on accountability, transparency and openness.

KEYWORDS: artificial intelligence; public sector; data; algorithms; data protection

SOMMARIO: 1. Intelligenza artificiale, dati e algoritmi – 2. Profili di governance – 3. Le sfide giuridiche in ambito pubblico – 4. Data protection e intelligenza artificiale – 5. Principi e strumenti da valorizzare – 5.1. Tecnica, eti- ca e accountability – 5.2. Trasparenza algoritmica – 5.3. Apertura e riutilizzo – 6. Conclusioni e prospettive futu- re.

1. Intelligenza artificiale, dati e algoritmi

ell’e a te ologi a, gli o di a e ti giu idi i so o chiamati a regolare l’ esiste za digitale dell’uo o, pa te i teg a te della ita, e gli st u e ti he la a atte izza o.

Nella società attuale, attraversata da quella che viene definita come rivoluzione 4.01, un uolo di est e a ile a za ha assu to l’i tellige za a tifi iale, il cui impiego risulta potenzialmente particolarmente proficuo nel contesto pubblico, ambito preso in esame dal presente contributo.

Dottoressa di ri er a PhD i diritto e uove te ologie presso l’U iversità di Bolog a, olla ora ell’i seg a e to di I for ati a giuridi a presso l’U iversità degli Studi di Fire ze ed è do e te del orso Dirit- to e uove te ologie presso l’U iversità Tele ati a I ter azio ale U i ettu o. Respo sa ile dell’assiste za giuridica in materia di amministrazione digitale, innovazione tecnologica e informatica giuridica presso la Re- gione Toscana. Mail: fernandafaini@gmail.com. Contributo sottoposto al referaggio del Comitato Scientifico.

1Si usa il te i e I dust ia . o Fa i a . pe i di a e la ua ta i oluzio e i dust iale ido ea a e de e la produzione interamente digitale, interconnessa ed automatizzata.

N

(7)

F oc us

Downloaded from www.biodiritto.org. ISSN 2284-4503

146 Fernanda Faini

L’a alisi delle sfide giu idi he poste dall’i piego dell’i tellige za a tifi iale i a ito pu li o e es- sita preventi a e te dell’esa e del fe o e o stesso, al fi e di i di idua e gli ele e ti a atte iz- zanti e poter valutare le problematiche poste al diritto.

L’U io e eu opea, i u a o u i azio e del , i di idua o l’esp essio e i tellige za a tifi iale

«sistemi che mostrano un comportamento intelligente analizzando il proprio ambiente e compiendo azioni, con un certo grado di autonomia, per raggiungere specifici obiettivi»; viene precisato che i soft a e asati sull’i tellige za a tifi iale posso o o siste e «i software che agiscono nel mondo i tuale pe ese pio assiste ti o ali, soft a e pe l’a alisi delle i agi i, oto i di i e a, siste i di i o os i e to o ale e fa iale ; oppu e i o po a e l’IA i dispositi i ha d a e pe ese pio i robot avanzati, auto a guida auto o a, d o i o appli azio i dell’I te et delle ose »2. Per sviluppare soluzioni di intelligenza artificiale, come evidenzia la stessa Unione europea, sono necessari ingenti volumi di dati; quei dati sono elaborati da algoritmi, al fine di raggiungere il risultato cui le soluzioni di intelligenza artificiale sono rivolte.

Di conseguenza, l’a i a delle soluzio i di i tellige za a tifi iale fo ata da enormi quantità di dati, in specifico big data, e da algo it i, apa i di a i a e i dati a disposizione e di estrarne il valore3. I big data consistono in enormi volumi di dati detenuti da grandi organizzazioni (poteri pubblici e multinazionali private), provenienti da diverse fonti e analizzati per mezzo di algoritmi, tecniche di data mining, big data analytics, machine learning e altre tecniche specifiche. Dalla definizione stessa emerge, accanto al volume, un’alt a caratteristica fondamentale, ossia l’ete oge eità dei dati he compongono i big data.

Nella società contemporanea si tende a datizza e tutto iò he i i o da, convertendo i fenomeni in dati e inserendo sensori e rilevatori nella realtà al fine di produrre enormi quantità di dati analiz- zabili da potenti algoritmi: gli algo it i ostituis o o il oto e apa e ge e a e alore grazie all’utilizzo e all’ela o azio e di dati ete oge ei4. Non a caso, la dimensione che caratterizza i big data, accanto alla varietà5 e al volume6, è proprio la velocità, che richiama la capacità degli algoritmi di analizzare i dati e che sottende la rilevanza della dinamicità7.

2 Co u i azio e della Co issio e eu opea «L’i tellige za a tifi iale pe l’Eu opa» COM fi al del 25 aprile 2018. Sotto tale profilo rileva, altresì, la Risoluzione del Parlamento europeo del 16 febbraio 2017 re- cante «raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica».

3 L. AGRO’, Internet of Humans, Milano, , : ispetto all’i tellige za u a a «l’i tellige za di u a a hi a, per quanto evoluta, parte da presupposti diversi e si basa su grandi quantità di dati e molteplici algoritmi che concorrono per ottenere un risultato sulla base di questi dati, o per generare nuovi algoritmi pur di raggiungere il risultato richiesto».

4 Cfr. V. MAYER-SCHÖNBERGER,K.CUKIER, Big data. Una rivoluzione che trasformerà il nostro modo di vivere e che già minaccia la nostra libertà, trad. it., Milano, 2013, 103 ss.

5 La a ietà igua da l’ete oge eità della tipologia e dei fo ati dei dati, p o e ie ti da fo ti di e se st uttu a- te e non).

6 Il volume si riferisce alla capacità di acquisire, memorizzare, accedere ed elaborare enormi quantità di dati.

7 In dottrina sono considerate quali caratteristiche dei big data anche due dimensioni ulteriori: il valore, ossia il alo e dei ig data o e i sie e, e la e a ità o e idi ità, ossia la ualità e l’a u atezza dell’a alisi. Da uesti profili deriva il pa adig a delle , o V dei ig data a se o da degli aspetti p esi i o side azio e : olu- me, velocità, varietà, valore e veracità; cfr. F. DI PORTO, La rivoluzio e Big Data. U ’i troduzio e, in Concorrenza e mercato, 2016, 5 ss.

(8)

F ocu s

ed from www.biodiritto.org. ISSN 2284-4503

147 Intelligenza artificiale e diritto: le sfide giuridiche in ambito pubblico

Oggi è tecnicamente possibile analizzare tendenzialmente tutti i dati a disposizione: gli algoritmi por- tano a rinunciare alle ipotesi predeterminate e alla ricerca della causalità, affidandosi invece alle cor- relazioni e alle i fe e ze t a dati e poggia do sulla p o a ilità e sulla o elata dose di o fusio- e ; i u pe o so i e so ispetto al passato, si isale dai fe o e i alla alutazio e delle p o a ili cause. In altri termini, gli algoritmi si basano sulle correlazioni che emergono dalle analisi sui dati e su metodologie deterministiche8 e, in tal modo, sono capaci di strutturare le informazioni e automatiz- zare i processi9: con espressione efficace «codificano il mondo, lo classificano e predicono il nostro futuro»10.

Il funzionamento degli algoritmi, su cui si basano le soluzioni di intelligenza artificiale, evidenzia sotto diversi profili il contrasto ontologico con il ragionamento giuridico alla base del diritto e con il modo di vedere la realtà da parte dei giuristi.

Gli algoritmi prediligono un metodo descrittivo che si differenzia dal carattere prescrittivo del diritto e si basano su fenomeni, numeri e calcoli, mentre il diritto è orientato ai valori della società di riferi-

e to. L’algo it o si ut e di di a i ità, e t e il di itto fo ale e, i u e to se so, e essa- ia e te le to . Più a pia e te gli algo it i so o fo dati su etodologie dete i isti he, he si basano su fenomeni, su circostanze oggettive e su probabilità e che rischiano, così, di inficiare le scel- te individuali e la libera volontà, su cui poggiano i nostri ordinamenti giuridici11.

Proprio in ciò che gli algoritmi permettono di fare emergono il valore e la conseguente attenzione ri- olta all’i tellige za a tifi iale, apa e di aggiu ge e diverse e significative finalità.

Innanzitutto le analisi compiute sui dati da parte degli algoritmi di intelligenza artificiale permettono di est a e o os e za, he si t adu e ell’i te p etazio e dei isog i, ell’otti izzazio e dei p o es- si amministrativi, nella profilazione degli utenti, nel supporto alle decisioni. Gli algoritmi si atteggiano a moderni oracoli, dal momento che la conoscenza che consentono può consistere anche in una vera e propria capacità predittiva: ferme restando le connessioni false o apparenti, elevate correlazioni indicano alte probabilità, che permettono di fare previsioni sul futuro12. Di conseguenza, gli algoritmi o se to o di effettua e p edizio i sugli a da e ti di e ato, di i di a e p e e ti a e te l’usu a di infrastrutture, di migliorare diagnosi e cure, di prevenire disastri, di prendere decisioni politiche e, anche, di contribuire alla vittoria di elezioni13.

La conoscenza del presente e la capacità di predizione del futuro si configurano come profili di parti- colare interesse in ambito pubblico.

Le amministrazioni pubbliche, infatti, hanno nella propria disponibilità enormi volumi di dati e relati- e a he dati, st u e tali all’ese izio dei p op i o piti. Le soluzio i di i tellige za a tifi iale pos-

8 Cfr. A.MANTELERO, Big data: i rischi della concentrazione del potere informativo digitale e gli strumenti di con- trollo, in Il diritto dell’i for azio e e dell’i for ati a, 2012, fasc. 1, 135-144; G.SARTOR,M.VIOLA DE AZEVEDO CU- NHA, Il caso Google e i rapporti regolatori USA/EU, in Il diritto dell’i for azio e e dell’i for ati a, 2014, fasc. 4- 5, 657-680.

9 Cfr. M.OREFICE, I big data. Regole e concorrenza, in Politica del diritto, 2016, fasc. 4, 703.

10 D.CARDON, Che cosa sognano gli algoritmi. Le nostre vite al tempo dei big data, Milano, 2016, 5.

11 Cfr. V.ZENO-ZENCOVICH,G.GIANNONE CODIGLIONE, Te legal perspe tives o the Big data revolutio , in Concor- renza e mercato, 2016, 49 ss.

12 Cfr. V.MAYER-SCHÖNBERGER,K.CUKIER, op. cit., 73 ss.

13 Cfr., inter alia, D.DE PASQUALE, La linea sottile tra manipolazione della rete e pubblicità, in Il Diritto industriale, 2012, fasc. 6, 552 ss.; A.MANTELERO, op. cit., 138-139.

(9)

F oc us

Downloaded from www.biodiritto.org. ISSN 2284-4503

148 Fernanda Faini

sono usare quei dati pe s a iate fu zio i e s opi he a atte izza o l’agere pubblico, quali le funzioni di controllo, come la rilevazione di irregolarità amministrative, ad esempio quelle fiscali, e le funzioni di regolazione, per conoscere i fenomeni, monitorarli e valuta e l’i patto di e e tuali s elte.

Pertanto, le soluzioni di intelligenza artificiale in ambito pubblico possono incidere significativamente sull’atti ità o os iti a delle a i ist azio i, pe ette do di oggetti a la , di affo za e la apa ità istruttoria e, di conseguenza, verosimilmente quella decisoria14.

A tali fu zio i, l’i tellige za a tifi iale affia a u a fi alità di pa ti ola e ile a za el o testo pu - li o, ossia la possi ilità di esse e p ofi ua e te i piegata ell’e ogazio e di se izi, ga antendo maggiore efficacia ed efficienza, consentendo risparmi in termini finanziari e umani, sostituendo l’uo o i al u i o piti e fu zio i, e ga a te do, alt esì, aggio e te pesti ità all’azio e pu li a.

In modo esemplificativo le soluzioni di intelligenza artificiale utilizzate dalle amministrazioni pubbli- che possono contribuire a rendere smart i territori, migliorando la qualità di vita della collettività di riferimento.

Le tecnologie di intelligenza artificiale sono, pertanto, idonee a raggiungere in modo più efficiente gli o ietti i he guida o l’azio e a i ist ati a, deli eati o e a atte izza ti a he dalla o ati a di riferimento in materia di amministrazione digitale.

Le pu li he a i ist azio i ell’o ga izza e auto o a e te la p op ia attività sono, infatti, tenute a utilizza e le te ologie i fo ati he e, ui di, a he l’i tellige za a tifi iale pe la ealizzazio e de- gli obiettivi di efficienza, efficacia, economicità, imparzialità, trasparenza, semplificazione e parteci- pazione nel rispetto dei p i ipi di uguaglia za e di o dis i i azio e, o h pe l’effetti o i o- noscimento dei diritti dei cittadini e delle imprese15. L’a t. della Costituzio e permette di leggere la digitalizzazio e e l’i piego di soluzio i i o ati e da pa te delle amministrazioni quale strumento per assicurare il buon andamento delle stesse, possibile solo nel perseguimento degli obiettivi tipici dell’azio e pu li a.

2. Profili di governance

I o side azio e del fatto he l’a i a dell’i tellige za a tifi iale risiede nei dati, di conseguenza un profilo di significativo interesse attiene alla governance degli stessi: in ambito pubblico, infatti, diver- se istituzioni si occupano di dati.

14 Cfr. M.FALCONE, Big data e pubbliche amministrazioni: nuove prospettive per la funzione conoscitiva pubblica, in Rivista Trimestrale di Diritto Pubblico, fasc. 3, 2017, 601-639. In merito F.COSTANTINO, Lampi. Nuove frontiere delle decisioni amministrative tra open e big data, in Diritto amministrativo, fasc. 4, 2017, 799 ss. riporta la formula enfatica secondo cui «le tecnologie trasformano i dati in informazioni, e in tal modo attuano il passag- gio dall’i fo azio e alla o os e za dei fe o e i e degli a da e ti , fi o alle d. uo e fo e di go e o abilitate dai dati (government by data). Così gli algoritmi utilizzati per elaborare i dati individuano relazioni utili pe suppo ta e le de isio i, i ua to asate su odelli p e isio ali. […] Si o figu a l’idea di u ’a i ist azio e he p e ede e a ti ipa, he adotta u modus operandi fondato non più sulla risposta a sti oli a sull’a ti ipazio e di isog i e p o le i, sulla pia ifi azio e st ategi a, al fi e di e ita e pe dite e ge- sti e i is hi». L’Auto e e ide zia l’i patto dei big data in ambito pubblico: seguire le predizioni esonererebbe da espo sa ilità l’a i ist azio e e, allo stesso odo, i aso di a ato adegua e to l’a i ist azio e andrebbe incontro a responsabilità.

15 Art. 12, comma 1, d.lgs. 82/2005.

(10)

F ocu s

ed from www.biodiritto.org. ISSN 2284-4503

149 Intelligenza artificiale e diritto: le sfide giuridiche in ambito pubblico

L’Age zia pe l’Italia Digitale di seguito a he AgID o tologi a e te ha un ruolo centrale, dal mo- mento che le so o att i uite fu zio i st ategi he e te i he al fi e di t aghetta e e a o pag a e le amministrazioni verso la digitalizzazione, assicurando la corretta attuazione delle norme. Ad AgID, preposta alla realizzazione degli o ietti i dell’Age da digitale italia a e alla p o ozio e dell’i o azio e digitale el Paese, so o att i uite fu zio i di p og a azio e, oo di a e to e o ito aggio, l’e a azio e di li ee guida e a ti egole e sta da d, la igila za e il o t ollo sull’attuazio e e sul ispetto delle o e, la ealizzazio e di p ogetti e lo s olgi e to di o piti di natura tecnica16. Risultano particolarmente rilevanti sotto il profilo dei dati, le strategie e le linee gui- da in materia17.

In considerazione dei compiti attribuiti dalla normativa di riferimento, non a caso proprio AgID ha promosso con la Presidenza del Consiglio dei ministri una Task Fo e sull’i tellige za a tifi iale, fo - mata da un coordinamento di 30 profili multidisciplinari e da una community, con il compito di ana- lizza e le odalità di utilizzo dell’i tellige za a tifi iale ell’e oluzio e dei se izi pu li i pe iglio- rare il rapporto tra pubblica amministrazione e cittadini18. La Task Force, i cui lavori sono stati avviati nel settembre 2017, ha ela o ato u Li o ia o sull’i tellige za a tifi iale al se izio del ittadi o, pubblicato nel marzo 2018, dedicato ad esaminare gli ambiti di applicazione, le potenzialità e le op- po tu ità dell’i tellige za a tifi iale ella pu li a a i ist azio e; il Libro bianco si compone di sfi- de e di raccomandazioni rivolte al Governo e alle amministrazioni pubbliche19.

Nella governance elati a ai dati, agli algo it i e all’i tellige za a tifi iale, a a to ad AgID ile a o anche due autorità amministrative.

Il Garante per la protezione dei dati personali, autorità di controllo italiana in materia di data protec- tion, si occupa precipuamente di una tipologia di dati, i dati personali, ma, più ampiamente, ha altresì assunto significativo rilievo grazie a provvedimenti, linee guida, indicazioni nella gestione dei dati tout court pa allela e te all’a pio aggio d’azio e del egola e to eu opeo / , he si o u- pa non solo di data protection, ma anche di data governance.

E, ancora, ANAC ha un ruolo significativo in materia, perché quando si parla di trasparenza e accesso necessariamente si parla anche di dati. A tale proposito sono particolarmente significative le linee guida adottate da uest’ulti a o deli e a . del di e e , e a ti indicazioni opera- tive tese alla defi izio e delle es lusio i e dei li iti all’a esso i i o.

La tematica quindi è trasversale a differenti tipologie di dati (la varietà, del resto, è caratteristica on- tologica dei big data) e, parallelamente, a diversi enti indipendenti che entrano in gioco nella gover- nance dei dati stessi: o da es lude e l’oppo tu ità di ostitui e u oo di a e to t a i di e si soggetti pe u go e o effi a e dei dati, degli algo it i e dell’i tellige za a tifi iale, pe fo i e le

egole di u a o etta gestio e e o ito a e l’osse a za.

16 Artt. 14, comma 2, e 14-bis, d.lgs. 82/2005.

17 Si pensi alle linee guida per la valorizzazione del patrimonio informativo pubblico, prodotte da AgID.

18 Cfr. ia.italia.it.

19 Il Libro bianco è disponibile al link https://ia.italia.it/assets/librobianco.pdf ; la prima versione è stata messa in consultazione tra febbraio e marzo 2018; cfr. https://libro-bianco-ia.readthedocs.io/it/latest/.

(11)

F oc us

Downloaded from www.biodiritto.org. ISSN 2284-4503

150 Fernanda Faini

Di conseguenza la gestione di soluzioni di intelligenza artificiale in ambito pubblico pone in primo luogo la necessità di rispettare la normativa di riferimento e, altresì, a livello di governance, le indica- zioni delle diverse autorità coinvolte.

3. Le sfide giuridiche in ambito pubblico

I o side azio e delle esa i ate a atte isti he di dati e algo it i, l’utilizzo di soluzio i di i telli- genza artificiale in ambito pubblico deve essere attentamente valutato e deve fare i conti con gli elementi di incertezza e con la natura inferenziale e probabilistica delle elaborazioni compiute dagli algoritmi stessi, profili ancora più problematici nel contesto pubblico che ontologicamente deve ga- rantire certezza del di itto e alidità giu idi a dell’atti ità a i ist ati a espletata ello s olgi e to delle funzioni, oltre ad assicurare la trasparenza delle fasi del procedimento e la qualità dei dati.

La logica attenta alla quantità e alle correlazioni, infatti, rischia di mettere in crisi la disciplina sulla qualità dei dati pubblici, necessaria per garantire certezza e assicurare affidabilità e fiducia20. Le isti- tuzioni devono valutare se le soluzioni di intelligenza artificiale conducano a una verità oggettiva e

ate iale, he affo za la e tezza dell’agi e pu li o e e de otti ali le de isio i p ese, o is hi di i - crinarla in modo preoccupante21.

Sicuramente i soggetti pubblici, in quanto retti dal principio di legalità amministrativa, devono atte- nersi scrupolosamente alla normativa in materia, composta da un insieme di norme afferenti al pro- edi e to a i ist ati o, all’a i ist azio e digitale e alla o ati a sulla t aspa e za, alle uali si sommano le disposizioni da osservare a tutela dei diritti, in particolare in materia di proprietà intel- lettuale e di protezione dei dati personali.

Sotto tale p ofilo, il Codi e dell’a i ist azio e digitale d.lgs. / e gli alt i atti di ife i e to contengono norme in materia di dati pubblici che riguardano i principi di disponibilità, fruibilità e di messa a disposizione dei dati e si spingono fino alle strategie di apertura che si sostanziano nella di- sciplina degli open data. Tali o e de o o t o a e ispetto a he laddo e l’a i ist azio e de ida di servirsi di te ologie di i tellige za a tifi iale ello s olgi e to delle fu zio i e ell’e ogazio e dei servizi. Al riguardo, più ampiamente, come sarà precisato più avanti, le tecnologie di intelligenza arti- ficiale devono basarsi sul principio di trasparenza e apertura non solo dei dati, ma anche della logica degli algo it i he li a i a o e del p o esso di fu zio a e to del se izio.

Un aspetto cui porre particolare attenzione emerge proprio riguardo ai soggetti della relazione: da una parte ci sono amminist azio i pu li he, dall’alt a pa te gli ute ti di se izi pu li i. Ciò i pli a il ispetto della o ati a i e e te i p o edi e ti a i ist ati i e l’a i ist azio e digitale:

20 Cfr. M.FALCONE, op. cit., 601 ss.

21 Cfr. M.FALCONE, op. cit., 601 ss., che evidenzia come le amministrazioni abbiano ancora difficoltà a raccogliere e o se a e i dati e utilizza li i odo o ga izzato. Co e ile a l’Auto e, pe alt o, il p i ipio di e ità ateria- le incontra limiti in alcuni principi del procedimento amministrativo, come il principio di economicità e non ag- gravamento e negli istituti di semplificazione o di certificazione. Al riguardo F.COSTANTINO, op. cit., 799 ss. ripor- ta i possi ili izi di u ’atti ità i fo atizzata , uali e esso di potere per illogicità o irrazionalità manifesta (se la soluzione automatizzata non è ragionevole), illegittimità del provvedimento per malfunzionamento della macchina o difetto del software (illegittimità derivata), illegittimità per presupposti erronei (in caso di immis- sione errata di dati), illegittimità per vizi attinenti alla motivazione (che può essere difficile da fornire se la deci- sio e de i a dall’ela o azio e di big data).

(12)

F ocu s

ed from www.biodiritto.org. ISSN 2284-4503

151 Intelligenza artificiale e diritto: le sfide giuridiche in ambito pubblico

l’i ple e tazio e di appli azio i di i tellige za a tifi iale de e ispetta e, di conseguenza, da una pa te, i di itti a he digitali dei ittadi i e, dall’alt a, gli o lighi p op i delle a i ist azio i e, pu con i necessari adattamenti, le garanzie procedimentali. Questo comporta che debba essere assicura- to e egolato l’a esso ai dati, in considerazione della relativa normativa nazionale e tenendo conto delle peculiarità delle soluzioni concrete22. Sotto tali profili, come evidenziato dal Libro Bianco pro-

osso da AgID, e e ge l’esige za di t o a e etodi u ifo i e o pati ili o l’attuale o di a e to pe o se ti e all’a i ist azio e pu li a di oti a e i suoi p o edi e ti a he ella pa te ela- borata dai sistemi di intelligenza artificiale.

Una gestione corretta dei dati, anima delle soluzioni di intelligenza artificiale, pertanto, deve rispetta- re i diversi diritti in gioco e, per farlo, deve osservare le prescrizioni normative di riferimento in mate- ria di procedimento amministrativo, amministrazione digitale, trasparenza, proprietà intellettuale e protezione dei dati personali. A tali fini, il sistema deve essere necessariamente trasparente per l’ute te, da ga a ti e el p op io di itto all’autodete i azio e i fo ati a e da alo izza e el p o- prio ruolo.

In tutto il processo, infatti, de e esse e p otago ista l’ute te, il ui soddisfa i e to l’o ietti o da non perdere di vista quando si agisce in ambito pubblico. La qualità dei servizi online, che devono es- sere semplici e integrati, e la correlata misura della soddisfazione rientrano esplicitamente, del resto, t a i di itti he il Codi e dell’a i ist azio e digitale i o os e e tutela a t. , d.lgs. / ; di conseguenza anche i servizi basati su tecnologie di intelligenza artificiale devono essere integrati con un feedback costante da parte di chi ne fruisce.

Al fine di garantire il corretto rispetto delle norme di riferimento, di conseguenza è necessario assicu- a e l’accountability e la correlata definizione delle diverse responsabilità, anche per mantenere fidu- cia da parte della olletti ità ell’azio e pu li a. A tali fi i esse ziale la p ese za di policy specifi- che di accompagnamento da parte delle amministrazioni, cui le stesse devono attenersi, trasparenti pe l’ute te e pe ezzo delle uali e ga egolata e ga a tita non solo la qualità e la corretta ge- stio e, a a he l’aspetto di si u ezza a li ello te ologi o, u a o e o ga izzati o, o u a defi i- zione chiara delle responsabilità.

La regolazione presuppone delle valutazioni di ordine politico, strategico e giuridico. Bisogna partire dal presupposto, infatti, che raccogliere e gestire numerosi dati conferisce, necessariamente, un cor- relato enorme potere, ancora più evidente laddove si tratti di un soggetto pubblico. Proprio qui emerge un aspetto cruciale.

Il possesso dei dati relativi alle soluzioni di intelligenza artificiale, se non viene attentamente presi- diato, può provocare una conseguente asimmetria di potere informativo e una forbice tra istituzioni e soggetti, cittadini o imprese, che può generare una conseguente perdita di fiducia. A tale profilo si somma un ulteriore e potenziale rischio collegato al controllo sociale: i soggetti pubblici potrebbero decidere di servirsi dei dati prodotti e gestiti dalle soluzioni di intelligenza artificiale per finalità ulte- riori rispetto ai servizi per i quali sono impiegati; ciò permetterebbe fenomeni di monitoraggio della

olletti ità, sop attutto laddo e l’ope azio e a e ga i odo o t aspa e te pe gli ute ti. Tutto questo, naturalmente, rischierebbe di entrare in frizione con la normativa e di allontanare governanti

22 Rilevano sotto tali profili le disposizioni contenute nella legge 241/1990, nel d.lgs. 82/2005 e nel d.lgs.

33/2013.

(13)

F oc us

Downloaded from www.biodiritto.org. ISSN 2284-4503

152 Fernanda Faini

e governati in direzione opposta all’ope gover e t che anima le riforme più recenti e le strategie nazionali in materia di digitalizzazione23.

Di conseguenza, emerge la necessità di bilanciare il valore e le opportunità offerte con le questioni etiche e sociali che si profilano.

Le soluzio i di i tellige za a tifi iale e la ole di dati gestiti pe ga a ti e l’effi a e fu zio a e to, infatti, producono una conseguente contrapposizione significativa t a i sig o i dei dati 24 e tutti gli altri. Gli Stati conoscono ingenti quantità di dati necessari per svolgere le funzioni pubbliche e, a loro volta, i colossi tecnologici come Google, Amazon, Facebook conoscono le nostre attività digitali, le nostre relazioni sociali, i nostri sentimenti.

Al fine di rendere maggiormente efficienti le soluzioni di intelligenza artificiale impiegate, i soggetti pubblici potrebbero decidere di avvalersi tramite rapporti negoziali, anche in connessione con i pro- pri dati, delle grandi banche dati dei privati, che detengono informazioni acquisite su base contrat- tuale. In tal modo possono realizzarsi forme di sorveglianza e di controllo, influenzando la collettività e mettendo in pericolo le libertà.

Peraltro, in ambito pubblico, i dati sono forniti da soggetti interessati alla fruizione del servizio, per lo più inconsapevoli e, in ogni caso, imprigionati in una relazione sicuramente non simmetrica25.

Il rischio è già diventato reale in materia di dati e potrebbe aggravarsi con un impiego esteso di solu- zioni di intelligenza artificiale. Al riguardo merita ricordare il Datagate, che ha fatto emergere, grazie alle dichiarazioni di Edward Snowden, i rapporti tra le agenzie di intelligence statunitensi e i colossi tecnologici, che hanno dato vita a una sorveglianza di massa sui dati personali di cittadini di tutto il mondo26 o il caso Facebook - Cambridge Analytica, che a seguito delle rivelazioni di Christopher Wy- lie, ha fatto emergere uno spregiudicato utilizzo di svariati dati personali per influenzare il voto e le elezioni negli Stati Uniti27.

Nell’utilizzo di tali soluzio i si affa ia il is hio o eto he azie de e go e i possa o i piega e i vario modo la conoscenza del presente e le previsioni del futuro, anche per finalità diverse da quelle originarie con potenziali effetti discriminatori (es. ambito assicurativo, contesto lavorativo, preven- zione della criminalità).

A a to a ueste p o le ati he giu idi he ollegate all’a ito pu li o e alle elati e i pli azio i etico-sociali degne di grande attenzione, sotto la lente giuridica sono svariati gli ulteriori profili critici.

23L’open government è il modello secondo cui le amministrazioni devono essere capaci di essere trasparenti a tutti i livelli e di rendere le proprie attività aperte e disponibili per favorire azioni maggiormente efficaci, ri- spondere alle istanze della società e garantire il controllo pubblico del proprio operato mediante le nuove tec- nologie.

24A.MANTELERO, op. cit., 135.

25M.F.DE TULLIO, La privacy e i big data verso una dimensione costituzionale collettiva, in Politica del diritto, 2016, fasc. 4, 671 ss.

26 Al riguardo cfr.G.GREENWALD, Sotto controllo. Edward Snowden e la sorveglianza di massa, trad. it., Milano, 2014.

27 I dati pe so ali so o stati fo iti dagli ute ti du a te l’utilizzo di u a app cui era possibile accedere tramite Facebook, che raccoglieva i dati dal social a fi i di i e a. L’azie da Ca idge A alyti a e e uta i posses- so per mezzo di accordi con il titolare e pare aver utilizzato i dati acquisiti con la finalità di influenzare e mani- polare il voto nella campagna Brexit e nelle elezioni presidenziali che hanno portato alla vittoria di Trump, gra- zie alla conoscenza che i dati stessi consentivano dei soggetti inconsapevolmente coinvolti.

(14)

F ocu s

ed from www.biodiritto.org. ISSN 2284-4503

153 Intelligenza artificiale e diritto: le sfide giuridiche in ambito pubblico

Un aspetto problematico si collega strettamente alle caratteristiche tecniche di funzionamento dell’i tellige za a tifi iale: l’a alisi dei dati o siste in un processo di approssimazione, che genera il rischio di trarre conclusioni imprecise e discriminatorie. Affinché la quantità dei dati si traduca in co- noscenza e sia funzionale allo scopo per cui la soluzione di intelligenza artificiale è predisposta, è ne- cessario avvalersi di dati di qualità, tempestivi ed accurati, evitando errori, bias ed utilizzi impropri o manipolatori28.

In merito alla possibilità di errori e bias involontari, si pensi al caso di Amazon: il colosso tecnologico ha scoperto che il sistema di intelligenza artificiale adottato per selezionare le candidature non si comportava in modo neutrale, ma escludeva le candidature delle donne; il sistema, infatti, aveva i pa ato dalle a didatu e passate, i la ga pa te di uo i i, a p efe i e gli uo i i alle do e29. I rischi in ambito pubblico sono intuitivamente peggiori e, per tale motivo, anche sotto tale profilo l’asse za di u a egola e tazio e espli ita dei fe o e i da pa te della o ati a i pli a la e essi- tà della definizione degli o ietti i e dell’e a azio e di policy di accompagnamento.

U alt o p ofilo di iti ità dal pu to di ista giu idi o affe is e alla p op ietà dei dati gestiti, sop at- tutto se si s eglie di a ale si a he di soggetti este i ell’i ple e tazio e e gestio e di tali servizi.

A he da uesto pu to di ista i te ie e la o ati a, i spe ifi o uella sul di itto d’auto e e sui diritti connessi, che protegge non solo le informazioni strutturate, ma anche le raccolte di dati, in ge- nere ascritte, a seconda dei casi, a banche dati creative o non creative, facendo scattare parallela- e te la tutela del di itto d’auto e o del di itto sui generis: la filiera dei soggetti che intervengono in ueste soluzio i fo da e tale pe l’att i uzio e dei o elati di itti e delle prerogative che li ac- compagnano.

In concreto, le raccolte di dati sui quali si basano queste soluzioni possono essere ricondotte a ban- he dati o eati e , atti a do osì la tutela del di itto sui generis, meno intensa del diritto d’auto e e tale da fa sop a i e e il di itto d’auto e sulle i fo azio i st uttu ate e i dataset che compongono la banca dati stessa30. Talvolta, ritenendo che il valore economico non sia nei dati, ma nelle elaborazioni, nei calcoli e negli algoritmi, la tutela giuridica può essere spostata dalla proprietà dei dati al software, parimenti protetto dalla normativa sulla proprietà intellettuale, o al contratto di fo itu a di se izi. Sotto tale p ofilo ie e i gio o a he l’auto o ia o t attuale ui si può i o e- re per tutelare più efficacemente tali soluzioni, per regolarne la cessione o la concessione di diritti, individuando i profili di responsabilità reciproca31.

La uestio e pa ti ola e te o plessa el aso dell’i tellige za a tifi iale, dal o e to he o sempre si tratta di un singolo bene immateriale, ma di un processo che spesso vede titolarità diverse (il titolare dello strumento può essere diverso dal titolare del servizio) e pone connessi problemi di

28 A.MANTELERO, op. cit., 135 ss.; G.COLANGELO, Big data, piattaforme e antitrust, in Mercato Concorrenza Rego- le, fasc. 3, 2016, 428 ss. Al riguardo C. ACCOTO,Il mondo dato. Cinque brevi riflessioni di filosofia digitale, Milano, 2017, 67 ss. sottolinea che bias algoritmici, capaci di dar luogo a discriminazioni, possono dipendere dalle ban- che dati utilizzate o dagli attributi scelti per le correlazioni, senza che ci sia uno scopo discriminatorio nelle in- tenzioni degli utilizzatori.

29 Il team ha lavorato a tale progetto tra il 2014 e il 2017; il progetto è stato chiuso da Amazon nel 2017. Cfr.

www.corrierecomunicazioni.it/over-the-top/allintelligenza-artificiale-di-amazon-non-piacciono-le-donne- scartati-i-cv-femminili (consultato il 10 gennaio 2018).

30 M. FALCONE, op. cit., 601-639.

31 V.ZENO-ZENCOVICH,G.GIANNONE CODIGLIONE, op. cit., 30 ss.

(15)

F oc us

Downloaded from www.biodiritto.org. ISSN 2284-4503

154 Fernanda Faini

responsabilità. Sotto tale profilo le questioni di responsabilità giuridica diventano particolarmente ostiche, dal momento che, a seconda del caso concreto, può cambiare la partecipazione umana all’azio e e alla de isio e he o du e a e e tuali da i ed o plessa la o segue te i putazio e delle responsabilità. Si po go o, i olt e, i editi i te ogati i elati i all’e e tuale att i uzio e di sog- gettività e relativa personalità giuridica alle applicazioni di intelligenza artificiale, che comporterebbe il potenziale riconoscimento di una serie di diritti e doveri, l’att i uzio e di espo sa ilità e le o -

esse p o le ati he; si pe si i ate ia di di itto d’auto e e e etti alla ualifi azio e giu idi a e al- la disciplina delle creazioni autonome e delle invenzioni da parte di tali applicazioni32.

Infine, profili particolarmente problematici sotto il profilo giuridico si individuano nella relazione con la normativa in materia di protezione dei dati personali, cui è dedicato il successivo paragrafo. Al ri- guardo, peraltro, è opportuno precisare che anche in presenza di dati non personali il problema non è completamente superato: il data mining e le analisi tecniche sono capaci di produrre fenomeni di re-identificazione e de-a o i izzazio e, he o se to o di i ela e l’ide tità di u a pe so a o di pi - coli gruppi e i comportamenti collegati, proponendo nuovamente le esigenze di tutela della normati- va in materia di data protection33.

4. Data protection e intelligenza artificiale

Il regolamento (UE) 2016/679, relativo alla protezione delle persone fisiche con riguardo al tratta- mento dei dati personali, nonché alla libera circolazione di tali dati, è teso a rendere omogenea la tu- tela della persona nei diversi Stati e a affo za e l’effettività insieme alla correlata fiducia da parte della collettività.

L’app o io e gli st u e ti he a atte izza o il egola e to UE / , pe ta to, so o tesi ad u a p otezio e effetti a ed effi a e dell’i di iduo. Ma le a atte isti he he o ota o l’i tellige za artificiale e i suoi elementi fondanti (dati e algoritmi) mostrano criticità ontologiche nel rispetto della disciplina in materia di data protection: in particolare, rischiano di scontrarsi apertamente con alcuni principi fondamentali della normativa, tesi a garantire il rispetto della persona e della sua libertà di autodeterminazione.

Co e esa i ato, l’i tellige za a tifi iale si asa su ela o azio i e i fe e ze apa i di o du e a i- sultati diversi e talvolta anche inaspettati, attraverso processi di natura deterministica distanti dal ti- pico ragionamento umano: soprattutto laddove impiegata per aumentare la conoscenza del presente e del futu o e suppo ta e le de isio i, pe da e isultati di pa ti ola e i te esse l’i tellige za a tificiale deve avere a disposizione un enorme mole di dati e basarsi su efficienti algoritmi che operano in mo- do distante dai processi basati su ipotesi determinate e nesso causale34. Di conseguenza può risultare complesso il rispetto del principio di limitazione della finalità, che prevede la raccolta dei dati perso- nali per finalità determinate, esplicite e legittime e il successivo trattamento in modo che non sia in-

32Cfr. C.TREVISI, La regolamentazione in materia di Intelligenza artificiale, robot, automazione: a che punto sia- mo, in Rivista di diritto dei media, fasc. 2, 2018, pp. 447-458.

33 V.ZENO-ZENCOVICH,G.GIANNONE CODIGLIONE, op. cit., 33 ss.; V.MAYER-SCHÖNBERGER,K.CUKIER, op. cit., 73 ss.

34 Cfr. A.MANTELERO, op. cit., 135-144; V.MAYER-SCHÖNBERGER,K.CUKIER, op. cit., 42; G.SARTOR,M.VIOLA DE AZEVE- DO CUNHA, op. cit., 657-680.

(16)

F ocu s

ed from www.biodiritto.org. ISSN 2284-4503

155 Intelligenza artificiale e diritto: le sfide giuridiche in ambito pubblico

compatibile con tali finalità35. Il volume dei dati, la varietà delle fonti e il modo di operare degli algo- ritmi rendono, inoltre, difficile il rispetto del criterio di minimizzazione dei dati e dei relativi principi di adeguatezza, pertinenza e limitazione dei dati personali a quanto necessario rispetto alle finalità del trattamento36 e, allo stesso modo, is hia o di i fi ia e la ualità, l’esattezza e l’a u atezza dei da- ti37.

I principi di limitazione della finalità, di esattezza e di minimizzazione dei dati rischiano quindi di esse- re depotenziati in un contesto dominato dagli algoritmi, a causa delle criticità esaminate.

Accanto al difficile rispetto di alcuni principi cardine del regolamento, nelle caratteristiche stesse di fu zio a e to dell’i tellige za a tifi iale e e go o iti ità p ofo de he is hia o di i a e i fo - damenti stessi della disciplina europea.

La rilevanza attribuita dalla normativa alle tecniche di anonimizzazione, che permettono di non appli- care la disciplina, può risultare problematica, dal momento che il rischio si annida nelle inferenze che possono essere tratte su gruppi o individui da dati anonimi, grazie anche alla disponibilità di dati ausi- liari riferibili alla persona: semplificando, ogni dato può finire per essere identificativo e quindi per- so ale, esige do o e tale l’appli azio e della elati a dis ipli a38.

Del resto a he il o etto di dato pe so ale può isulta e i suffi ie te, dal o e to he, olt e ai dati anonimi, che non è detto restino tali, ci possono essere dati afferenti a gruppi o comunità, che appartengono cioè a più persone, oltre ai metadati, estremamente significativi39.

Il o do degli algo it i fa a illa e a he il pa adig a asato sull’i fo ati a e o se so; i spe ifi- co, è dubbio che in tale contesto le informazioni rese siano capaci davvero di informare in modo completo ed efficace e che il consenso possa considerarsi libero40. A tale proposito merita precisare che i soggetti pubblici non devono, di regola, chiedere il consenso per il trattamento dei dati perso-

ali, dal o e to he i tal aso la li eità del t atta e to de i a dall’ese uzio e di u compito di in- te esse pu li o o o esso all’ese izio di pu li i pote i di ui all’a t. , pa ag afo , lett. e , eg.

(UE) 2016/679 e, inoltre, in tale fattispecie esiste un evidente squilibrio tra le parti che inevitabilmen- te rischia di inficiare la necessaria libertà di espressione del consenso41.

Ai fini di questa analisi rileva particolarmente la disposizione dedicata al «processo decisionale auto- atizzato elati o alle pe so e fisi he, o p esa la p ofilazio e», di ui all’a t. del egola e to (UE / : «l’i te essato ha il di itto di o esse e sottoposto a u a de isio e asata u i a e - te sul trattamento automatizzato, compresa la profilazione, che produca effetti giuridici che lo ri- guardano o che incida in modo analogo significativamente sulla sua persona»; la profilazione viene pe alt o espli ita e te defi ita ell’a t. , pa ag afo , . del egola e to eu opeo. Il pa ag afo della disposizione riduce la portata della norma, che non si applica al verificarsi di alcune condizioni,

35 Art. 5, paragrafo 1, lett. b), reg. (UE) 2016/679.

36 Art. 5, paragrafo 1, lett. c), reg. (UE) 2016/679.

37 Art. 5, paragrafo 1, lett. d), reg. (UE) 2016/679.

38 Cfr. G.D’ACQUISTO,M.NALDI, Big data e privacy by design. Anonimizzazione, pseudonimizzazione, sicurezza, Torino, 2017, 34 ss.; V.ZENO-ZENCOVICH,G.GIANNONE CODIGLIONE, op. cit., 33 ss.

39 Cfr. C.FOCARELLI, La privacy. Proteggere i dati personali oggi, Bologna, 2015, 28 ss.

40 Artt. 7, 12-14, reg. (UE) 2016/679. Cfr. F.H.CATE,V.MAYER-SCHÖNBERGER, Notice and consent in a world of Big Data, in International Data Privacy Law, 2013, vol. 3, n. 2, 67-73.

41 Al riguardo cfr. considerando 43 del reg. (UE) 2016/679.

(17)

F oc us

Downloaded from www.biodiritto.org. ISSN 2284-4503

156 Fernanda Faini

in pa ti ola e « el aso i ui la de isio e: a sia e essa ia pe la o lusio e o l’ese uzio e di u o t atto t a l’i te essato e u titola e del t atta e to; sia auto izzata dal di itto dell’U io e o dello Stato membro cui è soggetto il titolare del trattamento, che precisa altresì misure adeguate a tutela dei di itti, delle li e tà e dei legitti i i te essi dell’i te essato; si asi sul o se so espli ito dell’i te essato».

Nel caso del consenso esplicito e in quello di necessità per la conclusione o l’ese uzio e del o t at- to, il titolare del trattamento è comunque tenuto ad attuare «misure appropriate per tutelare i dirit- ti, le li e tà e i legitti i i te essi dell’i te essato, al e o il di itto di otte e e l’i te e to u a o da parte del titolare del trattamento, di esprimere la propria opinione e di contestare la decisione» (art.

22, paragrafo 3, regolamento europeo 2016/679).

5. Principi e strumenti da valorizzare

A e ede e, le iti ità esa i ate t o a o o di iso fo da e to ell’opa ità e ella chiusura dei processi di gestione dei dati e degli algoritmi, nel significativo squilibrio tra le parti e nella conseguen- te inevitabile incapacità per il singolo di potersi tutelare.

I tale o testo fo da e tale il uolo gio ato dall’uo o e dal di itto per riuscire a governare l’i tellige za a tifi iale, p otegge do la dig ità, lo s iluppo della pe so a e le sue li e tà.

Pertanto, per affrontare le soluzioni di intelligenza artificiale in modo efficace in ambito pubblico, è opportuno valorizzare e dare applicazione ad alcuni principi che si pongono quale possibile rimedio a tali problematiche e che possono essere sintetizzati nei seguenti (oggetto di esame dei prossimi pa- ragrafi): tecnica, etica, accountability, trasparenza e apertura.

5.1. Tecnica, etica e accountability

Seppur, come già esaminato, non manchino criticità nella normativa europea, alle soluzioni di intelli- genza artificiale si attagliano alcuni principi innovativi della disciplina recata dal regolamento euro- peo 2016/679, che mirano a un approccio proattivo e a una ponderazione preventiva dell’i patto e dei rischi sulla data protection42.

In particolare si tratta degli strumenti della privacy by design e by default, cui si affianca il Data Pro- tection Impact Assessment, nei quali il diritto si avvale della tecnologia per assicurare il suo rispetto e ga a ti e la tutela della dig ità e dello s iluppo della pe so a: la te ologia si po e uale a tidoto preventivo a possibili violazioni delle norme, tutelando la persona fin dalla progettazione, per impo- stazio e p e e ti a e pe ezzo della alutazio e d’i patto43.

Il principio privacy by design, di ui all’a t. , pa ag afo del egola e to UE / , p e ede he, te e do o to dello stato dell’a te e dei osti di attuazio e, o h della atu a, dell’a ito di applicazione, del contesto e delle finalità del trattamento, come anche dei rischi aventi probabilità e gravità diverse per i diritti e le libertà delle persone fisiche costituiti dal trattamento, sia al momento di determinare i mezzi del t atta e to sia all’atto del t atta e to stesso, il titola e de a ette e i

42 Cfr. G.FINOCCHIARO, Introduzione al regolamento europeo sulla protezione dei dati, in Le Nuove leggi civili commentate, 2017, fasc. 1, 1-18.

43 Cfr. C.FOCARELLI, op. cit., 63; A.MANTELERO, op. cit., 159 ss.

(18)

F ocu s

ed from www.biodiritto.org. ISSN 2284-4503

157 Intelligenza artificiale e diritto: le sfide giuridiche in ambito pubblico

atto «misure tecniche e organizzative adeguate, quali la pseudonimizzazione» di ui all’a t. , o - ma 1, n. 5), «volte ad attuare in modo efficace i principi di protezione dei dati, quali la minimizzazio- ne, e a integrare nel trattamento le necessarie garanzie al fine di soddisfare i requisiti del regolamen- to e tutelare i diritti degli interessati».

A tale criterio si lega il principio privacy by default, posto nel se o do pa ag afo dell’a t. del ego- lamento (UE) 2016/679: il titolare deve mettere in atto «misure tecniche e organizzative adeguate per garantire che siano trattati, per impostazione predefinita, solo i dati personali necessari per ogni specifica finalità del trattamento». L’individuo è tutelato in modo rafforzato dal momento che la di- sposizione i pedis e l’a esso a u u e o i defi ito di pe so e fisi he da pa te di a hi e se za l’i te e to della pe so a fisi a e prevede che l’o ligo sia calibrato su aspetti quali la quantità di dati, la po tata del t atta e to, il pe iodo di o se azio e e l’a essi ilità.

I te essa te, alt esì, l’a t. del eg. UE / , elati o al .d. Data Protection Impact Assess- ment: quando un tipo di trattamento, allo h p e eda i pa ti ola e l’uso di uo e te ologie, o - side ati la atu a, l’oggetto, il o testo e le fi alità del t atta e to, può presentare un rischio eleva- to per i diritti e le libertà delle persone fisiche, il titolare effettua, prima di procedere al trattamento,

«u a alutazio e dell’i patto dei t atta e ti p e isti sulla p otezio e dei dati pe so ali». Tale valu- tazione deve contenere almeno i requisiti prescritti dalla norma ed è prevista nelle ipotesi poste dalla normativa, quali trattamenti automatizzati, come le operazioni di profilazione degli utenti, che per- mettono una valutazione sistematica e globale di aspetti personali relativi a persone fisiche e fonda- no decisioni che hanno effetti giuridici o incidono in modo analogo significativamente su dette per- sone fisiche; trattamenti su larga scala di particolari categorie di dati o di dati relativi a condanne pe- nali e a reati; sorveglianza sistematica su larga scala di una zona accessibile al pubblico.

Sotto il profilo della gestione dei big data risultano interessanti anche altre novità del regolamento (UE) 2016/679, come la consultazione preventiva (art. 36)44, la data breach notification (artt. 33-34)45 e il Data Protection Officer (DPO) o Responsabile della protezione dei dati (RPD) (artt. 37-39); la no- mina di questa figura è prevista con la funzione di garantire una corretta gestione dei dati in una se- rie di casi, t a i uali p op io l’a ito pu li o.

I li ea o l’app o io p oatti o e p e e ti o di tutela si pone la logica di accountability e responsa- bilizzazione dei soggetti che trattano i dati personali46 e la contitolarità, accompagnata dalla defini- zione delle rispettive responsabilità47, disposizioni coadiuvate sia dall’atte zio e alla si u ezza48, sia dall’effetti ità e dall’effi a ia del sistema sanzionatorio correlato49. Nell’appli azio e della dis ipli a e nella promozione della consapevolezza al riguardo, un ruolo strategico è svolto in concreto dalle au-

44 Il titola e, p i a di p o ede e al t atta e to, o sulta l’auto ità di o t ollo ualo a la alutazio e d’i patto indichi che il trattamento presenterebbe un rischio elevato in assenza di misure adottate per attenuare il ri- schio.

45 Le norme impongono al titola e l’o ligo di otifi a e e e tuali iolazio i dei dati pe so ali all’auto ità a- zionale nei tempi e nelle modalità previste. Quando la violazione è suscettibile di presentare un rischio elevato per i diritti e le libertà delle persone fisiche, il titola e o u i a la iolazio e all’i te essato se za i giustifi ato ritardo.

46 Art. 24, reg. (UE) 2016/679.

47 Art. 26, reg. (UE) 2016/679.

48 Art. 32, reg. (UE) 2016/679.

49 Artt. 82-84, reg. (UE) 2016/679.

Riferimenti

Documenti correlati

La parti ella di massa m è vin olata alla guida ir olare di raggio R posta in. un

241 del 1990 (principio di proporzionalità e ragionevolezza). spetta la determinazione dei principi di deontologia professionale e delle ipotesi di violazione degli

degli Insegn si al Miur, no della Gilda d fiuto di sigla egge 107/20. di graduator o tra docenti olare

Arriva uffici Sembra sb protagonist sulle pesan ormai supe Questo inte sindacati.. I guidato da preavviso f contratto su avverrà con pubblicazio Siamo in at nei

Lo stesso è a dirsi per la Cassazione; perché se è vero, come denunzia il presidente Santacroce, che spesso si assiste ad una “parcellizzazione” del “cuore” della censura

Il presente della Medicina Legale è qui e ora”, Roma, ottobre 2016 - “Responsabilità sanitaria: tra prevenzione e contenzioso”, Roma, ottobre 2016 - “La Medicina Legale e

Acqua Fontana Cimitero Via Crippa ph6,5 - 9,5 colore odore conducibilità torbidità cloruri250 mg/l nitrati50 mg/l solfati250 mg/l nitriti 0,5 mg/l ammoniaca 0,5 mg/l batteri coliformi

Quanto alla giurisprudenza più recente è invece possibile citare come indicativa di un uso più elastico degli st u e ti de iso i l’o di a za. Per quel che qui interessa, è