• Non ci sono risultati.

I dilemmi del design

Nel documento Il diritto nell'età dell'informazione (pagine 166-176)

Il riposizionamento tecnologico del diritto

5.3. I dilemmi del design

Il terzo e ultimo osservabile della figura 16, con cui abbiamo cominciato l’analisi nel presente capitolo, richiede di ricapitolare in tre parti, le tappe dell’indagine che ci ha condotti fino a questo punto.

Nel capitolo primo (figura 3 in § 1.1.3), si è introdotto l’approccio di questo li- bro nel senso del diritto come meta-tecnologia, precisandone gli osservabili sia a proposito dei livelli, che delle modalità coattive e autoritative dell’intervento giuri- dico.

Nel capitolo anteriore (tavola 4 di § 4.3), questi osservabili sono stati specificati, da un lato, sul piano del livello d’intervento, con il triplice rimando al diritto nazio- nale, internazionale e transnazionale. D’altro canto, sul piano delle modalità, l’analisi poco dopo si è soffermata sul rapporto tra le tradizionali forme d’intervento coattivo del legislatore e il cosiddetto diritto soffice (si v. §§ 4.3.1 e 4.3.1.1).

Infine, poc’anzi in questo capitolo (da § 5.2 a 5.2.3), abbiamo aggiornato queste forme d’intervento con la triplice modalità, o fini, che il design può avere ai livelli del diritto precedentemente segnalati. La necessità dell’aggiornamento dipende da quanto detto sin dal capitolo primo, riguardo l’impatto della quarta rivoluzione sul- le tecniche del diritto, vale a dire il terzo osservabile della figura 4 in § 1.4. Il ricorso giuridico al design, in altri termini, può essere inteso come la risposta alla crescente inefficacia, alla quale il tradizionale apparato sanzionatorio dello stato è andato in- contro per via della rivoluzione tecnologica, per cui si è trattato di rispondere alle sfide della tecnologia con le armi della tecnologia stessa, e cioè immettendo i co- mandi del diritto nei prodotti e nei processi tecnologici, nei luoghi e negli spazi dell’interazione umana, al fine di far valere i dispositivi della legge.

Sul fronte delle modalità coercitive dell’intervento, abbiamo così visto all’opera, nel paragrafo precedente, il fine del design di prevenire il verificarsi di presunti eventi dannosi, ora sul piano nazionale (i filtri della DEA britannica); ora interna- zionale (i filtri della Commissione europea); ora transnazionale (i DRM delle impre- se del settore). Che l’intervento giuridico sia avvenuto ora da parte delle autorità pubbliche, ora a cura delle compagnie private, non sorprende, avendo a mente il

passaggio dalle tradizionali forme di governo a quelle odierne della governance che comprende, nel bene e nel male, sia attori privati sia organismi pubblici (§ 3.4.2).

Sul fronte, invece, delle modalità d’intervento soffice, il riferimento va alle forme del design che mirano a incoraggiare gli individui a mutare il proprio comportamen- to con le tecniche degli incentivi, i baratti digitali e, in genere, le forme delle sanzio- ni positive. Qui, sebbene non manchino esempi nel settore pubblico, è interessante notare come i casi riguardino soprattutto l’ambito transnazionale: P2P, eBay, Trip Advisor, ecc. La ragione è stata sottolineata sin dal capitolo precedente (§ 4.3.3.2), per cui coloro che sono sottomessi all’autorità delle regole che governano la comu- nità transnazionale, lo fanno attraverso la loro scelta: con la formula inglese, “opt in”, insomma, e non “opt out” (come avviene talvolta con gli stati).

Possiamo fissare le premesse dell’indagine del presente paragrafo con una nuova figura:

Figura 17: Il diritto come meta-tecnologia oggi

Sono tre, come detto, i nodi principali che il nuovo quadro pone e concernono la neutralità tecnologica del diritto, il suo rapporto con i valori in gioco, nonché i rischi del paternalismo. Si tratta di un plesso di questioni che dai nodi normativi del design giuridico conducono agli odierni dilemmi istituzionali del design.

Proseguiamo l’indagine con il primo di questi tre nodi.

5.3.1. La neutralità tecnologica delle scelte giuridiche

Uno dei problemi cui va incontro il diritto come meta-tecnologia riguarda il fat- to che l’intervento del legislatore non dovrebbe né soffocare lo sviluppo tecnologico né richiedere di essere frequentemente rivisto in ragione dello stesso sviluppo della tecnologia. A questi primi due significati della formula relativa alla neutralità tecno- logica delle scelte giuridiche se ne affiancano altri: il principio di non discriminazio- ne tra tecnologie con effetti equivalenti, il principio dell’equivalenza funzionale tra attività in rete e mondo offline, fino all’idea di fare attenzione agli effetti e intenzioni del comportamento individuale, più che ai comportamenti astrattamente considera- ti, o ai mezzi utilizzati, secondo una prospettiva che riconduce a sua volta a un ap- proccio neutrale alle scelte giuridiche in chiave tecnologica (Koops 2006: 83-90).

Altri autori riassumono i principi della neutralità tecnologica secondo tre aspetti: quello dell’indifferenza tecnologica della legge, quello della sua neutralità riguardo

alle forme dell’implementazione e, infine, quello della potenziale neutralità (Reed 2012: 195-199). In particolare, riguardo al profilo dell’indifferenza tecnologica della legge, l’idea è che le finalità perseguite valgano a prescindere dalla tecnologia inte- ressata: nel caso della normativa europea in materia di tutela dei dati personali (si v. § 3.4.1), si pensi alla nozione di trattamento di cui all’articolo 2, lettera b, della D- 95/46/CE4

. Per quanto la definizione, che il lettore trova sotto in nota, sia invec- chiata tutto sommato bene, non è un caso che essa, nella proposta di nuovo regola- mento per la protezione dei dati, presentata dalla Commissione europea il 25 gen- naio 2012, è stata significativamente integrata. La previa formula “con o senza l’au- silio di processi automatizzati e applicate a dati personali” suona ora “applicate a dati personali o insiemi di dati personali” (articolo 4(3) della proposta di regolamento in tema di definizioni). La ragione dipende dal fatto che la normativa ha dovuto fare i conti con una nuova tecnologia che, nel 1995, non esisteva: il “data mining”. Si trat- ta delle tecniche che sono in grado di estrarre e incrociare informazioni da una mole gigantesca di dati, per cui singole tracce digitali che ciascuno di noi lascia dietro di sé, all’apparenza insignificanti, possono diventare a tutti gli effetti dati personali grazie a queste tecniche. Il legislatore europeo ne ha dovuto prendere atto.

In secondo luogo, riguardo alla neutralità relativa alle forme d’implementazione, sono i casi in cui il legislatore fa riferimento a una specifica tecnologia ma, poi, è in- differente alle forme in cui quest’ultima di fatto si materializza. Basti pensare alle firme elettroniche e come queste ultime siano state disciplinate dal legislatore euro- peo con il combinato disposto degli articoli 2(1)-(2) e 5 della D-1999/93/CE5

; e come, due anni dopo, nel 2001, la Commissione delle Nazioni Unite sul diritto in- ternazionale commerciale (UNCITRAL), si sia spinta oltre in questa direzione, pro- ponendo una definizione di firma elettronica che, a rigore, può anche valere per le firme tradizionali. Ai sensi dell’articolo 2(a) della legge modello della Commissione, per firma elettronica s’intendono i “dati in forma elettronica che, fissati o associati logicamente a un messaggio di dati, possono essere impiegati per identificare il fir- matario con riguardo a un messaggio, o per indicarne l’approvazione dell’informa- zione contenuta in un messaggio di dati”. Da questo punto di vista, la neutralità del- le forme d’implementazione di una tecnologia specifica, come quella della firma

4

Si tratta di “qualsiasi operazione o insieme di operazioni compiute con o senza l’ausilio di processi automatizzati e applicate a dati personali, come la raccolta, la registrazione, l’organizzazione, la conser- vazione, l’elaborazione o la modifica, l’estrazione, la consultazione, l’impiego, la comunicazione median- te trasmissione, diffusione o qualsiasi altra forma di messa a disposizione, il raffronto o l’interconnes- sione, nonché il congelamento, la cancellazione o la distruzione” di informazioni riguardanti la persona interessata.

5

La “firma elettronica” consiste in “dati in forma elettronica, allegati oppure connessi tramite asso- ciazione logica ad altri dati elettronici ed utilizzata come metodo di autenticazione”, distinta dalla “fir- ma elettronica avanzata”, che è una firma “connessa in maniera unica al firmatario”, “idonea ad identi- ficarlo”, “creata con mezzi sui quali il firmatario può conservare il proprio controllo esclusivo” e “colle- gata ai dati cui si riferisce in modo da consentire l’identificazione di ogni successiva modifica di detti dati”. Su queste basi, che poi sono quelle dell’articolo 2 della direttiva, l’articolo 5 stabilisce che “gli Stati membri provvedono a che le firme elettroniche avanzate basate su un certificato qualificato e crea- te mediante un dispositivo per la creazione di una firma sicura […] posseggano i requisiti legali di una firma in relazione ai dati in forma elettronica così come una firma autografa li possiede per dati cartacei; e […] siano ammesse come prova in giudizio”.

elettronica, può dunque convertirsi nell’approccio visto poc’anzi a proposito dell’in- differenza tecnologica della legge; sebbene, in realtà, ciò non sia sempre possibile. Si presti attenzione al denaro, più che alla firma, in forma elettronica: dapprima, con la D-2000/46/CE, il legislatore europeo aveva pensato all’uso di un surrogato elettro- nico delle monete e banconote tradizionali, sotto la supervisione di autorità finan- ziarie nazionali, a garanzia degli utenti. Ben presto, però, l’entrata in scena di nuove modalità di pagamento e transazioni, come PayPal (v. § 4.3.3.2), ha reso la normati- va del tutto inappropriata, costringendo a passare a una nuova direttiva, ossia la D- 2009/110/CE.

In terzo luogo, riguardo alla potenziale neutralità delle scelte, il legislatore può optare per una specifica (modalità d’uso relativo a una data) tecnologia, sia pure, in modo tale, che le altre tecniche o approcci tecnologici possano adattarvisi. Tornan- do alle firme elettroniche, il ricordato articolo 5 della D-1999/93/CE richiede ad esempio che un terzo certifichi la firma tra le parti interessate, per ciò stesso impo- nendo una condizione che le tecniche di firma biometrica, tra le altre, non avevano preventivato. Ciò non toglie che tali tecniche biometriche possano incorporare la figura di un terzo certificatore: analogamente, l’articolo 11(2) della direttiva europea sul commercio elettronico, ossia la D-2000/31/CE, stabilisce che “nel caso in cui il destinatario di un servizio inoltri il proprio ordine mediante strumenti tecnologici […] gli Stati membri provvedono affinché, salvo diverso accordo tra parti diverse da consumatori, il prestatore metta a disposizione del destinatario del servizio stru- menti tecnici adeguati, efficaci ed accessibili tali da permettere a quest’ultimo di in- dividuare e correggere errori di inserimento dei dati prima di inoltrare l’ordine”. Sebbene, al momento dell’entrata in vigore della normativa nei primi anni 2000, po- che piattaforme per l’e-commerce fossero in grado di soddisfare i requisiti della di- rettiva, nell’arco di pochi anni tali piattaforme sono state riadattate per ottemperare la norma.

Come ben si vede, l’approccio della neutralità tecnologica della legge non deve essere inteso come un dogma ma, piuttosto, come mezzo per disciplinare un dato campo dell’interazione degli individui, nonché gli effetti dei loro comportamenti rispetto ai quali, poi, prendere posizione sullo sviluppo e progresso del settore tec- nologico.

Assunta questa prospettiva, è dunque possibile evitare gli apriorismi del dibatti- to, tra chi propende per una regolazione per principi o, quantomeno, formulazioni di tipo onnicomprensivo e chi, invece, sottolinea i vantaggi di una regolamentazione dettagliata e specifica della disciplina. Tanto più generale la formula delle disposi- zioni, tanto più esse tenderanno a sfumare e diventare vaghe, come nel caso della “neutralità di internet” che, per via della specifica complessità dell’argomento (v. § 3.4.2), stante i diversi assetti economici nell’infrastruttura della rete e dei servizi of- ferti agli utenti, finisce per avere differenti significati negli Stati Uniti d’America e in Europa. Si pensi ad esempio all’accordo tra Verizon e Google, nell’agosto 2010, contro una completa neutralità della rete negli Stati Uniti che, invece, Google ap- poggia in Europa.

Ma tanto più specifico e dettagliato il fine della regolamentazione, tanto maggio- re il rischio che quest’ultima non sia in grado di tenere il passo del progresso e svi- luppo tecnologico, rendendo vischioso il sistema e difficile in molti casi la sua attua-

zione. Avremo modo di vedere nei prossimi capitoli come questa sia stata, spesso, la critica a molte delle disposizioni europee in materia di tutela dei dati personali, e come tale rischio sembri addirittura accrescere con la mole di provvedimenti pre- sentati dalla Commissione con la nuova proposta di regolamento in materia. Tra la Scilla di precetti vaghi e generali che sfumano nel vuoto, e la Cariddi di disposizioni messe facilmente fuori gioco dalla prassi, il rischio è, insomma, quello denunciato da un componente della Camera dei Lord britannica, al momento di discutere un progetto di legge [Bill] nel 2000: “Una delle tante difficoltà che ho con il Bill è che, nei suoi sforzi stridenti per essere tecnologicamente neutro, esso dà spesso l’impres- sione o che è ignorante sul modo in cui concretamente la tecnologia opera, oppure pretende che non ci sia affatto la tecnologia” (in Reed 2012: 201).

Torniamo, per questa via, a quel dovere di conoscenza su cui ci siamo soffermati nel capitolo terzo (§ 3.4.3.2).

Per non ripetere cose già dette, tuttavia, sarà opportuno insistere sul fatto che il fine del diritto come meta-tecnologia non è certo la soddisfazione, fine a se stessa, di regolare il progresso e lo sviluppo tecnologico. Piuttosto, si tratta di determinare come e, in molti casi, se intervenire in un determinato campo dell’interazione degli individui, al fine di disciplinarne gli effetti del comportamento che s’intrecciano con questioni di ordine tecnologico. Per poter definire la legittimità o opportunità del- l’intervento, appare di qui necessario misurarsi con i valori in gioco in quel deter- minato settore del quale si discute. Occorre passare, cioè, all’esame della seconda variabile dell’indagine sui dilemmi posti dal design, distinguendo tra il problema di immettere nel design dei prodotti, processi, spazi o luoghi, le scelte politiche del- l’intervento, e come a sua volta il design veicoli di per sé determinati valori.

5.3.2. I valori in gioco

È stato più volte sottolineato come le istanze valoriali degli individui e dei siste- mi sociali rilevino per lo sviluppo della tecnologia e, soprattutto, come i conflitti tra valori e le loro diverse interpretazioni possano incidere sul design, a seconda di ciò che viene ritenuto buono o degno di protezione (si v. Flanagan, Howe e Nissen- baum 2008).

Si consideri l’esempio della tutela dei dati personali e come le diverse concezioni che possiamo avere di tale diritto – concepito, volta a volta, in termini di proprietà privata; di tutela della dignità; come controllo totale sul flusso delle informazioni; o in rapporto alle esigenze del contesto considerato – si riflettano sul modo in cui di- segniamo un interfaccia o prodotto informatico. Dobbiamo adottare il modello tipi- co americano dell’“opt out”, per cui la volontà dell’individuo si attiva soltanto per chiedere di essere escluso da quel tipo di servizio e di raccolta dei dati, oppure quel servizio commerciale con la conseguente raccolta dei dati richiede preventivamente il consenso come “opt in”?

Inoltre, si presti attenzione a ulteriori parametri della raccolta come i criteri della qualità e minimizzazione dei dati trattati, con la loro controllabilità, confidenzialità e trasparenza. Anche in questo caso, al momento di disegnare un interfaccia o pro- dotto informatico, è evidente che il contemperamento di tali parametri può com- portare un insieme di scelte difficili. Tornando all’esempio dei sistemi informativi

per gli ospedali (v. §§ 5.1.1 e 5.2.2), i designer dovranno privilegiare l’affidabilità ed efficienza del sistema, nel tenere separati i nomi dei pazienti dai dati sul loro stato di salute e relativi trattamenti sanitari? Che ne è degli utenti, inclusi i dottori, che pos- sono trovare tali accorgimenti del design troppo macchinosi o complicati?

Come emerge da queste pur succinte considerazioni, anche a non discutere della bontà dei valori in gioco ma soltanto del modo in cui detti valori devono essere im- messi e, talvolta, bilanciati attraverso le scelte del design, sorgono non pochi pro- blemi relativi alle scelte dei disegnatori di prodotti e sistemi informatici, di ambienti per l’interazione degli individui, dei luoghi o spazi in cui abitiamo. Di qui, come re- golarsi?

Esistono fortunatamente tutta una serie di accorgimenti e metodologie con cui affrontare simili questioni. Da un lato, possiamo far ritorno a quanto detto nel capi- tolo primo (§ 1.4.1), a proposito del “ciclo generatore di test” messo a punto da Si- mon, per cui, scomponendo il design in blocchi funzionali, è dato fare emergere i modi alternativi per venire a capo dei problemi e testarli, appunto, sulla base dell’insieme dei requisiti e vincoli della progettazione del sistema. Le diverse forme in cui è possibile immettere valori, o anche scelte legislative, nel design dei prodotti, processi, spazi o luoghi, è una scelta controbilanciata da metodi empirici per la valu- tazione e verifica del progetto stesso. È il caso dell’uso di prototipi, test con gli uten- ti in ambienti controllati per verificare l’usabilità e affidabilità del disegno, oltre all’analisi e definizione dei concetti valoriali in gioco, con il metodo dell’“operazio- nalizzazione”. Questi approcci consentono infatti di capire come il design immetta i valori in un dato sistema informativo, in un interfaccia, ecc., perché “la verifica dell’inclusione dei valori farà probabilmente leva su strategie e metodi non dissimili da quelli applicati ad altri criteri del design come la sua efficienza funzionale e usa- bilità” (Flanagan, Howe e Nissenbaum 2008: 348).

D’altro canto, è il legislatore stesso che può sgravare dal compito di decidere quale approccio scegliere per il design: come detto nel paragrafo precedente, ci so- no casi in cui il legislatore punta su una precisa impostazione tecnologica che, ne- cessariamente, restringe lo spettro delle scelte dei designer. All’esempio del prece- dente paragrafo sulle piattaforme per l’e-commerce di cui all’articolo 11(2) di D- 2000/31/CE, potremmo aggiungere i limiti stabiliti dal legislatore nordamericano nel Health Insurance Portability and Accountability Act (HIPPA) del 1996, con cui si dettano le condizioni che devono regolare il flusso dei dati nei sistemi informativi riguardanti il settore assicurativo e ospedaliero. Si può ovviamente discutere della bontà di questo approccio che, tanto più entra nei dettagli di una determinata tec- nologia e del suo design, tanto più rischia di richiedere continui aggiornamenti, o revisioni, stante lo stesso progresso tecnologico.

Ma, appunto, non è di questo che si discute in questo paragrafo: un conto sono, infatti, le decisioni politiche e le scelte valoriali incorporate in un testo di legge, altra cosa sono le scelte che occorrono per immettere tali decisioni nel design dei sistemi informativi ospedalieri, nelle piatteforme per l’e-commerce, e via dicendo. Prova ne sia l’ulteriore esempio delle centrali nucleari: un conto è la decisione politica sul se e dove costruire eventualmente detti impianti; altra faccenda è di disegnarli in modo tale che, una volta presa la decisione di costruirli, essi siano sicuri. Si tratta della progettazione delle misure di sicurezza esaminate poco sopra (§ 5.2.2), là dove la

responsabilità etica delle scelte non riguarda tanto il loro impatto sul comportamen- to degli individui, quanto la meticolosità tecnica e affidabilità del progetto. Nel caso delle centrali nucleari, occorre così evidenziare la probabilità degli eventi indeside- rati di cui il design deve tener conto, al fine di chiarire la sequenza di possibili inci- denti che possono condurre agli eventi avversi, in rapporto alla probabilità di ogni sequenza. Ecco perché gli esperti nella valutazione della probabilità dei rischi nel settore “hanno per lo più abbandonato l’idea originaria che i risultati dell’analisi probabilistica della sequenza degli eventi nei reattori nucleari dovesse essere ragio- nevolmente interpretata secondo il calcolo accurato delle probabilità dei vari tipi di incidenti. Piuttosto, questi calcoli sono fondamentalmente fatti per comparare di- verse sequenze di eventi, al fine di identificare gli elementi critici in dette sequenze” (Doorn e Hansson 2011: 157).

Come occorso con la progettazione e costruzione di centrali nucleari, ci possono poi essere dubbi più che legittimi sulla bontà delle scelte e delle decisioni politiche, di cui i designer dovranno in séguito farsi carico. In questo modo, tuttavia, la di- scussione non verte più sui valori in gioco discussi nel presente paragrafo, bensì, sulla terza variabile che impegna il nostro studio sui dilemmi del design e che, a continuazione, riassumiamo con la critica kantiana alle sfide del paternalismo.

5.3.3. Paternalismo

Abbiamo più volte incontrato il pensiero di Kant nelle pagine precedenti: nel capitolo primo (§ 1.1.3), il riferimento è andato alla sua concezione del diritto come

Nel documento Il diritto nell'età dell'informazione (pagine 166-176)