• Non ci sono risultati.

L’applicazione automatica della legge

Nel documento Il diritto nell'età dell'informazione (pagine 176-185)

Il riposizionamento tecnologico del diritto

5.4. L’applicazione automatica della legge

L’intento di rendere automatica l’applicazione della legge tramite il disegno di tecnologie auto-attuantesi, quali sistemi onnipervasivi di filtraggio, tecniche DRM a tutela della proprietà intellettuale o certe versioni della “privacy tramite design” (Cavoukian 2010), riporta la nostra attenzione alla tavola 6 del capitolo quarto (§ 4.3.3.2).

In quel contesto, l’accento era posto sulle spinte centrifughe e centripete cui è sottoposto l’antico monopolista delle fonti nel modello di Westfalia, ossia il guber-

naculum del diritto nazionale come primo osservabile della tavola 6. Il precedente capitolo, non a caso, si è chiuso con un paragrafo che s’interroga su un diritto senza o contro lo stato.

Qui, per converso, l’accento cade sulla spinta eguale e contraria che, facendo le- va sull’uso della tecnologia al fine di pervenire a una applicazione automatica della legge, finirebbe per ricondurre al gubernaculum come centro delle fonti e del siste- ma normativo. Avendo peraltro sottolineato come la redistribuzione del sistema del- le fonti si intrecci a questioni di potere (§§ 4, 4.3, 4.3.2.1, 4.3.3.3), non deve sor- prendere che l’antico monopolista delle fonti tenti di riappropriarsi per via tecnolo- gica, di ciò che la rivoluzione tecnologica ha contribuito a sottrargli.

Il nuovo controllo che è reso possibile sul comportamento degli individui, non contrasta però, necessariamente, con le altre componenti del sistema. Prova ne sia l’uso delle tecniche DRM da parte di società private a tutela dei propri diritti di co- pyright, che possono a loro volta essere concepite come attuazione della normativa adottata dagli stati, sia sul piano nazionale sia internazionale, e sia pure sotto gli au- spici e pressione di quelle stesse società private: in fondo, i DRM sono tutelati da una specifica disposizione del trattato WIPO sul copyright introdotto già nel capi- tolo primo (§ 1.4.2). L’articolo 11, incentrato sugli obblighi in materia di misure tecnologiche, non a caso recita che “le Parti contraenti prevedono un’adeguata tute- la giuridica e precostituiscono mezzi di ricorso efficaci contro l’elusione delle misu- re tecnologiche utilizzate dagli autori nell’esercizio dei diritti contemplati dal pre- sente trattato […] allo scopo di impedire che vengano commessi, nei confronti delle loro opere, atti non autorizzati dagli autori stessi o vietati per legge”.

Dalla canonica formula “se A, allora B”, si passa così dall’insieme di disposizioni normative supportate dalla minaccia di sanzioni fisiche sul piano del dover essere, a una serie di misure coattive che seguono in automatico sul piano dell’essere. Non si tratta più di influire sul comportamento individuale ma, piuttosto, di determinarlo a priori tramite il design dei prodotti, processi o ambienti dell’interazione umana, per prevenire il verificarsi di eventi dannosi. Come detto, rimangono tuttavia aperti in questo modo tre ordini di questioni. Essi riguardano se l’applicazione automatica della legge sia desiderabile, se tecnicamente fattibile e, soprattutto, sul piano istitu- zionale, se essa sia legittima alla luce dei principi e norme del costituzionalismo mo- derno.

A ciascun tipo di problema dedichiamo un paragrafo nelle pagine che seguono.

5.4.1. Desiderabilità

Dopo la critica kantiana del paternalismo, può sembrare bizzarro occuparci del- la desiderabilità di un controllo totale da attuarsi per il tramite del design. Baste- rebbe però citare i casi, cui ho fatto prima cenno, del cyber-terrorismo e della pedo- pornografia, per rendersi conto del problema: chi non vorrebbe prevenire del tutto questi casi efferati con l’uso di tecnologie auto-attuantesi?

A rigore, non sarebbe nemmeno il caso di parlare di paternalismo ma, bensì, del- la repressione o prevenzione di comportamenti malvagi, rispetto ai quali vale l’argomento kantiano della volontà generale come limite all’“arbitrio illimitato” dei singoli, con il test del consenso (§ 5.3.3.1).

Eppure, per venire sin d’ora al punto dolente che propone la questione, osta alla desiderabilità del controllo totale per il tramite del design, anche nei casi particolari del cyber-terrorismo o della pedo-pornografia su internet, i limiti tecnici di simile progetto tecnologico. Infatti, stante la natura fortemente decentrata e aperta della rete, non è dato condurre un monitoraggio specifico e, per così dire, chirurgico di queste attività illecite e, anzi, identificarne i responsabili richiede spesso un lavoro immane.

Di qui un preoccupante dilemma:

– o si smantella la rete, quale l’abbiamo finora conosciuta e come hanno fatto del resto in Cina con la “grande muraglia di fuoco” (§ 5.2.3); ma allora, come suol dirsi, butteremmo il bambino con l’acqua sporca;

– oppure si provvede a un monitoraggio indiscriminato per il tramite di filtri on- nipervasivi che rimettono però in discussione la desiderabilità dell’intero progetto: infatti, non si avrebbe a che fare tanto con una deriva paternalistica, quanto autori- taria, dell’intervento che sposta il rischio dell’“arbitrio illimitato” dai singoli al gu- bernaculum.

Senza addentrarci sin d’ora sui profili di legalità di quest’ultimo scenario, vale la pena di illustrare per intanto i termini del problema con l’immagine di un’autostra- da: al pari d’internet, anche alle autostrade si applica il principio che l’intelligenza è posta agli estremi della rete, nel senso che rappresentano un mezzo affinché gli in- dividui possano raggiungere i fini più vari. Del pari, come occorre per internet, an- che le autostrade possono essere utilizzate per fini illeciti, come il trasporto di dro- ghe o armi; tuttavia, anche in quest’ultimo caso, quantomeno nei paesi occidentali, tale eventualità non giustifica un sistematico controllo generalizzato della rete (sia autostradale sia d’internet). A riprova, basti pensare che questo controllo sistemati- co riporterebbe ai viaggi in macchina verso Berlino ovest prima della caduta del Muro (1989), e al modo in cui le autostrade erano gestite a quei tempi dall’allora Germania dell’est (DDR); vale a dire, con i paranoici controlli di polizia a tutto spiano e il filo spinato a isolare le corsie stradali. È questo che vogliamo?

5.4.2. Fattibilità

A prescindere dall’ambito di ciò che reputiamo desiderabile, o meno, c’è lo spa- zio di ciò che si può concretamente fare stante i rapporti di forza e le variabili da considerare in un contesto determinato. Tornando agli osservabili della tavola 6 nel capitolo quarto (§ 4.3.3.2), l’intento di prevenire gli eventi dannosi del comporta- mento individuale tramite un controllo totale a mezzo del design, si scontra con le altre modalità regolative di tale comportamento. Rimandando al prossimo paragrafo il ruolo che la iurisdictio svolge in questo contesto, concentriamoci per intanto sulle norme sociali del kosmos e le forze del mercato, sulla base di due punti principali.

Innanzitutto, l’impiego del design per prevenire il verificarsi di eventi dannosi o i comportamenti indesiderati degli individui, vanta una tradizione più che ventennale nel settore privato. Avendo presente che le modalità tecniche di come funzioni il design, in fondo, rimangono le stesse, indipendentemente cioè dal fatto di che le ponga in essere, questa esperienza privata del design ai fini del controllo totale risul-

ta dunque istruttiva anche per il settore pubblico. A conferma di quanto detto sulla vulnerabilità di questi progetti (si v. §§ 5.3.3.2 e 5.2.3, a proposito della falla nella “grande muraglia di fuoco” cinese nel gennaio 2014), la fattibilità di simili pro- grammi è stata infatti messa a dura prova anche per quanto riguarda il suo terreno d’origine, il settore privato. Sul piano pratico, si può essere quasi certi che per ogni dispositivo volto al controllo del comportamento umano, di lì a poco sarà messo a disposizione il contro-dispositivo.

Emblematico il caso della tecnologia CSS con cui, nel 1996, l’industria del DVD aveva pensato di tutelare i propri diritti, impedendo la copia digitale di tali prodotti. Con buona pace dell’articolo 11 del trattato WIPO sul copyright ricordato poco fa, tre anni dopo, nel 1999, l’antidoto al CSS, il contro-codice DeCSS era già bello che pronto. Sebbene, in teoria, l’industria del DVD avrebbe potuto reagire, creando a sua volta un De-DeCSS, pragmaticamente vi ha rinunciato, dato che avrebbe finito per danneggiare se stessa, mettendo fuori uso i lettori e supporti DVD in commer- cio e, per ciò, riducendo le vendite dei dischi sul mercato. Analogo discorso è valso per il sistema DRM dell’Apple Fairplay (2003) e dei contro-dispositivi anti-Fairplay che si sono succeduti a ogni nuova generazione della tecnologia iTunes; al punto tale che, il 6 febbraio 2007, nel famoso discorso sui Pensieri sulla musica, uno che di design s’intendeva, Steve Jobs (1955-2011), dichiarava la fine di Fairplay e delle re- strizioni per le copie digitali di iTunes: “i DRM non hanno funzionato e potrebbero non funzionare mai per fermare la pirateria musicale” (Jobs 2007). Insomma, anche nei settori in cui l’applicazione automatica delle regole sembra più facile o alla por- tata dei programmatori, come nel caso del copyright, si può ripetere quanto detto nel capitolo primo (§ 1.4.1), per cui neanche a mettere un sistema informatico “den- tro a un blocco di cemento e sigillato a piombo in una stanza attorniata da guardie giurate”, potrebbe renderlo del tutto sicuro (Garfinkel e Spafford 1997: 9).

La difficoltà, per non dire l’impossibilità tecnica di garantire l’efficienza del design a controllo totale, introduce in questo modo il secondo punto al quale occorre presta- re attenzione. Come detto (§ 4.3.1.1), le norme del diritto non operano in una sorta di vuoto pneumatico, ma concernono le pratiche sociali di una comunità che, spesso, va in controtendenza (o si oppone chiaramente) alle modalità di controllo totale del de- sign: è il caso delle proteste portate avanti dagli utenti di Facebook (§ 5.1.3), o delle sanzioni positive di eBay e nei sistemi P2P (§ 5.2.1), cui possiamo qui aggiungere il caso dei cookie (§ 4.3.3.1). Inizialmente sviluppati dagli informatici per risolvere una serie di problemi tecnici, i cookie vennero impiegati dai fornitori di servizi per il commercio elettronico per agevolare idealmente i propri servizi. Tuttavia, davanti alle proteste dei consumatori e dei gruppi a tutela della privacy, gli informatici sono corsi ai ripari, modificando la tecnologia per venire incontro a quelle proteste e “questo è successo senza alcuna minaccia legale e contro l’ovvia razionalità econo- mica” (Mayer-Schönberger 2008: 743).

La lezione da trarre sulla fattibilità del disegno di una legge ad applicazione au- tomatica è dunque chiara: o l’intento del gubernaculum di avvalersi di tecnologie auto-attuantesi trova corrispondenza nelle norme sociali del kosmos e nel mercato, oppure il disegno è destinato a vita breve. Ciò dipende, in certi casi, dalle contro- misure tecnologiche che troveranno terreno fertile tra i membri della comunità, al- tre volte per via della concorrenza e orientamenti diversi tra gli attori del mercato –

come nel caso di scuola nordamericano tra la west coast economy votata al digitale e l’east coast economy ispirata ai modelli del business tradizionale – su cui andranno poi a inserirsi o far leva le dinamiche del kosmos. Di qui, che “al posto di un flusso unidirezionale di comunicazioni coercitive, troviamo invece un complesso intreccio d’interazioni tra i singoli utenti del cyberspazio, produttori di codici, legislatori e mercati. Comunicazione e retroazione comportano nell’insieme uno sviluppo evolu- tivo della tecnologia, piuttosto che determinarne l’aspetto come il risultato che pro- viene da una più alta autorità (come i mercati o la legge)” (Reed 2012: 209).

Beninteso, ciò non significa che il legislatore debba smettere di fare le leggi o che debba semplicemente seguire ciò che dettano il mercato o le norme sociali della co- munità. I limiti alla fattibilità del design che aspira al controllo sociale, piuttosto, ri- conducono ai criteri normativi introdotti nel capitolo terzo e, in particolare, sia al do- vere di conoscenza (§ 3.4.3.2), sia alla scelta degli strumenti da impiegare (§ 3.4.3.3).

A volte, si dovrà ricorrere alle sanzioni positive del design oppure, come nel caso della lotta alla pedo-pornografia con cui siamo partiti nel paragrafo precedente, a forme di collaborazione con i fornitori di servizi in rete ed enti come l’Internet

Watch Foundation, per stilare la lista dei siti da bloccare.

Altre volte, però, sarà opportuno valersi ancora del consueto apparato repressivo della legge, supportato da sanzioni fisiche, purché, come detto (§§ 5.3.1 e 5.3.3.2 (b)), precisando la comunità dei destinatari dell’intervento nel caso della interazione in rete e chiarendo le intenzioni ed effetti del loro comportamento, ritenuti giuridi- camente rilevanti al fine di definire lo scopo della legge.

In ogni caso, rimane determinante il ruolo che i principi del sistema svolgono nel delimitare le scelte del legislatore; ciò che riconduce al piano della iurisdictio evi- denziato fin dal capitolo terzo (§ 3.2). Dopo la desiderabilità e fattibilità del design volto ai fini del controllo totale, nel rapporto tra gubernaculum, mercato e kosmos, occorre indagarne a continuazione il piano della legalità.

5.4.3. Legalità

Nonostante la nutrita schiera di ragioni che ostano all’uso del design a controllo totale, abbiamo detto dei numerosi tentativi di avvalersene per approdare all’appli- cazione automatica della legge. La tentazione, del resto, è grande se, d’un colpo so- lo, fossimo in grado di risolvere non solo gravosi problemi di competenza e giurisdi- zione, ma anche di garantire il rispetto della legge in ossequio al principio di certez- za del diritto!

Ma, stanno proprio così le cose?

Istruttive sono, al riguardo, due sentenze della Corte di giustizia europea nei casi

Scarlet Extended (C-70/10) e Netlog (C-360/10). In entrambi i casi l’attore è stato la

SABAM – corrispondente alla SIAE italiana – che rappresenta gli autori, compositori ed editori di opere musicali in Belgio. La SABAM è l’ente che autorizza l’uso da parte di terzi, delle opere musicali protette dal copyright di quegli autori, compositori ed editori, per cui, nel giugno 2009, veniva presentato un ricorso davanti alla Corte di prima istanza a Bruxelles: prima un fornitore di servizi in rete, e cioè Scarlet, poi una piattaforma sociale, e cioè Netlog, avrebbero infatti reso dette opere disponibili al pubblico senza l’autorizzazione dell’attore, e senza pagargli alcun corrispettivo.

Più in particolare, la SABAM richiedeva ai giudici di ingiungere ai convenuti di prendere le misure appropriate per porre fine a tutte le violazioni della proprietà intellettuale fatta valere dall’attore, e allo scopo di prevenire qualsiasi ulteriore vio- lazione in futuro. Nel caso di Netlog, la Corte di Bruxelles avrebbe quindi dovuto ingiungere alla piattaforma sociale di installare un sistema che, con le parole della Corte di Lussemburgo, avrebbe dovuto filtrare:

a) “L’informazione che è conservata sui suoi server da parte degli utenti del ser- vizio;

b) che si applica indiscriminatamente a tutti quegli utenti; c) come misura preventiva;

d) esclusivamente a spese di Netlog; e e) per un periodo illimitato;

che è in grado d’identificare i file elettronici contenenti opere musicali, cinema- tografiche o audio-visive, rispetto alle quali chi chiede l’ingiunzione [SABAM] ri- vendica diritti di proprietà intellettuale” (C-360/10, § 53).

Il 16 febbraio 2012, la Corte di giustizia ha tuttavia stabilito che questo sistema di filtraggio è incompatibile con le direttive sul commercio elettronico (2000/31/CE), sul copyright (2001/29/CE), sulla proprietà intellettuale (2004/48/CE), sulla protezione dei dati (1995/46/CE), e la libertà di ricevere o dare informazione, ai sensi degli ar- ticoli 8 e 11 della Carta UE dei diritti fondamentali. “Per di più, tale ingiunzione [d’installare i sistemi di filtraggio] è potenzialmente in grado di danneggiare la liber- tà d’informazione, in quanto tale sistema potrebbe non distinguere adeguatamente tra contenuto lecito e contenuto illecito, con il risultato che la sua introduzione po- trebbe condurre al blocco di comunicazioni lecite” (§ 50 della decisione).

Inoltre, richiamando i propri precedenti – in particolare: C-275/06, ossia il caso

Promusicae – la Corte ha dichiarato che nessuno dei diritti di proprietà intellettuale

può ritenersi “inviolabile” o “assoluto” ma, piuttosto, che questi diritti vanno bilan- ciati con la tutela degli altri diritti fondamentali previsti dall’ordinamento. Tuttavia, è da notare che nessun bilanciamento si è reso necessario nel caso Netlog: infatti, ancora una volta con le parole della Corte, il diritto europeo “deve essere interpre- tato in modo da precludere che una corte nazionale possa ingiungere a un fornitore di servizi hosting d’installare un sistema di filtraggio”, come quello descritto sopra. L’idea stessa di provvedere per il suo tramite a una applicazione automatica della legge è, in altri termini, illegittima.

Nondimeno, a prevenire conclusioni affrettate, c’è da aggiungere quanto occorso nel Regno Unito poco dopo la sentenza ora citata, a proposito del sistema di filtrag- gio previsto dal Digital Economy Act (DEA), già richiamato sopra (§ 5.2.3). In so- stanza, la legge britannica prevede un “codice di obbligazioni” che dovrebbe im- porre ai fornitori di servizi in rete (ISP) sia il compito di notificare agli utenti so- spetti di violazione di copyright i rapporti stilati dai detentori di tali diritti, sia di fornire a questi ultimi le liste di violazioni di copyright, oltre a una serie di “obbli- gazioni tecniche” incluse in un “codice”. Alcuni ISP, come British Telecom, hanno tuttavia eccepito la violazione del diritto europeo in tema di tutela dei dati persona- li, comunicazioni elettroniche e libertà d’impresa, richiamandosi in forma espressa ai precedenti della Corte di giustizia nei ricordati casi Promusicae e Scarlet. Finita la

controversia davanti ai tribunali, tanto in primo, quanto in secondo grado, i giudici britannici si sono pronunciati per la legittimità delle disposizioni approvate dal Par- lamento di Westminster. Con le parole della Corte d’appello di Londra, il 6 marzo 2012, “una certa quantità di energia è stata spesa davanti a noi sul recente giudizio della Corte di Giustizia in Scarlet […] concernente la compatibilità con la direttiva sulla privacy e le comunicazioni elettroniche e con altre direttive circa l’ingiunzione di una corte di imporre a un ISP d’installare un sistema per filtrare le comunicazioni elettroniche, al fine di identificare e bloccare il trasferimento di file che violino il copyright. Sia l’Avvocato generale sia la Corte hanno citato Promusicae, in termini tali che, a mio avviso, non chiariscono granché il senso di tale decisione; ma io non vedo nulla nel caso che supporti lo scopo limitato che gli attori cercano di dare alla decisione in Promusicae” (CI/2011/1437, n. 82).

Sulla base di questa pronuncia può comprendersi perché, come detto, tra il 2013 e il 2014, il governo britannico sia tornato alla carica, implementando un sistema di filtri per prevenire la visita dei siti pornografici in rete (§ 5.2.3). Significativamente, il sistema ha cominciato a bloccare siti altamente pericolosi come quello di Amnesty International, l’Electronic Frontier Foundation (eff.org), il sito del gruppo degli utenti Unix, e molto altro ancora!

Dal punto di vista giuridico, qualora i giudici britannici dovessero mai convincersi dell’opportunità di ricorrere in via pregiudiziale alla Corte di giustizia (§ 4.3.2.1 (d)), per capire il senso da dare alle sue decisioni in Promusicae, Scarlet, e Netlog, è più che probabile che questi sistemi di filtraggio saranno ritenuti anch’essi incompatibili con i principi del diritto europeo, “non distinguendo adeguatamente tra contenuto lecito e illecito” delle comunicazioni (§ 50 della decisione in Netlog).

Ma, che dire nel caso in cui la posta in gioco non sia già la lotta alla pornografia in rete, ma la stessa sicurezza nazionale?

In questo caso, infatti, non possiamo fare riferimento alla giurisprudenza della Corte di Lussemburgo, perché priva di competenza generale; ma, piuttosto, alle Corti nazionali e in ultima istanza, per rimanere in Europa, alla Corte di Strasburgo per la tutela dei diritti umani o CEDU. Sebbene non si siano ancora discussi casi del genere davanti a quest’ultima corte, c’è tuttavia da pensare, in ragione dei suoi pre- cedenti, che neanche in questo caso sarebbe legittimo l’uso di un sistema onniperva- sivo e indiscriminato di filtri. Si pensi a com’è stato interpretato il combinato dispo- sto dei due commi dell’articolo 8 della Convenzione europea dei diritti dell’uomo, per cui “non può esservi ingerenza di una autorità pubblica nell’esercizio di tale di- ritto [al rispetto della vita privata e familiare, del proprio domicilio e della corri- spondenza] a meno che tale ingerenza sia prevista dalla legge e costituisca una misu- ra che, in una società democratica, è necessaria alla sicurezza nazionale, alla pubbli- ca sicurezza […] alla difesa dell’ordine e alla prevenzione dei reati”. Così, la nozio- ne di “necessità” è stata interpretata nel senso di un “impellente bisogno sociale” (si v. il caso Gillow vs. Regno Unito, deciso il 24 novembre 1986, § 55), per cui “le au- torità nazionali godono di un margine di apprezzamento, il cui scopo dipenderà non solo dalla natura del legittimo scopo perseguito ma anche dalla particolare natura

Nel documento Il diritto nell'età dell'informazione (pagine 176-185)