• Non ci sono risultati.

SEZIONE II I SOCIAL NETWORK

IL RUOLO DEL SOCIAL NETWORK PROVIDER NELLA GESTIONE DEI CONTENUTI USER-GENERATED

5. Obblighi di sicurezza e prevenzione.

5.1. I sistemi di filtraggio.

429 Supra, nota n. 422.

430 A favore della configurabilità di obblighi di protezione verso i terzi, cfr. C.CASTRONOVO, Obblighi di protezione e tutela del terzo, cit., p. 123 ss; in senso critico, F.BENATTI, voce Doveri di protezione, in Digesto civile, Torino, 1991, p. 227.

Individuato il fondamento dell’obbligo di sicurezza e prevenzione che grava sul provider, si tratta a questo punto di verificare la possibilità di attuare i sistemi di filtraggio dei contenuti, al fine della rilevazione di quelli potenzialmente ille- citi.

Nello specifico, l’azione di filtraggio si realizzerebbe attraverso un sistema di algoritmi che, vagliando i contenuti immessi dall’utente nella piattaforma, sia in grado di evidenziare i profili di illiceità.

L’analisi dei dati e delle informazioni, realizzata attraverso la comparazione con parametri di riferimento preimpostati, determina la conformazione e la vali- dazione degli stessi in misura automatizzata.

Si tratta di un sistema certo non sconosciuto alla struttura dei social network. Come già osservato, infatti, il modello operativo, fondato su finalità prettamente commerciali e pubblicitarie, prevede che i contenuti appaiano nella piattaforma di social networking secondo un ordine e una selezione compiuta dall’algoritmo. Quest’ultimo, attraverso l’elaborazione delle informazioni ricavate sia dai dati immessi al momento della registrazione, sia tracciando le azioni eseguite sulla piattaforma, fa emergere soltanto ciò che rientra nelle preferenze dell’utente, così come computato.

Quindi, si prospettano i medesimi sistemi, seppur con diverse finalità (pre- venzione degli illeciti nel primo caso, esigenza di “fidelizzare” e trattenere il più a lungo possibile l’utente nella piattaforma, nel secondo), accompagnati, tuttavia, dalle medesime obiezioni431: riassunte, nell’assenza di trasparenza sui parametri di funzionamento dell’algoritmo432 e nel rischio di attribuire le scelte valoriali a società private (quali i social network), finendo per concretizzare, così, una forma di “tecnocrazia”433.

431 In argomento, F. PIZZETTI, Intelligenza artificiale, protezione dei dati personali e regola- zione, Torino, 2018, p. 179; S. SCALZINI, Alcune questioni a proposito di algoritmi, dati, etica e ricerca, in Rivista italiana di medicina legale (e del diritto in campo sanitario), 1° febbraio 2019, p. 169 ss.

432 Supra, nota n. 110.

Tali criticità434, tuttavia, possono essere superate, ad avviso di chi scrive, at- traverso la predisposizione di protocolli legislativi che dettino le linee guida e i principi operativi.

Questa sembra essere la strada seguita dalla recente decisione della Corte di giustizia UE, n. 18 del 3 ottobre 2019435.

Nello specifico, la causa di merito aveva come oggetto la diffamazione della parlamentare austriaca Eva Glawischnig-Piesczek, rappresentante del partito dei Verdi, realizzata da un utente che condividendo attraverso la propria pagina per- sonale un articolo di una rivista che vedeva la medesima come protagonista, lo accompagnava da frasi oltraggiose.

Non ottenendo riposta a seguito della richiesta di cancellazione e rimozione del post diretta a Facebook Ireland, l’attrice agisce giudizialmente e ottiene un provvedimento cautelare, confermato in secondo grado.

Successivamente, la questione viene rimessa alla Corte di giustizia UE per dipanare i dubbi relativi alla compatibilità tra le prescrizioni della Direttiva e l’ingiunzione predetta.

434 Sui rischi connessi all’impiego di processi decisionali automatizzati è importante segna- lare l’intervento del Regolamento UE 2016/679 che, imponendo specifiche garanzie conoscitive a rafforzamento del principio di trasparenza, così, rispettivamente, dispone agli artt.13 e 14: «2. In aggiunta alle informazioni di cui al paragrafo 1, nel momento in cui i dati personali sono otte- nuti, il titolare del trattamento fornisce all'interessato le seguenti ulteriori informazioni necessarie per garantire un trattamento corretto e trasparente: […] f) l'esistenza di un processo decisionale automatizzato, compresa la profilazione di cui all'articolo 22, paragrafi 1 e 4, e, almeno in tali casi, informazioni significative sulla logica utilizzata, nonché l'importanza e le conseguenze pre- viste di tale trattamento per l'interessato»; «2.Oltre alle informazioni di cui al paragrafo 1, il tito- lare del trattamento fornisce all'interessato le seguenti informazioni necessarie per garantire un trattamento corretto e trasparente nei confronti dell'interessato:g) l'esistenza di un processo deci- sionale automatizzato, compresa la profilazione di cui all'articolo 22, paragrafi 1 e 4, e, almeno in tali casi, informazioni significative sulla logica utilizzata, nonché l'importanza e le conse- guenze previste di tale trattamento per l'interessato». Per un approfondimento, v. A. MORETTI, Algoritmi e diritti fondamentali della persona. Il contributo del Regolamento (UE) 2016/679, in Il diritto dell’informazione dell’informatica, 2018, p.799 ss.

435 Sentenza Corte di giustizia UE, causa C-18/18, Eva Glawischnig-Piesczek/Facebook Ire- land. In argomento, D. BIANCHI, Facebook: filtraggio globale e specifico dei contenuti equivalenti per il diffamato, in Diritto e Giustizia, 2019, p.3 ss.

In particolare, la questione riguarda il potenziale contrasto tra il divieto di un obbligo generale di sorveglianza ex art. 15, paragrafo 1, della Direttiva e la pos- sibilità per il giudice di uno Stato membro di ordinare al provider di un servizio di hosting (quale è qualificata tradizionalmente la prestazione del social network) la rimozione dei contenuti identici o equivalenti a quelli per i quali sia già stata dichiarata l’illiceità; di fatto, così, imponendo all’intermediario un obbligo di sor- veglianza specifica che, seppur preventivo, è comunque legato ad un precedente accertamento giudiziale.

Si tratta infatti di un controllo che è sì preventivo, perché si realizza al mo- mento della immissione dei dati e delle informazioni, momento antecedente alla diffusione che rende effettiva la lesione, ma, tuttavia, non è generalizzato perchè ancorato a precise indicazioni contenute nel provvedimento cautelare.

Al di là delle questioni pregiudiziali territoriali, la Corte supera il contrasto con l’art. 15, paragrafo 1, in ragione della prevalenza attribuita alle esigenze di tutela effettiva per gli utenti, riscontrabile nell’art. 18, paragrafo 1 della stessa Direttiva, per il quale: «gli Stati membri provvedono affinché i ricorsi giurisdi- zionali previsti dal diritto nazionale per quanto concerne le attività dei servizi della società dell'informazione consentano di prendere rapidamente provvedi- menti, anche provvisori, atti a porre fine alle violazioni e a impedire ulteriori danni agli interessi in causa».

La predisposizione di un sistema di filtraggio preventivo, avente ad oggetto i contenuti identici o equivalenti a quelli illeciti, appare, pertanto, condivisibile nella misura in cui si impone a Facebook la rimozione di dati i cui elementi sono predeterminati dal legislatore o da una sentenza (o meglio, dal giudice che emette l’ingiunzione ex art. 18 e che, in questa direzione, deve indicare i parametri di riferimento), quindi non delegando al social network la valutazione del carattere di illiceità.

È pacifico, pertanto, che tali indicazioni debbano essere dotate del massimo livello di precisione al fine di non attribuire al provider non soltanto un ruolo che non gli compete, ma anche un obbligo eccessivamente stringente.

Ciò consentirà nel giudizio di bilanciamento tra tutela dei diritti fondamentali degli utenti e garanzia della libertà di iniziativa economica delle piattaforme di- gitali, di includere anche la libertà di manifestazione del pensiero in ambito digi- tale436, evitando il rischio di censure “sistematiche”, non modulate su casi speci- fici.

Tuttavia, non si può non osservare lo spostamento delle criticità sul piano della tempistica, laddove a fronte della rapidità degli illeciti digitali e dei relativi danni, non corrisponde la medesima celerità in ambito processuale e procedurale.

6. Le prospettive de jure condendo: il regime di responsabilità per la

Outline

Documenti correlati