• Non ci sono risultati.

IL CASO EVA GLAWISCHNIG-PIESCZEK CONTRO FACEBOOK IRELAND LIMITED

2.5. I L BILANCIAMENTO DEI DIRITTI E LE SUE APPLICAZIONI IN CASI RECENTI

2.5.6. IL CASO EVA GLAWISCHNIG-PIESCZEK CONTRO FACEBOOK IRELAND LIMITED

Con l’avvento dei social network, dove chiunque può esprimere la propria opinione e/ o divulgare qualsiasi informazione, i reati di natura diffamatoria on line hanno subito un notevole incremento e tante volte sono insuscettibile di essere emarginati.

E poiché mancava una normativa finalizzata a stabilire, a chi spettasse il compito di controllare e vigilare su dette condotte, il legislatore comunitario ha assegnato agli Internet Service Provider (“ISP”), l’onere di agire qualora agli stessi fossero segnalati comportamenti illeciti. A livello europeo, la responsabilità degli Internet Service Providers (ISP) è disciplinata nella Direttiva 2000/31 sul commercio elettronico (Direttiva E-commerce).

Proprio sui reati di diffamazione on line, lo scorso 3 ottobre 2019, la Corte di Giustizia EU si è pronunciata su una vicenda 131che vedeva come protagonista Eva Glawischnig-Piesczek, una deputata del gruppo parlamentare austriaco dei Verdi. La stessa contestava la condivisione da parte di un utente di Facebook di un articolo dal titolo “I Verdi: a

191

favore del mantenimento di un reddito minimo per i rifugiati”, a cui era congiunto con un commento che i giudici austriaci hanno ritenuto tutt’altro che “lusinghiero”.

In questo caso di diffamazione che ha visto coinvolto Facebook, la GGUE si è pronunciata sul regime di responsabilità dell’hosting provider, statuendo che il diritto dell’Unione Europea non osta a che Facebook sia costretta a monitorare e rimuovere, a livello mondiale, i contenuti dichiarati illegali in uno Stato membro dell’UE o contenuti ad essi identici o “equivalenti”.

Detta decisione scaturisce da un richiesta di pronuncia pregiudiziale proposta dalla Corte suprema austriaca, nell’ambito della controversia tra Eva Glawischnig-Piesczek nei confronti di Facebook Ireland Limited, relativamente all’interpretazione dell’articolo 15, paragrafo 1, della Direttiva 2000/31/CE sul commercio elettronico che vieta agli Stati membri di imporre un obbligo generale agli hosting provider di sorvegliare le informazioni che trasmettono, o memorizzano, né un obbligo di ricercare attivamente, fatti e circostanze relativi a contenuti ritenuti illegali.

L’oggetto del contendere riguardava un articolo pubblicato da una rivista di informazione austriaca, condiviso da un utente di Facebook, a cui sono state aggiunte frasi ingiuriose nei confronti di Eva Glawischnig-Piesczek.

192

La ricorrente faceva in primo luogo reclamo diretto a Facebook chiedendo la rimozione di tale tipo di contenuti e, a seguito della mancata risposta da parte del social network, ricorreva all’autorità giudiziaria. Le corti austriache (in primo grado Handelsgericht Wien Tribunale di Commercio di Vienna e in appello Tribunale Superiore del Land di Vienna) emanavano un’ordinanza cautelare contro Facebook per la rimozione delle informazioni identiche ed equivalenti a quella diffamatoria.132

La questione arrivava, quindi, alla Corte suprema l’Oberster Gerichtshof che, interpellata a decidere sulla questione se il provvedimento inibitorio potesse essere esteso, a livello mondiale, alle dichiarazioni testualmente identiche e/o dal contenuto equivalente di cui Facebook non fosse a conoscenza, rimetteva la causa al giudice europeo per risolvere alcuni dubbi relativi alla compatibilità di tale ingiunzione con la direttiva 2000/31 CE sul commercio elettronico, sollevando tre questioni pregiudiziali:

«1) Se l’articolo 15, paragrafo 1, della direttiva [2000/31] osti in generale a uno degli obblighi sotto descritti imposti a un host provider, che non abbia rimosso tempestivamente informazioni illecite, in particolare all’obbligo di rimuovere, non soltanto le suddette informazioni illecite ai sensi dell’articolo 14, paragrafo 1, lettera a),

132 Corte di giustizia UE, 3 ottobre 2019, C-18/18, Eva Glawischnig Piesczek c. Facebook Ireland Limited, par.14.

193

della [suddetta]direttiva, ma anche altre informazioni identiche: – a livello mondiale; – nello Stato membro interessato; – dell’utente interessato a livello mondiale; – dell’utente interessato nello Stato membro interessato.

2) In caso di risposta negativa alla prima questione: se ciò valga rispettivamente anche per informazioni dal contenuto equivalente. 3) Se ciò valga anche per informazioni dal contenuto equivalente, non appena il gestore sia venuto a conoscenza di tale circostanza.

La Corte UE, avendo analizzato i principi cardine della Direttiva e- commerce, ossia come già detto, l’impossibilità di imporre ad un servizio di hosting un obbligo generale di sorveglianza e/o quello di una ricerca attiva di informazioni, ha affrontato le tre questioni in parte in modo univoco ed in parte divergente con le conclusioni dall’Avvocato Generale Maciej Szpunar.

“Su Internet si scrive con l’inchiostro, non a matita”.

Ha così esordito, con detta battuta tratta dal film The Social Network, l’avvocato generale della Corte di giustizia Maciej Szpunar nelle conclusioni presentate lo scorso 4 giugno ai giudici della Corte di Lussemburgo chiedendo loro di porre dei limiti al potere/dovere di Facebook di cancellare dal web contenuti la cui illiceità non sia stata dichiarata da un giudice.

194

Per quanto riguarda la prima questione (la conformità al disposto dell’art. 15 della direttiva 2000/31 della richiesta di rimozione dei contenuti identici a quello dichiarato illecito), la sentenza e le conclusioni dell’Avvocato Generale hanno adottato la medesima soluzione.

A tal riguardo l’Avvocato generale ha precisato che la direttiva sul commercio elettronico non ostava a che un hosting provider che gestiva una piattaforma di social network, quale Facebook, fosse costretto, mediante una ingiunzione, a ricercare e ad individuare, tra tutte le informazioni diffuse dagli utenti di tale piattaforma, le informazioni identiche a quella qualificata come illecita dal giudice che ha emesso tale ingiunzione.

A parere dell’Avvocato generale, tale ordine di rimozione assicurava un giusto equilibrio tra i diritti fondamentali coinvolti, e cioè da una parte la protezione della vita privata e dei diritti della personalità e dall’altra quella della libertà d’espressione e d’informazione.

Ciò in quanto, essa non necessitando di strumenti tecnici artificiosi, non richiedeva un “filtraggio attivo e non automatico che avrebbero potuto rappresentare un onere straordinario, dall’altro, tenuto conto della facilità di riproduzione delle informazioni nell’ambiente Internet,

195

risultava necessaria per garantire la protezione efficace della vita privata e dei diritti della personalità” 133.

Da questo punto di vista,la CGUE, ha affermato, in primo luogo che, ai sensi dell’articolo 14, paragrafo 1 della Direttiva: “un prestatore di servizi di hosting, quale Facebook, non era responsabile delle informazioni memorizzate qualora non fosse a conoscenza della loro illiceità o qualora avesse agito nell’ immediatezza per rimuoverle o per disabilitare l’accesso alle medesime non appena venutone a conoscenza. Tale esonero da responsabilità non pregiudicava, tuttavia, la possibilità di ingiungere al prestatore di servizi di hosting di porre fine ad una violazione o di impedire una violazione, in particolare, cancellando le informazioni illecite o disabilitando l’accesso alle medesime. Per contro, la direttiva vietava di imporre a un prestatore di servizi di hosting di sorvegliare, in via generale, le informazioni da esso memorizzate o di ricercare attivamente fatti o circostanze che indicassero la presenza di attività illecite”.

Ma da questo punto di vista, Facebook non avrebbe potuto beneficiare di tale privilegio, perché come si evinceva dalla disamina dei fatti, era stato prontamente informato dalla stessa ricorrente della violazione commessa e non aveva risposto.

196

Quindi, la Corte concordando con le conclusioni dell’Avvocato generale, ha evidenziato che per evitare l’espansione di un comportamento illegale: «non si può ritenere che l’ingiunzione all’uopo emessa ponga a carico del prestatore di servizi di hosting un obbligo di sorveglianza, in via generale, sulle informazioni da esso memorizzate, né un obbligo generale di ricercare attivamente fatti o circostanze che indichino la presenza di attività illecite, ai sensi dell’articolo 15, paragrafo 1, della direttiva 2000/31”.134

Si consentiva in tal modo la rimozione da un social di tutte le informazioni identiche a quella illecita indipendentemente dalla paternità di chi li avesse diffuse.

L’Avvocato generale ha, quindi, affrontato, l’inibitoria sui contenuti equivalenti.

Premettendo che il riferimento alle “informazioni equivalenti” o a quelle “dal contenuto equivalente” dà luogo a difficoltà di interpretazione nei limiti in cui il giudice del rinvio non specifica il significato di tali espressioni”, ha precisato che dalla domanda di pronuncia pregiudiziale il concetto di informazione equivalente riguarda le informazioni che divergono a malapena dall’informazione iniziale o le situazioni in cui il messaggio resta, in sostanza, immutato. Intendo tali indicazioni nel senso che una riproduzione

134 Corte di giustizia UE, 3 ottobre 2019, C-18/18, Eva Glawischnig Piesczek c. Facebook Ireland Limited, par.37.

197

dell’informazione qualificata come illecita, la quale contenga un errore di battitura, nonché quella che presenti una sintassi o una punteggiatura diverse, costituisce un’informazione equivalente”. (Par.67)

L’Avvocato Generale conclude che l’ingiunzione così come era stata fatta dalle corti austriache, risultava conforme al diritto europeo “qualora un obbligo di rimozione non implichi una sorveglianza generale delle informazioni memorizzate e discenda da una conoscenza risultante dalla notifica effettuata dalla persona interessata, dai terzi o da un’altra fonte”.

Pertanto, ha concluso rilevando che al provider può essere ordinato di individuare informazioni equivalenti a quella qualificata come illecita se provenienti dallo stesso utente, ma di converso, ha negato la predetta possibilità a carico di utenti diversi. Ha effettuato tale differenziazione in quanto, a suo dire, nel caso di utenti diversi si rendeva necessaria la sorveglianza della totalità delle informazioni diffuse attraverso una piattaforma di rete sociale,per cui, un hosting provider sarebbe costretto a ricorrere a soluzioni sofisticate, e di conseguenza, il suo ruolo non sarebbe soltanto tecnico, automatico e passivo, ma dovendo esercitare una forma di censura, egli diverrebbe un contributore attivo di tale piattaforma non trovando in tal modo contemperamento con la sua stessa natura.(Par. 73).

Per quanto riguarda il contenuto equivalente, concordemente con quanto sostenuto dall’Avvocato Generale, la Corte ha sottolineato che si tratta di “informazioni che trasmettono un messaggio il cui contenuto rimane

198

sostanzialmente invariato”. In altre parole, è il contenuto del messaggio trasmesso che viene dichiarato illegale; quindi comprendere anche tali informazioni nell’obbligo di rimozione, trova un fondamento allorquando il messaggio trasmesso rimane invariato, sempre a condizione che la ricerca del contenuto equivalente non “richieda al fornitore di servizi di hosting di effettuare una valutazione indipendente di tali contenuti “.In questo senso, la prospettiva della Corte è volta alla garanzia del ricorrente che non deve essere costretto a dover moltiplicare le procedure al fine di ottenere la cessazione dei comportamenti illeciti di cui è vittima per contenuti aventi «sostanzialmente lo stesso messaggio”. (Par. 41).

La Corte, comunque, ricordando l’impossibilità di obbligare un servizio di hosting a una sorveglianza generalizzata o ad una ricerca attiva di informazioni, ha ritenuto che “…l’obiettivo perseguito da un’ingiunzione, consistente in particolare nel tutelare efficacemente la reputazione e l’onore di una persona, non può essere perseguito mediante un obbligo eccessivo imposto al prestatore di servizi di hosting”.135

Tuttavia, diversamente da come esplicitato con le informazioni identiche, nel legittimare la rimozione di informazioni equivalenti, la Corte non chiarisce se siano rimovibili le informazioni equivalenti di

135 Corte di giustizia UE, 3 ottobre 2019, C-18/18, Eva Glawischnig Piesczek c. Facebook Ireland Limited; par.44.

199

tutti gli utenti o solo del convenuto. A tal proposito, come visto superiormente, l’Avvocato Generale riteneva che un’estensione dell’obbligo di rimozione di contenuti equivalenti postati da altri utenti “richiederebbe la sorveglianza della totalità delle informazioni diffuse attraverso una piattaforma di rete sociale”136, per cui li limitava a quelli provenienti dallo stesso utente.

Invece, la Corte estende l’obbligo di rimozione dei contenuti equivalenti ai soggetti terzi, dando precise istruzioni ai fini della loro individuazione. Specificatamente statuisce che: “Tenuto conto di quanto precede, occorre che le informazioni equivalenti cui fa riferimento il punto 41 della presente sentenza contengano elementi specifici debitamente individuati dall’autore dell’ingiunzione, quali il nome della persona interessata dalla violazione precedentemente accertata, le circostanze in cui è stata accertata tale violazione nonché un contenuto equivalente a quello dichiarato illecito. Differenze nella formulazione di tale contenuto equivalente rispetto al contenuto dichiarato illecito non devono, ad ogni modo, essere tali da costringere il prestatore di servizi di hosting interessato ad effettuare una valutazione autonoma di tale contenuto”137.Ma poiché non sempre è di immediata percezione intuire gli elementi specifici al fine di accertare l’equivalenza delle

136 Corte di giustizia UE, 3 ottobre 2019, C-18/18, Eva Glawischnig Piesczek c. Facebook Ireland Limited; par.73.

137 Corte di giustizia UE, 3 ottobre 2019, C-18/18, Eva Glawischnig Piesczek c. Facebook Ireland Limited, par.45.

200

informazioni, la Corte ha cercato di ridurre questo margine di opinabilità e tutelare, quindi, la libertà imprenditoriale del provider.

Matteo Monti, giurista appassionato alle nuove tecnologie legate al web, afferma: “che la Corte legittimi la possibilità di rimozione dei contenuti equivalenti postati da terzi a due condizioni: 1). che siano le corti di merito ad individuare i termini integranti una “equivalenza”; 2). che non vi siano obblighi in capo a un servizio di hosting a provvedere autonomamente a questo tipo di valutazioni”.138

In questa prospettiva, i paragrafi successivi della sentenza

139puntualizzano che, un obbligo come quello descritto ai punti 41 e 45

della presente sentenza, da un lato, nella misura in cui si estende anche alle informazioni di contenuto equivalente, risulta sufficientemente efficace per garantire la tutela della persona oggetto di dichiarazioni diffamatorie, dall’altro, grazie alla specificazione delle espressioni equivalenti da parte dell’ingiunzione, non obbliga il prestatore di servizi di hosting a soluzioni che impongano valutazioni autonome anzi, al contrario, gli permetta l’impiego di strumenti automatizzati nella ricerca di tali contenuti.(Par. 47)

Quanto alla portata territoriale dell’obbligo di rimuovere l’informazione diffusa attraverso il social network, l’Avvocato generale ha sostenuto

138M. MONTI, La Corte di giustizia, la direttiva e-commerce e il controllo contenutistico

online: le implicazioni della decisione C 18-18 sul discorso pubblico online e sul ruolo di Facebook, in Medialaws.eu, 15 Ottobre 2019.

139 Corte di giustizia UE, 3 ottobre 2019, C-18/18, Eva Glawischnig Piesczek c. Facebook Ireland Limited, par. 46-47.

Documenti correlati