CAPITOLO 3 LA MANCANZA DI TRASPARENZA NEL
II. Direttiva UE 2000/31
Nell’ordinamento giuridico europeo, la responsabilità civile degli intermediari di Internet è disciplinata dagli articoli 12, 13, 14 e 15 della direttiva 2000/31 trasposta in Italia con il d.lgs. n. 70/2003.
La direttiva e-commerce istituisce, sulla base del modello americano rappresentato dal DMCA, un regime di immunità per gli intermediari di Internet. Anche in questo caso, il principio cardine della normativa è che essi non hanno un obbligo generale di sorveglianza sulle attività poste in essere dagli utenti in rete, e nemmeno può essere imposto loro un obbligo attivo di ricercare e/o prevenire attività illecita. L’esenzione di responsabilità non è però assoluta: è graduata sulle funzioni svolte dall’intermediario ed è soggetta ad una serie di condizioni357.
352 Von Der Leyen U., A Union that strives for more, p. 13: https://ec.europa.eu/commission/sites/beta-
political/files/political-guidelines-next-commission_en.pdf
353 Discorso di Ursula Von Der Leyen in occasione della premiazione di Shosanna Zuboff alla cerimonia Axel-Springer Awards, 19 novembre 2019:
https://ec.europa.eu/commission/presscorner/api/files/document/print/en/speech_19_6251/SPEECH_1 9_6251_EN.pdf
354 Merges R. P., Justifying Intellectual Property, Harvard University Press, Cambridge (Massachusetts), London (UK), 2011, p. 24.
355 Lessig L., Remix: Making Art and Commerce Thrive in the Hybrid Economy, Penguin, New York, 2008, p. xviii. 356 Ivi, p. xix.
77
In particolare, gli hosting provider, ossia gli intermediari che offrono servizi di memorizzazione di informazioni fornite da un destinatario del servizio358, sono considerati responsabili qualora, pur essendo venuti a conoscenza di falli illeciti, non abbiano agito immediatamente per la rimozione o la disabilitazione dell’accesso. Discorso analogo vale per i caching provider, ossia gli intermediari che offrono una memorizzazione automatica, intermedia e temporanea delle informazioni fornite da un destinatario del servizio359. Invece, i servizi che forniscono mere conduit, ossia che offrono la trasmissione, su una rete di comunicazione, di informazioni fornite da un destinatario del servizio o che forniscono l’accesso alla rete di comunicazione, non saranno considerati responsabili qualora non diano origine alla trasmissione illecita, non selezionino il destinatario della trasmissione e non selezionino né modifichino le informazioni trasmesse360.
Una piattaforma di condivisione di contenuti multimediali, come YouTube, rientra nella nozione di prestatore dei “servizi della società dell'informazione” trattandosi di attività economica svolta on line, quindi a distanza, per via elettronica e a richiesta individuale di un destinatario di servizi, ovverosia di un servizio fornito senza la presenza simultanea delle parti, inviato all'origine e ricevuto a destinazione mediante attrezzature elettroniche di trattamento, compresa la compressione digitale e di memorizzazione di dati e che è interamente trasmesso, inoltrato e ricevuto mediante fili, radio, mezzi ottici od altri mezzi elettromagnetici361. Solo un intervento che modifichi i contenuti caricati da terzi è idoneo a far venir meno la qualifica di “prestatore dei servizi dell’informazione” e, quindi, ad escludere che la piattaforma possa beneficiare del regime di immunità previsto dalla direttiva 2000/31. In particolare, YouTube può essere definito come un hosting provider, non incidendo sui contenuti caricati dagli utenti ed offrendo, tra gli altri, un servizio di memorizzazione dei contenuti.
Con riferimento al quadro giuridico appena descritto, due tematiche sono state spesso oggetto di dibattito: quale tipo di comunicazione sia idonea ad attivare l’obbligo di intervento da parte della piattaforma e quale sia il reale significato dell’esclusione di un obbligo di sorveglianza attiva in capo alle piattaforme.
In merito alla prima questione, il primo comma dell’art. 16 del d.lgs. 70/2003 afferma che:
[Il provider] non è responsabile delle informazioni memorizzate a richiesta di un destinatario del servizio, a condizione che: a) non sia effettivamente a conoscenza del fatto che l’attività o l'informazione è illecita e, per quanto attiene ad azioni risarcitorie, non sia al corrente di fatti o di circostanze che rendono manifesta l’illiceità dell’attività o dell'informazione; b) non appena a conoscenza di tali fatti, su comunicazione delle autorità competenti, agisca immediatamente per rimuovere le informazioni o per disabilitarne l'accesso.
In aggiunta, il comma 3 dell’art. 17 recita:
il prestatore è civilmente responsabile del contenuto [illecito] nel caso in cui, richiesto dall’autorità giudiziaria o amministrativa avente funzioni di vigilanza, non ha agito prontamente per impedire l'accesso a detto contenuto, ovvero se, avendo avuto conoscenza del carattere illecito o pregiudizievole per un terzo del contenuto di un servizio al quale assicura l'accesso, non ha provveduto ad informarne l’autorità competente.
358 D. lgs. 70/2003, art. 16, co. 1 lett. a) e b). 359 D. lgs. 70/2003, art. 15, co. 1, lett. e). 360 D. lgs. 70/2003, art. 14, co. 1.
78
Il combinato disposto degli articoli 16 e 17 del d.lgs. 70/2003 sembra indicare che sia necessaria una comunicazione proveniente dall’Autorità, non una comunicazione qualsiasi. La giurisprudenza, invece, si è discostata dal significato letterale e ha interpretato questi articoli in senso estensivo: per integrare il requisito della “conoscenza qualificata”, sarà infatti sufficiente anche la comunicazione di una violazione da parte del titolare del diritto d’autore362. In ogni caso, la segnalazione deve riferirsi, anche in questo caso, ad un contenuto specifico in violazione delle norme sul diritto d’autore. Con specifico riferimento alle violazioni poste in essere su YouTube, la giurisprudenza afferma che: «al fine dell'attivazione di controllo a posteriori in capo [a YouTube] è necessaria la ricorrenza di una diffida specifica (contenente cioè gli indirizzi specifici compendiati in singoli URL), dovendosi escludere che una generica diffida, contenente i soli titoli commerciali dei prodotti audiovisivi, sia idonea a far venire meno la neutralità del gestore, e quindi ad attivare la sua responsabilità»363.
Per quanto riguarda l’obbligo di sorveglianza attiva, il comma 1 dell’art. 17 del D.lgs. 70/2003 afferma che: «il prestatore non è assoggettato ad un obbligo generale di sorveglianza sulle informazioni che trasmette o memorizza, né ad un obbligo generale di ricercare attivamente fatti o circostanze che indichino la presenza di attività illecite». La giurisprudenza ha interpretato questa norma come un ostacolo all’imposizione di un sistema di controllo e filtraggio preventivo nei servizi di hosting.
In particolare, la Corte di Giustizia dell’Unione europea ha statuito nel caso Scarlet c.
SABAM364 che un’ingiunzione che obblighi una piattaforma a predisporre, a proprie spese, un sistema di filtraggio preventivo su tutte le comunicazioni elettroniche realizzate sulla sua rete, senza limiti temporali, e che si applica indistintamente a tutti gli utenti costituisce una violazione della libertà d’impresa della piattaforma in questione, che non può essere completamente sacrificata a tutela dei diritti di proprietà intellettuale365. Un obbligo così complesso, costoso e permanente a carico della piattaforma è peraltro contrario alle condizioni stabilite dall’art. 3, co. 1, della direttiva 2004/48, il quale richiede che le misure adottate per assicurare il rispetto dei diritti di proprietà intellettuale non siano inutilmente complesse o costose366.
Successivamente, nel caso UPC Telekabel c. Constantin367, la Corte ha specificato che:
le misure adottate dall’intermediario di internet devono essere rigorosamente mirate, nel senso che devono servire a porre fine alla violazione arrecata da parte di un terzo al diritto d'autore o a un diritto connesso, senza pregiudizio degli utenti di Internet e di coloro che ricorrono ai servizi di tale fornitore al fine di accedere lecitamente ad informazioni. Nel caso contrario, l'ingerenza di
362 Tribunale Catania, ord. 21/04/2011: «Risponde del danno provocato al titolare del marchio indebitamente utilizzato da un terzo come nome a dominio l'“hosting provider” che, pur informato dell'illecito e diffidato dal titolare del marchio, abbia omesso qualunque intervento»;
Tribunale di Roma, sez. IX, 27/04/2016, n. 8437: «La conoscenza, acquisita “in qualsiasi modo”, della illiceità dei contenuti diffusi fa insorgere la responsabilità civile e risarcitoria dell’Internet Service Provider (ISP)»; Corte d’Appello di Milano, Sezione Impresa, 7 gennaio 2015, n. 29: «[L’obbligo in capo alla piattaforma] sorge, sempre nel rispetto del principio di libertà d'informazione, solo in seguito a un controllo successivo della liceità dei dati caricati da terzi ad attivazione precipua del soggetto titolare dei diritti d'autore o dell'autorità garante, e quindi in funzione special-preventiva di rimozione dei contenuti illeciti segnalati». 363 Tribunale Torino 7 aprile 2017, n. 1928.
364 CGUE, Terza Sezione, Scarlet c. SABAM, 24 novembre 2011, C-70/10. 365 Ivi, par. 46-47.
366 Ivi, par. 48.
79
detto fornitore di accesso nella libertà di informazione digitali utenti sarebbe ingiustificata alla luce dell'obiettivo perseguito368.
Da queste pronunce si può desumere che, in determinate circostanze può essere considerato legittimo imporre alle piattaforme degli obblighi più incisivi, a condizione che sia rispettato il principio di proporzionalità. La Corte, infatti, tiene in considerazione i diritti e gli interessi di tutti i soggetti coinvolti (gli intermediari, gli utenti, il soggetto che ha agito in giudizio) e si assicura che nessuno di questi venga eccessivamente compromesso. Mentre un obbligo di sorveglianza generalizzato in capo all’intermediario è giudicato come eccessivamente oneroso per la piattaforma, la Corte non esclude integralmente che possa essere imposto all’intermediario un obbligo di attivarsi.
Anche la giurisprudenza italiana si è più volte soffermata sul divieto di imporre obblighi di sorveglianza attiva. È stato affermato come un sistema di filtraggio preventivo «rischierebbe di ledere la libertà d'informazione e di espressione dei fruitori della rete, poiché tale sistema potrebbe non essere in grado di distinguere adeguatamente tra un contenuto lecito ed un contenuto illecito, sicché il suo impiego potrebbe produrre il risultato di bloccare comunicazioni aventi un contenuto lecito»369.
La recente pronuncia della Corte di Giustizia UE Eva Glawischnig‑Piesczek c. Facebook 370, che trae origine da una condotta diffamatoria posta in essere da un utente Facebook, sembra aver mitigato il divieto di imporre agli intermediari di Internet l’obbligo di predisporre sistemi di sorveglianza preventiva. In particolare, la Corte ha considerato lecita l’ingiunzione alla piattaforma di rimuovere, oltre alle specifiche dichiarazioni considerate diffamatorie, anche tutti i contenuti identici o equivalenti, allo scopo di assicurare una tutela effettiva alla persona oggetto di dichiarazioni diffamatorie. Viene però specificato che:
tale tutela non viene garantita tramite un obbligo eccessivo imposto al prestatore di servizi di hosting, in quanto la sorveglianza e la ricerca che richiede sono limitate alle informazioni contenenti gli elementi specificati nell’ingiunzione e il loro contenuto diffamatorio di natura equivalente non obbliga il prestatore di servizi di hosting ad effettuare una valutazione autonoma, e quest’ultimo può quindi ricorrere a tecniche e mezzi di ricerca automatizzati371.
In altre parole, la Corte ammette la liceità dell’imposizione alla piattaforma (Facebook) di predisporre dei sistemi di filtraggio automatizzati, seppur limitando il loro utilizzo alla ricerca di elementi predisposti nell’ingiunzione del Giudice. In tal modo, a detta della Corte UE, si può raggiungere un duplice obiettivo: i) evitare di imporre un obbligo troppo oneroso sulla piattaforma che non dovrà svolgere una valutazione autonoma di tutti i nuovi contenuti per individuare i “contenuti equivalenti”; ii) evitare che venga esercitato un potere discrezionale da parte della piattaforma. È comunque impossibile escludere che a causa di un simile sistema di filtri vengano bloccati anche dei contenuti che sarebbero leciti, comprimendo così la libertà d’espressione degli utenti.
Questa sentenza si inserisce nel recente processo di riforma della disciplina sulla responsabilità delle piattaforme portato avanti dal legislatore UE, che ha portato anche all’adozione dell’articolo 17 della nuova direttiva copyright che verrà esaminato nel paragrafo successivo. Questo cambio di prospettiva si basa sull’assunto per cui è necessario un ripensamento della normativa attuale, la quale è risultata inadeguata ad assicurare una tutela
368 Ivi, par. 56.
369 Corte d’Appello di Milano, Sezione Impresa, 7 gennaio 2015, n. 29, par. 64
370 CGUE, Terza Sezione, Eva Glawischnig‑Piesczek c. Facebook, 3 ottobre 2019, C‑18/18. 371Ivi, par. 46.
80
effettiva all’individuo e a colmare lo sbilanciamento di potere tra le grandi piattaforme e i titolari di diritti di proprietà intellettuale.