CAPITOLO 3 LA MANCANZA DI TRASPARENZA NEL
V. Rischio di overenforcement
3.4.2 Le soluzioni proposte dal legislatore europeo
L’articolo 17 della nuova direttiva copyright e il Digital Services Act disciplinano l’utilizzo di sistemi automatizzati da parte delle piattaforme di condivisione di contenuti online, già ampiamenti diffusi ma affidati all’autonomia negoziale dei soggetti coinvolti. In questo paragrafo verranno esaminate le soluzioni proposte dai recenti provvedimenti legislativi del legislatore UE alle problematiche legate all’uso di questi sistemi e verranno sottolineate le questioni lasciate irrisolte.
I. Rischio di soppressione di contenuti leciti
Per quanto riguarda il rischio di rimozione di contenuti leciti a discapito della libertà d’espressione degli utenti, il comma 7 dell’art. 17 nuova direttiva copyright afferma che:
la cooperazione tra i prestatori di servizi di condivisione di contenuti online e i titolari dei diritti non deve comportare un impedimento alla disponibilità di opere o di altri materiali caricati dagli utenti, che non violino il diritto d'autore o i diritti connessi, anche nei casi in cui tali opere o altri materiali siano coperti da un'eccezione o limitazione.
404 Urban J. M. et al., Notice and Takedown in everyday practice, cit., p. 54: «Unable to evaluate every takedown request or
fail to act on valid ones without risking their safe harbor protection, OSPs may take down material even where there is doubt about the substance of the claim».
88
In particolare, la direttiva delega agli Stati Membri il compito di garante l’efficacia delle eccezioni o limitazioni previste dalla legge per gli utenti che utilizzino materiale protetto a fini di i) citazione, critica, rassegna; ii) caricatura, parodia o pastiche406. Questo comma riconosce che il maggior rischio connesso all’utilizzo di sistemi automatizzati è quello di una censura ingiustificata da parte delle piattaforme, ma non fornisce agli Stati Membri delle indicazioni concrete su come evitare che ciò accada. Una prima traccia sembra essere offerta dal comma 9 dello stesso articolo, che delega agli Stati membri il compito di imporre ai prestatori di servizi di condivisione di contenuti online l’istituzione di un meccanismo di reclamo e ricorso celere ed efficace che sia disponibile agli utenti dei loro servizi in caso di controversie in merito alla disabilitazione dell'accesso a, o alla rimozione di, specifiche opere o altri materiali da essi caricati. Sulla stessa scia, il Digital Services Act prevede l’obbligo per le piattaforme digitali di istituire un sistema di gestione interno dei reclami conseguenti alla rimozione di contenuti considerati illeciti e la possibilità per gli utenti di ricorrere a procedimenti extragiudiziali di composizione delle controversie.
In ogni caso, tuttavia, la previsione di un sistema di reclamo efficiente non offre una tutela sufficiente per la libertà d’espressione degli utenti. Infatti, tradizionalmente la disciplina del diritto d’autore prevede che qualora un certo utilizzo rientri nelle eccezioni o limitazioni previste dalla legge non è necessaria alcuna autorizzazione preventiva e il titolare potrà eventualmente ricorrere all’organo giudiziario se reputa che i suoi diritti siano stati violati. Le garanzie previste dall’art. 17, co. 4 della nuova direttiva copyright e dagli articoli 16 e 17 della proposta di regolamento Digital Services Act comportano un rovesciamento di questo modello: i sistemi di filtraggio automatizzati inevitabilmente intercettano anche alcuni utilizzi leciti, i quali saranno ammessi solo in seguito ad una procedura di reclamo.
È interessante sottolineare che il recente disegno di legge di delegazione europea adottato dal Senato il 29 ottobre 2020 (ed attualmente al vaglio della Camera)407, che detta al Governo i principi direttivi per il recepimento della nuova direttiva copyright, evidenzia la necessità di individuare la disciplina relativa ai reclami e ai ricorsi, ivi compreso l'organismo preposto alla gestione delle rispettive procedure. Non è chiaro che natura dovrebbe avere tale organismo. Questa previsione, però, potrebbe dare una risposta alle critiche di privatizzazione della funzione giudiziaria in merito all’applicazione delle norme del diritto d’autore in rete: se ad oggi i reclami sono gestiti da YouTube in maniera poco trasparente, un organo pubblico dovrebbe assicurare più garanzie agli utenti.
II. Mancanza di trasparenza
Come già menzionato, il Digital Services Act affronta direttamente il problema della carenza di trasparenza dell’utilizzo di sistemi automatizzati coperti dal segreto industriale.
In primo luogo, una delle previsioni più rilevanti è contenuta nell’articolo 15 della proposta di regolamento. Viene istituito un obbligo, per tutte le piattaforme digitali, di informare l’utente in caso di rimozione o disabilitazione di contenuti e fornire una «chiara e specifica spiegazione delle ragioni alla base della decisione». Allo stesso articolo, si specifica che tale spiegazione dovrà contenere: i) informazioni riguardo la rimozione o disabilitazione; ii) i fatti e le circostanze su cui la piattaforma si è basata nel prendere la
406 Si noti che ai sensi della direttiva 2001/29/CE queste eccezioni sono considerate facoltative, mentre il considerando n. 70 della direttiva (UE) 2019/790 afferma che esse dovrebbero essere obbligatorie onde garantire che gli utenti beneficino di una tutela uniforme nell'Unione.
89
decisione, tra cui l’eventuale ricezione di una segnalazione di attività illecita; iii) nei casi applicabili, informazioni in merito all’uso di sistemi automatizzati, tra cui se la decisione si riferisce ad un contenuto individuato o identificato tramite mezzi automatizzati; iv) quando la decisione riguarda contenuti illeciti, informazioni sulle basi giuridiche a fondamento della decisione di rimozione e informazioni sul motivo per cui un certo contenuto è stato considerato illecito; v) quando la decisione riguarda informazioni incompatibili con i Termini di Servizio della piattaforma, l’indicazione della previsione contrattuale su cui si basa la decisione e spiegazioni sul perché tali informazioni sono considerate incompatibili; vi) informazioni sulle possibilità di ricorso o reclamo.
Dei simili obblighi informativi rafforzerebbero certamente la posizione dell’utente in caso di rimozione di contenuti, il quale comunque si troverà costretto a ricorrere ai meccanismi di reclamo per poter continuare ad utilizzare materiale protetto per finalità che sarebbero considerate libere dal legislatore. In caso di monetizzazione dei contenuti da parte del supposto titolare del materiale protetto utilizzato, invece, l’articolo 15 non offre alcun tipo di tutela. È pur vero che il diritto di guadagnare dai propri contenuti postato su YouTube non assurge certamente al rango di diritto fondamentale, tuttavia permane il rischio che il digital sharecropping induca gli utenti che utilizzano materiale protetto per fini leciti ad un’auto-censura, compromettendo ulteriormente la volontà del legislatore.
In aggiunta, sono previsti degli obblighi di trasparenza generalizzati. L’articolo 13 prevede un obbligo per tutte le piattaforme che non rientrano nella definizione di piccole o medie imprese di pubblicare, almeno su base annuale, dei report chiari, facilmente comprensibili e dettagli su qualunque attività di moderazione dei contenuti. In particolare, le piattaforme devono riportare il numero di ordini di rimozione ricevuti dalle Autorità e il tempo che in media impiegano ad intervenire; il numero di segnalazioni di contenuti illeciti ricevute dagli utenti ai sensi dell’articolo 14 e quali azioni sono state intraprese in risposta; le attività di moderazione intraprese su base volontaria, il numero di reclami ricevuti e le risposte fornite. L’articolo 23 prevede inoltre che nei report sulla trasparenza debbano essere inserite informazioni in merito al numero di controversie sottoposte a procedimenti extragiudiziali, il numero account sospesi dalla piattaforma, e l’impiego di qualunque mezzo automatizzato per la moderazione dei contenuti, specificando le finalità di tale mezzo, informazioni sulla precisione dei mezzi automatizzati ed eventuali garanzie previste.
Qualora la proposta di regolamento dovesse entrare in vigore senza modifiche importanti, si tratterebbe di un notevole passo avanti verso una società algoritmica più trasparente. Mentre i report sulla trasparenza sono già da tempo forniti da Google su base volontaria, l’obbligo di informare l’utente su come è stata raggiunta una certa decisione basata su sistemi automatizzati rappresenterebbe un cambiamento considerevole. Se tale obbligo dovesse essere confermato, potrebbe portare ad un rilevante miglioramento degli algoritmi utilizzati dalle piattaforme di condivisione di contenuti per individuare i contenuti illeciti. Come si è visto, ad oggi, non si sa invece molto né sul funzionamento e sulla conformazione dei sistemi automatizzati utilizzati dalle piattaforme, né sull’eventuale previsione di controlli da parte di queste su tali sistemi al fine di garantire un alto livello di precisione ed equità.
III. Trattamento differenziato per gli artisti indipendenti o i titolari minori
Per quanto riguarda, invece, il rischio che un sistema di filtraggio automatizzato benefici esclusivamente i titolari maggiori, il comma 10 dell’art. 17 della nuova direttiva
copyright prevede che la Commissione organizzi dei dialoghi tra le parti interessate per
90
contenuti online e i titolari dei diritti e per formulare degli orientamenti sull'applicazione dell’art. 17, in particolare per quanto concerne la cooperazione di cui al paragrafo 4. In aggiunta, il comma 8 seconda parte dispone che gli Stati membri impongano ai prestatori di servizi di condivisione di contenuti online l’obbligo di fornire ai titolari dei diritti, su richiesta di questi ultimi, informazioni adeguate sul funzionamento delle loro prassi per quanto riguarda la cooperazione di cui al comma 4408. In aggiunta, assume rilevanza l’articolo 12 della direttiva, il quale prevede che qualora un organismo di gestione collettiva stipuli, in conformità dei suoi mandati conferiti dai titolari dei diritti, un accordo di licenza per lo sfruttamento di opere o altri materiali, tale accordo possa essere esteso ai diritti dei titolari dei diritti che non hanno autorizzato l'organismo di gestione collettiva a rappresentarli. Di conseguenza, almeno potenzialmente, i piccoli titolari saranno comunque messi nella posizione di negoziare con le piattaforme e poter beneficiare del sistema automatizzato di filtraggio409.
IV. Barriere all’ingresso
Per non creare barriere all’ingresso per i nuovi soggetti che desiderano entrare nel mercato, il comma 6 dell’articolo 17 della nuova direttiva copyright prevede che i nuovi prestatori i cui servizi sono disponibili da meno di tre anni e che hanno un fatturato inferiore a 10 milioni di euro siano esentati dall’obbligo di predisporre un sistema di filtraggio automatizzato. In caso di messa a disposizione del pubblico di materiale protetto senza autorizzazione da parte di questi soggetti, essi, per evitare la responsabilità civile, dovranno solo dimostrare di aver compiuto i massimi sforzi per ottenere un'autorizzazione, e di aver agito tempestivamente, in seguito alla ricezione di una segnalazione sufficientemente motivata, per disabilitare l'accesso alle opere o ad altri materiali notificati o rimuovere dai loro siti web tali opere o altri materiali. In aggiunta, il comma 5 prevede che per stabilire se il prestatore si sia conformato agli adempimenti di cui al comma 4 (che richiede al prestatore di prevenire che materiali protetti vengano resi disponibili e di impedire il caricamento futuro di contenuti precedentemente rimossi), debbano essere presi in considerazione: i) la tipologia, il pubblico e la dimensione del servizio e la tipologia di opere o altri materiali caricati dagli utenti del servizio; e ii) la disponibilità di strumenti adeguati ed efficaci e il relativo costo per i prestatori di servizi. Viene inoltre sottolineato che questa valutazione va condotta nel rispetto del principio di proporzionalità. Questi due commi, in sostanza, prevedono un regime differenziato che non penalizza le grandi piattaforme, le quali hanno già implementato da tempo sistemi automatizzati e hanno risorse sufficienti per eventuali adattamenti, né ostacola i soggetti più piccoli.
A tal riguardo, giova menzionare che nel disegno di legge per il recepimento della direttiva in Italia, il Senato impone che l’applicazione del comma 4 qui richiamato, con particolare riferimento al criterio dei “massimi sforzi”, debba avvenire nel rispetto del
408 Il considerando 68 della direttiva specifica ulteriormente: «dal momento che i prestatori di servizi di condivisione di contenuti online potrebbero intraprendere varie azioni, essi dovrebbero fornire ai titolari dei diritti, su loro richiesta, informazioni adeguate sul tipo di azioni intraprese e sulla modalità di attuazione. Tali informazioni dovrebbero essere sufficientemente precise da assicurare un adeguato grado di trasparenza ai titolari dei diritti, senza pregiudicare i segreti commerciali dei prestatori di servizi di condivisione di contenuti online. I prestatori di servizi non dovrebbero tuttavia essere tenuti a fornire ai titolari dei diritti informazioni dettagliate e individualizzate in relazione a ciascuna opera o altri materiali identificato. Ciò non dovrebbe ostare ad accordi contrattuali, che potrebbero contenere disposizioni più specifiche sulle informazioni che devono essere fornite nell'ipotesi in cui siano conclusi accordi tra i prestatori di servizi e i titolari dei diritti». 409 Ginsburg J., A United States Perspective on Digital Single Market Directive art. 17, cit., p. 17.
91
principio di ragionevolezza410. Questo criterio è applicabile anche ai prestatori più piccoli: un’interpretazione che comporti oneri eccessivi come l’implementazione di sistemi automatizzati sarebbe particolarmente pregiudizievole per tali soggetti.
Anche la proposta di regolamento Digital Services Act prevede delle misure più mirate e asimmetriche per le grandi piattaforme, allo scopo di non creare oneri sproporzionati per le imprese più piccole. L’articolo 16 della proposta afferma che le piccole o medie imprese (come definite dall’Allegato alla raccomandazione 2003/361/EC411) debbano essere esenti dagli obblighi previsti dalla Sezione 3, tra i quali l’implementazione di un sistema interno di gestione dei reclami, la partecipazione a procedimenti extragiudiziali di composizione delle controversie, l’adozione di specifiche misure contro gli utenti che forniscono frequentemente materiale illecito o che abusano del sistema di reclamo, l’obbligo di informare le autorità qualora vengano a conoscenza di attività illecita, e la predisposizione di report sulla trasparenza (sia ai sensi dell’articolo 13 sia ai sensi dell’articolo 23). In aggiunta, gli ulteriori obblighi previsti dalla Sezione 4, tra cui l’obbligo di sottoporsi a audit e di compiere una valutazione dei rischi, sono riservati esclusivamente alle “grandi piattaforme”, come definite dall’articolo 25 della proposta di regolamento412.