• Non ci sono risultati.

SEZIONE 2: LA PROPRIETÀ INTELLETTUALE IN RETE

45: L’AVVENTO DI INTERNET

45.1: BREVE STORIA DELLA RETE

Nel 1960 Marshall McLuhan predice il futuro avvento di un mondo essenzialmente tecnologico, nel quale le tradizionali comunicazioni scritte lineari, che prevedono in pratica una connessione unidirezionale tra il mandatario ed il ricevente, sarebbero state sostituite da un nuovo tipo di relazione basata sull’indipendenza, nella quale sarebbero stati possibili scambi reciproci e contestuali di informazioni. McLuhan utilizza la suggestiva definizione di “global village” per descrivere questo nuovo mondo ed individua come due delle caratteristiche principali del medesimo il suo essere unificato attraverso le reti elettriche e la supremazia della televisione sugli altri media.

Anche se il primo computer digitale al mondo, l’ENIAC (Electronic Numerical Integrator and Computer), viene introdotto presso l’Università della Pennsylvania già nel 1946, la storia di Internet incomincia ufficialmente in piena guerra fredda.

Dopo la messa in orbita, nell’ottobre del 1957, del primo satellite artificiale della storia, lo Sputnik, da parte dell’Unione Sovietica, gli Stati Uniti, guidati all’epoca dal Presidente Eisenhower, si danno ad una efficace attività di stimolo, nonché di finanziamento della ricerca militare nel settore delle comunicazioni. In seguito all’approvazione dal parte del Congresso, il Dipartimento della Difesa degli Stati Uniti dà vita, nel 1958, all’ARPA (Advanced Research Project Agency) con sede all’interno del Pentagono, a Washington.

Fondamentale per lo sviluppo definitivo del sistema che verrà poi definito ARPAnet è il progetto proposto da Weasley Clark secondo il quale non è sufficiente collegare tra loro due singoli computer, bensì va creata una sottorete di computer, gerarchicamente uguali tra loro, per trasmettere e ricevere dati. Queste sotto-reti sono, dunque, formate da diversi nodi, definiti IMP (Interface Message Processor). L’appalto per la realizzazione di questi particolari elaboratori, con funzione di intermediari tra line di connessione e mainframe, viene vinto dalla Bolt, Beranek & Newman, la quale tra 1968 ed il 1969 comincia ad installare i suddetti nodi in quattro diverse università americane: la prima è la University of California, Los Angeles (UCLA), seguita dalla University of California, Santa Barbara (UCSB), dalla Stanford University e dalla University of Utah. Questi quattro nodi vengono collegati tra loro attraverso circuiti a 50 Kbps prodotti dalla ditta AT&T. L’impianto venne attivato ufficialmente il 2 settembre 1969.

Contestualmente un gruppo di scienziati della AT&T, operanti presso i celebri Bell

Laboratories (centro di ricerca americano di proprietà, appunto, della AT&T), stanno

lavorando allo sviluppo del sistema operativo Unix, diventato poi uno standard per il mondo accademico e della ricerca e anche per molte applicazioni militari226

.

226

Nel proseguo della trattazione si vedrà come molti dei primi sperimentatori della computer art erano connessi a qualche livello a centri di ricerca, specialmente ai Bell Laboratories. Si possono citare a questo proposito: Michael Noll, Stan Vanderbeek e Lillian Schwartz.

151

Alla produzione di computer su scala industriale, che inizia nel 1951 con l’UNIVAC I, fa seguito la sua popolarizzazione negli anni ’60 e ’70, nonché, più avanti nel tempo, lo sviluppo di elaboratori più piccoli e, quindi, portatili, i cd. personal

computer o PC, i quali offrono all’utente interfacce di immediata comprensione e

semplice utilizzazione che li rendono strumenti alla portata di chiunque. Con l’avvento delle tecnologie digitali, infine, tutti i mezzi tecnologici per la comunicazione fino ad allora utilizzati, quali CD, trasmissioni via cavo e via satellite, convergono nei cd. “strumenti multimediali”, un cui valido esponente può essere rintracciato nella TV-Computer, la cui produzione è stata annunciata da differenti compagnie americane nel 1989, e definita come il primo tentativo di unire le due aree del digitale e dell’audiovisivo.

Ovviamente tutte queste innovazioni contribuiscono, tramite la loro convergenza a delineare quella che oggigiorno è nota come la Società dell’Informazione, basata sostanzialmente sull’utilizzo delle nuove tecnologie dell’informazione (le cd. NIT – New Information Technologies), tanto come strumenti di lavoro che come mezzi per modellare culturalmente la moderna società. In tal modo, la situazione annunciata dalla Unione Europea nel “Libro Bianco su Crescita, Competitività ed Impiego” già nel 1993227 si realizza in maniera effettiva, e, un anno più tardi, viene consolidata attraverso la comunicazione “Verso la Società dell’Informazione in Europa”228

. Questa è diventata l’epoca della “Rete delle Reti” ovvero Internet (acronimo che sta per INTERconnected NETworks), che si basa sulla connessione in molteplici reti telematiche di un insieme vastissimo di computer, i quali utilizzano o reti fisiche di telecomunicazione o collegamenti via etere.

Affinché i diversi nodi riescano a comunicare tra loro in maniera corretta è necessario, tuttavia, che ci sia un “linguaggio” comune, a questo proposito viene sviluppato un progetto concernente la realizzazione di una architettura di cooperazione tra reti: il protocollo TCP/IP229

.

Questo è in realtà formato da due protocolli distinti che svolgono anche funzioni differenti, benché complementari, nella diffusione dei dati: il compito del protocollo IP è molteplice, da una parte trasmette i dati e gestisce il traffico tra i diversi computer collegati, scegliendo di volta in volta la rete migliore per l’invio del pacchetto di dati, dall’altra provvede ad inviare tali dati ad un indirizzo esistente, utilizzando uno schema basato su indirizzi numerici dei computer collegati230; il TCP

227

Cfr. Commissione Europea, White Paper on growth, competitiveness and employment entitled: The Challenges and Ways Forward into the 21st Century, COM 700 (9), 5 Dicembre 1993 EUR-OP 104.

228

Cfr. Commissione Europea, Europe’s Way to the Information Society, COM (94) 347 final

229

Il modello TCP/IP (Transmission Control Protocol/Internet Protocol) si è affermato di fatto con l’utilizzazione dei primi nuclei della Rete, quale, ad esempio, l’ARPANET per la ricerca avanzata, benché fosse già vigente uno standard internazionale, l’OSI/ISO (Open System Interconnection), codificato dal CCITT (Consultative Committee for International Telephony and Telegraph), emanazione della ITU (International Telecommunications Unions), organizzazione affiliata all’ONU.

230

Per meglio comprendere il funzionamento di tale protocollo si precisa che in Internet ogni sito logico è individuato da un solo indirizzo numerico, il quale risulta intellegibile da parte di un elaboratore. Tale indirizzo è composto da quattro campi separati tra loro da un punto, ogni campo può assumere un valore compreso tra 0 e 255, per un totale di 8 bit, per cui l’indirizzo completo del sito compone una striscia numerica pari a 32 bit. La prima parte di questa individua l’indirizzo della sotto-rete alla quale il nodo appartiene, mentre la seconda parte identifica i computer secondari di appartenenza, fino ad arrivare ad un singolo computer.

Tale modalità, altamente efficiente ma di difficile memorizzazione, è stata in seguito affiancata da un secondo metodo denominato FQDN (Fully Qualified Domain Name), il quale è caratterizzato da nomi simbolici quali: sito.dominio. Il dominio al quale appartiene il sito si qualifica con nomi dversi a seconda

152

è preposto, invece, alla gestione dell’organizzazione dei dati, come anche al controllo per la corretta trasmissione di medesimi, provvedendo, dal momento che questi sono in genere troppo voluminosi, sia a scomporli in pacchetti più piccoli sia a ricomporli nel modo corretto una volta che essi giungono a destinazione.

Il metodo di comunicazione sviluppato viene definito, infatti, “packet switching” (ovvero commutazione a pacchetto) e l’idea che ne sta alla base è che la rete che collega i diversi computer tra loro non debba avere una autorità centrale; è di fondamentale importanza, infatti, che tutti i nodi siano indipendenti e abbiano la possibilità di generare, passare e ricevere messaggi. Tali messaggi vengono in un primo momento scomposti in singoli pacchetti di uguale lunghezza, opportunamente contrassegnati da intestazioni contenenti informazioni sul percorso da compiere nonché sull’indirizzo del mittente e del destinatario; i medesimi vengono, quindi, indirizzati verso la loro meta finale, che viene raggiunta grazie alla funzione di tramite svolta dai diversi nodi di connessione, ognuno dei quali ha il compito di trasmettere nuovamente le informazioni ricevute al prossimo nodo, attraverso la rete che in quel preciso momento risulta essere meno occupata e più rapida nella comunicazione del segnale. Non è indispensabile che i suddetti pacchetti rimangano uniti durante il percorso né che arrivino nella giusta sequenza, infatti le informazioni che recano sono sufficienti a ricompattare i diversi moduli, una volta giunti a destinazione, nel messaggio originario. Questo sistema, battezzato appunto ARPAnet, offre due vantaggi principali: qualunque sia lo stato della rete, il singolo pacchetto ha sempre la possibilità di trovare una “strada telematica” alternativa per giungere alla propria destinazione; ed i diversi pacchetti, anche provenienti da fonti diverse, possono essere convogliati tutti assieme su di una singola linea ad alta velocità invece di dover ricorrere a molteplici linee separate usate in maniera parziale.

La trasmissione in rete di contenuti digitali implica, poi, la realizzazione di numerose copie dell’opera, le quali risultano essere qualitativamente identiche all’originale e che, inoltre, rimangono assolutamente invariate anche a seguito dell’eventuale ritrasmissione verso ulteriori destinatari on-line231. Questa operazione viene tecnicamente definita caching (o memorizzazione effimera) e consiste nella memorizzazione temporanea di documenti web, come, ad esempio, pagine HTML e immagini, al fine di ridurre l'utilizzo della larghezza di banda, il carico del server, ed il lag percepito. Una web cache immagazzina una copia dei documenti che transitano attraverso di essa; in tal modo successive richieste, riguardanti i medesimi

delle sotto-reti a cui ci appoggia, perciò nelle sotto-reti statunitensi si caratterizzano i domini in relazione alla loro tipologia di appartenenza, mentre, in quelle europee, la caratterizzazione dipende dalla nazione di appartenenza del sito medesimo.

Ovviamente ad ognuno di questi indirizzi “simbolici” (FQDN) viene associato un indirizzo IP composto da caratteri numerici nella forma sopra descritta, tuttavia l’associazione tra i due non è compito dell’operatore bensì del sistema medesimo, infatti uno o più nodi della sotto-rete, chiamati name- server, convenientemente distribuiti, attraverso una tabella di “transcodifica” mutano gli indirizzi da simbolici a numerici; non vi è quindi nessun coinvolgimento dell’utente in tale processo.

231

Il numero minimo di copie che si vengono a creare è sette: una copia in ognuno dei modem dei computer utilizzati (ovvero il PC del mittente e quello del destinatario), una copia nelle memorie RAM, una nel Web Browser, una nel video decompressore ed una nel video display board. A questa cifra vanno poi a sommarsi le copie aggiuntive che il destinatario può decidere di salvare sulla propria memoria fissa. Si veda Barbarisi M., La tutela della proprietà intellettuale, in Tosi E. (a cura di) I problemi giuridici di Internet, Giuffrè, Milano, 2001, p. 409.

153

documenti, possono essere immediatamente soddisfatte dalla cache a condizione che vengano rispettate determinate condizioni. Attraverso la smistamento dei dati, per tramite dei diversi nodi di connessione, l’opera che è stata posta in circolazione nella rete viene ricevuta o nella memoria di un computer utilizzato da un utente terzo o nella memoria di un sito web. Per quanto concerne questo secondo caso oltre ad atto di riproduzione, in quanto viene prodotta una ulteriore copia dell’opera, si parla anche di atto di comunicazione dell’opera ad un pubblico, in considerazione del fatto che il sito è accessibile ad un numero potenzialmente illimitato di soggetti.

Tuttavia la Direttiva 2001/29/CEE, e successivo recepimento nazionale, stabiliscono che, essendo questi «atti di riproduzione temporanea privi di rilievo economico proprio che sono transitori o accessori e parte integrante ed essenziale di un processo tecnologico, eseguiti all'unico scopo di consentire (...) [l']utilizzo legittimo di un opera o di altri materiali», non sono passibili di essere considerati quali atti di riproduzione veri e propri e, quindi, non richiedono il consenso da parte del titolare dei diritti esclusivi sull’opera. Parallelamente, tra gli atti temporanei di riproduzione sottratti all'articolo 13 l.d.a. come modificato dal d.lgs. n. 68/03, sono considerati il

browsing, il caching e il routing; i quali, nonostante assolvano funzioni diverse

hanno in comune le caratteristiche della temporaneità della copia e della strumentalità di quest'ultima al funzionamento della comunicazione in rete, e non sono quindi assoggettabili ad alcuna pretesa da parte del titolare dei diritti.

Per quanto concerne invece la problematica afferente al diritto di comunicazione al pubblico e di messa a disposizione on demand la normativa stabilisce che questi non siano soggetti al principio dell’esaurimento comunitario (come regolato dall’art. 3 della Direttiva 2001/29/CE). Infatti il medesimo prevede che il diritto esclusivo di controllare la distribuzione dell’opera incorporata in un supporto tangibile si esaurisca all’interno dell’Unione europea successivamente al primo atto di vendita dell’originale dell’opera o delle sue copie, effettuato direttamente dal titolare del diritto o con il suo consenso, quindi, stando a quanto detto, perché si verifichi l’esaurimento del diritto, occorre che vi sia un atto effettivo di trasferimento del qualsivoglia supporto materiale che incorpori l’opera. In coerenza con quanto riportato c’è chi afferma che «fin tanto che i diritti di comunicazione e messa a disposizione del pubblico on demand si risolvono nella mera memorizzazione effimera dell’opera nel computer del ricevente, la circostanza che non siano sottoposti ad esaurimento comunitario è connaturale al regime giuridico adottato per questi atti che, stante la deroga di cui all’articolo 5, paragrafo 1, della Direttiva 2001/29/CE, sono esclusi dall’ambito di operatività del diritto di riproduzione, mancando, in ultima analisi, una copia stabilmente fissata su un supporto materiale»232. Si precisa, tuttavia, che quanto disposto dall’articolo 3, paragrafo 3,

della direttiva 29/2001, trova applicazione anche in particolari ipotesi di memorizzazione permanente dell’opera; non a caso il considerando 29 della medesima chiarisce che quanto concerne la disposizione sull’esaurimento del diritto, oltre a non trovare applicazione nel caso di servizi, soprattutto di servizi on line, rimane valido «anche per la copia tangibile di un’opera realizzata da un utente di tale

232

154

servizio con il consenso del titolare del diritto», ovvero una copia effettuata dall’utente a mero uso privato.

Giova a questo punto operare una precisazione su come il diritto di diffusione si sia evoluto in diritto di comunicazione nella sua più particolare accezione di “messa a disposizione del pubblico”. In principio la “comunicazione al pubblico” di una determinata opera presumeva la sua rappresentazione o esecuzione di fronte ad un certo numero di individui presenti al medesimo tempo (contemporaneità della fruizione) nel medesimo luogo. Con l’avvento dell’era digitale e la conseguente evoluzione delle tecnologie dell’informazione e comunicazione si è assistito ad un inevitabile ridefinizione del concetto di “comunicazione al pubblico”: perdono la loro importanza, in successione, tanto l’elemento territoriale, dato che non viene più caratterizzato come “pubblico” solo e solamente un numero determinato di soggetti compresenti in uno stesso luogo, quanto la variabile temporale, dal momento che viene ritenuta “pubblica” anche quel tipo di comunicazione che permette all’utente di accedere all’opera, come a qualsiasi altro genere di prestazione tutelata dal diritto d’autore, in un qualsiasi momento di sua scelta. Il tutto viene reso possibile dal carattere interattivo di Internet. Grazie a questa caratteristica l’utente diventa un soggetto attivo nella selezione delle informazioni digitali che rientrano nella sua sfera di interesse; “attivo” in quanto non si pone come mero “ricevitore”, bensì può anche fungere da centro di trasmissione delle medesime; ciascun internauta, infatti, ha la possibilità, attraverso la connessione alla rete globale, di mettere a disposizione di chiunque sia interessato, opere ed informazioni di qualunque tipo. Il legislatore, quindi, visti i cambiamenti avvenuti nella trasmissione delle opere e nel relativo diritto d’autore a causa del dominio sulla scena dei mezzi digitali, ha voluto adattare la disciplina al mutato contesto tecnologico. Il primo passo in questo senso è stato compiuto con l’emanazione della Direttiva 93/83/CE relativa ai diritti d’autore e connessi applicabili alla radiodiffusione via satellite e alla ritrasmissione via cavo233

. Stando al testo della Direttiva (e al successivo recepimento nazionale ad opera del d.lgs. 581/1996234) è riconosciuto in capo all’autore il diritto esclusivo di autorizzare la comunicazione al pubblico via satellite. Centrale in riferimento a quanto detto, risulta il ruolo dell’articolo 8 del WCT235

, nel quale, come visto in precedenza, si concretizza l’umbrella solution236

. Il fine della norma è quello di fornire una

233

Si veda a questo proposito il cap. 1, pp. 26 ss..

234

Per quanto concerne la normativa italiana in materia si veda il cap. 1, pp. 67-68

235

Si veda a questo proposito il cap. 1, p. 14.

236

Durante i negoziati di Ginevra del 1996, che portarono alla stipula dei due Trattati OMPI, emersero sostanzialmente due visioni, tra loro contrapposte, in merito a quale fosse il modo più appropriato di proteggere i titolari dei diritti nel contesto digitale: quella della delegazione USA e quella della delegazione UE. La prima avanzò due proposte tra loro complementari: rivedere il concetto classico di diritto di riproduzione, il quale tradizionalmente comprende solo le copie permanenti, e, per lo più materiali, dell’opera, al fine di estendere tale diritto anche al controllo delle copie temporanee che si formano nella memoria del computer; riconoscere un nuovo diritto, ovvero il diritto di trasmissione digitale. Le seconda invece mirava ad estendere il secondo filone della tutela del diritto d’autore, ovvero quello riguardante quelle attività immateriali e permanenti, per adattarlo alle esigenze specifiche del contesto digitale; quindi ciò che andava fatto era affermare, con quante più formulazioni possibili, che il diritto di comunicazione al pubblico non era da applicare solamente alle comunicazioni point-to- mass, ma anche a quelle trasmissioni on line nelle quali una molteplicità di riceventi possono accedere al materiale da luoghi differenti e in momenti diversi, a seconda della scelta individuale. Come si è già potuto rilevare l’approccio che infine prevalse fu quello UE, dal momento che la proposta USA, se attuata, avrebbe comportato una responsabilità dell’eventuale illecito in capo non solo agli on line providers, ma anche a compagnie telefoniche e operatori di rete, inclusi gli host e access providers, dal

155

indicazione sugli atti che si compiono per garantire l’accesso ad un'opera su una rete interattiva. Come già evidenziato in precedenza si è evitato di descrivere tali atti in maniera troppo tecnica in modo tale da evitare sia confusione in merito a quali comportamenti fossero consentiti o vietati dalla legge; sia, per gli autori, il decadere della protezione necessaria a causa della rapida obsolescenza di alcune modalità di comunicazione, dovuta alla rapidità dello sviluppo tecnologico. Per tale ragione il diritto esclusivo previsto dall'articolo 8 del WCT e dall'articolo 10 del WPPT è stato ribattezzato come “diritto di messa a disposizione del pubblico”.

Inoltre la dichiarazione relativa all’articolo 8 del WCT, concernente le responsabilità in capo ai Service Providers (ovvero quelle imprese che forniscono spazio sul web) precisa che, in base al presente trattato e alla Convenzione di Berna, non può essere fatta rientrare nell’ambito della comunicazione vera e propria la sola messa a disposizione per gli utenti delle infrastrutture in grado di favorire la medesima. Stando alla suddetta dichiarazione non viene contemplata alcun tipo di responsabilità in merito alla violazione del diritto di comunicazione per quanti si limitano a fornire il “canale” di comunicazione atto a far transitare le comunicazioni, ma solo per coloro che materialmente compiono l’atto di trasmissione delle informazioni237

. La nuova era digitale, stante l’impossibilità di controllare l’utilizzo delle opere mediante la semplice applicazione dei diritti esclusivi disciplinati dal copyright, porta inevitabilmente all’utilizzo delle nuove tecnologie anti-accesso e anti-copia, le quali garantiscono al titolare del diritto la regolamentazione dello sfruttamento economico dell’opera238

.

A questo punto risulta interessante riportare una riflessione Lawrence Lessig a proposito del progettare innovazione nel cyberspazio239. L’Autore cita Banckler, docente di diritto alla New York University Law School, per descrivere le tre parti che compongono qualunque tipo di sistema di comunicazione: «dovremmo pensare che qualsiasi sistema di comunicazione si compone di tre parti, tre “strati” secondo la terminologia degli architetti di network. Un primo strato è quello fisico, il secondo è lo strato logico e il terzo è lo strato dei contenuti». Prendendo ad esempio la rete Internet (che può tranquillamente darsi come sistema di comunicazione) lo strato

momento che qualsiasi tipo di riproduzione effimera sarebbe stato considerata una attività illecita (si veda Ricolfi M., A copyright for cyberspace? The european dilemmas, in AIDA, Giuffrè, Milano, 2000, pp. 451-455).