• Non ci sono risultati.

Web e conoscenza: la comunicazione in rete tra verità e inganno

N/A
N/A
Protected

Academic year: 2021

Condividi "Web e conoscenza: la comunicazione in rete tra verità e inganno"

Copied!
109
0
0

Testo completo

(1)

1 Indice

Introduzione ... 3

Capitolo 1 ... 6

Battitori di piste ... 6

Enquire within upon Everything ... 10

“Ehi, ho appena avviato un server” ... 14

W3C ... 18

Capitolo 2 ... 20

Copyright – all right reserved ... 20

Copyleft – all right reversed ... 22

Open Source ... 25

Creative Commons ... 28

Censura su Internet ... 30

Rete e democrazia... 36

Capitolo 3 ... 39

Comunicazione della scienza ... 39

Impact Factor ... 42

La diffusione della scienza ... 45

Progetti di Citizen Science ... 48

Citizen Science Italia ... 50

Capitolo 4 ... 52 Comunicazione di massa ... 52 Media Digitali ... 56 Cultura digitale ... 59 Capitolo 5 ... 65 Il divario digitale ... 65

Il divario nell’accesso alle tecnologie digitali ... 68

(2)

2 Capitolo 6 ... 78 Media sociali ... 78 Disinformazione in rete ... 88 Conclusioni ... 95 Bibliografia ... 100

(3)

3 Introduzione

Il diametro dell’Aleph sarà stato di due o tre centimetri, ma lo spazio cosmico vi era contenuto, senza che la vastità ne soffrisse. Ogni cosa […] era infinite cose, poiché io la vedevo distintamente da tutti i punti dell’universo – J. L. Borges

Già alla fine del XVII secolo Leibniz profetizzava che “l'uso d'un adeguato simbolismo (characteristica universalis) atto ad esprimere le relazioni logiche, avrebbe dovuto […] costituire la base di un algebra logica (calculus ratiocinator) applicabile a tutti gli ordini di conoscenza razionale. Delle controversie umane la characteristica avrebbe dovuto divenire giudice, i nostri errori si sarebbero ridotti ad errori di calcolo, facilmente correggibili con un attento esame. Quando due filosofi avessero avuto da risolvere una controversia avrebbe dovuto bastare a questo fine un calcolo1”.

Il sogno di una intelligenza artificiale che uguagliasse o addirittura superasse l’intelletto umano guida ancora oggi alcuni campi di ricerca; in un articolo apparso recentemente su La Stampa2 si ipotizza addirittura una data: nel 2045 il computer avrà il primato sull’uomo. Questa possibilità è in realtà molto dibattuta e poco condivisa in ambito scientifico ma certamente l’uso della tecnologia ha permesso un accesso a dati e documenti più ampio e più veloce.

La condivisione delle informazioni è alla base del progresso scientifico: “Il sapere è tale in quanto frutto di un processo cumulativo, e si struttura, grazie alla collaborazione degli scienziati, in sistemi collegati, che includono l’intero patrimonio delle conoscenze umane3”.

1 Ettore Carruccio, “I fini dei “Calculus ratiocinator” di Leibniz, e la logica matematica del nostro tempo”, Bollettino dell’Unione Matematica Italiana, Serie 3, Vol. 3 (1948), n.2, pag. 148–161. Zanichelli, https://tinyurl.com/ycqs9xso.

2 Bruno Ruffilli, “2029 l’anno in cui i computer uguaglieranno gli umani”, La Stampa, 12/06/17, http://tiny.cc/kgbuly.

3 Francesca Di Donato, La scienza e la rete, l’uso pubblico della ragione nell’età del Web, Firenze University Press 2009, pag. 48 http://www.fupress.com/Archivio/pdf/3867.pdf.

(4)

4 Nel Web però si muovono informazioni di ogni tipo: vere, false, di buona o di bassa qualità. L’uso di indici bibliometrici e peer review non è sufficiente ad eliminare la pubblicazione di false verità scientifiche, nel 2016: “per esempio abbiamo assistito al tonfo di Theranos, la compagnia medica fondata nel 2003 da Elizabeth Holmes che avrebbe dovuto rivoluzionare il mercato delle analisi del sangue. Il fatto che Theranos non abbia mai presentato prove della tecnologia avveniristica che affermava di possedere non le ha impedito di crescere e attrarre finanziatori4”. Lo sviluppo e la velocizzazione dei mezzi di comunicazione ha ampliato le possibilità di accesso allo spazio Web, utilizzato oggi anche per scopi ludici. Chiunque può pubblicare foto, filmati, pensieri in luoghi di incontro virtuali (social network) fomentando spesso anche sentimenti di odio e malcontento.

Un possibile rimedio può essere rappresentato dalla istituzione di una autorità di controllo? Per il creatore del Web, Tim Berners-Lee: “un’autorità che esercitasse un controllo sulla qualità sarebbe assai più dannosa degli svantaggi che l’apertura del sistema può comportare5”. Il potere di decidere quali informazioni e quali testi possano circolare può essere molto pericoloso per la stessa democrazia:

“La libertà di parola non è solo un prerequisito per la democrazia, è anche il garante dello sviluppo della società. Il libero flusso di idee e opinioni, così come il dibattito e l’esame critico, crea un clima di ricchezza di idee e dà impulso all’innovazione. […] Ma mentre celebriamo la libertà di espressione, purtroppo vediamo come i diritti e le libertà fondamentali vengono sempre più minacciati in tutto il mondo. In molti luoghi assistiamo al restringimento dello spazio democratico. Le persone vengono messe a tacere e le informazioni civiche sono soggette a restrizioni. La legislazione repressiva prende di mira i giornalisti e i difensori dei diritti umani. […] Il 250° anniversario della legge costituzionale sulla libertà di stampa in Svezia ci ricorda la lunga strada che abbiamo percorso per promuovere la libertà di espressione. La libertà di parola è un principio che non deve mai essere dato per scontato e che deve sempre essere difeso.

4 Stefano Dalla Casa, “Le migliori bufale scientifiche del 2016”, Scienza Lab - Wired.it; https://www.wired.it/scienza/lab/2016/12/09/le-migliori-bufale-scientifiche-del-2016/. 5 Francesca Di Donato, La scienza e la rete, l’uso pubblico della ragione nell’età del Web, Firenze University Press 2009, pag. 54 http://www.fupress.com/Archivio/pdf/3867.pdf.

(5)

5 Noi speriamo che il 2 dicembre sarà il punto di partenza di un rinnovato impegno. Speriamo che sempre più persone si levino per difendere il dibattito libero e continuare a discutere, esaminare, controllare e criticare” (dal discorso di Robert Rydberg, ambasciatore svedese in Italia, in occasione dei 250 anni della libertà di stampa in Svezia6).

.

(6)

6 Capitolo 1

Battitori di piste

Ogni linguaggio è un alfabeto di simboli il cui uso presuppone un passato che gl’interlocutori condividono; come trasmettere agli altri l’infinito Aleph, che la mia timorosa memoria a stento abbraccia? – J. L. Borges

I primi tentativi di collegare “le informazioni di tutti i computer, dovunque essi si trovino7” iniziano esattamente un secolo prima di questa ipotetica rivoluzione.

Vannevar Bush, ex preside di ingegneria del MIT (Massachusetts Institute of

Technology), poi direttore dell’Ufficio Americano per la Ricerca e lo Sviluppo

Scientifico, alla fine della II guerra mondiale nel suo saggio As we may think sostiene che: “è necessaria un’indagine sul metodo della ricerca e sul processo di costruzione della scienza8” per capire come la tecnologia possa migliorare il benessere dell’uomo. Bush progetta, nel 1945, il Memex, “una scrivania meccanizzata formata da schermi translucidi inclinati, una tastiera, e gruppi di bottoni e di leve. Al suo interno sono archiviati gli strumenti di lavoro del ricercatore […] proiettabili velocemente su schermi inclinati9”. La caratteristica fondamentale del Memex è che questa macchina fotoelettronica è in grado di “attuare e seguire riferimenti incrociati tra i vari documenti su microfilm servendosi di codice binario, fotocellule e fotografia istantanea10”.

7 Tim Berners-Lee, L’architettura del nuovo Web, Feltrinelli, Milano 2001, pag. 18. 8 Francesca Di Donato, La scienza e la rete, l’uso pubblico della ragione nell’età del Web, Firenze University Press 2009, pag. 48 http://www.fupress.com/Archivio/pdf/3867.pdf.

9 Francesca Di Donato, op. cit. pag. 49. 10 Tim Berners-Lee, op. cit., pag. 18.

(7)

7 I documenti ritenuti interessanti dallo studioso possono essere lasciati aperti e, una volta completata l’analisi delle fonti, il ricercatore può procedere con la propria elaborazione. Bush ipotizza addirittura una nuova professione che lui chiama il battitore di piste11: colui che si dedica metodicamente alla parte di selezione documentale. In questo modo il Memex permette di gestire l’enorme quantità di materiale bibliografico prodotto dall’uomo riducendo una delle più forti barriere per l’accesso alle informazioni: il costo di riproduzione.

I testi e i documenti contenuti nel Memex, come in una grande biblioteca, mantengono però il proprio formato lineare, quindi il metodo di scorrimento delle informazioni continua ad essere sequenziale.

Due decenni dopo, affascinato dagli studi di Bush, Ted Nelson ipotizza un metodo di scrittura non sequenziale, in opposizione al formato lineare, che permetta all’utente di scegliere il proprio percorso. Nel 1965 egli conia il termine “ipertesto” per indicare un “sistema di organizzazione di informazioni - testuali e non - in una struttura non lineare, elastica e non rigida. Una struttura che non poteva essere mostrata in modo

11 Vannevar Bush in Francesca Di Donato, La scienza e la rete, l’uso pubblico della ragione nell’età del Web, Firenze University Press 2009, pag. 50 http://www.fupress.com/Archivio/pdf/3867.pdf.

Figura 1 The Memex by Derek Mueller

(8)

8 convenzionale su una pagina stampata, ma che richiedeva le capacità di un computer per mostrarla in modo dinamico e navigarla opportunamente12”.

L’ipertesto ha una struttura basata su corrispondenze e collegamenti (link) che permettono al lettore di spostarsi all’interno del testo e tra testi diversi senza essere “costretto a leggere in un ordine definito13”. Nelle intenzioni di Nelson l’ipertesto

avrebbe dovuto permettere una condivisione ampia ed ugualitaria tra persone che comunicano tra loro; lo studioso, però, non riuscì a farsi finanziare il progetto.

Alla fine degli anni sessanta Doug Engelbart dimostra “la possibilità di uno spazio di lavoro in collaborazione chiamato NLS (oN Line System)14”. Lo spazio virtuale può essere utilizzato per i lavori di gruppo attraverso lo strumento dell’ipertesto.

Per facilitare lo spostamento del cursore sullo schermo e cliccare sui link, Engelbart costruisce una piccola scatola di legno contenente una pallina che si muove con la spinta della mano. Engelbart chiama questo strumento “mouse”.

12 Andrea D’Alessandro, Una storia dell’ipertesto, Politecnico di Torino, pag. 8, http://tiny.cc/ibnxly.

13 Tim Berners-Lee, L’architettura del nuovo Web, Feltrinelli, Milano 2001, pag. 19. 14 Tim Berners-Lee, ibidem.

Figura 2, Computer Mouse.jpg, CC-BY-SA-3.0, http://tiny.cc/bbpxly

(9)

9 Altri studiosi avevano provato in precedenza a progettare una macchina che non fosse solo in grado di immagazzinare dati e fare calcoli ma che riuscisse anche a fare associazioni tra le informazioni.

Il “monolite nero15” generatore di macchine “pensanti” si manifesta a partire dagli anni

1970 con la creazione di ARPANET (1969)16 seguita poi da INTERNET, l’infrastruttura tecnologica che ha permesso la connessione globale. Lo stesso Tim Berners-Lee riconosce come fondamentale Internet: “Io ho avuto la fortuna di arrivare con gli interessi e l’inclinazione più adatti nel momento più propizio, quando l’ipertesto e Internet erano già grandi. A me non è restato che unirli in matrimonio17”.

15 Dal film di Stanley Kubrick “2001: Odissea nello spazio”, 1968, http://tiny.cc/yosvly. 16 “ARPANET (acronimo di "Advanced Research Projects Agency NETwork", fu una rete di computer studiata e realizzata nel 1969 dall'agenzia del Dipartimento della Difesa degli Stati Uniti responsabile per lo sviluppo di nuove tecnologie ad uso militare. Si tratta della forma per così dire embrionale dalla quale poi nacque Internet.”da Wikipedia.org.

(10)

10 Enquire within upon Everything

Vidi contemporaneamente ogni lettera di ogni pagina (bambino, solevo meravigliarmi del fatto che le lettere di un volume chiuso non si mescolassero e perdessero durante la notte) J. L. Borges

Il World Wide Web nasce nel 1990 ad opera del giovane fisico inglese Tim Berners Lee, mosso dall’esigenza di condividere le informazioni e i documenti dinamicamente in tempo reale.

Figlio di matematici, Tim Berners-Lee fin da piccolo è affascinato dal lavoro dei genitori occupati nella programmazione del primo computer commerciale per l’Università di Manchester. L’intento dei Berners-Lee è quello di creare un computer in grado di collegare le informazioni in modo casuale prendendo a modello il processo cognitivo della mente umana. A causa della forte gerarchia a cui le informazioni sono sottoposte il calcolatore non è però in grado di permettere una simile evoluzione.

Nel 1980 Tim Berners-Lee inizia una collaborazione con il CERN (Consiglio Europeo per la Ricerca Nucleare) di Ginevra e, in quel periodo, realizza un programma precursore del World Wide Web.

L’idea alla base del programma nasce dal volume Enquire within upon Everything che Berners Lee aveva avuto modo di leggere da bambino, nella biblioteca di casa. Il libro, molto voluminoso, contiene una infinità di informazioni e, scorrendo le sue pagine, si possono ricavare consigli pratici su svariati oggetti o argomenti: “Forse non sarà la perfetta analogia con Web, ma può servire come rudimentale punto di partenza. Quel primo frammento di codice Enquire mi condusse a qualcosa di più vasto, a una visione che abbracciava la crescita decentrata e organica di idee, tecnologia e società18”.

Enquire si configura come un programma “retiforme” che abbandona ogni forma di

gerarchia grazie al collegamento ipertestuale fra le informazioni.

Il programma ha la funzione di mettere in connessione i diversi progetti dei laboratori, il personale impegnato su ciascun progetto e i calcolatori. Grazie ad Enquire le informazioni vengono suddivise attribuendo loro una classificazione che permette al

(11)

11 computer di individuarle facilmente. “Una volta che un pezzo di informazione dentro questo spazio fosse stato etichettato con un indirizzo avrei potuto ordinare al mio computer di trovarlo. Essendo in grado di fare riferimento a ogni cosa con altrettanta facilità, il calcolatore avrebbe creato associazioni tra cose che sembravano scollegate ma che, nella pratica, avevano un qualche rapporto. Si sarebbe formata così una rete di informazioni19”.

Enquire utilizza il collegamento ipertestuale. Ogni pagina è un nodo ed è possibile

creare ulteriori nodi facendo nuovi collegamenti a quest’ultimo. I link possono essere sia esterni, fra i diversi file, oppure interni tra una pagina e l’altra all’interno di uno stesso file. I due tipi di link si differenziano per il percorso: il link interno è bidirezionale, mentre l’esterno è percorribile in un unico senso.

Il Codice di Enquire viene salvato su un floppy disk da Berners-Lee che decide di farlo rimanere al CERN dove viene successivamente perduto.

Nel 1983 lo scienziato collabora nuovamente con il Cern di Ginevra dove con il primo computer portatile, il Personal Compaq scrive il programma Tangle. Il programma permette la creazione di un nodo ogni volta che si presenta una sequenza di caratteri specifica. Con il ripresentarsi delle stesse sequenze Tangle rinvia al nodo creatosi in precedenza. La caratteristica fondamentale di questo programma è la connessione fra i documenti.

Tangle è un programma troppo complesso e per questo lo scienziato decide di non

utilizzarlo ulteriormente.

Nel 1984 il personal computer è diffuso fra gli scienziati del CERN. Ogni computer ha però il proprio linguaggio di programmazione. A questo proposito Berners-Lee decide di scrivere il programma Remote Procedure Call con lo scopo di agevolare la comunicazione fra il computer e la rete del CERN. “Con RPC un programmatore poteva scrivere un programma su un modello di computer ma avviare le procedure sugli altri, anche se utilizzavano un diverso sistema operativo o un altro linguaggio20”.

Il fisico sente la necessità di scrivere un nuovo programma simile ad Enquire con lo scopo di costruire un database contente tutte le informazioni riguardanti il lavoro

19 Tim Berners-Lee, L’architettura del nuovo Web, Feltrinelli, Milano 2001, pag. 18. 20 Tim Berners-Lee, ibidem, pag. 27.

(12)

12 condotto dagli scienziati come i progetti di ricerca, gli scritti e i manuali al quale tutti i colleghi avrebbero avuto libero accesso. La soluzione arriva con l’ipertesto: “Immaginai di combinare i link esterni di Enquire con l’ipertesto e con gli schemi d’interconnessione che avevo sviluppato per RPC. Un programma Enquire capace di link esterni significava la differenza che passa tra la galera e la libertà, tra la notte e il giorno. In questo modo avrei potuto creare nuove reti per collegare computer distinti, e tutti i nuovi sistemi sarebbero stati in grado di andare verso gli altri21”.

Una caratteristica fondamentale richiesta dal sistema è l’assoluto decentramento, reso possibile dalla mancanza di un nodo centrale che avrebbe creato rallentamenti in caso di una elevata utenza. Non esistono nel Web nodi gerarchicamente più importanti ma ciascun documento è equivalente agli altri e possiede un indirizzo di riferimento.

In attesa di ottenere l’autorizzazione allo sviluppo del programma, lo scienziato incontra Ben Segal con il quale ha lavorato al programma RPC. Segal gli racconta di come in USA Internet sia utilizzato per collegare le Università e i laboratori di ricerca e della possibilità che anche al CERN si possa adottare una simile rete. Ma in Europa l’Organizzazione Internazionale degli Standard vuole creare un protocollo proprio per la rete con lo scopo di non utilizzare la rete di Internet originatasi in America22. Il CERN crea la CERC-net, una propria rete.

Berners-Lee ritiene necessario che i computer comunichino attraverso la rete (fino ad allora questo era possibile solo attraverso la dotazione di un cavo apposito per la connessione dei due computer). Per comunicare in rete i computer utilizzano dei protocolli IP (Internet Protocol) e TCP (Trasmission Control Protocol). I Protocolli sono delle convenzioni che i computer utilizzano fra loro per comunicare e scambiarsi dati.

21 Tim Berners-Lee, L’architettura del nuovo Web, Feltrinelli, Milano 2001, pag. 28. 22 Negli Stati Uniti il dipartimento della difesa, nel 1969 costituisce un gruppo di ricercatori universitari chiamato ARPA (Advanced Research Projects Agency) con lo scopo di fare ricerca nel campo della tecnologia militare in risposta al lancio da parte dell’Unione Sovietica dello Sputnik. È proprio da questo gruppo di ricerca che nasce ARPANET.

(13)

13 Il sistema ipertestuale che Berners-Lee vuole attuare e per il quale ha richiesto l’autorizzazione al CERN è dotato di link all’interno del testo. Le parole, evidenziate in un formato diverso, rimandano al collegamento iniziale attraverso un click dell’utente. Dopo aver ripresentato più volte la proposta e averla vista sempre rigettata Berners Lee decide di comprare nel 1990 il nuovo computer ideato da Steve Jobs, il NeXT sul quale inizia a scrivere l’ipertesto globale che chiama World Wide Web. Egli scrive il codice http, Hypertext Transfer Protocol, il protocollo mediante il quale i computer si trasferiscono le informazioni tramite la rete Internet, e l’Universal Resource Identifier (URI) che identifica in maniera univoca ciascuna risorsa presente sul Web. La presenza di un indirizzo unico fa sì che qualsiasi dato o documento sia raggiungibile, in uno spazio informativo interconnesso, universale e accessibile.

(14)

14 “Ehi, ho appena avviato un server”

Pensai anche a un’opera platonica, ereditaria, da trasmettere di padre in figlio, e alla quale ogni nuovo individuo avrebbe aggiunto un capitolo, e magari corretto, con zelo pietoso, le pagine dei padri. – J. L. Borges

Il Web non è stato “come la leggendaria mela caduta sulla testa di Newton per dimostrare il concetto di gravitazione universale23” ma si sviluppa nella mente di Berners Lee grazie alle influenze, “pensieri informi, conversazioni frammentarie ed esperimenti in apparenza scollegati24”. Oltre alle innovazioni tecnologiche anche il luogo in cui il Web nasce ha probabilmente esercitato la sua influenza. “Il centro di ricerca sulla fisica delle particelle meglio noto come CERN si trova a cavallo del confine franco-svizzero nei pressi di Ginevra […] Tecnici e scienziati arrivavano al CERN da tutte le parti del mondo per indagare le proprietà fondamentali della materia25”.

All’interno di questo enorme think tank ogni gruppo di scienziati lavora su computer diversi con propri sistemi operativi e linguaggi di programmazione. Ciascun progetto viene poi seguito anche da centri esterni al CERN stesso; ma: “trasmettere le proprie conoscenze costituisce il punto di arrivo e l’anima stessa del lavoro intellettuale: una condizione indispensabile allo svolgimento dell’attività di ricerca26”.

La sfida quindi è quella di creare un sistema di comunicazione e condivisione delle informazioni che permetta ai diversi studiosi di continuare ad utilizzare i propri programmi: “possiamo creare una base comune per comunicare permettendo a ciascun sistema di conservare la propria individualità27”. Una volta stabiliti i criteri minimi (indirizzo URI, protocollo di trasferimento HTTP, linguaggio HTML) necessari allo

23 Tim Berners-Lee, L’architettura del nuovo Web, Feltrinelli, Milano 2001, pag. 16. 24 Tim Berners-Lee, Ibidem, pag. 16.

25. Tim Berners-Lee, Ibidem, pag. 21.

26 Francesca Di Donato, La scienza e la rete, l’uso pubblico della ragione nell’età del Web, Firenze University Press 2009, pag. 92 http://www.fupress.com/Archivio/pdf/3867.pdf.

(15)

15 scambio di informazioni si assiste alla creazione di uno spazio condiviso dell’informazione. Documenti, immagini, video e altri tipi di file inseriti in questo spazio possono essere raggiunti da chiunque attraverso la navigazione ipertestuale semplificando la consultazione e la ricerca bibliografica, con grande vantaggio per studiosi e ricercatori. Nella mente del suo ideatore però: “il Web doveva essere molto più di uno strumento per ricercatori. Perché un sistema internazionale di ipertesto sia valido, deve esserci molta gente che inoltri informazioni28”.

Berners Lee capisce che il sistema migliore per sviluppare il Web è la collaborazione di tutta la comunità scientifica e cerca di ampliare il più possibile sia all’interno del CERN che all’esterno l’uso del programma; insieme al suo collega Robert Cailliau cerca anche il supporto di aziende esterne ma non riesce ad attirare il loro interesse perché non sono evidenti le possibilità di guadagno economico.

Per questo Tim e Robert decidono di pubblicizzare il programma all’interno del CERN al fine di attivare la collaborazione degli studiosi presenti.

Nello stesso tempo, utilizzando il server info.cern.ch forniscono alle persone interessate gli elementi di base per l’utilizzo del Web rispondendo anche a domande e curiosità: “Cominciai a ricevere e-mail da persone che stavano cercando di istallare il programma, segnalando i buchi e dando consigli. E ogni tanto c’era un «ehi, ho appena avviato un server, ed è fortissimo. Eccovi l’indirizzo» […] da lì in poi, la gente interessata presente in Internet, fornì feedback, stimoli, idee, contributi al codice sorgente e un appoggio morale che sarebbe stato difficile trovare il loco. Il popolo di Internet ha costruito il Web dalle fondamenta29”.

Tra il 1992 e il 1993 si assiste allo sviluppo di molti browser Web (Viola, Erwise,

Midas, Mosaic ecc.) e il traffico Internet cresce in modo esponenziale.

Molti sono i tentativi di costruire programmi da utilizzare per lo scambio di informazioni in rete; Mark McCahill con altri collaboratori dell’università del Minnesota aveva creato nel 1991 un protocollo di rete chiamato Gopher che permetteva una navigazione attraverso menù.

28. Tim Berners-Lee, L’architettura del nuovo Web, Feltrinelli, Milano 2001, pag. 45. 29 Tim Berners-Lee, Ibidem pag. 52-53.

(16)

16 Nel 1993 l’università del Minnesota decide di farsi pagare per l’uso di Gopher attraverso un abbonamento annuale. Il programma sarebbe rimasto gratuito per gli studenti.

Questa decisione condurrà alla riduzione della diffusione di Gopher per evitare di avere problemi con il copyright: “per un tecnico era considerato pericoloso anche soltanto aver letto un pezzetto di codice, perché tutto quello che avrebbe fatto in futuro poteva essere ritenuto ispirato in qualche maniera alla tecnologia privata Gopher30”.

Per questo motivo Tim Berners Lee si impegnerà affinché il CERN non commetta lo stesso errore. Egli vuole evitare anche la licenza generale pubblica (GPL) ideata da Richard Stallman perché anche questa impone delle regole, seppure minime.

Alla fine di aprile del 1993 il CERN emanerà un atto in cui si concede l’uso gratuito del protocollo e del codice Web.

(17)

17 Figura 3 - Dichiarazione CERN https://bonacina.files.wordpress.com/2013/04/cernw3_9304003_.pdf

(18)

18 W3C

Tra gli Immortali, invece, ogni atto (e ogni pensiero) è l’eco d’altri che nel passato lo precedettero, senza principio visibile, o il fedele presagio di altri che nel futuro lo ripeteranno fino alla vertigine. – J. L. Borges

La decisione di rendere il Web libero e senza diritti determina il suo successo. Come ha spiegato Stefano Moriggi, filosofo della scienza all’Università di Milano-Bicocca, la rinuncia del CERN a qualsiasi forma di diritto di autore: “ha cambiato il mondo: non c’è dubbio su questo. Ha cambiato le regole della comunicazione e anche i modi in cui ci relazioniamo tra noi31”.

Preoccupato dal fatto che molti programmatori lavorano per conto proprio guidati quasi esclusivamente dall’interesse economico, Berners Lee decide che è giunto il momento di stabilire degli standard condivisi sulle modalità operative del Web: “la Rete rischiava di scindersi in diverse fazioni, alcune commerciali, altre accademiche, alcune gratis, altre no. In questo modo si sarebbe perso il vero intento del Web, cioè il suo essere un unico mezzo di ipertesto per ottenere informazioni, universale e accessibile32”.

La soluzione individuata è quella della creazione di un consorzio chiamato World Wide

Web Consortium (W3C) tra il Massachusetts Institute of Technology (MIT) e il CERN.

Fanno parte, oggi, del W3C numerose aziende informatiche, compagnie telefoniche, organizzazioni no profit, Università ed enti di ricerca, tra cui per l’Italia l’Istituto di Scienza e Tecnologie dell’Informazione A.Faedo del CNR (area della ricerca di Pisa.) I compiti svolti dal W3C sono divisi in 4 settori:

 Architecture Domain: gestisce le tecnologie su cui si fonda il Web;

 Interaction Domain: ha come obbiettivo il miglioramento delle modalità di connessione e ricerca tra uomo e Web;

 Technology and Society Domain: modella la struttura tecnologica secondo criteri sociali, legali e pubblici;

31 “Il Web libero festeggia i primi 20 anni”- ANSA, Scienza e Tecnica 30 aprile 2013 http://tiny.cc/6oa8ly.

(19)

19  Web Accessibility Initiative: si occupa di fornire a chiunque gli strumenti utili

ad utilizzare a pieno le possibilità offerte dal Web, attraverso un lavoro che si articola in cinque differenti aree: tecnologia, linee guida, strumenti, educazione e ricerca e sviluppo.

(20)

20 Capitolo 2

Copyright – all right reserved

Considerai che il Tesoro non era infinito e che egli poteva reclamarne una parte. Alla mia cintura stava la daga con l’impugnatura d’argento; la estrassi e gli trapassai la gola.

J. L. Borges

Figura 4 Simbolo copyright

“Il principio fondamentale del Web è che, una volta che si è messo a disposizione un documento, un database, un’immagine, un suono, un video o un dialogo interattivo, questo dovrebbe essere accessibile a tutti (ovviamente previa autorizzazione)33”.

La libertà del World Wide Web permette la navigazione e la ricerca dei contenuti ma questo non costituisce la garanzia di disporne liberamente. Tim Berners Lee parla genericamente di autorizzazione ma il materiale reperito sul Web è comunque sottoposto alle leggi sul copyright e, in alcuni casi, anche alla censura.

Secondo la normativa italiana, la durata del diritto di autore vale “per tutta la vita

dell’autore e sino al termine del settantesimo anno solare dopo la sua morte” (art. 25

legge 22 aprile 1941, n. 633 smi – Protezione del diritto di autore e di altri esercizi connessi al suo esercizio34). Una durata così estesa del diritto di autore, giustificata dai beneficiari dalla necessità di recuperare le spese per la pubblicazione delle opere,

33 Tim Berners-Lee, L’architettura del nuovo Web, Feltrinelli, Milano 2001, pag. 44. 34 Legge 22 aprile 1941, InterLex, http://www.interlex.it/testi/l41_633.htm.

(21)

21 risponde in realtà all’interesse delle grandi aziende editoriali e di produzione per proteggere i propri profitti e prolungarli nel tempo.

“Dal 1790 fino al 1978 la durata media del copyright non fu mai superiore ai trentadue anni, e questo voleva dire che la maggior parte della cultura, vecchia di appena una generazione e mezzo, era liberamente disponibile a chiunque volesse attingervi senza il permesso di nessuno35”.

La tecnologia digitale ricade sotto l’influenza del copyright per due aspetti:

1. I codici software sono protetti da copyright pertanto le modalità stesse di funzionamento della tecnologia e di trasmissione dei dati possono essere limitate nell’accesso e nell’utilizzo;

2. I contenuti (documenti, video, immagini, file musicali…) sono soggetti alla protezione sul diritto di autore, quindi il loro utilizzo e la loro fruizione sono disciplinati dalla legge.

35 Lawrence Lessig, Cultura libera, Un equilibrio fra anarchia e controllo, contro l’estremismo della proprietà intellettuale – Copyleft Italia, pag. 17, http://www.copyleft-italia.it/pub/Lessig-CulturaLibera.pdf.

(22)

22 Copyleft – all right reversed

E’ vero che non esco di casa, ma è anche vero che le porte (il cui numero è infinito) restano aperte giorno e notte agli uomini e agli animali. Entri chi vuole. – J. L. Borges

Figura 5 Simbolo Copyleft36

Nel 1983 l’informatico Richard Stallman, ricercatore presso il MIT, ha necessità di modificare il software di una fotocopiatrice Xerox per adattarla alle esigenze del suo gruppo di lavoro. L’accesso al codice, protetto da copyright, gli viene negato. Questo spinge Stallman: “a lasciare il MIT, prefiggendosi l’obbiettivo di difendere la libertà del

software e di creare, a tal fine, un sistema operativo aperto e compatibile con Unix37”.

Stallman si propone di proteggere il libero accesso alla conoscenza senza interessarsi al profitto che potrebbe derivarne e, a questo scopo, inventa una licenza che possa permettere a chiunque di copiare, modificare o distribuire il codice originale.

Stallman crea la Free Software Foundation e avvia il progetto GNU (GNU is Not Unix). L’ideologia alla base della Free Software Foundation è quella di perseguire un software libero in contrapposizione al software proprietario: “I started the free software

36 “È sbagliato dal punto di vista legale usare una C rovesciata in un cerchio al posto del simbolo di copyright. Il copyleft è basato legalmente sul copyright, quindi l'opera deve avere un'indicazione di copyright, e questo richiede o il simbolo di copyright (una C in un cerchio) o la parola Copyright” da Cos’è il Copyleft - https://www.gnu.org/licenses/copyleft.it.html.

37 Francesca Di Donato, La scienza e la rete, l’uso pubblico della ragione nell’età del Web, Firenze University Press 2009, pag. 93 http://www.fupress.com/Archivio/pdf/3867.pdf.

(23)

23

movement to replace user-controlling non-free software with freedom-respecting free software. With free software, we can at least control what software does in our own computers38”.

Il software creato è protetto da una licenza particolare detta copyleft (permesso d’autore) in opposizione a copyright (diritto d’autore). “Il permesso d’autore è la regola per la quale: l’utente che intende ridistribuire il software originario o un software basato sul software originario non può aggiungere alla licenza restrizioni ulteriori rispetto alle condizioni previste nella licenza originaria. Per garantire effettività a una tale regola, dapprima si stabilisce che il software è protetto da copyright, per impedire che il codice possa essere inserito in software proprietari, poi si aggiungono i termini di distribuzione, che attribuiscono a chiunque i diritti di usare, modificare e ridistribuire il programma, ma solo riconoscendo agli altri, a loro volta, gli stessi termini di distribuzione39”.

Free software non indica la gratuità del programma ma la libertà di utilizzo: “è una

questione di libertà, non di prezzo. Per capire il concetto, bisognerebbe pensare alla “libertà di parola” e non alla “birra gratis”; in inglese a volte usiamo “libre”, riciclando la parola che significa “libero” in francese e spagnolo, per disambiguare40”.

Il software è libero se rispetta quattro punti fondamentali:

1. Libertà di eseguire il programma, per qualsiasi scopo (libertà 0); 2. Libertà di studiare come funziona il programma e adattarlo alle proprie

necessità (libertà 1). L’accesso al codice sorgente ne è un prerequisito; 3. Libertà di ridistribuire le copie in modo da aiutare il prossimo (libertà 2); 4. Libertà di migliorare il programma e distribuirne pubblicamente i

miglioramenti (e le versioni modificate in genere), in modo tale che tutta la

38 Richard Stallman “The Anounymous WikiLeaks protest are a mass demo against control” , The Guardian, 2010 in http://tiny.cc/vlxemy.

39 Antonio Florio “Il problema della qualificazione giuridica delle licenze di software free e open source” Diritto dell’informatica.it, 2009, http://tiny.cc/3syfny.

40 “Cos’è il software libero” Il sistema operativo GNU https://www.gnu.org/philosophy/free-sw.it.html.

(24)

24

comunità ne tragga beneficio (libertà 3). L’accesso al codice sorgente ne è un prerequisito.41

I principi del copyleft sono declinati in diverse licenze tra le quali troviamo:

 General Public License (GPL): è una licenza persistente perché chiunque distribuisce il codice, modificato o copiato è obbligato a mantenere la licenza. Inoltre la GPL è anche propagativa perché qualora un software GPL viene unito ad un altro non coperto dalla stessa licenza il risultato può essere distribuito o rilasciato solo se obbedisce al vincolo copyleft;

 Affero General Public License (AGPL): utilizzata per software dedicati a reti di calcolatori. Le modifiche al codice sorgente devono poter essere disponibili per tutti gli utenti della rete, e per qualsiasi modulo del programma;

 Lesser General Public License (LGPL): forma attenuata di copyleft utilizzata per librerie in collegamento con programmi con licenza diversa;

 Free Documentation License (FDL): usata per manuali e testi didattici garantisce la libertà di copia e di distribuzione.

(25)

25 Open Source

Stabilita una base di beta-tester e co-sviluppatori sufficientemente ampia, ogni problema verrà rapidamente definito e qualcuno troverà la soluzione adeguata – E. S. Raymond

Figura 6 Simbolo GNU/Linux http://tiny.cc/h8zemy

Nel 1991 il finlandese Linus Torvalds elabora un kernel compatibile con Unix e con GNU, dando vita al sistema operativo GNU/Linux. Il sistema si sviluppa con il contributo indipendente di altri operatori che condividono le modifiche al codice sorgente: “Linux è sovversivo. Chi avrebbe potuto pensare […] che un sistema operativo a livello mondiale sarebbe emerso come per magia dal lavoro part-time di diverse migliaia di hacker e sviluppatori sparsi sull’intero pianeta, collegati tra loro solo grazie ai tenui cavi di Internet? […] Il fatto che questo stile bazaar sembrasse funzionare, e anche piuttosto bene, mi colpì come uno shock. Mentre imparavo a prenderne le misure, lavoravo sodo non soltanto sui singoli progetti, ma anche cercando di comprendere come mai il mondo Linux non soltanto non cadesse preda della confusione più totale, ma al contrario andasse rafforzandosi sempre più a una velocità a malapena immaginabile per quanti costruivano cattedrali42”.

La funzionalità raggiunta con GNU/Linux fa intravedere possibili aree di business appetibili anche alle imprese commerciali. Il guadagno non arriva più dalla vendita dei diritti sul software ma dai servizi offerti per la manutenzione, l’aggiornamento, il potenziamento e la personalizzazione di alcune funzioni.

42 Eric S. Raymond La cattedrale e il bazaar, 1998 in ApogeOnline http://www.apogeonline.com/openpress/cathedral.

(26)

26 Con GNU/Linux si passa da una visione etica di gratuità ad una più pratica che ha come fine ultimo la affidabilità, la facilità di personalizzazione e modifica. Nel 1998, su iniziativa di Bruce Perens e Eric S. Raymond, nasce la Open Source Initiative (OSI), organizzazione simile alla Free Software Foundation che ne inverte però la priorità degli interessi. Mentre per Stallman l’interesse primario è la libertà del codice, seguita dall’efficienza che ne scaturisce come conseguenza diretta, Raymond insiste sull’efficienza del sistema, relegando la libertà al servizio di questa, quale elemento importante ma non necessario. Open Source “mantiene in parte una sfumatura di matrice etica, per il riferimento al “concetto di 'apertura' (open) che appunto è col tempo uscito dal suo senso puramente tecnico ('aperto' nel senso di 'codice disponibile e modificabile'), assumendo una connotazione più ampia ('aperto' nel senso di 'privo di vincoli' tout court)43”.

Rivolgendosi alla comunità di sviluppatori Raymond indica quelli che ritiene ostacoli alla diffusione del software libero nel mondo economico e commerciale : “Specifically,

we have a problem with the term "free sofware", itself, not the concept. I've become convinced that the term has to go. The problem with it is twofold. First, it's confusing; the term "free" is very ambiguous (something the Free Software Foundation's propaganda has to wrestle with constantly). Does "free" mean "no money charged?" or does it mean "free to be modified by anyone", or something else? Second, the term makes a lot of corporate types nervous. While this does not intrinsically bother me in the least, we now have a pragmatic interest in converting these people rather than thumbing our noses at them. There's now a chance we can make serious gains in the mainstream business world without compromising our ideals and commitment to technical excellence -- so it's time to reposition. We need a new and better label. I brainstormed this with some Silicon Valley fans of Linux […]. We kicked around and discarded several alternatives, and we came up with a replacement label we all liked: "open source". We suggest that everywhere we as a culture have previously talked about "free software", the label should be changed to "open source". Open-source software. The open-source model. The open source culture. And, we should explain

43 Simone Aliprandi Copyleft & opencontent – l’altra faccia del copyright, Copyleft-italia.it pag. 24 http://tiny.cc/96zemy.

(27)

27

publicly the reason for the change. Linus Torvalds has been saying in "World Domination 101" that the open-source culture needs to make a serious effort to take the desktop and engage the corporate mainstream. Of course he's right -- and this re-labeling, as Linus agrees, is part of the process. It says we're willing to work with and co-opt the market for our own purposes, rather than remaining stuck in a marginal, adversarial position44”.

Il software Open Source rispetta le linee guida stabilite dalla Open Source Initiative (OSI)45:

1. Libera distribuzione, si escludono pagamenti per la cessione del software; 2. Codice sorgente incluso;

3. Lavori derivati, sono permesse le modifiche e la loro distribuzione;

4. Integrità del codice sorgente dell’autore, eventuali modifiche successive devono avere un nome o un numero diverso;

5. Nessuna discriminazione di persone o gruppi; 6. Nessuna discriminazione nell’uso del programma;

7. Distribuzione della licenza: i diritti connessi al programma sono applicabili senza necessità di licenze addizionali;

8. La licenza non deve essere specifica per un programma: tutte le parti del programma, anche se estrapolate dal principale, sono distribuite con gli stessi diritti;

9. La licenza non contamina altro software: la licenza non si propaga ai programmi distribuiti insieme al software open source;

10. Licenze GNU GPL, BSD e Artistic sono esempi di licenze Open Source46.

Tra le licenze approvate da OSI troviamo anche Mozilla Public License, Original Artistic License, Apple Public Source License.

44 Eric S. Raymond Goodbye, “free software”; hello “Open source”, 1998, http://www.catb.org/esr/open-source.html.

45 Open Source Initiative, https://opensource.org/.

46 La licenza GPL è una licenza Free Software accettata anche da Open Source. Le licenze Free rappresentano un sottoinsieme delle licenze Open Source.

(28)

28 Creative Commons

Una cultura senza proprietà, in cui i creatori non ricevono un compenso, è anarchia, non libertà. E io non intendo promuovere l'anarchia. Al contrario, la cultura libera che difendo [...] è in equilibrio tra anarchia e controllo. La cultura libera, al pari del libero mercato, è colma di proprietà. Trabocca di norme sulla proprietà e di contratti che vengono applicati dallo stato. Ma proprio come il libero mercato si corrompe se la proprietà diventa feudale, anche una cultura libera può essere danneggiata dall'estremismo nei diritti di proprietà che la definiscono – L. Lessig

Le licenze Creative Commons sono state create nel 2001 da Lawrence Lessing, giurista americano, attualmente docente presso la Harvard Law School di diritto pubblico. Nel 1968 l’ecologo Garret Hardin nel saggio “The tragedy of the commons” sosteneva “che i 'beni comuni' (commons) sono destinati per loro natura a perire, poiché ciò che è di tutti non riceve la stessa tutela che invece riceve un bene privato dal suo proprietario47”. Lessig è invece convinto che non tutti i beni pubblici sono soggetti questo destino; beni come la cultura, l’arte, la creatività sfuggono a questa “tragedia” ed acquistino valore proprio grazie alla fruizione condivisa. L’idea è quella di creare uno spazio pubblico all’interno della rete in cui possano essere pubblicati documenti e altre opere creative destinate ad un uso più libero.

L’autore mantiene il diritto inalienabile di paternità (attribuzione) e può decidere di rilasciare l’opera riservandosi o meno alcuni degli altri diritti. Oltre l’attribuzione “il detentore dei diritti può non autorizzare a priori usi prevalentemente commerciali dell’opera (opzione Non commerciale, acronimo inglese: NC) o la creazione di opere derivate (Non opere derivate Acronimo: ND); e se sono possibili opere derivate, può imporre l’obbligo di rilasciarle con la stessa licenza dell’opera originaria (Condividi allo stesso modo, acronimo: SA, da share-Alike). Le combinazioni di queste scelte generano le sei licenze CC48”.

47 Simone Aliprandi Copyleft & opencontent – l’altra faccia del copyright, Copyleft-italia.it pag. 81 http://tiny.cc/96zemy.

(29)

29 Le licenze:

 CC BY: attribuzione; l’opera può essere modificata, utilizzata, distribuita, da terzi. È la licenza più ampia che garantisce la massima diffusione del materiale;  CC BY-SA: attribuzione - condividi allo stesso modo; questa licenza permette ai

terzi di utilizzare l’opera anche commercialmente e obbliga a distribuire con le stesse caratteristiche anche le creazioni che ne derivano. Questa licenza è spesso assimilata alla licenza copyleft;

 CC BY-ND: attribuzione- non opere derivate; si permette la distribuzione, anche commerciale ma non si possono fare modifiche e deve essere comunque sempre citato l’autore;

 CC BY-NC: attribuzione non commerciale; l’opera si può utilizzare e modificare citando sempre l’autore, solo per scopi non commerciali;

 CC BY-NC-SA: attribuzione non commerciale- condividi allo stesso modo; l’opera può essere utilizzata, modificata, distribuita purché a fini non commerciali e le nuove creazioni devono essere rilasciate con le stesse caratteristiche;

 CC BY-NC-ND: attribuzione non commerciale non opere derivate, è la più restrittiva e permette solo di scaricare e condividere le opere senza poterle modificare o utilizzarle a fini commerciali.

“Tutte le licenze Creative Commons si presentano in una triplice enunciazione: una versione sintetica, facilmente comprensibile al grande pubblico degli utenti e nella quale vengono semplicemente elencati i diritti e gli obblighi trasmessi dalla licenza; una versione più dettagliata, redatta in linguaggio giuridico, che ricalca gli schemi tipici delle licenze […] e che fa da testo ufficiale di riferimento per qualsiasi controversia legale; e infine una versione elettronica che permette a motori di ricerca ed altre applicazioni di identificare la tua opera in base alle condizioni di utilizzo specificate dalla licenza49".

49 Simone Aliprandi, Copyleft & opencontent – l’altra faccia del copyright, Copyleft-italia.it pag. 82-83 http://tiny.cc/96zemy.

(30)

30 Censura su Internet

Giovanni si sforzò di dimostrare che la proposizione di cui lo accusavano era rigorosamente ortodossa. Discusse con gli uomini dal cui verdetto dipendeva la sua sorte, e commise l’estremo errore di farlo con ingegno e ironia. Il ventisei ottobre, al termine di una discussione durate tre giorni e tre notti, lo condannarono a morire sul rogo. – J. L. Borges

Oltre alle limitazioni dovute alla tutela del copyright, l’accesso alle informazioni può essere limitato anche per motivi politici; in alcuni paesi del mondo infatti viene praticata la censura su Internet dai parte di governi o di società private.

Con la pratica della censura si attua un controllo sia sull’accesso alle informazioni che sulla produzione di documenti mediali da parte degli utenti. La censura consiste nel proibire l’accesso ad alcuni indirizzi URL delle pagine Web e nella selezione dei contenuti attraverso una attività di filtraggio.

Le immagini seguenti propongono una mappa del livello di censura a seconda del fattore che ne origina la causa per la quale viene praticata.

Figura 7 Censura per motivi politici http://map.opennet.net/filtering-IT.html

(31)

31 Figura 8 Censura per motivi sociali http://map.opennet.net/filtering-IT.html

CC BY 3.0 US – OpenNet Initiative

Figura 9 Censura per motivi di sicurezza http://map.opennet.net/filtering-IT.html CC BY 3.0 US – OpenNet Initiative

(32)

32 Come possiamo osservare in alcuni paesi dell’Africa e dell’Asia viene praticata una censura pervasiva. L’utilizzo di questa pratica è più frequente nei paesi dove si trovano regimi autoritari.

L’attuale presidente della Turchia Recep Tayyip Erdogan eletto il 28 giugno 2014 governa con una forte deriva autoritaria. Lo si può vedere attraverso le forme di censura adottate durante il suo incarico. L’organizzazione indipendente Turkey Blocks cerca di monitorare e verificare il livello di censura in Internet: “Combining data, investigative

reporting and cutting edge research, our project sheds light on intentional and incidental restrictions on online services, key infrastructure and communications networks that society and industry have come to rely on50”.

50 “Mapping Internet Freedom in Real Time” in TURKEY BLOCKS, 2016, https://turkeyblocks.org/about/.

Figura 10 Utilizzo strumenti di elusione del filtraggio

(33)

33 Un altro paese che opera la censura è la Cina: dal 1994 Internet è approdato nella Repubblica per scopi economici ma, attraverso questo canale sono arrivate anche le idee, le informazioni e i modi di pensare tipici dei paesi Occidentali. E’ per questo che è nato il Golden Shield Project che censura le informazioni e i contenuti che provengono dagli altri paesi del mondo e che sono reputati come “pericolosi” per la sicurezza del paese e per la stabilità del governo. Il Golden Shield Project è gestito dal Ministero della Pubblica Sicurezza.

Nel 1997 la rivista Wired conia il termine Great Firewall per indicare il Golden Shield

Project. Il Great Firewall impedisce la visione di alcuni contenuti negando l’accesso

all’indirizzo IP delle loro pagine; inoltre si dota di firewall51, dispositivi che processano

le informazioni e le selezionano in base al loro grado di sicurezza: “Il sofisticato sistema cinese di filtro del Web, il Great Firewall, blocca la connessione a numerosi social media e network stranieri, da Twitter a Facebook fino a YouTube e Google, e impedisce la ricerca su temi sensibili come Tibet e Taiwan. Allo stesso tempo, nelle maglie finiscono i siti Web di importanti istituzioni accademiche52”.

La Russia è un altro paese che applica la censura. Il Cremlino ha censurato, nel corso del 2016, alcuni siti on line ritenuti pericolosi tra i quali troviamo:

 RuTracker.org: un tracciatore di Torrent che permetteva di fare download dei file e di poterli condividere attraverso la condivisione peer to peer;

51 Firewall:Dispositivi software od hardware posti a protezione dei punti di interconnessione eventualmente esistenti tra una rete privata interna (ad es. una Intranet) ed una rete pubblica esterna (ad. es. Internet) oppure tra due reti differenti. […] La loro funzione principale è quella di agire come dei filtri controllando tutto il traffico di rete che proviene dall’esterno, nonché quello che viene generato dall’interno, e permettendo soltanto quel traffico che risulta effettivamente autorizzato” – dal sito HTML.it - http://www.html.it/pag/32111/che-cose-un-firewall-e-come-funziona/.

52 “In Cina la censura su Internet frena economia e ricerca” - ANSA, Internet e Social, 5 marzo 2017, http://tiny.cc/g6nfmy

.

(34)

34  Linkedin: uno dei più grandi siti Web che permettono l’incontro tra domanda e

offerta di lavoro, la pubblicazione del proprio curriculum e la creazione di una rete sociale di utenti che possono scambiarsi informazioni sul mondo del lavoro;  Google news: viene censurato perché i siti di proprietà estera che diffondono le

informazioni e che raggiungono la quota di un milione di utenti al giorno sono obbligati alla registrazione della propria identità legale.

In Egitto la situazione non è molto diversa, i media devono seguire le rigide imposizioni delle autorità e dove a causa della paura per il terrorismo sono stati bloccati moltissimi siti Web e social come Facebook, Twitter e Linkedin.

La censura va a violare l’articolo 19 della Dichiarazione Universale dei diritti dell’Uomo firmata il 10 dicembre del 1948, promossa dalle Nazioni Unite e con efficacia valida per le Nazioni firmatarie.

Recita l’articolo 19 “Ogni individuo ha diritto alla libertà di opinione e di espressione incluso il diritto di non essere molestato per la propria opinione e quello di cercare, ricevere e diffondere informazioni e idee attraverso ogni mezzo e senza riguardo a frontiere53”.

A tutela di questa libertà è nata la campagna KeepItOn, promossa da 90 organizzazioni provenienti da diversi stati, la quale mette in risalto come “More than 50,000 people

have taken action on Internet shutdowns — but the fight isn’t over yet, as disruptions are still harming lives around the world. We need your voice more than ever!

To the world’s governments, I urge you to publicly commit to keep the Internet on. Internet shutdowns harm human rights and the economy54.”

Con il termine shutdowns si intende il controllo attuato dai governi su siti e applicazioni utilizzate dagli utenti. Si creano dei blackouts, veri e propri blocchi di Internet, che non permettono agli utenti di accedere a determinate informazioni. Per questo la campagna

53 Dichiarazione Universale dei diritti dell’Uomo, 10 dicembre 1948, http://www.ohchr.org/EN/UDHR/Pages/Language.aspx?LangID=itn.

(35)

35

KeepItOn esorta i leader di tutti i paesi a impegnarsi affinché non sia violato questo

diritto umano.

Access now è una organizzazione internazionale no profit per la tutela dei diritti umani

promotrice della campagna KeepItOn. “Access Now defends and extends the digital

rights of users at risk around the world.By combining innovative policy, global advocacy, and direct technical support, we fight for open and secure communications for all55”.

Access now si occupa di promuovere leggi sul diritto digitale, di rimuovere gli ostacoli

che impediscono alle persone di poter utilizzare il Web ed infine di eliminare le barriere digitali per permettere una partecipazione diffusa di tutti gli utenti.

(36)

36 Rete e democrazia

Allora la donna vide che l’albero era buono da mangiare, gradevole agli occhi e desiderabile per acquistare saggezza; prese del suo frutto e mangiò, poi ne diede anche al marito, che era con lei, e anch’egli ne mangiò. Allora si aprirono gli occhi di tutti e due e conobbero di essere nudi - Genesi 3, 6-7.

La limitazione dell’accesso alle informazioni è talvolta giustificata da una sorta di paternalismo protettivo: può essere negato l’accesso a quei dati che possono danneggiare politicamente o economicamente i terzi o la collettività nel suo insieme ma “se ragioniamo in questo modo, il Terrore, la prospettiva del terrorismo o semplicemente la previsione di un danno economico per un gruppo con sufficiente voce in capitolo possono diventare motivi validi per giustificare una limitazione dell’accessibilità della conoscenza sotto forma di censura e di disinformazione56”.

Il potere di decidere quali informazioni possano circolare liberamente e quali no è un potere molto forte, che influisce persino sulla forma di governo: “Se l’accessibilità della conoscenza venisse ristretta, per qualsivoglia motivo, i cittadini non sarebbero partecipi del potere politico, ma oggetto di manipolazione, in quanto verrebbe meno, per loro, la possibilità di prestare un consenso informato e consapevole. Una democrazia che limita, per motivi politici, la libertà dell’informazione, o che ne accetta la limitazione per motivi economici, non è una vera democrazia57”.

La velocità e l’istantaneità con cui le notizie si propagano nel Web permettono all’utente di controllare le informazioni e di partecipare alla diffusione delle idee sia come fruitore sia come produttore. “La gran parte delle ricerche empiriche svolte a livello internazionale (Norris, 2003; Dahlgren 2009) dimostra come la relazione tra uso

56 Maria Chiara Pievatolo, I padroni del discorso, Platone e la libertà della conoscenza, Edizioni Plus Università di Pisa, Pisa 2003, pag. 71 http://bfp.sp.unipi.it/ebooks/mcpla.html. 57 Maria Chiara Pievatolo, Op Cit, pag. 75.

(37)

37 di Internet e partecipazione politica sia positiva; a un più intenso uso dei nuovi media corrisponde una maggiore propensione al coinvolgimento civico58”.

I cittadini possono partecipare alla vita democratica e ai processi decisionali nei seguenti ambiti59:

 Inclusione sociale: attraverso la riduzione delle disuguaglianze digitali;

 Accesso all’informazione: controllo democratico delle istituzioni e degli attori pubblici attraverso l’accesso alle comunicazioni e agli atti della Pubblica Amministrazione;

 Accesso alla sfera pubblica: possibilità di partecipare al dialogo e al confronto con attori istituzionali, sociali e politici;

 Dimensione elettorale: selezione della classe politica, tecniche di voto elettronico;

 Iniziativa diretta: possibilità di presentare petizioni, proposte, avviare dibattiti;  Partecipazione ai processi decisionali: attraverso la concertazione tra

associazioni, cittadini, istituzioni.

L’Organizzazione per la Cooperazione e lo Sviluppo Economico (OCSE) nel rapporto 2001 “Citizens as Partners Information, Consultation and Public Participation in

Policy Making60” individua tre livelli di coinvolgimento dei cittadini:

58 Renato Stella, Claudio Riva, Cosimo Marco Scarcelli, Michela Drusian, Sociologia dei new media, UTET Torino 2014, pag. 146.

59 Renato Stella, Claudio Riva, Cosimo Marco Scarcelli, Michela Drusian, Op Cit pag. 157. 60 OCSE, Citizens as Partners Information, Consultation and Public Participation in Policy Making, 2001 http://tiny.cc/uyzvmy.

(38)

38 L’utilizzo delle nuove tecnologie informatiche non è però sufficiente a garantire la partecipazione dei cittadini: “Non è sufficiente aumentare la quantità e migliorare la qualità dell'informazione per favorire la partecipazione, ma che bisogna puntare con politiche attive al coinvolgimento dei cittadini nel policy making. Le chiavi del successo, nelle politiche per la partecipazione attraverso le nuove tecnologie, sono un'intensa azione di promozione e forme competenti di moderazione del dialogo. Le barriere contro una più ampia partecipazione on line dei cittadini nei processi decisionali sono culturali, organizzative e istituzionali-normative, non tecnologiche. Superare queste sfide richiederà grandi sforzi per far crescere la consapevolezza e la dimestichezza dei governi e dei cittadini61”.

61 Formez - Dipartimento Funzione Pubblica E-Democracy: modelli e strumenti delle forme di partecipazione emergenti nel panorama italiano, 2004 http://tiny.cc/35zvmy.

(39)

39 Capitolo 3

Comunicazione della scienza

Se non vogliamo ragionare in circolo, dobbiamo assumere un atteggiamento “altamente critico” verso le nostre teorie. L’atteggiamento consistente nel cercare di ‘confutarle.

K. Popper

La comunicazione scientifica riveste un ruolo fondamentale per lo sviluppo stesso della scienza in quanto si trasforma in strumento di ispirazione e aggiornamento per il ricercatore62. Per comunicazione scientifica si intende la pubblicazione e divulgazione “dei risultati della ricerca da parte di istituzioni private, e accademiche che fanno ricerca. Si rivolge alla comunità scientifica e rappresenta una delle modalità di scambio delle conoscenze acquisite tra esperti ed addetti ai lavori63”.

La pubblicazione scientifica deve però essere sottoposta ad una attenta analisi da parte di specialisti competenti del settore per permettere di rilevare eventuali debolezze o carenze dei lavori sfuggite all’autore. Dalla revisione dipende l’accettazione del lavoro oppure il suo rigetto e, nel caso di un progetto scientifico, il suo finanziamento.

Il requisito fondamentale di una pubblicazione scientifica è l’oggettività dei metodi utilizzati e dei risultati acquisiti che devono essere verificabili.

A seconda delle scienze esaminate, la valutazione scientifica utilizza criteri di analisi diversi che possono essere:

 Quantitativi (bibliometria);  Qualitativi (peer review).

62 Paola Govoni, “Un pubblico per la scienza, la comunicazione scientifica nell’Italia di ieri e di oggi” ComunicareFisica2005, Istituto Superiore di Fisica Nucleare http://www.lnf.infn.it/ComunicareFisica/talks/Govoni.pdf.

63 Autori Vari, Book in progress- Capitolo 2 – Comunicare la scienza pag. 2

(40)

40 Le discipline scientifiche sono divise in due grandi settori:

 Area disciplinare della scienza, della tecnologia e della medicina (STM) dove si utilizzano prevalentemente gli articoli su riviste specializzate come strumento di comunicazione scientifica;

 Area delle scienze umane e sociali (SSH) dove si utilizzano le monografie ovvero un testo su un singolo argomento.

Eugene Garfield, chimico e biblioteconomo, esperto di organizzazione bibliotecaria, crea, nel 1963, lo Science Citation Index “lo scopo di un indice delle citazioni scientifiche sarebbe stato quello di rendere possibile al ricercatore la selezione delle citazioni importanti e degli articoli fondamentali per la sua ricerca64”.

Infatti le citazioni rappresentano “uno strumento essenziale al fine di individuare la cosiddetta scienza fondamentale […]: la scienza in quanto attività cumulativa e progressiva, è il prodotto dell’interconnessione di opere recenti con opere precedenti65”.

Il vantaggio di un tale sistema è quello di aiutare lo scienziato nella ricerca delle informazioni e argomenti per redigere il suo lavoro: “Citation indexing, of course, has

been the mainstay of the Science Ciation Index system for three decades. This search dimension, combined with CD-ROM technology, gives you quicker and more in-depth access to the literature. The result is a search that winds up being both highly focused and comprehensive66”.

Secondo il sociologo Robert K. Merton il Citation Index permette al lettore di assistere al processo di ricerca svolto dall’autore della pubblicazione scientifica. I colleghi scienziati possono così dare un giudizio sull’opera ed analizzarla per un eventuale lavoro sul suddetto argomento.

64 Francesca Di Donato, La scienza e la rete, l’uso pubblico della ragione nell’età del Web, Firenze University Press 2009, pag. 24 http://www.fupress.com/Archivio/pdf/3867.pdf.

65 Francesca di Donato, ibidem, pag. 23.

66 Eugene Garfield, “The new Biotechnology and Neuroscience Citation Indexes on CD-ROM include abstracts and increased coverage” Essays of an Information Scientist, vol 15, pag. 99, 1992-93 http://garfield.library.upenn.edu/essays/v15p099y1992-93.pdf.

(41)

41 Il riconoscimento per lo scienziato avviene attraverso la diffusione della sua opera e la valutazione dei propri colleghi; anche per questo la scienza deve essere un sapere pubblico e non privato: “Only by publishing their work can scientists make their

contribution (as the telling word has it) and only when it thus becomes part of the public domain of science can they truly lay claim to it as theirs67”.

67 Robert K. Merton Prefazione al volume Citation Indexing -- Its Theory and Application in Science, Technology, and Humanities di Eugene Garfield, Istitute for Scientific Information, novembre 1996 http://www.garfield.library.upenn.edu/cifwd.html.

(42)

42 Impact Factor

“Nonostante il nome altisonante, l’ISI non è una fondazione o un’associazione senza fini di lucro, non ha come scopo la promozione della scienza o dell’informazione scientifica, ma è invece un’azienda privata che, come tutte le aziende, ha come dovere principale e scopo ultimo quello di arricchire i soci” – A. Figà Talamanca

Lo Science Citation Index ha permesso la creazione dell’indicatore Impact Factor delle riviste accademiche ovvero il numero medio annuale di citazioni degli articoli da esse pubblicati. Realizzato dall’Institute for Scientific Information (ISI) nel 1961, “L’ IF di una rivista si calcola dividendo il numero di citazioni ottenute dai suoi articoli per il totale di tutti gli articoli pubblicati nei due anni precedenti.

IF= articoli citati / articoli citabili68”.

L’Impact Factor rileva la performance dei periodici scientifici ed evidenzia quale effetto ha una pubblicazione sulla comunità scientifica di riferimento.

L’Impact Factor ha dei notevoli punti di forza rappresentati dalle seguenti caratteristiche:

 Semplicità: è facile da utilizzare per valutare una ricerca scientifica;

 Accessibilità: è sufficiente consultare la banca dati elettronica per accedervi;  Economico;

 Indice quantitativo: si basa sul numero di citazioni, secondo i suoi ideatori questo rappresenta un elemento di valutazione indispensabile nella scelta di abbonarsi o meno ad una rivista; “per esempio se una rivista è poco citata, in relazione agli articoli che pubblica, il database ISI suggerisce di cancellare tale

68 Maria Chiara Pievatolo, C’era una volta il Web, media sociali proprietari e minorità digitale, Ingegneria senza frontiere, Pisa, 28/11/2016 http://www.isf- pisa.org/attivita/formazione/2016/conferenza-liberta-digitali/presentazioni/m.-c.-pievatolo-cera-una-volta-il-Web/view.

Riferimenti

Documenti correlati

Il miglioramento dell’aggiornamento e della qualità dell’informazione agli iscritti (News, videochat, rassegna stampa, rivista, corsi Fad ecc.). e ai cittadini (Click salute

oggetto culturale di consumo quotidiano prima di essere brand o azienda”.. Per la sua natura esperienziale il

Implementazione della Mappatura delle Aree di Rischio: finalizzata all ’ individuazione delle aree di operatività aziendale nel cui ambito possono essere commessi

La nuova riforma del lavoro si colloca infatti nel pieno solco della precedente riforma Fornero e ne condivide gli obbiettivi: regolare il mercato secondo il paradigma

La riparazione del descensus vaginale è stata effettuata con l’impiego di un dispositivo protesico, la Transvaginal Mesh Repair (TVM) Gynecare Prolift costituita da una rete

IL DIRIGENTE (avv.. 61/2013 è stata individuata la squadra di primo soccorso ai sensi dell’art. 81/2008, è necessaria la formazione specifica per i compo- nenti della squadra di

« Dio trovò le acque maschili superiori e le femminili acque inferiori strette in un abbraccio appassionato. 'Che una di voi si innalzi', egli ordinò, 'e che l'altra precipiti'.

Sono insopportabili i silenzi, le omissioni, le complicità che hanno coperto per