• Non ci sono risultati.

I motori di ricerca e l'indicizzazione nella giurisprudenza della Corte di Giustizia

N/A
N/A
Protected

Academic year: 2021

Condividi "I motori di ricerca e l'indicizzazione nella giurisprudenza della Corte di Giustizia"

Copied!
141
0
0

Testo completo

(1)

1

INDICE

PREMESSA ... 2

CAPITOLO 1... 4

LA COMPARSA DELL’INFORMATICA NELLA VITA DELLE PERSONE.... 4

1. L’AVVENTO DI INTERNET E LA SUA ESPANSIONE A LIVELLO MONDIALE ... 4

1.1. NASCITA ED EVOLUZIONE DEI MOTORI DI RICERCA ... 11

1.2. L’INDICIZZAZIONE ... 24

1.3. PROBLEMI RELATIVI ALL'INDICIZZAZIONE…...…...……. 29

CAPITOLO 2... 35

INDICIZZAZIONE E CONTRATTI DEL CONSUMATORE……..….…... 35

1. LA TUTELA DEL CONSUMATORE NELLA PROSPETTIVA EUROPEA………... 35

1.1. CONTRATTI ON-LINE E TUTELA DEL CONSUMATORE…….…... 44

1.2. CONTROVERSIE NEL COMMERCIO ELETTRONICO: COMPETENZA GIURISDIZIONALE……….………...… 59

1.2.1. LEGGE APPLICABILE……….……... 65

1.3. CONTRATTI A DISTANZA: NON BASTA UN LINK PER LA CONFERMA SCRITTA DELLE INFORMAZIONI……….……..…. 70

1.4. LA PUBBLICITA' TRAMITE PAROLE CHIAVE (KEYWORD ADVERTISING)……….………….. 76

1.5. I CONTRATTI CONCLUSI A DISTANZA: CAUSA PAMMER E CAUSA HOTEL ALPENHOF……….……...… 84

1.6. (SEGUE) IL CONTRATTO A DISTANZA DI VENDITA DI UN'AUTOVETTURA………..………... 93

CAPITOLO 3………. 102

INDICIZZAZIONE, TRATTAMENTO DATI PERSONALI E TUTELA DELLA PRIVACY……….…. 102

1. MOTORI DI RICERCA E PRIVACY………....……… 102

1.1.1. WEB BUG………. 106

1.1.2. IL MOTORE DI RICERCA DUCKDUCK GO (DDG)..………. 110

1.2. GOOGLE E "DIRITTO ALL'OBLIO": IL CASO DI MARIO COSTEJA GONZALEZ………..………… 114

1.3. I RISVOLTI NEGATIVI COLLEGATI ALLA TUTELA DELLA PRIVACY: "EFFETTO STREISAND"……….. 126

CAPITOLO 4……….………....……...…. 137

(2)

2

PREMESSA

Tutte le scoperte e le invenzioni che l’uomo, fortuitamente o ingegnosamente è riuscito a conquistare, hanno da sempre rappresentato un piccolo passo per l’uomo ma un grande salto per l’umanità. L’avvento dell’informatica ha radicalmente mutato lo scenario di vita delle persone, fornendo loro, tramite le molteplici applicazioni possibili, gli strumenti atti al miglioramento del proprio stile di vita in tutti i campi. In passato il costo dei supporti cartacei e l’effimera diffusione degli strumenti cognitivi di base necessari ad accedere agli archivi della conoscenza si rivelarono nel corso della storia, i peggiori nemici dell’autonomia dell’individuo. Grazie alle nuove tecnologie ogni informazione, fisicamente inserita in tempi e luoghi diversi, perde l’originale rapporto spazio/temporale con le precedenti e le successive per essere elaborata e trattata in funzione del suo intrinseco contenuto ed ordinata, di volta in volta, in funzione dell’interrogazione che l’utente rivolge al sistema “elaboratore”. La novità quindi risiede nella capacità di trovare in tempi brevi e con poco dispendio d’energie, l’informazione cercata, nell’enorme vastità rappresentata dalle nuove tecnologie della gestione digitale delle informazioni. Con l’avvento del microprocessore i rapporti

(3)

3

uomo/lavoro, uomo/tempo libero si avviarono verso un drastico mutamento di prospettiva in cui il computer divenne sempre più “personal” e presente in tutte le quotidiane dinamiche di relazione sociale.

(4)

4

CAPITOLO 1

LA COMPARSA DELL’INFORMATICA

NELLA VITA DELLE PERSONE

1. L’AVVENTO DI INTERNET E LA SUA ESPANSIONE A LIVELLO MONDIALE

La storia di internet è fortemente collegata allo sviluppo delle reti di telecomunicazione con lo scopo di creare una rete informatica che permettesse ad utenti di differenti computer di comunicare tra loro. I primi progetti di questo disegno apparvero alla fine degli anni cinquanta. Dagli anni ottanta le tecnologie che oggi costituiscono la base di internet cominciarono a diffondersi in tutto il mondo per poi, negli anni novanta, raggiungere la massima popolarità con il lancio del World Wide Web. Oggi grazie ad internet si può avere accesso all’informazione da qualsiasi punto del pianeta e ha contribuito a modificare l’economia mondiale. Le origini di Internet si trovano in ARPANET (Advanced Research Projects Agency NETwork), una rete di computer costituita nel settembre del 1969 negli USA da ARPA (Advanced Research Projects Agency). ARPA fu creata nel 1958 dal Dipartimento della Difesa degli Stati Uniti per ampliare e sviluppare la ricerca, soprattutto dopo il soprasso tecnologico dell’Unione Sovietica,

(5)

5

che lanciò il primo satellite (Sputnik) nel 1957, conquistando i cieli americani: quando la NASA le subentrò nella gestione dei programmi spaziali l’ARPA assunse il controllo di tutte le ricerche scientifiche a lungo termine in campo militare. Nel 1965 l’ARPA iniziò ad avere seri problemi di gestione: aveva diversi computer sparsi in varie sedi (molto costosi) che non potevano parlarsi: non avrebbero potuto farlo nemmeno se fossero stati nella medesima stanza. Scambiare file tra loro era quasi impossibile, a causa dei formati di archiviazione completamente diversi che ognuno di essi usava, quindi era necessario molto tempo e molto lavoro per passare dati tra i vari computer, per non parlare poi dello sforzo necessario per portare e adattare i programmi da un calcolatore all’altro. Per questi motivi Robert Taylor, allora direttore della divisione informatica dell’ARPA, affrontò il problema radicalmente. Nel 1966 parlò con Charlie Hertzfeld, allora direttore dell’ARPA, e ottenne uno stanziamento di un milione di dollari per il progetto ARPANET. Questo progetto venne pianificato e realizzato dall’IPTO (Information Processing Techniques Office); questo dipartimento in principio fu gestito da Joseph Licklider, psicologo e scienziato informatico al MIT di Boston. ARPANET sarebbe servita a condividere online il tempo di utilizzazione dei computer tra i diversi centri di elaborazione dati e i gruppi di ricerca per l’agenzia. L’IPTO si basò su una tecnologia rivoluzionaria: la commutazione del pacchetto (packet switching), sviluppata da Paul Baran, ingegnere polacco naturalizzato statunitense, alla RAND

(6)

6

Corporation e da Donald Davies al British National Physical Laboratory. La commutazione del pacchetto è una tecnica consistente in un accesso multiplo a divisione di tempo, concepita per il trasporto di dati, utilizzata per condividere un canale di comunicazione tra più nodi, suddividendo l’informazione da trasferire in pacchetti trasmessi individualmente ed in sequenza. In questo modo si puntava ad un network invulnerabile ad attacchi nucleari. Nell’ottobre del 1969 poi, Leonard Kleinrock, titolare del laboratorio dell’Università della California di Los Angeles, fu incaricato di creare il primo collegamento telefonico da computer a computer tra la UCLA e lo Stanford Research Institute. Nel dicembre 1969 si aggiunsero alla connessione le università di Santa Barbara e dello Utah; nel 1970 fu la volta della BBN (Bolt, Beranek e Newman, una società di ingegneria acustica di Boston convertita all’informatica applicata). Il meccanismo di trasmissione delle informazioni utilizzato a quel tempo è del tipo “dal centro alla periferia” e quindi se viene interrotto il canale diretto di comunicazione non vi è alcun modo di far passare l’informazione. In caso di attacco cioè la comunicazione si sarebbe interrotta forzatamente (infatti internet è nato per scopi militari per poi cambiare connotazione diventando lo strumento di comunicazione per comunità virtuali). Il problema è quindi quello di trovare un modo per evitare che, distrutti i pochi centri di comando e controllo sul territorio, l’esercito e la difesa territoriale non siano più coordinati centralmente. Paul Baran concepisce l’idea che passando dalla modalità continua e

(7)

7

analogica, per la trasmissione delle informazioni, a quella digitale, possa aggirare il problema. L’idea è che si possano trasmettere le informazioni attraverso un protocollo di codifica particolare, che le segmenta in unità discrete sufficientemente piccole da sfuggire all’eventuale blocco di uno dei canali comunicativi. La comunicazione attraverso questo protocollo è strutturata in modo da dividere l’informazione originaria in singoli pacchetti che poi invia al medesimo destinatario scomponendoli e facendo percorrere loro strade diverse. Questo protocollo (istituito nel 1978 da Cerf, Postel e Crocker), che prima si chiamava NCP (Network Control Protocol) adesso prende il nome di TCP/IP (Trasmission Control Protocol/Internet Protocol). La caratteristica fondamentale di questi strumenti per la trasmissione di dati è di far circolare pacchetti di informazione digitale in maniera libera all’interno di una rete non gerarchica di computer. Per implementare tale soluzione occorreva distribuire sul territorio una rete di nodi di smistamento in grado di far circolare i pacchetti di informazione e di indirizzarli verso il percorso giusto. Se i nodi fossero stati disattivati, i pacchetti avrebbero potuto scegliere percorsi alternativi, tanto più numerosi quanto maggiori fossero i nodi della rete. Combinando File Transfer Protocol e TCP/IP si era giunti al coronamento dell’obiettivo tecnologico di ARPANET: trasferire dati da un punto all’altro della rete. Rimaneva solo da dimostrare se i dati sarebbero potuti fluire tra due macchine di tipo anche diverso, usando i tipi più disparati di collegamento.

(8)

8

L’esperimento chiave fu condotto nel 1978: un computer che viaggiava a bordo di un camion su un’autostrada californiana inviò dati a un altro computer che si trovava a Londra. Il camion era collegato via radio con un terzo computer in California, il quale inoltrava le informazioni sulla rete, queste attraversavano l’intero continente nordamericano su linee terrestri e infine superavano l’Atlantico per mezzo di una connessione satellitare. Accanto alle reti ad alta tecnologia del progetto del Pentagono, nell’ambiente dei programmatori e degli hobbisti del computer, cominciano a nascere i primi abbozzi di comunità virtuali o reti alternative basate su un sistema relativamente semplice e destinato ad avere molta fortuna: quello delle BBS On Line (On line Bullettin Board Services). Si tratta di embrioni di comunità alternativi rispetto alla linea di ricerca principale che diede origine a Internet, finanziata in un primo tempo dai militari e successivamente dal sistema universitario e dalle grandi corporation. Nel 1979 viene lanciato nel sistema telefonico di Chicago il primo sistema aperto al pubblico di bacheche elettroniche: tutti gli utenti che disponevano della tecnologia X-modem potevano leggere i messaggi che venivano trasmessi da altre persone e scrivere i loro. Mentre ai stavano perfezionando i sistemi “ufficiali” di trasmissione in rete dell’informazione (ARPANET), nasceva quasi clandestinamente e soprattutto all’insaputa delle grandi compagnie di computer e di telecomunicazioni, un sistema relativamente economico di comunicazioni digitali. I primi programmi per la consultazione di BBS erano molto elementari e prevedevano

(9)

9

solo la possibilità di ricercare in ordine alfabetico i messaggi e di leggerli nell’ordine in cui essi venivano inviati. Mentre fioriscono le BBS e le comunicazioni alternative, il versante istituzionale dello sviluppo della telematica si emancipa progressivamente dalla sua originaria ispirazione militare. Nel 1983 ARPA esaurì il suo scopo: lo stato chiuse l’erogazione di fondi pubblici, la sezione militare si isolò, necessitando di assoluta segretezza a protezione delle proprie informazioni, e nacque perciò MILNET (predecessore dell’odierno internet, designato per il traffico non classificato del Dipartimento della Difesa degli Stati Uniti). Con il passare del tempo, l’esercito si disinteressò sempre più del progetto (abbandonandolo nel 1990), che rimase sotto il pieno controllo delle università, diventando un utile strumento per scambiare le conoscenze scientifiche e per comunicare. In seguito, nei primi anni novanta, con i primi tentativi di sfruttamento commerciale, grazie ad una serie di servizi da essa offerti, ebbe inizio il vero boom di APARNET, nel frattempo rinominata Internet, e negli stessi anni nacque una nuova architettura capace di semplificare enormemente la navigazione: World Wide Web. E’ un sistema per la condivisione di informazioni in ipertesto sviluppato nel 1990 da Tim Berners-Lee presso il CERN (Centro Europeo per la ricerca nucleare), con il quale si comincia a parlare sempre più del commercio elettronico anche per gli utenti finali e non solo per le transazioni fra grandi imprese. Tim Berners-Lee e Robert Cailliau misero a punto il protocollo HTTP e una prima specifica del linguaggio HTML sulla

(10)

10

base dei quali nacquero i programmi come Mosaic (1993), Netscape Navigator (1995), Internet Explorer (1996), che consentono di navigare sulla rete. Mediante un’interfaccia grafica, essi permettono di visualizzare sul proprio computer i documenti ipertestuali che costituiscono la rete: testi, immagini, filmati, e possono riprodurre anche suoni digitalizzati. Da qui in avanti è stato il fiorire di una moltitudine di reti di interconnessione pubbliche e private, a scopi prevalentemente scientifici, ma anche commerciali, che fecero intravedere ai più illuminati tra gli intellettuali, manager e gli esperti di ICT le potenzialità della trasmissione digitale dei dati. Era sempre più evidente che le reti non fossero solamente destinate agli addetti ai lavori, agli informatici e agli scienziati, ma che fosse ipotizzabile l’estensione della loro capacità di creare comunicazione e comunità a tutti i cittadini, alle imprese e al mondo economico. Questa massa critica di esperienze cominciò a fare breccia anche a livello politico. Alla fine del decennio scorso il progetto delle “autostrade dell’informazione” divenne il cavallo di battaglia di un giovane senatore democratico, Al Gore, e si accesi negli Stati Uniti il dibattito sul ruolo che lo Stato e i privati dovessero avere nella gestione e nello sviluppo delle comunicazioni telematiche. Parallelamente alla creazione delle grandi dorsali di Internet, ci sono stati altri due fattori che hanno reso possibile una rivoluzione di così vasta portata. In primo luogo, proseguì il trasferimento in digitale degli archivi e delle risorse informative, cioè tanto la digitalizzazione dei testi, delle immagini e

(11)

11

dei suoni, quanto quella delle funzioni di gestione e delle procedure del vivere associato, cioè l’informatizzazione degli uffici pubblici e privati, delle procedure e delle normative. In secondo luogo si affermarono studi per rendere più agevolmente utilizzabile lo strumento delle comunicazioni telematiche con le prime interfacce grafiche per la comunicazione digitale: come già detto nacquero Archie, Finger, Mosaic, Netscape. Possiamo dunque evidenziare tre fattori che hanno reso possibile a milioni e milioni di individui di divenire membri di una comunità virtuale grande quanto il mondo: lo sviluppo di computer sempre più potenti e di reti informatiche sempre più efficienti; la progressiva digitalizzazione e gestione informatica dei dati e delle procedure; la costruzione di interfacce utente sempre più facilmente utilizzabili. Infine dobbiamo ricordare che il rifiuto della normativa sul diritto d’autore, diritto alla gratuità del software, massima democrazia nell’accesso alla rete, controculture alternative, cyberpunk, sono caratteristiche salienti della rete delle reti. Per concludere possiamo fare gli auguri al World Wide Web, dato che nel 2014 ha compiuto 25 anni dalla sua nascita.

1.1. NASCITA ED EVOLUZIONE DEI MOTORI DI RICERCA A poco più di 20 anni dalla sua invenzione, il Web è diventato ubiquo e pervasivo al punto che qualsiasi nostra attività quotidiana ne è influenzata: basti pensare alle modalità con cui realizziamo una delle

(12)

12

seguenti attività: prenotare un viaggio; trovare i riferimenti di un ristorante; leggere le recensioni di una struttura turistica; leggere un quotidiano; curare le proprie relazioni di amicizia e di lavoro; guardare un evento sportivo; condividere pensieri e opinioni tramite un blog. Attualmente si stima in decine di miliardi il numero di siti web sparsi nel mondo e tale numero cresce ad un ritmo esponenziale. Questa enorme quantità di informazioni presenti sul Web rende necessario l’uso di uno strumento che ci permetta di orientarsi in modo da reperire i documenti di nostro interesse: i motori di ricerca ci aiutano a navigare attraverso tutti questi dati e a trovare le informazioni pertinenti, in maniera rapida ed efficiente. Un motore di ricerca (search engine) è un sistema automatico che analizza un insieme di dati (spesso da esso stesso raccolti) e restituisce un indice dei contenuti disponibili classificandoli in modo automatico in base a formule statistico-matematiche che ne indichino il grado di rilevanza data una determinata chiave di ricerca. Un vero e grande laboratorio di sperimentazione furono, come spesso accade nella storia americana, le istituzioni universitarie. Le start-up nate all’ombra delle università circondate dalla Silicon Valley, in particolare la Stanford University, dimostrano tutta la loro autorevolezza nel reperire investitori e nell’avviare progetti di grande forza innovatrice. Proprio in questi luoghi la “storia dei motori di ricerca” vede il suo inizio. In una sorta di magma primordiale composto da pacchetti di informazioni che viaggiavano attraverso la rete, cominciarono a nascere i primi archivi.

(13)

13

Sin dalla nascita delle prime teorizzazioni di ipertesto e di sapere condiviso, si era posto l’accento sull’importanza di registrare e mantenere vivo un magazzino di informazioni che fosse consultabile da tutti e in qualsiasi momento. Uno dei pionieri del concetto on-line storage e hypertext fu Vannevar Bush che nel suo testo “As we may

think”1 risalente ad un lontano 1945 scrisse:

The difficulty seems to be, not so much that we publish unduly in view of the extent and variety of present day interests, but rather that publication has been extended far

beyond our present ability to make real use of the record. The summation of human experience is being expanded at a prodigiuous rate, and the means we use for threading through

the consequent maze to the momentarily important item is the same as was used in the days of square-rigged ships. A record if it is to be useful to science, must be continuosly extended, it must be stored, and above all it must be consulted.

Nel testo di Bush si legge una straordinaria immagine del futuro pensato come un sistema in cui una grande mole di informazioni, continuamente estesa, conservata ma soprattutto consultabile, sarebbe potuta essere d’aiuto al genere umano. Vanner Bush paragona il

1 Vanner Bush, “As we may think”, The Atlantic Monthly, luglio 1945, vol. 176, No.1,

(14)

14

concetto di index, e quindi di consultazione, a quello di association, caratteristico del funzionamento della mente umana che permette di “saltare” da un concetto ad un altro, attraverso relazioni pertinenti. A ben vedere, a distanza di quasi 70 anni, l’ipertesto su cui si fonda il web è qualcosa di molto simile a quanto descritto dal genio statunitense. Una volta compresa l’importanza dell’immenso archivio rappresentato dal world wide web, che cominciava a raccogliere milioni e milioni di documenti, nei centri di ricerca delle più innovative università si cominciò a lavorare all’unica cosa che risultava naturalmente conseguente ad una tale creazione: un potente metodo di consultazione. E’ importante fare innanzitutto una distinzione tra directory e motore di ricerca (o search engine). Le directory sono dei veri e propri cataloghi dove le pagine web non sono indicizzate, né vengono misurate con strumenti robotizzati. Dietro le directories di solito vi sono dei veri editori che ne curano il contenuto secondo precise direttive. Le più note directories sono Dmoz e Yahoo!. I search engines sono invece dei programmi che in brevissimo tempo scandagliano milioni di documenti, facenti parte del loro index, offrendo risultati alla ricerca effettuata da un utente, la query. I documenti vengono trovati e analizzati da spiders o crawlers, software dedicati all’analisi delle pagine, che ottengono risultati da un database all’interno del quale vengono indicizzate tutte le pagine web precedentemente memorizzate. Il primo embrione di un motore di ricerca risale al 1990 e fu creato da uno studente canadese della

(15)

15

McGrill University of Montreal, Alan Emtage. Archie, così fu chiamato, era più propriamente una directory con indicizzati una quantità significativa di documenti, circa 2,6 milioni. Archie rispondeva alla richiesta dell’utente con il relativo risultato solo se l’utente conosceva perfettamente il nome del file che stava cercando, un funzionamento simile al Google Sitemap dei nostri giorni. Uno dei grandi meriti di Archie fu quello di attirare su di sé le attenzioni di molti studiosi, così da avviare numerosissimi gruppi di ricerca sul document retrieval in internet. Ben presto (1991) nacque Gopher, creato da Mark MacHill dell’Università del Minnesota. Pur essendo molto simile al suo predecessore, Gopher potè godere di due ulteriori sistemi usati per l’invio di file, Veronica e Jughead, creati dal gruppo di System Computing Services dell’Università del Nevada. Il motore di ricerca Veronica, in particolare, si proponeva come la vera alternativa ad Archie, pur basandosi sulla ricerca di soli documenti di testo. Fino a questo momento, ovvero i primi anni ’90, lo scambio di file sulla rete avveniva tramite FTP (files transfer protocol), un metodo funzionale all’interno di piccoli gruppi di persone ma piuttosto scomodo se ampliato all’intera audience di internet, allora in vertiginosa crescita. Era il 1991 quando Tim Berners-Lee, al tempo impiegato al CERN di Ginevra, propose il concetto di hypertext alla base di quello che diventò presto il World Wide Web. Il primo sito web creato fu

http://info.cern.ch1, on-line nell’Agosto del 1991. La grande novità fu

(16)

16

la creazione del protocollo HTTP (HyperText Transfer Protocol) che da lì a qualche anno diventò lo standard mondiale. Già da qualche anno Berners-Lee collezionava le URL di molti siti web, insederendoli in una sua lista personale e d’uso privato. Così facendo, Berners-Lee poneva le basi per la prima e più antica directory del web: il

W3Catalog, sviluppato successivamente da Oscar Nierstrasz

dell’Università di Ginevra. Il W3Catalog si limitava a riflettere le pagine già disponibili su internet, riformattandole sotto voci individuali. Non poteva ovviamente godere di un’interfaccia grafica (una tecnologia ancora inesistente) e ben presto si rivelò inefficiente, così che venne ritirato nel 1996. Nato il World Wide Web, si assistette alla nascita del primo “cercatore” del web, ovvero il primo robot capace di esplorare a gran velocità il vasto mare di informazioni in esso contenute. Risale al 1993 il primo World wide web wanderer creato da Matthew Gray, interessato inizialmente a calcolare “soltanto” la grandezza della rete. Intuite le potenzialità di un tale strumento, il wanderer venne modificato e utilizzato per catturare URLs, venendo così a creare un suo personale indice chiamato Wandex. Sfortunatamente il (ro)bot mostrò presto alcune gravi lacune che fecero dubitare delle sue potenzialità, tra cui il fatto che tendesse ad accedere ripetutamente alle stesse pagine, creando non pochi problemi ai siti web (come se li intasasse) e compromettendo i risultati della ricerca. Nell’Ottobre del 1993 fu creato un nuovo web index da Martij Koster, chiamato Aliweb, che sulla scia di Archie aveva come obiettivo la

(17)

17

raccolta di tutti i siti presenti sul web. La grande novità era rappresentata dalla possibilità per ogni singolo utente di inviare il proprio sito, con URL e relativa descrizione, per includerlo nell’indicizzazione, così da permettere a Koster di non avere bisogno di un bot. Purtroppo Aliweb non ebbe lunga vita perché molti utenti non capirono come “segnalare” il loro sito a causa di un processo complesso e poco chiaro. Nel Dicembre del 1993 nascono le prime forme di web search engines simili a quelli da noi oggi conosciuti, come JumpStation e i relativi bot World Wide Web Worm e

Repository-Based Software Engineering Spider (RBSE). JumpStation

catalogava le informazioni attraverso il titolo e l’header delle pagine web ma ben presto, a causa della grande quantità di informazioni, rallentò il suo funzionamento fino a spegnersi del tutto. Oltretutto sia JumpStation che il WWW Worm rispondevano alla query dell’utente ritornando i risultati nello stesso ordine in cui avevano raccolto le URL, senza alcun criterio di merito o rilevanza. Il RBSE spider ebbe invece l’intuizione di sviluppare una forma di page ranking che, tempo dopo, fallì a causa di una non adeguata analisi dei link. Sempre nel 1993 sei studenti non ancora laureati di Stanford diedero avvio ad un progetto chiamato Architext che puntava a rendere più efficiente la ricerca sul web attraverso l’analisi statistica della relazione tra le parole. Il loro progetto venne presto finanziato e ciò che risultò dal loro lavoro fu acquistato da un’importante compagnia (per la cifra di 6,6 miliardi di dollari) che trasformò Architext in Excite@Home.

(18)

18

Nonostante la geniale innovazione il progetto Excite fallì miseramente (le cause sono ancora oggetto di disccussione) e anni dopo fu acquistato ad una cifra relativamente bassa da un altro provider,

Infospace. Nel 1994 fece la sua comparsa la prima vera web directory

che fu subito un successo anche grazie alla conglobazione dei precedenti Gropher e Telnet. Il nome di questa prima directory fu

EINet Galaxy, seguita ben presto da esempi simili. Yahoo! Directory

nacque proprio in quegli anni, esattamente nell’Aprile del 1994, grazie all’impegno di David Filo e Jerry Yang. Inizialmente nata come una raccolta delle loro pagine preferite, Yahoo! vinse la concorrenza grazie ad un’importante novità. Ogni sito web indicizzato era provvisto di una descrizione scritta da un editore, con il relativo URL. Yahoo! crebbe notevolmente cominciando ad inserire siti commerciali e facendo pagare una quota annua per far parte della directory. Dmoz fu creata da una serie di webmasters, capitanati da Rich Skrenta, stufi di dover aspettare tempi lunghissimi per essere inclusi nella Yahoo! Directory. Attualmente Dmoz (il nome originale è Open Directory project) è la più grande directory del mondo, amministrata e curata quasi interamente da volontari. Nel Novembre del 1998 fu comprata da Netscape, che lo stesso mese fu comprata da AOL per 4,5 miliardi di dollari. Negli anni a seguire vennero create directory con target ben precisi. Una di queste fu la Librarian’s Internet Index, creata da Karen Schneider per i bibliotecari di tutto il mondo, con lo scopo di collezionare risorse qualitativamente credibili perché selezionate da

(19)

19

esperti. Una directory che per qualche tempo diede filo da torcere a Yahoo! fu LookSmart, fondata nel 1995 e fortemente connessa a

Msn (Microsoft). LookSmart purtroppo, nn riuscì a sostenere il proprio

modello di business quando l’azienda di Resmond decise di escluderla dalla sua partnership. A poco servì l’acquisto di motore di ricerca WiseOut e del sito di social bookmarking Furl nel 2006. Nel 1994 si ricorda anche il lancio di Lycos, un motore di ricerca che avrà molto successo e evolverà in portale web d’intrattenimento e fornitore di servizi emali, hosting e social network. Nel 1995 invece si ha

Altavista, che divenne uno dei motori di ricerca più popolari tra gli

utenti per la sua velocità, ma fu successivamente surclassato da Google ed acquistato nel 2003 da Yahoo!. Nell’Aprile del 1997 venne reso pubblico Ask Jeeves, promosso come “il primo motore di ricerca a linguaggio naturale”. Ask Jeeves si basava su una tecnologia fornita da

DirectHit che si proponeva di fare un ranking delle pagine web sulla

base della loro rilevanza. Molti webmasters trovarono ben presto numerosi trucchi per “ingannare” questa tecnologia e falsarne i risultati, così ben presto fu soppiantata dalla tecnologia alla base di un nuovo motore di ricerca, Teoma. A questo punto si ha la comparsa di

Google, attualmente campione indiscusso tra i motori di ricerca. La sua

storia ha inizio nel lontano 1995 quando, nelle aule della Stanford University, si incontrarono per la prima volta Larry Page e Sergey Brin. Nonostante le apparenti discordanze, in meno di un anno i due giovani si ritrovarono a lavorare fianco a fianco ad un progetto

(20)

20

chiamato BackRub. Il progetto si fondava su una brillante idea di Page: il web poteva forse funzionare alla stregua delle citazioni di un testo accademico che in qualche modo gli conferiscono autorevolezza in un determinato campo. Più è citato, più è autorevole. BackRub si basava su un sistema di ricerca dei contenuti sul web che valutava i link relativi ad un sito come voti positivi e di conseguenza ne stabiliva il ranking. La storia di Google è quanto di più complesso sia accaduto nel mondo del web negli ultimi venti anni. Nel 1997 i due studenti decisero di dare un nuovo nome al motore di ricerca chiamandolo Google, risultato di uno strano gioco con la parola “googol”, un termine matematico che indica la cifra costituita dal numero 1 seguito da 100 zeri. Sin da allora i due giovani non esitavano ad esplicitare la loro ambizione: indicizzare l’intero world wide web. Eppure in quell’anno Page e Brin non trovarono alcun finanziamento per il loro progetto. Nessuna major sembra interessata e anche quando i due ragazzi, in preda alla rassegnazione, tentano di vendere Google, l’operazione fallisce. E’ il 1998 quando Andy Bechtolsheim, co-fondatore di Sun Microsystem, decide di finanziare la non ancora esistente Google con un assegno da 100.000$. Page e Brin corrono così ad aprire un conto in banca, fondando formalmente la Google Inc. I due si ritrovarono con in mano un progetto di valore che, essendo “troppo ingombrante” per i server dell’università, necessitava di un tetto sotto cui crescere. La fidanzata di Sergey Brin era allora amica di un manager di Intel, Susan Wojcicky, che aveva appena acquistato una

(21)

21

casa a Menlo Park, per 615.000 dollari. I due ne affittano il garage e poche altre stanze per 1.700 dollari al mese, aiutando la coppia con il pagamento della casa. Qualche giorno dopo il trasferimento, Page e Brin assumono il loro primo dipendente, un ingegnere e loro collega a Stanford, e aumentano il numero dei server a loro necessari. La neonata Google Inc. cresce a dismisura grazie al potente algoritmo di ricerca sviluppato che continua a cibarsi senza sosta di URLs e pagine web. Data la rapida crescita, nel 1999 i ragazzi di Google sono costretti a spostarsi a Palo Alto. Nella nuova sede, al 165 University Avenue, i dipendenti di Google diventano otto, includendo il primo sales

manager, ovvero il primo non-ingegnere della compagnia. Dopo solo

qualche mese Google riceve un ulteriore investimento da parte della

Sequoia Capital e dalla Kleiner Perkins di circa 25 milioni di dollari.

In Agosto la compagnia è nuovamente costretta al trasloco e gli uffici si spostano a Mountain View. Nel Maggio del 2000 Google annuncia la sua prima release in dieci diverse lingue mondiali. Nel Giugno dello stesso anno stringe un accordo con Yahoo! di cui diventa il motore di ricerca ufficiale. Nello stesso mese annuncia pubblicamente una web index di 1 miliardo di URL che ne fa il motore di ricerca più potente al mondo. Le lingue in cui è rilasciato diventano 15, coprendo anche alcuni paesi asiatici. Il momento di svolta per l’azienda si ha nell’Ottobre del 2000 quando viene rilasciato il primo strumento di advertising completamente self-service: Google

(22)

22

gestire in modo molto semplice campagne pubblicitarie online, sfruttando il potente motore di ricerca di Google. Nel corso degli anni Google si sviluppa e lancia nuovi programmi come Google Maps, per arrivare nel 2008 con già un trilione di pagine indicizzate. Nel Dicembre 2008 venivano condotte sui siti di Google 87 miliardi di ricerche, ovvero il 66,9% dell’intero mercato globale dei motori di ricerca. Nel 2012 si hanno nuove statistiche ma non nuovi vincitori. Una novità rispetto a quattro anni prima è riscontrabile nell’azienda che occupa il secondo posto sul podio, non più Yahoo! ma Microsoft, che con il nuovo motore di ricerca Bing, con il 12,1% di quota di mercato supera Yahoo di un punto percentuale. Soffermandoci un attimo su Microsoft non possiamo non constatare che anche la softwarehouse più famosa al mondo ha ovviamente tentato di ritagliarsi uno spazio all’interno del mondo dei motori di ricerca. Nel 1998 lanciò il suo primo motore di ricerca, Msn Search che visualizzava i risultati del sistema Inktomi, nato il 20 Maggio del 1996. Nel 1999 a questi risultati vennero aggiunti i risultati tratti da LookSmart e poco dopo, per un breve periodo, da Altavista. Nel 2004 Microsoft cominciò ad esplicitare l’interesse verso un cambio di rotta e avviò lo sviluppo di un proprio motore di ricerca. Venne prodotto al tempo un crawler chiamato msnbot. Il 1 Giugno 2009 Microsoft sviluppò e lanciò sul mercato il motore di ricerca Bing, interamente sviluppato in-house. Appena un mese dopo, nel Luglio del 2009, Yahoo! e Microsoft raggiunsero un accordo per cui il famoso motore

(23)

23

di ricerca Yahoo! Search sarebbe stato powered by the Microsoft Bing

Technology. Si assistette dunque al congiungimento di due giganti

come Microsoft e Yahoo!, apparentemente uniti nella lotta all’egemonia di Google. Si è posto l’accento su quest’ultimo passaggio perché nel 2011 il re dei social networks Facebook ha stretto un accordo con l’azienda di Bill Gates al fine di implementare il motore di ricerca interno al sito, con lo scopo di “aprirlo” all’intero mondo del web utilizzando la tecnologia Microsoft Bing. Una svolta decisamente da non sottovalutare. Dal 2009 fino ai giorni nostri si consolida lo stra-potere di Google con continui aggiornamenti. Infatti nel 2010 Google aggiorna il suo motore di ricerca alla versione Caffeine, che fornisce il 50% dei risultati più aggiornati e recenti, includendo anche articoli di news e blog; inoltre lancia nella sua hompage la nuova casella di ricerca in tempo reale (Google Instant), che mostra i risultati pertinenti mentre l’utente digita la ricerca. Nel 2011 si ha una tappa fondamentale per il SEO (Search Engine Optimization): l’aggiornamento di Google Panda è un filtro di ricerca per i siti con contenuti di bassa qualità. Nel 2012 lancia Penguin per intercettare i siti che utilizzano tecniche di spam, che si sono procurati link in entrata a pagamento o che appartengono a networks di link. Nello stesso anno si annuncia Google Pirate che inizierà a penalizzare i siti che violano ripetutamente i diritti di copyright, a causa delle richieste da parte del Digital Millennium Copyright Act1. Nel 2013 si ha

(24)

24

un’altra svolta fondamentale per il SEO, Google Hummingbird: l’algoritmo si orienta a capire il significato complessivo della ricerca piuttosto che delle singole parole, un passo verso la ricerca semantica e le ricerche vocali. Nel 2014 si ha il Pigeon Update con il quale Google interviene con un aggiornamento che modifica i risultati di ricerca locali in base a diversi segnali geografici. Sempre nel 2014 si ha una modifica riguardo all’Autoriship, infatti vengono rimossi dai risultati di ricerca le informazioni sull’autore che erano stati implementati tramite le specifiche di Google sull’Autorship. Arriviamo così ai giorni nostri dove Google è il motore di ricerca numero uno a livello Mondiale.

1.2. L’INDICIZZAZIONE

Il sostantivo femminile indicizzazione ha duplice significato. In economia indica l’aggancio del valore di un bene o della retribuzione di una prestazione all’indice variabile di una data situazione economica: per esempio quello dei salari nei confronti dell’indice del costo della vita, per garantirli contro la perdita del loro potere d’acquisto. Nel linguaggio dei programmatori invece (ciò che a noi interessa) è intesa come la descrizione sintetica del contenuto di un documento mediante l’attribuzione di segni di riconoscimento (parole chiave, codici alfanumerici, ecc.) che ne permettano il reperimento

(25)

25

all’interno di un catalogo o di un archivio. L’indicizzazione di un sito Internet, in altre parole, è il momento in cui il sito viene riconosciuto dai motori di ricerca e quindi compare nelle loro pagine di risposta alle interrogazioni degli utenti web. Diversa cosa è il posizionamento, che è invece un’azione volta a determinare che un sito compaia in una specifica posizione nelle pagine di risposta dei motori (cioè nelle prime posizioni). I siti che hanno l’obiettivo di far conoscere i contenuti presenti su Internet (motori di ricerca, directory speciali, servizi di aggregazioni di news, e altro) devono adottare sistemi per immagazzinare le pagine Web, complete o no, con l’utilizzo di addetti alla ricerca, sistemi di acquisizione diretta con la collaborazione degli utenti (spesso a pagamento) o con sistemi di cattura automatica mediante software speciali (crawlers o spiders), programmati per solcare il Web alla ricerca dei dati. Tutto ciò che viene raccolto passa attraverso sistemi di estrazione di parole e oggetti contenuti nelle pagine Web, che vengono incamerati dal motore di ricerca nei propri indici. Gli indici sono i meccanismi essenziali che servono al motore per scegliere quale pagina far vedere in risposta alle necessità di quello specifico utente che cerca quelle specifiche informazioni, pertanto l’indicizzazione è la condizione basilare perché una pagina Web possa essere conosciuta attraverso gli attuali strumenti di ricerca dalle persone che non conoscono il suo indirizzo Web (URL). Passando alla parte tecnica, per i motori di ricerca, l’indicizzazione dei siti Web è la loro prima e fondamentale operazione. Dopo averli registrati, i motori

(26)

26

di ricerca scansionano periodicamente i siti presenti nei propri archivi per verificare eventuali aggiornamenti: tramite i particolari programmi spiders, entrano in un sito e ne incominciano a leggere il codice sorgente alla ricerca di nuove modifiche del contenuto o della struttura. Quando uno spiders trova un link a un’altra pagina del sito o ad un altro sito, analizza anche quest’ultimo. Quando il motore di ricerca termina la lunga operazione di scansione dei siti già presenti in archivio comincia a scansionare tutti i siti proposti dal webmaster tramite il servizio add url (segnala un sito) che si trova in tutti i motori di ricerca. Il sito non viene indicizzato, totalmente o in parte, se nel codice HTML sono presenti istruzioni come <meta name=”robots” content=”noindex”>, oppure, in caso di foto, <meta name=”robots” content=”noimageindex”>. Dopo aver scansionato la rete e quindi indicizzato (nel senso di raggruppato) una grandissima mole di pagine Web, il motore di ricerca passa alla seconda fase: classificarle e posizionarle in base a delle parole chiave che rispecchino il più possibile il sito. In questo modo i motori di ricerca, tramite particolari algoritmi, assicurano ai loro utenti contenuti validi e aggiornati. Ogni motore utilizza algoritmi particolari, come il PageRank di Google, che attribuisce ad una pagina un’importanza che dipende dal numero di collegamenti che puntano a tale pagina dagli altri siti internet. Ultimamente i motori di ricerca tendono a penalizzare, ma non sempre, l’uso di segnalazioni/indicizzazioni automatiche tramite software. Indicizzazioni ripetute della stessa pagina vengono considerate spam

(27)

27

ossia indesiderate. I tempi di indicizzazione di un sito internet possono variare da poche settimane ai tre mesi. Nel caso si utilizzi il servizio

pay per inclusion, l’indicizzazione avviene dopo pochi giorni,

versando una somma per ogni pagina che si intende far indicizzare. Con questo metodo l’inserimento della pagina è garantito. Va chiarito che affinchè i siti abbiano visibilità nelle prime posizioni delle pagine dei motori di ricerca con indici di grandi dimensioni, come Google e Bing occorre affidarsi a esperti nel posizionamento e nell’ottimizzazione su tali motori, perché sono richieste conoscenze sofisticate sul loro funzionamento e sugli algoritmi che li determinano. Descriviamoli brevemente. Con il termine posizionamento s’intende l’acquisizione di visibilità tra i risultati dei motori di ricerca. Più specificamente è l’operazione attraverso la quale il sito viene ottimizzato per comparire nei risultati in una posizione il più possibile favorevole e rilevante. Le pagine di risposta di una ricerca online ospitano sia risultati veri e propri sia inserzioni a pagamento; quindi il posizionamento può essere di due tipi: naturale (si ottiene mediante ottimizzazioni del sito) e link sponsorizzati o pay per click (l’inserzionista acquista le parole per le quali vuole comparire, crea il messaggio da abbinare e seleziona una pagina di destinazione). Alla fine degli anni ’90, i primi motori di ricerca facevano riferimento alle parole chiave inserite dagli stessi creatori di siti web all’interno delle loro pagine, attraverso i tag Meta (metadati utilizzati nell’HTML per veicolare informazioni aggiuntive correlate alla pagina web che ne fa

(28)

28

uso). In un mondo ideale questo approccio sarebbe stato abbastanza funzionale, ma ben presto i webmaster più furbi cominciarono ad inserire nelle loro pagine decine di parole chiave, rendendo di fatto nulla l’utilità di questo strumento. Contemporaneamente, i motori di ricerca più diffusi (uno dei più utilizzati al tempo era AltaVista) iniziarono a vendere le posizioni alte dei loro risultati di ricerca, mischiando, nella presentazione dei risultati, sia i siti “meritevoli”, cioè rispondenti ai criteri di ricerca dell’utente, sia siti clienti che avevano pagato il motore di ricerca per farsi trovare dagli utenti nelle prime pagine di risposta. L’ottimizzazione del sito prevede invece un lavoro costante di miglioramento della struttura e delle informazioni contenute nelle pagine. Un sito realizzato seguendo criteri di Usabilità (definita dall’ISO1 come l’efficacia, l’efficienza e la soddisfazione con

le quali determinati utenti raggiungono determinati obiettivi in determinati contesti) e di ottimizzazione per i motori deve poi contenere informazioni testuali. I motori di ricerca privilegiano infatti testo in chiaro (selezionabile), anche se hanno anche altre potenzialità, come quella di leggere i documenti in formato pdf o di capire di cosa tratta un’immagine. E’ importante che, una volta ottimizzata il più possibile la struttura del sito, ci si concentri sui testi. Scrivere testi originali, mai copiati, esaustivi, con informazioni chiarificatrici è una

1 International Organization for Standardization (Organizzazione Mondiale per la

(29)

29

delle operazioni di base per la valorizzazione di un sito, fondamentale affinché risulti interessante agli occhi dei lettori e dei motori di ricerca.

1.3. PROBLEMI RELATIVI ALL’INDICIZZAZIONE

Essendo miliardi e miliardi le pagine consultabili nel Web, diventa un’impresa ardua per qualsiasi software rappresentarne il suo intero contenuto e i moltissimi motori di ricerca riportano spesso contenuti unici solo in un certo sito. Un utente, che desideri far indicizzare i propri contenuti su pagine Web, deve scegliere a quali strumenti vuol far sapere l’esistenza del proprio sito e comunicarlo secondo i modi prescritti dal servizio di quel motore almeno una prima volta affinché ne venga a conoscenza. La causa più diffusa dei problemi di indicizzazione è la mancata disponibilità del server che ospita il sito. Se lo spider del motore non è in grado di contattare il server nel momento della sua visita può saltare l’aggiornamento del suo database (che conterrà informazione data e spesso non più rilevante, e comunque ometterà ad aggiungere i contenuti nuovi). Nel caso di irraggiungibilità ripetuta il sito potrà sparire anche completamente dall’elenco dei risultati, e perdere nel valore del ranking. Fino ad ora ho trattato l’argomento dalla parte di chi vuole inserire un sito all’interno di un motore di ricerca; adesso spostiamo da un’altra parte, ossia dal lato di chi vuole effettuare una ricerca su un determinato

(30)

30

motore di ricerca, come per esempio Google o Bing. Questo tipo di utente digiterà sulla relativa pagina del motore di ricerca (per esempio

www.google.it) le parole chiavi attinenti al contenuto che gli interessa.

I problemi si intuiscono immediatamente perché se un sito Web non è stato indicizzato in modo corretto, al suo interno, possono essere stati omessi i contenuti che per l’utente erano l’obiettivo della sua ricerca; perciò la ricerca potrebbe avere un esito insoddisfacente non per errore dell’utente, ma per errore del sito. Nei sistemi informatici che sfruttano le potenzialità di memoria e di velocità dei calcolatori, il criterio di indicizzazione è totale nel senso che tutti gli elementi del documento costituiscono chiavi di accesso al documento stesso ossia i documenti sono rappresentati attraverso tutti i loto elementi. E’ il principio dei file invertiti. E’ evidente che questa tecnica consente di ampliare enormemente il ventaglio di ricerca delle informazioni. E’ possibile utilizzare in ricerca una qualsiasi parola o altro elemento che si pensi sia contenuto nei documenti. Questo grande vantaggio ha però un rovescio della medaglia. Il linguaggio di indicizzazione e quindi di ricerca tende generalmente ad identificarsi con il linguaggio ordinario. Ciò comporta che la ricerca possa subire i guasti dovuti a due caratteristiche del linguaggio naturale, l’ambiguità causata dalla polisemia e la varietà prodotta dalla sinonimia. La polisemia è il fenomeno linguistico che si verifica quando una stessa parola ha più significati diversi, mentre la sinonimia è il fenomeno linguistico che si verifica quando più parole indicano un significato identico in ogni

(31)

31

contesto (sinonimia totale, es. “alienare” “vendere”) o in alcuni contesti (sinonima parziale). Si parla di quasi sinonimia quando i significati di più termini sono diversi ma simili (“venditio” e “alienatio”). Un altro carattere che procura gli stessi problemi della sinonimia è la flessionalità delle lingue. Le parole assumono forme diverse in seguito alla declinazione nel caso dei sostantivi e degli aggettivi e alla coniugazione nel caso dei verbi. Un altro elemento di varietà formale o morfologica è il genere grammaticale. Sinonimia e polisemia sono fenomeni che afferiscono alla semantica della lingua mentre declinazioni, coniugazione e varietà di genere alla morfologia e alla grammatica. Per superare i problemi creati dal linguaggio ordinario i sistemi informatici documentari fanno ricorso a tecniche di ricerca dette di restrizione e di espansione che consentono di attenuare almeno in parte gli effetti negativi della polisemia, della sinonimia e della varietà morfologica e grammaticale1. Per passare dalle forme ai contenuti sarebbe necessario che il calcolatore riuscisse a comprendere i significati superando il livello del mero confronto formale basato su quelle che gli strutturalisti del significato chiamano il significante. I calcolatori ordinari e anche quelli futuri resteranno per molto tempo macchine che operano sulle forme, ossia artefatti che riconoscono significanti senza riuscire a penetrare il significato. Il compito degli informatici-giuridici sarà quello di allestire strutture semantiche

1 Luigi Lombardi Vallaluri, “Norme vaghe e teoria generale”, in Ars Interpretandi, 3,

(32)

32

costruite a priori che guidino le ricerche in modo da reperire in base al concetto. Queste strutture vengono comunemente chiamate thesauri o dizionari semantici. In essi i termini del linguaggio sono organizzati in relazioni tali che, a partire da un determinato termine, si possa estendere la ricerca agli altri termini collegati. Il thesaurus è dunque una struttura relazionale che può essere percorsa per ottenere informazioni su argomenti e concetti a prescindere dal dato iniziale introdotto dall’utente. La flessibilità del dato provoca un effetto di espansione della ricerca ossia vengono richiamati molti documenti forse in numero maggiore di quelli attesi. In questo modo ci si troverà di fronte a talmente tanti risultati che è difficile, se non impossibile, trovare il documenti pertinente per la nostra ricerca. Se a tutte le problematiche che abbiano analizzato fino ad ora ci aggiungiamo anche il fatto che i webmaster possono utilizzare alcuni “trucchi” per fuorviare il giudizio dei motori di ricerca su un sito, al fine di attribuire allo stesso una rilevanza e visibilità maggiore, capiamo che ottenere i risultati voluti con un motore di ricerca è impresa solo apparentemente semplice, ma in realtà è piena di insidie. Il più banale di questi trucchi è quello di inserire all’interno del sito molte parole chiave differenti, in quanto utenti diversi usano parole chiave diverse nel tentativo di individuare i siti che trattano uno specifico argomento. Per fare ciò il webmaster scrive il testo con lo stesso colore dello sfondo della pagina. Un essere umano non è ovviamente in grado di individuare nulla, ma un motore di ricerca legge direttamente il codice HTML

(33)

33

della pagina ed è in grado di leggere il testo senza badare ai colori in cui lo stesso viene scritto in fase di visualizzazione su un browser. Altro trucco è il cloacking: tecnica che consente di creare una pagina web “dinamica”, che mostra contenuti diversi a seconda di chi la visita. Esiste sia un uso corretto del cloacking: ad esempio quando un visitatore richiede la visualizzazione di una pagina attraverso il proprio browser, un sistema di cloacking può automaticamente individuare la nazionalità dell’utente e mostrare una pagina nella sua lingua di riferimento. Esiste però anche un uso scorretto del cloacking: ad esempio un sistema di cloacking può capire se la pagina viene richiesta da un utente o dallo spider di un motore di ricerca, e mostrare contenuti normali nel primo caso e una pagina piena di keyword nel secondo. Inoltre esistono circuiti di scambio link il cui obiettivo è aumentare la “popolarità da link” di un sito. In altri termini in cambio della possibilità che un link al proprio sito possa venire mostrato su diversi altri siti nella Rete, i webmaster che si registrano a tali circuiti sono tenuti a loro volta ad ospitare sul proprio sito alcuni link (testuali o in forma di banner) ad altri siti che hanno aderito all’iniziativa. In questo modo l’utente visualizzerà nella medesima pagina web moltissimi risultati che ai fini della sua ricerca sono irrilevanti, creando soltanto confusione. Come appena illustrato, il ricorso a trucchi poco leciti, non può che comportare conseguenze negative. Quei trucchi che i motori di ricerca non sono in grado di individuare, potrebbero essere facilmente identificabili in futuro, col rischio di incorrere in

(34)

34

penalizzazioni che vanificherebbero i vantaggi precedentemente conseguiti attraverso l’uso delle suddette tecniche.

(35)

35

CAPITOLO 2

INDICIZZAZIONE E CONTRATTI DEL

CONSUMATORE

1. LA TUTELA DEL CONSUMATORE NELLA PROSPETTIVA EUROPEA

Il consumatore o l’utente è chi effettua il consumo, ovvero l’utilizzatore di beni e servizi prodotti dall’economia. Secondo il diritto italiano è “la persona fisica che agisce per scopi estranei all’attività

imprenditoriale, commerciale, artigianale o professionale eventualmente svolta”1. Il Codice del Consumo contempla anche il

consumatore di servizi pubblici, cioè l’utente, al quale l’art. 101

garantisce il riconoscimento dei diritti previsti dalle leggi dello Stato e delle regioni. La protezione di questa figura, alla quale in determinati momenti della vita di ogni giorni appartiene chiunque, costituisce l’oggetto del diritto dei consumatori. Da tempo il diritto dell’Unione europea non si occupa più soltanto dei profili meramente economici e ha ampliato il suo ambito di operatività mostrando una maggiore attenzione alla persona e a questioni di carattere sociale. Questo cambiamento di rotta lo si nota in maniera evidente nelle modifiche

1 Cfr. art. 3, c. 1 del Codice del consumo, decreto legislativo emanato a norma della

(36)

36

apportate al trattato originario con il Trattato di Maastricht1 del 1992 e

con quello di Amsterdam2 del 1997. Sotto questo profilo non va trascurata la Carta di Nizza3 che, benché non fosse in origine uno strumento giuridicamente vincolante, esprime il nucleo essenziale di valori e di principi, già largamente presenti nell’ordinamento comunitario e come tali affermati e garantiti dalla Corte di Giustizia, intorno ai quali va a consolidarsi e a caratterizzarsi la costruzione europea. Questa Carta è stata ripresa e solennemente riproclamata a Strasburgo il 12 dicembre 2007 e il Trattato di Lisbona4 la richiama

espressamente. Il nuovo art. 6, n. 1 TUE prevede, infatti, che “L’Unione riconosce i diritti, le libertà e i principi sanciti nella Carta dei diritti fondamentali dell’Unione europea del 7 dicembre 2000, adottata il 12 dicembre 2007 a Strasburgo, che ha lo stesso valore giuridico dei trattati”. Gli interventi del diritto comunitario sui rapporti di consumo o, più in generale, a favore del contraente debole non hanno riguardato unicamente la disciplina del rapporto contrattuale in senso stretto. In sede comunitaria, infatti, si è avvertita presto anche l’esigenza di occuparsi anche degli strumenti necessari per far valere i diritti che si andavano definendo. Si è fatta, così, spazio la necessità di favorire, da un lato, la composizione dei conflitti e delle piccole

1 Trattato di Maastricht, TUE, 7 febbraio 1992, Maastricht, Comunità Europea (oggi

Unione Europea)

2 Trattato di Amsterdam, firmato il 2 ottobre 1997, in vigore dal 1 marzo 1999,

Unione Europea

3 Trattato di Nizza, Carta dei diritti fondamentali dell’Unione Europea, 1 febbraio

2003, Consiglio Europeo di Nizza

4 Trattato di Lisbona (noto anche come Trattato di riforma), trattato internazionale

(37)

37

controversie che, per gli alti costi del ricorso alla giustizia ordinaria, non trovano una soluzione soddisfacente1 e, dall’altro, di considerare la possibilità di azioni inibitorie intentabili anche da enti pubblici o da associazioni private rappresentative degli interessi dei consumatori. A queste esigenze l’UE ha cercato di rispondere, ovviamente nei limiti delle sue competenze, armonizzando le procedure relative ai provvedimenti inibitori delle infrazioni commesse nei confronti dei consumatori e favorendo meccanismi di consultazione e di cooperazione transnazionali come la creazione di una rete europea di informazione e di una rete nazionale di autorità nazionali. Entrando nel dettaglio poniamoci adesso un quesito: nel sistema UE ci sono riferimenti specifici alla protezione dei consumatori? La risposta è non può che essere sì. Innanzitutto nell’art. 12 del TFUE, nonché nella Carta dei diritti fondamentali (art. 38)2, ove si legge che “nelle

politiche dell’Unione è garantito un livello elevato di protezione dei consumatori”. Il titolo XV del Trattato sul funzionamento dell’UE è

tutto dedicato alla protezione dei consumatori, alla promozione dei loro interessi, a tutelare la salute, la sicurezza e gli interessi economici, il loro diritto all’informazione, all’educazione e all’organizzazione per la salvaguarda dei propri interessi. L’Unione Europea agisce a tutela dei consumatori favorendo misure anche di tipo legislativo per affermare comuni diritti al consumatore europeo, adottando misure di

1 Libro Verde del 2005 sulle azioni di risarcimento per violazione delle norme

antitrust, punto 2.5, Tutela degli interessi del consumatore

(38)

38

sostegno e controllo della politica svolta dagli Stati membri. Inoltre l’UE supporta le associazioni e i centri dei consumatori, raccoglie informazioni sui principali aspetti più rilevanti per i consumatori nonché sulle loro opinioni e indicazioni, organizza corsi di formazione per il personale delle associazioni dei consumatori. Quella dei consumatori è una politica che l’Unione Europea persegue d’intesa con altre politiche comunitarie. Gli interventi a favore degli interessi dei consumatori vengono svolti dall’UE in modo integrato, cioè facendo sì che tali interessi siano considerati in politiche assai rilevanti per la protezione dei consumatori, quale la politica energetica, la tutela della concorrenza, la tutela del mercato interno, la liberalizzazione dei servizi pubblici e dei servizi di interesse generale. I campi in cui l’azione comunitaria fornisce protezione ai consumatori sono molteplici. Per i prodotti, relativamente alla loro sicurezza, stabilisce specifiche di produzione e commercializzazione (si pensi ad esempio alle norme UE sulla sicurezza dei giocattoli sia di produzione UE che importati), nonché relativamente alle garanzie di prodotto (diritto a farsi sostituire o rimborsare un prodotto difettoso, diritto al risarcimento per eventuali danni causati da un prodotto difettoso, diritto ad un periodo di garanzia per il prodotto acquistato). Per i prodotti esiste poi un sistema d’allarme, denominato RAPEX (RASFF per quelli alimentari), che permette una diffusione rapida in tutta l’UE di informazioni circa la pericolosità di un prodotto riscontrata in un Paese UE, al fine di un eventuale ritiro del prodotto stesso dal mercato.

(39)

39

Riguardo alla sicurezza alimentare l’Unione si prefigge l’obiettivo di garantire al consumatore europeo qualità elevata dei prodotti, grazie ad alto standard di igiene, bassi rischi e idonea informazione attraverso precise disposizioni in merito all’etichettatura dei prodotti (nome, composizione, contenuto, preparazione, nome del produttore, modelli di conservazione, ingredienti con caratteristiche di allergicità per specifici consumatori o con contenuti che devono essere bene evidenziati tipo caffeina, chinino). Grande attenzione è poi data dall’impiego di additivi alimentari (dolcificanti, coloranti) nonché agli integratori alimentari (vitamine, minerali). Altro campo di larga attenzione e intervento UE è quello relativo, sempre in materia di sicurezza alimentare, alla salute e all’alimentazione degli animali destinati al consumo umano (provvedimenti per il loro benessere di vita, luoghi e modalità di allevamento e trasporto). L’EFSA (Autorità europea per la sicurezza alimentare, con sede a Parma) è incaricata di valutare sotto un profilo scientifico, i rischi che possono derivare dall’introduzione sul mercato di nuovi prodotti alimentari, mentre è fatto obbligo al produttore (sia di prodotti alimentari che di mangimi per animali) di assicurare la tracciabilità del prodotto relativamente a tutta la catena alimentare. Per i servizi finanziari e per quelli relativi al credito al consumo, il consumatore è tutelato dalla normativa UE in relazione alle modalità di recesso da contratti assicurativi1 (30 giorni di

1 Direttiva 85/577/CEE del Consiglio del 20 dicembre 1985 per la tutela dei

(40)

40

tempo) con diritto al rimborso della somma versata, alle vendite a distanza di servizi finanziari (via Internet o telefono) obbligando coloro che offrono servizi finanziari di tale tipo a fornire al consumatore ogni informazione necessaria alla comprensione della tipologia del servizio finanziario offerto (prezzo, società che lo eroga, modalità di pagamento, etc.), nonché vietando ogni tipo di pratica commerciale abusiva, cioè condizioni supplementari al servizio richiesto dal consumatore. Inoltre la normativa UE pone limiti alle tipologie di offerta non sollecitate dal consumatore e fatte attraverso messaggi elettronici o uso del telefono. Anche la materia del credito al consumo trova indicazioni nel sistema UE con la fissazione di diritti minimi in tutti i Paesi UE sia relativamente alla descrizione del prodotto offerto sia relativamente alle clausole contrattuali. L’UE, pur favorevole a che i consumatori possano disporre di prestiti al fine di poter acquistare servizi o beni di cui necessita, sottolinea come un’eccessiva sottoscrizione di prestiti da parte dei consumatori possa provocare rischi di instabilità finanziaria. Passando alle clausole contrattuali il diritto dell’UE vieta le pratiche commerciali abusive che creano danno al consumatore, quali la pubblicità ingannevole oppure vieta le modalità di vendita “aggressive”, cioè ad esempio essere oggetto da parte di un venditore di un’insistenza eccessiva alla vendita, quando il consumatore ha espresso la sua contrarietà all’acquisto. Altro tema importante è quello della trasparenza dei prezzi. Fortunatamente, grazie all’euro, oggi per il consumatore che desidera confrontare i

(41)

41

prezzi nei vari Paesi UE di un determinato prodotto è tutto più semplice, non dovendo più fare calcoli, come una volta, relativi al cambio delle divise nazionali. Inoltre l’UE ha emanato normative precise che assicurano al consumatore il diritto, al momento dell’acquisto, di disporre di chiare informazioni sul prezzo già comprensivo di IVA. Inoltre per determinate tipologie di prodotti devono essere indicate con precisione il peso, il numero di pezzi contenuti in una confezione, il prezzo unitario al kg o al litro: ciò per consentire al consumatore possibilità di confronto tra i vari prodotti. Altri tre settori importanti per la protezione del consumatore sono quelli relativi a pacchetti vacanze, trasporti aerei e multiproprietà. Per i pacchetti vacanze essi devono essere offerti con indicazioni molto precise e corrispondenti alla realtà del servizio offerto. Le foto che illustrano ad esempio un villaggio turistico, la tipologia della stanza offerta, del vitto, devono corrispondere alla realtà, onde evitare spiacevoli sorprese al consumatore. Inoltre il consumatore dispone del diritto di cancellazione della prenotazione se il pacchetto non corrisponde più all’iniziale offerta1 ad esempio in relazione alle

destinazioni, date, prezzo. Per quanto concerne i trasporti aerei, le normative UE a tutela del consumatore si applicano solo ai voli di linea e di charter effettuati all’interno dei Paesi UE, restando però le compagnie di volo con sede nell’UE soggette a tali norme anche per i

1 Art. 92 “Diritti del consumatore in caso di recesso o annullamento del servizio”,

(42)

42

voli da esse gestiti e provenienti da Paesi terzi (non UE). Il passeggero viene garantito in relazione ai ritardi significativi con obbligo della compagnia di offrire assistenza al viaggiatore (cibo, bevande, ospitalità alberghiera se necessaria). Qualora il ritardo superi le 5 ore, il passeggero ha diritto al rimborso del biglietto se decide di non servirsi del volo in ritardo. Altre disposizioni riguardano l’ipotesi di smarrimento del bagaglio (con possibilità del passeggero di chiedere il risarcimento), l’overbooking, cioè l’ipotesi che si verifica quando una compagnia aerea vende più biglietti dei posti disponibili sull’aereo (in tal caso la compagnia aerea può spostare su un altro volo i passeggeri che si dichiarano disponibili a tale cambio, garantendo però loro idonea compensazione finanziaria e la copertura di eventuali spese di vitto e alloggio fino alla data della nuova partenza). Per quanto concerne i reclami e le controversie tra passeggeri e compagnie aeree, è da menzionare che, onde evitare immediati ricorsi all’autorità giudiziaria competente, ogni Paese membro dell’UE, ai sensi della legislazione UE, è tenuto ad istituire un ente nazionale indipendente cui indirizzare reclami e segnalare controversie. Per la multiproprietà, un contratto cioè che prevede il diritto di usufruire di un immobile destinato a vacanze per un periodo temporale annuale determinato, la normativa UE prevede innanzitutto il diritto entro 10 giorni di recedere dal contratto e in tale periodo l’acquirente non deve ancora versare alcuna somma). Gli elementi di attenzione nella stipulazione di tale contratto vengono indicati dall’UE, relativamente alla durata del

(43)

43

contratto, alle caratteristiche legali del contratto (cosa si acquista, proprietà o quote azionarie dell’immobile, modalità di cessione delle quote o dei diritti di proprietà), ai costi condominiali, alle modalità di gestione dell’immobile, al controllo sulla corrispondenza dell’immobile alle disposizioni urbanistiche locali, al completamento o meno delle realizzazioni della costruzione dell’immobile. Ultimo ambito da trattare, non per importanza, è quello relativo al trasporto di animali domestici. Questo è un problema che riguarda moltissime persone che, per motivi di vacanza o di lavoro, si devono spostare da un Paese UE all’altro e vogliono portare con sé i propri animali domestici. L’UE ha una normativa al riguardo che concerne cani, gatti e furetti1. La regola generale è che l’animale, per poter viaggiare da un Paese all’altro, deve dimostrare di avere una vaccinazione antirabbica in corso di validità, un passaporto rilasciato dal veterinario, un tatuaggio leggibile o un transponder elettronico. Particolari condizioni sono però richieste per taluni Paesi (Irlanda, Malta, Svezia, Regno Unito). Per il trasporto dell’animale in aereo sono previste regole atte a garantire all’animale condizioni comode di viaggio (spazio sufficiente, cibo, acqua, etc.). Ogni compagnia aerea fissa peraltro precise condizioni in merito. Per concludere evidenziamo che il consumatore europeo può oggi liberamente muoversi su tutto il mercato UE, in 28 Paesi ove è libero di acquistare prodotti e servizi. L’UE vuole garantire

1 Passaporto per animali da compagnia, “Pet Passport”, Regolamento n. 998/2003

Riferimenti

Documenti correlati

Esaminando e valutando dettagliatamente la composizione dell'archivio del Dipartimento Sistemi di Produzione, il presente documento intende rispondere contemporaneamente a

Abbreviations: AJCC: American joint committee on cancer; AS: active surveillance; ASA: American society of anesthesiologists; BCR: biochemical recurrence; BMI: body mass index;

Graph A: different letters indicate a significant difference by Mann-Withney U test (p-value &lt; 0.05; d.f.=1).. In T2 treatment, the percentage of rooted cuttings was of

La disponibilità dei dati in formato aperto è strettamente funzionale, non solo alla facilità di consultazione e riutilizzabilità, ma anche alla indicizzazione degli stessi, atteso

secondo l’interpretazione fornitane dalla Corte, vale a dire promuovere la libera prestazione di servizi, un simile conflitto dovrà risolversi a favore del più basso tra i due

As for general accounts of vowel reduction and loss, there is still more to be learned about the exact changes in the structure of a phonetic pool of variation during

Essere in queste banche dati significa prima di tutto essere visibili in un contesto più ampio, essere più tracciabili a livello globale e valutare quindi nel tempo quanto la