• Non ci sono risultati.

Farsi usare, farsi trovare. L'esperienza dell'utente e il posizionamento nei motori di ricerca

N/A
N/A
Protected

Academic year: 2021

Condividi "Farsi usare, farsi trovare. L'esperienza dell'utente e il posizionamento nei motori di ricerca"

Copied!
125
0
0

Testo completo

(1)

UNIVERSITÀ DEGLI STUDI DI PISA

Dipartimento di Scienze Politiche

Corso di Laurea Magistrale in Comunicazione d’Impresa

e Politica delle Risorse Umane

TESI DI LAUREA

Farsi Usare, Farsi Trovare.

L'esperienza dell'utente e il posizionamento

nei motori di ricerca

RELATORE

CANDIDATO

Prof.ssa Maria Chiara Pievatolo

Sarah Franci

(2)

Indice

INTRODUZIONE………...5 1.

SCENARI DELL'USABILITÀ ... 7

1.1.

IL PRIMO MANIFESTO CLUETRAIN ... 7

1.1.1.

Tesi dalla 1 alla 6 ... 7

1.1.2.

Tesi 7 ... 9

1.2.

NEW CLUES: IL NUOVO MANIFESTO ... 10

1.2.1.

Le tesi del punto c, dalla 16 alla 18 ... 11

1.2.2.

Le tesi del punto d, dalla 19 alla 18 ... 11

1.2.3.

Le tesi del punto b - II parte, dalla 45 alla 46 ... 12

1.2.4.

Le tesi del punto c (II parte), dalla 52 alla 62 ... 14

1.3.

USABILITÀ SECONDO NIELSEN E KRUG ... 15

1.3.1.

Definizione di usabilità e di web usability ... 15

1.3.2.

Princìpi, criteri e regole dell’usabilità ... 18

1.4.

SEARCH ENGINE OPTIMIZATION ... 21

1.4.1.

Definizione di SEO ... 21

1.5.

GOOGLE E I MOTORI DI RICERCA ... 22

1.5.1

L’evoluzione dell’algoritmo di Google ... 24

2.

NEUROMARKETING E PERSUASIONE SUL WEB ... 28

2.1.

COME FUNZIONA IL CERVELLO ... 28

2.2.

COMUNICAZIONE PERSUASIVA ... 29

2.3.

CICLO EMOTIVO E COGNITIVO DELL’UTENTE ... 31

2.3.1.

Attirare un utente ... 31

2.3.2.

Attrarre un utente ... 35

2.3.3.

Interessare un utente ... 36

2.3.4.

Come un utente decide di rimanere: il momento dell’analisi ... 38

2.3.5.

Come un utente compie un’azione ... 39

3. CAPIRE GOOGLE ... 41

3.1. I FATTORI DI CLASSIFICAZIONE DI GOOGLE ... 41 3.2. I FATTORI NEGATIVI DI CLASSIFICAZIONE ... 49

3.3. FATTORI DI CLASSIFICAZIONE LEGATI ALL’UTENTE ... 50 3.4. FATTORI DI CLASSIFICAZIONE LEGATI ALL’ESPERIENZA UTENTE ... 52 3.5. GOOGLE E L'ACCESSO DA DISPOSITIVI MOBILI ... 55

3.5.1. Il Mobilegeddon del 21 aprile 2015 ... 55

3.5.2. Google Mobile First Indexing ... 56

3.5.3. Non solo mobile ... 57

3.6. TRA USABILITÀ E MOBILE ... 58 3.6.1. Questione di compromessi ... 59 4.

WEB USER EXPERIENCE ... 63

4.1

INTENTI DI RICERCA ... 63

navigazionale; ... 64

informativa; ... 64

commerciale. ... 64

4.2

OTTIMIZZAZIONE DI UN SITO WEB ... 65

(3)

4.2.1

Ottimizzazione on-page ... 65

4.2.2

Ottimizzazione off-page ... 69

4.3

NON SOLO USABILITÀ ... 69

4.4

ESPERIENZA UTENTE TRA SEO E USABILITÀ ... 72

4.5

L’IMPORTANZA DELLA SEO ... 76

4.5.1

SEO a lungo termine: rendere un buon servizio agli utenti ... 77

4.5.2

SEO a breve termine: ottimo design ... 79

4.6

CONFLITTI SUPERATI ... 80

5.

I TEST DI USABILITÀ ... 82

5.1. I TEST DI USABILITÀ ... 82 5.2. PREPARAZIONE DEL TEST DI USABILITÀ SU ASSOSERVIZI.EU ... 85 5.2.1. Selezione dei partecipanti ... 86 5.2.2. Preparazione dei compiti ... 87 5.2.3

Preparazione dei documenti ... 89

5.3. ESECUZIONE DEI TEST ... 89

5.3.1. Conduzione delle sessioni di test ... 91 5.3.2. Questionari finali ... 93 5.4. ANALISI DEI RISULTATI ... 94

5.4.1. Scaletta del Test di Usabilità di Assoservizi.eu ... 98

Allegati

ALLEGATO 1 - QUESTIONARIO PRE TEST ... 102

ALLEGATO 2 - I COMPITI O TASK ... 108

ALLEGATO 3 - LIBERATORIA CONSENSO REGISTRAZIONE ... 111

ALLEGATO 4 – QUESTIONARIO FINALE NET PROMOTER SCORE ... 112

ALLEGATO 5 – QUESTIONARIO FINALE SYSTEM USABILITY SCALE ... 113

ALLEGATO 6- TABELLA DEI RISULTATI ... 116

ALLEGATO 7 - REPORT FINALE ... 118

BIBLIOGRAFIA ... 121

SITOGRAFIA ... 123

(4)

Introduzione

Google è attualmente il motore di ricerca più usato al mondo, specialmente negli Stati Uniti e in Europa dove si stima che vi vengano effettuate oltre il 91% delle ricerche. Essendo Google quasi un monopolio non è possibile pensare di lavorare ad un progetto web senza tener conto delle linee guida che esso fornisce. Tra queste, negli ultimi anni, sono comparse le indicazioni relative all’usabilità e per una progettazione incentrata sull’utente, sia a livello di contenuto che di design. L'aspetto più critico riguarda il modo in cui il motore di ricerca decide di fornire i risultati più pertinenti agli utenti. La classificazione dei risultati, infatti, è realizzata da funzioni algoritmiche custodite gelosamente e attraverso un insieme di regole che i crawler devono seguire. Questo porta a interrogarsi se i contenuti di un sito web debbano essere realizzati pensando alle persone o ai motori di ricerca. Molti esperti del settore ritengono che la prima opzione sia quella più efficace, perché se una pagina piace agli utenti piacerà anche a Google e ai suoi spider. Resta però il dubbio se sia stato Google ad influenzare i criteri di usabilità abituando gli utenti a una determinata strutturazione dei siti web o, al contrario, sia stato esso ad adattarsi alle richieste degli utenti. L’usabilità è un concetto ampio che si applica a tutti gli artefatti con cui l’essere umano interagisce e riguarda la capacità di uno strumento di essere facilmente fruibile da parte di chi lo usa. Connesso a tale concetto è quello di esperienza utente, con cui si intende ciò che un utente prova usando un determinato sistema, un prodotto, un servizio o un sito web. Lo scopo è dare soddisfazione massima all’utente e portarlo a compiere l’azione per cui il sito nasce. Per guidarlo nella navigazione fino al raggiungimento di questo obiettivo esistono delle tecniche specifiche studiate dal neuromarketing, che unisce le neuroscienze alle strategie di vendita, analizzando le risposte cognitive ed emotive dei soggetti agli stimoli di marketing. L’applicazione di tali studi in ambito web riguarda principalmente la capacità di influenzare le azioni delle persone durante la navigazione. Ciò condiziona anche la progettazione e l’implementazione dei prodotti in termini di usabilità e allo stesso tempo la soddisfazione che l’utente trae dall’interazione. Un sito apprezzato dagli utenti viene apprezzato anche dai motori di ricerca. Le due cose sono strettamente collegate.

Pertanto, il processo di analisi è stato condotto in una duplice direzione. Da un lato sono state considerate le teorie dell’usabilità e l’applicazione dei principi affinché l’utente possa avere un’esperienza d’uso gradevole e soddisfacente su una qualsiasi pagina web. Dall’altro sono stati studiati i meccanismi di funzionamento dei motori di ricerca e come questi riescano a valutare l’esperienza utente attraverso i propri algoritmi. In questo ambito rientra la disciplina della SEO,

(5)

acronimo di Search Engine Optimization, la quale comprende l’insieme di operazioni che consentono ad un sito web di essere facilmente reperibile nelle SERP (Search Engine Results Page) ovvero le pagine dei risultati di un motore di ricerca. Il tutto si traduce da un punto di vista analitico nell’osservazione di quegli elementi che incidono sul posizionamento, ma che servono a valutare l’esperienza utente come il tempo di permanenza, il numero di pagine visitate e la frequenza di rimbalzo.

Il caso specifico preso in esame e su cui sono stati svolti i test di usabilità, www.assoservizi.eu, rientra all’interno del quadro delineato. Infatti i risultati ottenuti hanno dimostrato che le pagine con una peggiore usabilità mostrano un tempo medio di permanenza più basso, un numero di visite minore e una più alta frequenza di rimbalzo. Inoltre le pagine meno usabili si posizionano nella quarta pagina dei risultati di Google, al contrario quelle con un tasso di usabilità più alto si collocano in prima pagina, tra la 4° e la 10° posizione. I test condotti, pertanto, corroborano l’ipotesi che garantire un’esperienza utente positiva, ovvero progettare un prodotto web ponendo l’attenzione sugli utenti anziché sugli algoritmi, sia ormai indispensabile al fine di farsi indicizzare favorevolmente da Google.

(6)

1. Scenari dell'usabilità

1.1.

Il primo Manifesto Cluetrain

Il Manifesto Cluetrain conta 95 tesi e fu scritto nel 1999 da Rick Levine, Christopher Locke, Doc Searls e David Weinberger1. Al suo esordio fu criticato per la sua visione del futuro, ma ancora oggi è uno

strumento utile per comprendere il linguaggio, le tecniche di comunicazione e promozione impiegate su internet. Il suo intento era quello di spingere ad una riflessione generale sull’uso di internet e, in particolare, cercare di cambiare l’interpretazione che ne davano le aziende. Nel 2015, due degli stessi autori originali, David Weinberger e Doc Searls, ne hanno pubblicato una nuova edizione che conta 121 tesi2 e di cui approfondirò l’esame nel successivo paragrafo. Al fine del presente elaborato, non è possibile analizzare tutte le 95 idee pubblicate, ma mi limiterò a quelle di effettiva attinenza, partendo dalla prima tesi “I mercati sono conversazioni”.

1.1.1. Tesi dalla 1 alla 6

1. I mercati sono conversazioni. 2. I mercati sono fatti di esseri umani, non di segmenti demografici. 3. Le conversazioni tra esseri umani suonano umane. E si svolgono con voce umana. 4. Sia che fornisca informazioni, opinioni, scenari, argomenti contro o divertenti digressioni, la voce umana è sostanzialmente aperta, naturale, non artificiosa. 5. Le persone si riconoscono l’un l’altra come tali dal suono di questa voce. 6. Internet permette delle conversazioni tra esseri umani che erano semplicemente impossibili nell’era dei mass media. Il mercato, da sempre, rappresenta un luogo di incontro e di scambio, un posto dove poter parlare e confrontarsi con altre persone non solo sui prodotti in vendita, ma anche su opinioni, idee e progetti. Secondo gli autori internet fornisce gli stessi strumenti e svolge la medesima funzione, in versione enormemente amplificata, che un tempo era svolta dal mercato, inteso sia come punto di incontro tra le persone che luogo di scambio tra domanda e offerta. Allo stesso modo gli individui si riconoscono all’interno del mondo virtuale perché parlano la stessa lingua con un linguaggio “sostanzialmente aperto, naturale, non artificioso”. 1 Rick Levine, Christopher Locke, Doc Searls e David Weinberger, The Cluetrain Manifesto, 1999, http://www.cluetrain.com/ 2 Doc Searls e David Weinberger, New Clues, 2015, http://newclues.cluetrain.com/

(7)

La vera grande novità resa possibile dall’avvento dell’invenzione di Tim Barners-Lee è attribuita all’ampiezza potenziale e reale che questa conversazione può raggiungere.

Se dunque un tempo l’incontro avveniva in luoghi circoscritti, dove lo scambio si realizzava con un numero ridotto di persone, oggi il potenziale è praticamente infinito ed è ancora più facile comprendere il tipo di linguaggio che il nostro interlocutore sta usando. Nello specificare che “la voce umana è sostanzialmente aperta, naturale, non artificiosa” vorrei sottolineare proprio l’ultimo aggettivo al fine di comprendere come già nel 1999 si spingessero i creatori di contenuti per il web ad impiegare un metodo di scrittura vicino all’essere umano piuttosto che agli algoritmi e ai codici informatici. D’altronde, come spiegherò ampiamente nel terzo capitolo, le tecniche SEO (Search Engine Optimization) più o meno lecite, in quegli anni spingevano i redattori in una direzione opposta. Si pensi, ad esempio, all’inserimento nascosto di parole chiave o alla cosiddetta regola del

keyword stuffing. Questa rappresenta la densità con cui la parola chiave compare all’interno di un

testo, senza nessuna semantica, al fine di favorirne l’indicizzazione e il posizionamento sui motori di ricerca, primo fra tutti Google. Quest’ultimo oggi dichiara esplicitamente di penalizzare tali tecniche rendendo invisibili, nelle liste di ricerca, i siti web che utilizzano questi stratagemmi.

In realtà, negli ultimi anni, a partire dalla famosa frase di Bill Gates “Content is King3”, Google e

numerosi studiosi del settore hanno più volte affermato che siti web e contenuti di vario tipo debbano essere realizzati per gli utenti.

Per essere presenti in queste conversazioni in modo attivo occorre comunicare adoperando, in qualche modo la stessa lingua degli utenti del web. Tuttavia è bene sapere che, per entrare realmente in contatto con queste conversazioni, non occorre utilizzare tecnicismi e/o strategie artificiali. [...] Il centro della comunicazione deve rimanere la persona, cercando il più possibile di evitare di creare contenuti

esclusivamente per un motore di ricerca.

Fino a qualche anno fa questo poteva essere considerato un'utopia, in quanto tecniche informatiche più o meno lecite permettevano di posizionare un sito di dubbio contenuto in cima alla lista dei motori di ricerca. Oggi, questo non è più possibile, in quanto Google penalizza chi utilizza queste tecniche rendendo i siti web invisibili, o che all'interno dei loro testi ripetono più volte parole chiave senza nessuna logica semantica. I recenti aggiornamenti degli algoritmi di Google stanno andando tutti verso la direzione di premiare contenuti originali e che vengono apprezzati dagli utenti, non dai computer.4

3Bill Gates, Content is King, 1/3/1996,http://www.microsoft.com/billgates/columns/1996essay/essay960103.asp 4

(8)

Dallo sviluppo del web in poi, aziende, istituzioni e chiunque voglia esservi presente è chiamato a rispondere sempre, in una conversazione continua, agli utenti. Internet ha di fatto creato la possibilità di poter interagire con chiunque, anche con chi prima era abituato ad una comunicazione di tipo broadcast (ovvero di uno a molti) permettendo “delle conversazioni tra esseri umani che erano semplicemente impossibili nell’era dei mass media”. Ciò che gli autori affermavano nel 1999 anticipa di molti anni l’avvento dei social network, del social media marketing e delle teoria e “regole” incentrate sugli utenti.

1.1.2. Tesi 7

7. Gli iperlink sovvertono la gerarchia. Nel web tutto è collegato tramite gli iperlink, ovvero collegamenti ipertestuali, che permettono di rimandare un documento, un’immagine ecc. ad un altro. Grazie ai motori di ricerca, pertanto, il percorso di atterraggio su un sito web non porta sempre alla sua homepage, ma può avvenire in una sua pagina qualsiasi. Il percorso di visita, infatti, potrebbe essere anche molto differente rispetto a quanto immaginato dal programmatore. In considerazione di questo, i link e l’organizzazione di internet in generale permettono una navigazione multidirezionale che non tiene conto del prima e del dopo, né della struttura organizzativa né delle tassonomie formali. È in questo senso che gli autori sostengono che “gli iperlink sovvertono la gerarchia”.

Appare evidente che l’architettura e i testi di un sito debbano essere curati e progettati sulla base dell’utente, in modo che riesca sempre a capire dove si trova, cosa sta visualizzando e perché. Un esempio può essere l’uso di una regola dell’usabilità che prende il nome dalla favola di Hansel e Gretel, in cui il bambino, per ritrovare la strada casa, lascia lungo il percorso delle briciole di pane, in inglese breadcrumb5. Nell’architettura informativa di un sito queste ultime indicano l’ordine di

navigazione all’interno di ogni singola pagina, ma non necessariamente il percorso con cui si è giunti fin lì. Ne esistono, infatti, tre tipi:

● Location Breadcrumb, indica la posizione della pagina indipendentemente dal percorso fatto dall’utente;

● Path Breadcrumb, mostra il percorso fatto dall’utente;

● Attribute Breadcrumb, che veicola oltre alle informazioni navigazionali anche metainformazioni.

5

Justin Mifsud, 12 effettive linee guida per l’usabilità delle briciole di pane e SEO, 9/12/2011, http://usabilitygeek.com/12-effective-guidelines-for-breadcrumb-usability-and-seo/

(9)

I link ipertestuali combinati ai motori di ricerca, dunque, permettono a qualsiasi utente di navigare facilmente, indipendentemente dalla personale capacità o dalla competenza nel farlo. Pertanto spetta a chi realizza siti web creare le condizioni per una efficace, agevole e intuitiva esperienza d’uso del mezzo messo a disposizione da internet.

1.2.

New Clues: il nuovo manifesto

A gennaio 2015, due degli autori principali del Manifesto Cluetrain pubblicarono una nuova versione, aggiornata e ampliata. Quest’ultima conta 121 nuove tesi che descrivono cosa è cambiato nei sedici anni che la separano dalla prima edizione, e si soffermano anche sui futuri rischi. Il Nuovo Manifesto non è rivolto alle aziende, al contrario del primo, ma vuole essere una sorta di guida per tutti gli utenti: per prendere consapevolezza delle potenzialità della rete e dei rischi connessi a un suo cattivo uso. Infatti, secondo Doc Searls e David Weinberger il web è sotto attacco da più parti. Gli autori precisano nella premessa al Nuovo Manifesto Cluetrain che le precedenti, nate agli albori di internet e del web “di massa”, avvisavano della potenziale minaccia che l’uso scorretto di internet potesse avere. When we first came before you, it was to warn of the threat posed by those who did not understand that they did not understand the Internet. 6 Oggi, tale minaccia non solo si è realizzata, ma si è ulteriormente approfondita. Sempre secondo i due studiosi, le aziende hanno compreso e adottato nelle loro strategie tutte le trappole di internet, imparando ad adoperarlo sempre meglio fino ad ottenere i nostri dati e i nostri soldi. I Marauders capiscono Internet fin troppo bene. Pensano che appartenga a loro e che possano depredarlo, prelevando da esso i nostri dati e i nostri soldi, convinti che noi siamo cretini. Ma l’orda più pericolosa è la terza: Noi. Un’orda è una massa indifferenziata di persone. Ma la vera essenza di Internet è che ci permette di connetterci, in quanto individui diversi e distinti7. Anche in questo caso, sarebbe impossibile analizzare tutte le 121 tesi, ma proseguirò nell’analisi di quelle più strettamente connesse all’oggetto di questa tesi. 6 Doc Searls e David Weinberger, New Clues, 2015, http://newclues.cluetrain.com/ 7 Doc Searls e David Weinberger New Clues, traduzione di Giulio Gaudiano, New CLues, 2016, http://www.youmediaweb.com/le-nuove-tesi-del-cluetrain-manifesto-in-italiano-new-clues/

(10)

1.2.1. Le tesi del punto c, dalla 16 alla 18

c. La Rete non è contenuto8. 16. C’è molto contenuto in Internet. Ma - meraviglia - Internet non è composta di contenuto. 17. La prima poesia di un adolescente, la raggiante liberazione di un segreto a lungo mantenuto, un bel disegno tratteggiato da una mano tremante, un articolo di blog in un regime che odia il suono delle voci del suo popolo - nessuna di queste persone si è seduta a scrivere contenuto. 18. Abbiamo usato la parola «contenuto» senza virgolette? Ci sentiamo così sporchi.

“La rete non è contenuto” è, probabilmente, un punto che ha destato, in numerosi tecnici e

operatori del marketing e della comunicazione online, non pochi dubbi e quesiti.

Infatti, nonostante sia vero che Content is the king, resta altrettanto vero che internet non è né il contenuto che trasmette né il mezzo attraverso cui passa, ma sia l’insieme delle due in una continua e perpetua conversazione tra i nodi che lo compongono. Internet, per gli autori, è la rappresentazione del mondo stesso, dove tutto è già connesso e intrecciato. La rete così intesa si discosta dall’idea di medium e ri-acquisisce il concetto di conversazione, come già espresso nel primo Manifesto.

1.2.2. Le tesi del punto d, dalla 19 alla 18

d. La Rete non è un medium9. 19. La Rete non è un medium più di quanto lo sia una conversazione. 20. Sulla Rete, noi siamo il medium. Siamo quello che fanno muovere i messaggi. Lo facciamo ogni volta pubblichiamo o ritwittiamo, mandiamo un link in un messaggio di posta elettronica, o lo pubblichiamo su una rete sociale.

21. A differenza dei media, io e te lasciamo le nostre impronte digitali, e qualche volta i segni del nostro morso, sui messaggi che trasmettiamo. Diciamo alla gente perché lo stiamo mandando. Lo discutiamo. Ci aggiungiamo una facezia. Tagliamo la parte che non ci piace. Rendiamo questi messaggi nostri. 22. Ogni volta che inviamo un messaggio attraverso la Rete, porta con sé un pezzetto di noi. 23. Noi facciamo muovere un messaggio attraverso questo «mezzo» solo se ci importa in uno degli infiniti modi in cui gli esseri umani hanno qualcosa a cuore. 24. Aver a cuore - importare - è la forza motrice di Internet. 8 Doc Searls e David Weinberger, New Clues, traduzione di Maria Chiara Pievatolo, New CLues, 2016, http://archiviomarini.sp.unipi.it/604/1/newclue1.pdf 9 V. supra.

(11)

Internet per gli autori del manifesto è una conversazione continua. Come tale la funzione di medium non è svolta dallo strumento tecnico, ma dall’interazione che le persone possono attivare grazie ad esso. Online ogni persona partecipa ad un dibattito, promuove un’idea o un prodotto, permette ad altri di venire a conoscenza di argomenti nuovi, ma lo fa apportando sempre qualcosa di proprio. Sono gli individui a trasmettere, attraverso un incessante passaparola, un messaggio che per essi rappresenta qualcosa di importante.

In sostanza, per dirla con le parole di Marshall McLuhan "il medium è il messaggio". L’accesso a internet ha accelerato e allargato funzioni umane già esistenti, come lo scambio, l’interazione e la conversazione e ne ha mutato le proporzioni e la frequenza, introducendo anche nuovi meccanismi per avviarle10. Su internet queste attività naturali non sono il contenuto, ma anzi sono il mezzo

attraverso cui i messaggi vengono veicolati. Si pensi in questo senso all’atto di postare su Facebook oppure il retweettare su Twitter o ancora al commentare un articolo di un blog ecc. L'espressione "il medium è il messaggio" indica infatti che il vero messaggio che ogni mezzo trasmette è costituito dalla natura stessa del medium, la quale cambia le abitudini di chi lo usa. La possibilità di essere costantemente connessi ha permesso di accorciare le distanze geografiche e sociali e diffondere un messaggio in tempo reale aggiungendo sempre qualcosa che sia proprio della persona che lo ha condiviso. È per questo che internet non è il medium, ma lo sono le persone che interagiscono attraverso di esso. Inoltre, a differenza di altri mezzi di comunicazione, le nuove tecnologie hanno permesso una nuova forma di società collettiva, ma dalle dimensioni allargate, tanto da poter parlare di villaggio globale. McLuhan anticipò, inoltre, l’avvento di internet parlando di una futura era in cui tutti avrebbero avuto accesso alle stesse informazioni attraverso la tecnologia. Il "villaggio globale" potrebbe essere inteso come internet.

Tornando al Manifesto si nota, ancora una volta, l’idea degli autori che internet sia fatto dalle persone, dagli esseri umani i quali parlano il proprio linguaggio, non quello delle macchine e dei codici informatici. Dunque, se internet e il web sono le persone e se ogni individuo arricchisce i contenuti trasmessi, allora ciò che viene pubblicato, programmato e creato per il web dovrebbe essere a dimensione umana e porre al centro dell’attenzione l’utente.

1.2.3. Le tesi del punto b - II parte, dalla 45 alla 46

Ma ahimè, come abbiamo potuto allontanarcene, fratelli e sorelle… 10 Marshall McLuhan, Understanding Media: The extensions of Man (Gli strumenti del comunicare), traduzione di Ettore Capriolo, Milano, Il Saggiatore, 2008

(12)

b. Siamo d’accordo su tutto. Ti trovo affascinante!11 45. Il mondo è steso davanti a noi come un buffet, eppure noi ci attacchiamo alla nostra bistecca e patate, agnello e hummus, pesce e riso, o quant’altro. 46. Lo facciamo in parte perché una conversazione esige un terreno comune: la condivisione di una lingua, di interessi, di norme e di intendimenti. Senza di essi è difficile oppure impossibile intrattenere una conversazione. 47. I terreni condivisi generano tribù. Il terreno solido della Terra tiene le tribù a distanza, mettendole in grado di sviluppare preziose differenze. Osanna! Le tribù danno origine al Noi contro Loro e alla guerra. Osanna? Non tanto. 48. In Internet, la distanza fra tribù parte da zero. Nonostante la vastità di internet, in termini di uso e di ampliamento dell’infrastruttura che permette la connessione ad un sempre più elevato numero di persone, la conversazione parte sempre da qualcosa di ben conosciuto.

L’essere umano in generale e l’utente in particolare è portato a frequentare luoghi e spazi che riconosce come propri, come affini alla propria natura personale e culturale. Gli individui tendono a raccogliersi intorno ad un interesse comune creando comunità che la dimensione reale ha tenuto a distanza, ma che su internet si riduce pressoché a zero.

On line è possibile creare nuove e alternative tribù, i cui componenti si trovano a migliaia di chilometri di distanza, ma che parlano la stessa lingua, manifestano i medesimi interessi che si riconoscono all’interno di un contesto.

Potrebbe essere utile, per comprendere quanto fino a qui espresso, un rapido accenno alla teoria della coda lunga di Chris Anderson, la quale illustra molto bene il concetto di tribù e di nicchia, e di come queste abbiano modificato i mercati nell’era di internet.

Anderson sostiene che i prodotti che abitano la parte bassa del grafico (colore giallo), ovvero quelli a bassa richiesta o a basso volume di vendita, costituiscono, in realtà, nella loro somma una quota di mercato decisamente più ampia rispetto ai loro concorrenti della parte alta del grafico, definiti blockbuster. Questo è ciò che ha fatto la fortuna di siti quali Netflix e Amazon, dove la scelta è talmente ampia che ognuno può trovare il proprio genere e la propria sottocultura di appartenenza. Vendere nella coda lunga

11 V.supra

(13)

significa vendere molti più prodotti ad un numero minore di persone, accogliendo così un numero enorme di esigenze. Restare fermi sulla testa, al contrario, significa distribuire pochi articoli a moltissime persone. Inoltre:

Rendere disponibili le nicchie rivela la domanda latente di contenuti non commerciali. Poi, mentre la domanda si sposta verso le nicchie, la capacità di fornire quelle nicchie e crearne di nuove migliora ulteriormente, dando vita a un feedback positivo che si trasformerà intere industrie e la cultura, negli anni a venire12.

Al di là della teoria economica ampiamente nota, soprattutto in ambito web marketing, Anderson nel suo testo La coda lunga - Da un mercato di massa a una massa di mercati si sofferma sul concetto di cultura di nicchia e su cosa significa abitare un mondo a coda lunga. Secondo l’autore siamo passati da una “cultura di massa a una cultura massicciamente parallela”, dove ognuno è interessato a cose diverse e la frammentazione è inevitabile. Quello che abbiamo perso in termini di cultura comune lo abbiamo guadagnato in termini di maggiore esposizione ad altre persone. In altre parole, non ci stiamo frammentando quanto riorganizzando secondo dimensioni diverse. Con la metafora dei boccioni dell’acqua, Anderson spiega che oggi abbiamo fin troppe strade da seguire che si uniscono in nicchie culturali autoselezionate, dove siamo più connessi con alcune persone e meno con altre. A suo avviso ciò non comporta la scomparsa della cultura condivisa, anzi ne amplia la potenzialità.

1.2.4. Le tesi del punto c (II parte), dalla 52 alla 62

c. Il marketing rende ancora più difficile parlare. 52. Avevamo ragione la prima volta: i mercati sono conversazioni. 53. Una conversazione non è la vostra azienda che ci tira per la manica allo scopo di promuovere un prodotto di cui non vogliamo sentir parlare. 54. Se vogliamo conoscere la verità sui vostri prodotti, la verremo a sapere l’uno dall’altro.

55. Comprendiamo che queste conversazioni hanno un valore incredibile per voi. Peccato. Sono nostre. 56. Siete benvenuti nella nostra conversazione, ma solo se ci dite per chi lavorate, e se potete parlare per voi stessi e come voi stessi. 12Chris Anderson, La lunga coda: da un mercato di massa ad una massa di mercati, traduzione di Susanna Bourlot, Torino, Codice, 2010, p. 15. (Edizione originale The Long Tail. Why the Future of Business Is Selling Less of More, New York, Hyperion, 2006)

(14)

57. Ogni volta che ci chiamate "consumatori" ci sentiamo come mucche davanti alla parola «carne». 58. Smettete di sottoporre le nostre vite a fratturazione idraulica per estrarre dati che non vi riguardano affatto e che le vostre macchine fraintendono.

59. Non preoccupatevi: vi diremo quando siamo interessati a comprare qualcosa. A modo nostro.

Non a modo vostro. Fidatevi: vi farà bene.

60. Gli annunci pubblicitari che suonano umani ma vengono dal colon irritabile del vostro dipartimento marketing macchiano la stoffa del Web. 61. Quando la personalizzazione di qualcosa è perturbante, questa è una discreta indicazione che non capite che significa essere una persona. 62. «Personale» è umano. «Personalizzato» no. I due studiosi concludono questa parte del Nuovo Manifesto dichiarando: “Umano è Personale. Non Personalizzato”, dove per personale si intende qualcosa che è proprio di una data persona, mentre per personalizzato qualcosa che viene adattato alle sue esigenze. Tornano, dunque, ancora una volta a specificare l’importanza dell’utente come essere umano. Sottolineano in questo sezione, che le aziende hanno frainteso i due concetti: la direzione che il marketing ha intrapreso sul web le ha allontanate dalla spontaneità e dalla trasparenza che occorrono al mezzo e alla conversazione. Infatti, se personalizzazione non significa personale, avvertono, allora è necessario entrare in contatto con le persone, con gli individui che sono realmente interessati al prodotto e non declinare l’offerta a seconda del pubblico. Ciò significa che le aziende sono chiamate a comportarsi come persone e non come macchine.

1.3.

Usabilità secondo Nielsen e Krug

1.3.1. Definizione di usabilità e di web usability

La norma ISO13 9241-11 del 199814, poi aggiornata dalla ISO 9241-210:2010 Ergonomic requirements for office work with visual display terminals (VDTs) è lo standard che definisce i requisiti ergonomici

per il lavoro di ufficio con i videoterminali. Nello specifico, la sezione 10 della norma stabilisce i

“Principi Dialogici” che devono caratterizzare l’interazione uomo-computer. Questi dettano le linee

in base alle quali un dispositivo deve essere progettato al fine di risultare adeguato al compito,

13International Organization of Standardization, About ISO, - https://www.iso.org/about-us.html

14International Organization of Standardization, ISO 9241-11:1998, Ergonomic requirements for office work with visual display terminals

(VDTs) - Part 11: Guidance on usability - https://www.iso.org/standard/16883.html. Attualmente la suddetta norma è in fase di revisione. È prevista per dicembre 2017 la pubblicazione della nuova ISO 9241-11 Ergonomics of human-system interaction -- Part 11: Usability:

(15)

autodescrittivo, controllabile dall'utente, conforme alle aspettative dell'utente, tollerante agli errori, idoneo alla personalizzazione e all'apprendimento. La norma, al punto 11, chiarisce il concetto di usabilità definendolo il “grado in cui un prodotto può essere usato da particolari utenti per raggiungere certi obiettivi con: ● efficienza, ovvero l’accuratezza e la completezza dei risultati raggiunti; ● efficacia, ovvero la quantità di risorse impiegate per raggiungere l’obiettivo; ● soddisfazione, ovvero il comfort e l’accettabilità del sistema di lavoro da parte degli utenti; in uno specifico contesto d'uso”. In pratica la definisce come la capacità, di un qualsiasi strumento, di essere facilmente fruibile da parte dell’uomo in ogni contesto in cui si svolge l’interazione uomo - strumento e ne circoscrive il campo di interesse ai software, siti web inclusi.15

Nella progettazione di interfacce grafiche si dovrebbero sempre tenere presente a chi si rivolgono e a quale tipologia di utenza, gli scopi che vogliono raggiungere e il contesto in cui si svolgerà il dialogo. È d’altronde necessaria una precisazione: il concetto di usabilità si applica a tutti gli artefatti in cui il contatto uomo - oggetto sia rilevante. Con l’avvento dell’informatica e di internet, questo concetto si applica anche al rapporto con i prodotti online, a cui l’utente si avvicina attraverso un’interfaccia grafica progettata ad hoc. Tra questi rientrano anche i siti web.

Per tale motivo si inizia a parlare di web usability o usabilità del web: misura sia della bontà dell’esperienza dell’utente, ovvero della sua soddisfazione nel raggiungimento dei propri obiettivi attraverso l’uso di un servizio online, sia del grado di efficienza di un sito nell’aiutare l’utente a raggiungere i suoi scopi.

In realtà non esiste una definizione condivisa delle caratteristiche e dell funzioni che un oggetto web deve avere per ottenere un buon livello di usabilità, ma è possibile applicare alcune regole e linee guida che sono state studiate nel corso del tempo e di cui illustrerò alcuni esempi nel paragrafo successivo.

15

Roberto Polillo, Facile da usare – Una moderna introduzione alla ingegneria dell’usabilità, 2010 http://www.rpolillo.it/faciledausare/Cap.3.htm

(16)

Numerosi autori, infatti, hanno dato una propria definizione di usabilità, che si avvicina più o meno a quella data dall’International Organization of Standardization. Al fine di questa tesi riporto l’opinione di due dei massimi studiosi del tema in oggetto: Jakob Nielsen e Steve Krug. Il primo16, fondatore insieme a Donald Norman del Nielsen Norman Group ed esperto di usabilità, tanto da esserne considerato un guru, la definisce: L’usabilità è un indicatore di qualità che ci dice quanto una determinata cosa è semplice da usare. Più precisamente, ci dice quanto è necessario imparare a usare quella cosa, con quanta efficienza la si usa, poi quanto si riesce a tenerne a mente il funzionamento, quanto alta è la probabilità di fare errori quando la si usa, e quanto è piacevole usarla. Se l’utente non riesce o non vuole usare una determinata funzionalità di un oggetto o di un programma, quella funzionalità potrebbe tranquillamente non esserci17. Mentre Steve Krug18, consulente di usabilità per una vasta gamma di aziende e reputato uno dei massimi esperti della materia , chiarisce nel suo libro Don’t make me think che:

Se qualcosa è usabile, che si tratti di un sito web, di un telecomando o di una porta girevole, significa che:

Una persona con una capacità e un’esperienza media (o addirittura al di sotto della media) può capire come si usa una determinata cosa per raggiungere il suo scopo senza dover risolvere più problemi di quanto valga la pena.19

La Web Usability fa parte dunque, insieme ad altre discipline, della User Centred Design o User Experience20 che come Nielsen sostiene equivale alla sommatoria delle emozioni, delle percezioni e

delle reazioni di una persona quando entra in contatto con un’azienda, con un prodotto o un servizio. Lo standard 9241-2010, invece, la definisce come “a person’s perceptions and responses that result from the use or anticipated use of product, system or service”.

In sostanza l’esperienza utente è una dimensione della progettazione di artefatti online e offline che mette al centro le caratteristiche e i bisogni dell’utente, focalizzandosi sul loro contesto d’uso. L’obiettivo di tale approccio interdisciplinare21, che mette insieme psicologia, design, architettura

16 Per maggiori informazioni su Jacob Nielsen: https://www.nngroup.com/people/jakob-nielsen/ 17Jakob NIelsen e Hoa Loranger, Web Usability 2.0 - L’usabilità che conta, traduzione di Walter Vannini, Milano, Apogeo, 2010, p. XVIII (Edizione originale: Jakob NIelsen e Hoa Loranger, Prioritizing Web Usability, San Francisco, Pearson Education, 2006) 18 Per maggiori informazioni su Steve Krug: http://www.stevekrug.com/about.html 19 Steve Krug, Don’t make me think - Un approccio di buon senso all’usabilità web e mobile (Terza edizione), traduzione di Barbara Sansone, Milano, Tecniche Nuove, 2016, p. 9 (Edizione originale: Steve Krug, Don’t make me think, Revisited. A common sense approach to web usability, San Francisco, Pearson Education, 2014) 20Per un maggiore approfondimento si rimanda al capitolo 4 paragrafo 3.2 Usabilità e User Experience 21 Si rimanda rispettivamente ai capitoli 2, 4 e 5, per un approfondimento sul Neuromarketing e la User Experience

(17)

dell’informazione, usabilità, progettazione e marketing, è generare prodotti belli e piacevoli ma nello stesso tempo ergonomici e funzionali22.

1.3.2. Princìpi, criteri e regole dell’usabilità

Per rendere un sito web usabile è necessario seguire alcuni principi generali che vari autori hanno nel corso del tempo individuato e riscontrato come efficaci. Tra i suggerimenti maggiormente citati rientrano i criteri di Nielsen e di Krug. I criteri di Nielsen Il decalogo dei principi euristici di Nielsen deriva da uno studio statistico di 249 errori comuni che l’autore ha individuato nel corso delle sue ricerche precedenti, pubblicate nel 199423 e

successivamente nel suo sito web24. 1. Visibilità dello stato del sistema: Il sistema dovrebbe sempre mantenere gli utenti informati su ciò che sta succedendo, attraverso risposte appropriate entro un tempo ragionevole. 2. Corrispondenza tra sistema e mondo reale: Il sistema deve parlare il linguaggio dell’utente, con parole, frasi e concetti a lui familiari. Conviene seguire le convenzioni del mondo reale, e rendere visibili le informazioni in un ordine naturale e logico.

3. Controllo e libertà: Gli utenti spesso scelgono le funzioni del sistema, per questo deve essere contrassegnata evidentemente un’“uscita di emergenza” in modo da poter abbandonare lo stato indesiderato senza essere costretti ad una interazione troppo lunga. Deve inoltre esistere una funzione di annullamento e di ritorno al passo precedente.

4. Consistenza e standard: gli utenti non dovrebbero chiedersi se parole, situazioni o azioni differenti significhino la stessa cosa.

5. Prevenzione dell’errore: è preferibile un design accurato, che impedisce agli errori di verificarsi. Se fosse impossibile evitarlo è necessario aver strutturato con attenzione i messaggi di errore. Conviene, prima di far compiere un’azione all’utente, eliminare le possibilità di errore attraverso la visualizzazione di un messaggio di conferma dell’azione. 6. Riconoscimento anziché ricordo: ridurre al minimo il carico di memoria dell'utente

rendendo visibili gli oggetti, le azioni e le opzioni. L'utente non deve ricordare le informazioni da una parte all'altro. Le istruzioni per l'uso del sistema devono essere visibili o facilmente recuperabili quando opportuno. 22 Jacopo Pasquini e Simone Giomi, Web usability. Guida completa alla user experience e all'usabilità per comunicare e vendere online, Milano, Hoepli, 2014 23 Jakob Nielsen, Enhancing the explanatory power of usability heuristics in B. Adelson, S. Dumais e J. Olson (a cura di), CHI '94 Proceedings of the SIGCHI Conference on Human Factors in Computing Systems, Boston - New York, ACM, 1994. 24 Jakob Nielsen, 10 Usability Heuristics for User Interface Design, 1/01/1995, nngroup.com/articles/ten-usability-heuristics

(18)

7. Flessibilità d’uso: gli acceleratori - non visibili dall'utente novizio - possono spesso accelerare l'interazione per l'utente esperto in modo tale che il sistema possa soddisfare sia utenti inesperti che esperti. Consenti agli utenti di personalizzare le azioni più frequenti.

8. Design ed estetica minimalista: i dialoghi non dovrebbero contenere informazioni irrilevanti o raramente necessarie. Ogni unità aggiuntiva di informazioni in un dialogo concorre con altre pertinenti unità di informazione diminuendo la loro visibilità relativa.

9. Aiutare gli utenti a riconoscere, diagnosticare e riprendersi dagli errori: I messaggi di errore devono essere espressi in una lingua semplice (senza codici), indicare precisamente il problema e suggerire una soluzione concreta.

10. Assistenza e documentazione: è preferibile che il sistema possa essere usato senza documentazione di supporto. Nel caso in cui fosse necessario fornire assistenza le informazioni dovrebbero essere facili da reperire, concentrate sull'attività dell'utente, elencare i passi concreti da eseguire e non essere troppo dettagliate. Le regole di Krug25 Le regole di Krug sono relative ai siti web e possono essere sintetizzate in cinque suggerimenti: 1. Don’t make me think - Non costringermi a pensare. 2. Progettare pagine da scorrere, non da leggere. 3. Progettare cartelloni pubblicitari. 4. Agli utenti piacciono le scelte facili: ogni click deve essere una scelta non ambigua che non richiede impegno. 5. Omettere le parole inutili.

Nell’edizione aggiornata del testo, per l’aumento degli accessi a internet da smartphone, Krug ha inserito un sesto suggerimento che potremmo sintetizzare in:

6. Struttura il sito con un design responsive, ma se non è possibile allora: 6.1. Consentire lo zoom.

6.2. Indirizzare l’utente all’esatto contenuto della versione mobile e non alla sua homepage.

6.3. Fornire sempre il link alla versione desktop.

La prima regola, che dà anche il titolo al libro uscito per la prima volta nel 2000, si riferisce all’aspetto cognitivo dell’apprendimento e si collega al sesto principio di Nielsen. Krug sostiene che 25 Steve Krug, Don’t make me think - Un approccio di buon senso all’usabilità web e mobile (Terza edizione), traduzione di Barbara Sansone, Milano, Tecniche Nuove, 2016 (Edizione originale: Steve Krug, Don’t make me think, Revisited. A common sense approach to web usability, San Francisco, Pearson Education, 2014)

(19)

un utente non dovrebbe mai soffermarsi a pensare sul funzionamento di un sito (ed esempio chiedendosi: dove sono? Cosa posso fare? Cosa posso cliccare?), ma al contrario dovrebbe essere guidato in maniera naturale. Ciò è possibile attraverso una strutturazione semplice e intuitiva sia della singola pagina che dell’intero sito. Solo questo può evitare di compromettere la fiducia nei confronti del sito e dell’organizzazione che vi sta dietro. In altre parole lo studioso raccomanda di rendere ogni pagina o schermata autoevidente, in modo che l’utente medio capisca cosa è, dove si trova e come si usa, solo guardandola, senza dover pensare.

È il principio prevalente, il criterio definitivo per decidere se un progetto funziona o meno.

Attraverso la seconda regola, Krug pone l’attenzione sul reale uso dei siti web da parte degli utenti. È noto che le persone sul web trascorrono pochissimo tempo a leggere, ma al contrario scorrono le pagine rapidamente, alla ricerca di parole e/o frasi che ne catturino l’attenzione. Ciò succede perché l’utente ha sempre un obiettivo ed è consapevole che per raggiungerlo non necessita di leggere tutto il contenuto, ma è sufficiente cercare le parti d’interesse.

Inoltre, gli utenti sono portati a scegliere non l’opzione migliore, ma la prima opzione ragionevole. Questa strategia è conosciuta come satisfacing26. Appena viene individuato un link che

probabilmente rimanda a ciò che è ricercato, esso sarà cliccato. Questo perché solitamente l’utente ha fretta e quindi si accontenta della risorsa che sembra più accettabile e, d’altronde, se sbaglia è molto facile tornare indietro, il che rende accontentarsi una strategia efficace.

La terza regola è strettamente legata alla seconda: se l’utente medio è abituato a non leggere, ma a procedere molto rapidamente solo sui contenuti che potrebbero rispondere ai suoi bisogni, allora un sito web deve essere progettato in modo che sia intuibile fin da subito ciò che è importante. Esattamente come un cartellone pubblicitario.

Krug suggerisce a tale proposito l’uso delle convenzioni, cioè stili di design ampiamente utilizzati e che quindi non comportano un nuovo sforzo cognitivo per essere appresi. Consiglia inoltre di creare gerarchie visive efficaci, cioè che l’aspetto degli elementi della pagina rifletta accuratamente le relazioni che esiste tra loro; di suddividere le pagine in aree chiaramente definite e rendere evidente su cosa è possibile fare clic; eliminare ogni tipo di distrazione e formattare i contenuti in modo che sia facile scorrerli rapidamente.

Con la quarta regola, l’autore si riferisce all’organizzazione delle informazioni di un sito web. Esistono due principali strutture: in profondità o ad albero e in ampiezza o a grafo. Con la prima si

26

Il termine è stato coniato dall’economista Herbert A. Simon, che ha unito la parola satisfying (soddisfare) con sufficing (bastare) in

(20)

intende uno sviluppo con contenuti brevi che rimandano ad altre risorse attraverso l’uso di più link, il che sottopone l’utente ad un continuo processo di scelta. Mentre, progettare un sito con una struttura in ampiezza significa creare contenuti molto lunghi con pochi link, lasciando meno libertà all’utente. L'idea che sta alla base di quest’ultima struttura è di evitare di porre gli utenti di fronte a una scelta difficile e ad un possibile errore.

Non sempre però è possibile realizzare pagine chiare che non obbligano l’utente a decidere. In questi casi è necessario offrire un aiuto tempestivo, breve e inevitabile. In altre parole un messaggio d’aiuto deve contenere la quantità minima di informazioni, deve essere posizionato in modo che lo trovi esattamente quando ne ha bisogno e formattato in modo che sia certo che venga notato.

Omettere parole inutili.

La scrittura vigorosa è concisa. Una frase non deve contenere parole non necessarie, un paragrafo non deve contenere frasi non necessarie, per la stessa ragione per cui un disegno non dovrebbe contenere linee non necessarie o una macchina parti non necessarie.27

Krug con la sua ultima legge “Sbarazzati di metà delle parole di ogni pagina, e poi sbarazzati della metà di quello che resta”, parla del linguaggio da usare quando si scrivono pagine web che si leggono con più fatica di quelle a stampa. Per questo motivo è bene limitare la quantità di testo e formattarlo al fine di facilitarne la lettura e rendere visibili i contenuti più utili.

1.4.

Search Engine Optimization

1.4.1. Definizione di SEO

Seo è l’acronimo di Search Engine Optimization, ovvero è l’insieme di operazioni che consentono ad un sito web di essere facilmente reperibile dagli utenti che interrogano i motori di ricerca. Rientrano al suo interno un complesso numero di azioni che hanno lo scopo di indicizzare e posizionare nelle prime posizioni delle SERP (Search Engine Result Page) un sito web o una pagina. In questo senso si intendono tutti gli interventi che si possono realizzare senza dover ricorrere all’advertising e alla pubblicità a pagamento.

Le azioni che rientrano in questo ambito sono numerose e si distinguono in on-page, all’interno del sito, e off-page, all’esterno del sito28. Nella prima categoria rientrano quelle operazioni che 27 William Strunk jr. e Elwyn Brooks White, The Elements of Style, Boston, Allyn and Bacon, 1999 (1ª ed. originale 1920) in Steve Krug, Steve Krug, Don’t make me think, Revisited. A common sense approach to web usability, San Francisco, Pearson Education, 2014) 28 Per un maggiore approfondimento sui fattori on-page e off-page si rimanda al capitolo 4

(21)

riguardano le caratteristiche tecniche delle pagine web, mentre nella seconda tutte le attività svolte all’esterno del sito web, principalmente la gestione dei link e le pubbliche relazioni digitali.

Indicizzazione

29

L’indicizzazione è la catalogazione dei contenuti di un sito web da parte del motore di ricerca.

Questa avviene in modo automatico da parte dei bot, detti anche web crawler o spider, che analizzano gli oggetti presenti nelle pagine web.

In particolare, i crawler leggono il contenuto testuale delle pagine web esaminando le occorrenze delle parole e dando maggiore importanza a quelle all’interno dei tag di intestazione, nei meta tag, nei titoli e sottotitoli e negli anchor text.

Nel loro percorso di navigazione i crawler seguono i link che trovano all’interno dei contenuti, atterrando su altre pagine in cui eseguono una nuova scansione. Le informazioni raccolte vengono catalogate, salvate all’interno dei server, inserite negli indici e restituite agli utenti nelle pagine di risposta in base alla query.

Esistono alcune tecniche a disposizione dei SEO per velocizzarne il processo tra cui l’invio della sitemap in formato XML e il file robots.txt direttamente ai motori di ricerca attraverso alcuni servizi gratuiti che consentono di monitorare e gestire la presenza del sito nei risultati di ricerca. La prima fornisce una mappa di tutte le pagine presenti in un sito e che è possibile indicizzare; il secondo è un protocollo che determina le regole di accesso per i crawler.

Posizionamento

Il posizionamento, invece, è la modalità attraverso cui una pagina raggiunge una determinata posizione nei risultati di ricerca. L’obiettivo principe di tale processo è duplice: dal lato dei motori di ricerca, fornire il miglior contenuto possibile per le query degli utenti; dal lato dei SEO, raggiungere la prima pagina, se possibile la prima posizione, nelle SERP. Per promuovere rapidamente tale processo, possono essere utilizzate un insieme di tecniche più o meno lecite. Si parla a tale proposito di tecniche white e black hat30.

1.5.

Google e i motori di ricerca

Google è attualmente il motore di ricerca più usato al mondo, specialmente negli Stati Uniti e in Europa, seguito da Bing e Yahoo!. Altrove, come in Cina e in Russia, Google non ottiene il medesimo

29HTML Basic Tutor , Search Engine Indexing - Search Engine Indexing Process, http://www.htmlbasictutor.ca/search-engine-indexing.htm 30

(22)

successo ma è secondo a Baidu e Yandex, per motivi prettamente politici e non commerciali31. Per

queste ragioni nei prossimi capitoli approfondiremo il funzionamento solamente di Google. Regione

geografica Google Bing Yahoo! Baidu Yandex DuckDuckGo Altro

Mondo 91.84% 2.59% 2.33% 1.42% 0.41% (yandex.ru 39%) Europa 91.72% 3.66% 1.82% 1.86% (yandex.ru) 0.35% 0.17% USA 85.2% 6.67% 5.43% 0.63% 1.18% Cina 2.04% 1.09% 78.71% 17.61% Russia 46.72% 0.73% 0.55% 48.78% 0.2% 2.81%

I motori di ricerca sono in una costante forma beta, o meglio si aggiornano continuamente apportando piccole o grandi modifiche ai loro algoritmi32, tendenzialmente segreti e resi noti solo

per alcune parti. Gli stessi aggiornamenti risultano spesso confermati solo dopo essere già stati rilasciati È capitato che Google non si sia espresso ufficialmente al riguardo evitando di confermare, nonostante gli addetti ai lavori avessero notato delle novità più o meno significative.

Google però, per alcune funzioni specifiche, fornisce le informazioni necessarie all’ottimizzazione dei siti web. Ad esempio ha dedicato una dettagliata sezione all’interno dei suoi manuali online per l’ottimizzazione mobile, diventata fattore di ranking33 esplicito dal 21 aprile 2015 (definita

Mobilegeddon34) e di cui approfondirò le caratteristiche in seguito.

Google è un software progettato per classificare i giudizi delle persone, i contenuti, il rumore. Mette tutto insieme e attribuisce valore ai singoli documenti in base a logiche specifiche. L’unico modo che hai per cogliere queste logiche è osservare i giudizi e le intenzioni di ricerca che si trovano dietro i contenuti che Google classifica, senza 31 I dati sono stati rilevati dal sito Statscounter - Global Stats e si riferiscono al periodo settembre 2016/ottobre 2017, http://gs.statcounter.com/search-engine-market-share 32 Solo nel 2016, Google, ha rilasciato 11 aggiornamenti ufficiali e dall’inizio del 2017 al momento della scrittura di questa tesi sono già 4, [Fonte: https://moz.com/google-algorithm-change], ma è stato valutato che l’algoritmo subisca oltre 500 modifiche ogni anno. 33I fattori di ranking sono gli elementi che un motore di ricerca tiene in considerazione nella valutazione delle risorse web e che influenzano la sua posizione nelle Serp. I fattori di ranking saranno approfonditi nel 3 e nel 4 capitolo. 34 Luca Salvioli, È il Mobilegeddon di Google. In Italia quasi nessuno è pronto al nuovo algoritmo per smartphone, Il Sole 24 Ore, 21/04/2015 http://www.ilsole24ore.com/art/tecnologie/2015-04-20/domani-e-mobilegeddon-google-cambia-l-algoritmo-smartphone-ecco-chi-e-pronto-e-chi-no-125051.shtml?uuid=ABN6xKSD&refresh_ce=1

(23)

indentificarti in essi. 35

1.5.1

L’evoluzione dell’algoritmo di Google

Dal 2003 al 2007 Google ha dedicato la propria attenzione a modifiche di tipo negativo, ovvero per penalizzare tecniche innaturali di ottimizzazione delle pagine web. Nel 2003 gli algoritmi denominati “Dance” e “Florida” colpirono duramente tutti quei siti web che utilizzavano il keyword stuffing , cioè la ripetizione innaturale di parole chiave.

Nel 2004, con “Austin” Google ha iniziato a penalizzare tutti i siti che facevano uso di tecniche definite black hat, come ad esempio celare parole chiave all’interno di pagine web utilizzando caratteri di dimensioni piccolissime oppure scrivendole dello stesso colore dello sfondo, per poterle ripetere numerose volte senza disturbare la lettura da parte dell’utente.

L’algoritmo definito “No Follow” del 2005 ha introdotto nel linguaggio HTML, nella sintassi per i link, l’attributo nofollow per indicare ai crawler quali link non devono seguire, ovvero non devono essere indicizzati a partire dalla pagina in cui si trovano, favorendo così la qualità dei link in entrata. È sempre del 2005 l’aggiornamento “Local Maps” che ha modificato i risultati di ricerca in base alla geo-localizzazione dell’utente. Da questo momento si iniziò a parlare di local SEO.

Tra il 2005 e il 2006, furono rilasciate varie novità che hanno definito alcune regole per lo scambio di link reciproci e acquistabili su siti specializzati.

Dal 2007 in poi, oltre ai costanti aggiornamenti dell’algoritmo, Google ha fatto una serie di cambiamenti nella struttura di ricerca lato utente, modificando in modo significativo la SERP. Queste modifiche hanno introdotto quella che è chiamata la universal search grazie alla quale aggiunse ai risultati di ricerca le opzioni notizie, immagini e video. Nel 2008 è comparsa la funzionalità Google Instant attraverso cui Google prevede ciò che si sta cercando e inizia a mostrare risultati pertinenti. Il primo grande stravolgimento di Google è arrivato nel 2009 con “Caffeine”, il quale consentiva di velocizzare il processo di indicizzazione e posizionamento, tanto da renderli quasi in tempo reale e iniziando a parlare di SEO in real time. Dal 2010 hanno iniziato ad essere compresi anche i cosiddetti social signals, cioè le condivisioni di contenuti sui social media. Tali fattori, che funzionano proprio come i collegamenti ipertestuali, permettono di aumentare il ranking e il posizionamento. Nello stesso anno ha iniziato a raffinare i risultati di ricerca cercando di premiare contenuti di qualità e non duplicati.

35

(24)

Il 2011 segna il rilascio di due dei più importanti aggiornamenti algoritmici, “Panda”, con cui Google penalizza i siti con contenuti di bassa qualità e al cui interno riscontra troppi spazi pubblicitari, e “Freshness”, il quale premia i siti web che aggiornano frequentemente i propri contenuti.

Poco dopo il rilascio di quest’ultimo, nel 2012 arriva “Penguin”, che penalizza ancora di più il keyword stuffing e i backlink a pagamento. Inoltre, nel gennaio dello stesso anno viene introdotta la Google Search Plus Your World, con il quale i risultati di ricerca sono condizionati dalle connessioni sociali stabiliti con il social network Google plus. Quest’ultima integrazione rappresenta un primo avvicinamento da parte del colosso di Mountain View al web semantico.

We’re transforming Google into a search engine that understands not only content, but also people and relationships. We began this transformation with Social Search, and today we’re taking another big step in this direction by introducing three new features: 1. Personal Results, which enable you to find information just for you, such as Google+ photos and posts—both your own and those shared specifically with you, that only you will be able to see on your results page; 2. Profiles in Search, both in autocomplete and results, which enable you to immediately find people you’re close to or might be interested in following; and, 3. People and Pages, which help you find people profiles and Google+ pages related to a specific topic or area of interest, and enable you to follow them with just a few clicks. Because behind most every query is a community.

Together, these features combine to create Search plus Your World. Search is simply better with your world in it, and we’re just getting started36

Di fatti, nello stesso anno Google modifica anche il “Knowledge Graph”, il quale aggiunge altre informazioni nei risultati di ricerca come immagini collegate, autore (con relativi dati anagrafici e biografici), video correlati ecc.

In questo modo Google voleva integrare e comprendere le reali dinamiche che nascono e si evolvono tra le persone nella vita di tutti i giorni, penalizzando ed escludendo sempre di più i contenuti nati in maniera artificiale o fittizia per scopi commerciali.37

È del 2013 “Hummingbird” (Colibrì), definito da Amit Singhal, allora vice presidente di Google, il più grande aggiornamento dell’algoritmo dai tempi di “Caffeine”. I precedenti aggiornamenti erano piccole o grandi modifiche all’esistente, permettendo una migliore e più precisa indicizzazione dei

36Google official blog, Search, plus Your World, 10/01/2012, https://googleblog.blogspot.it/2012/01/search-plus-your-world.html 37

(25)

contenuti. Hummingbird cambia quasi completamente la SERP pur mantenendo alcune componenti dei precedenti algoritmi come l’analisi dei backlink di Penguin e dei contenuti di bassa qualità e duplicati di Panda, fornendo risposte alle query degli utenti più precise. Con Hummingbird, Google prova a interpretare intere frasi e non più singole parole, confrontando le nuove ricerche con quelle passate per fornire risultati personalizzati agli utenti. Ciò serve a proporre risposte sempre meno legate a parametri automatici e dipendenti principalmente dalla densità delle parole chiave, ma più vicine agli intenti e alle richieste degli utenti.

Il 2014 ha visto l’arrivo di “Pigeon” volto al miglioramento della ricerca locale, che incide particolarmente sulla mobile search, rendendo i risultati più pertinenti rispetto alla posizione geografica da cui si effettua la ricerca.

Nel 2015, dato il numero sempre più elevato di persone che effettuano ricerche da mobile, Google opera una delle più importanti modifiche degli ultimi anni. Il 21 aprile 2015 Google introduce quello che sarà chiamato il “Mobilegeddon”, che favorisce i siti responsive e perfettamente fruibili da device mobili.

Sempre nel 2015 nasce RankBrain, un sistema d’intelligenza artificiale real-time in grado di perfezionare l’autoapprendimento del motore di ricerca e la lettura delle intenzioni dell’utente. A fine 2016 avviene un ulteriore aggiornamento di Penguin, il quale da questo momento in poi risulta costantemente attivo, velocizzando la scansione delle pagine e la loro indicizzazione. Contemporaneamente, il 12 maggio 2016 Google conferma che l'aggiornamento mobile-friendly è stato diffuso per intero.

Dall'inizio del 2017 gli addetti ai lavori hanno notato numerosi cambiamenti nelle SERP ma, come più volte affermato dai portavoce di Mountain View, vengono rilasciati decine di aggiornamenti al mese, a volte anche nella stessa settimana, di maggiore o minore importanza. Ad oggi la più rilevante variazione per il 2017 sarebbe avvenuta tra il 7 e l’8 marzo 2017, in cui si presuppone38 sia stato

immesso quello che è stato chiamato dagli operatori di settore Google Fred. Questo riguarderebbe la qualità dei link in ingresso andando a modificare, almeno in parte, uno dei fattori di successo di Google, ovvero il PageRank39. Inoltre esso inciderebbe sulla presenza di inserzioni, andando a

penalizzare i siti che mostrano un numero eccessivo di annunci che interrompono l'esperienza dell'utente. 38Al momento della scrittura di questa tesi non risulta ancora nessuna dichiarazione formale 39 Il PageRank è un algoritmo basato sulla struttura dei collegamenti di una pagina e deriva dal sistema di classificazione utilizzato dalle biblioteche delle università americane. La rilevanza della pagina è data dalla dalla rilevanza delle pagine che la linkano. Contrariamente da quanto si pensa il nome deriverebbe da Larry Page, uno dei fondatori di Google che lo ha progettato. Per un maggiore approfondimento capitolo si rimanda al capitolo 4

(26)

Interessanti a questo punto risultano le nuove linee guida40 per i Quality Rater41 pubblicate da

Google il 14 Marzo 2017. Le nuove direttive spingono i collaboratori impegnati nell’analisi dei siti web a segnalare quelli che: ● imitano altri siti molto più noti; ● si presentano come siti di notizie, ma contengono contenuti non accurati con il solo scopo di portare beneficio a persone, imprese, governi o altre organizzazioni politiche e finanziarie; ● deliberatamente disinformano o ingannano gli utenti presentando contenuti inesatti; ● diffondono teorie cospiratorie infondate o falsi allarmi, presentandoli come reali; ● presentano fatti scientifici dubbi; ● promuovono odio, crimini e violenza contro gruppi di persone. 42 40 Search Quality Evaluator Guidelines, General Guidelines, Google, 27/07/2017, https://goo.gl/qFfaWr 41 I Quality Raters sono dei collaboratori esterni di Google, a cui vengono sottoposti pagine di risultati e siti, scelti in modo algoritmico o segnalati da altri reparti e dall’addetto alla valutazione. Il quality rater deve attenersi al corposo manuale e valutare se, secondo lui, i risultati, le serp e i siti mostrati rispettano le linee guida 42 Estratto dalla pagina 43 delle Search Quality Evaluator Guidelines, General Guidelines, Google, 27/07/2017

(27)

2. Neuromarketing e persuasione sul web

Il termine neuromarketing è stato coniato nel 2002 dal professore di marketing della School of Management di Rotterdam, Ale Smidts, che lo definì come “lo studio del meccanismo cerebrale per comprendere il comportamento del consumatore al fine di migliorare le strategie di marketing”43.

Questa disciplina unisce le neuroscienze alle strategie di vendita, analizzando le risposte cognitive ed emotive dei soggetti agli stimoli di marketing.

Per comprendere come gli individui prendono decisioni, i ricercatori hanno esaminato le attività fisiologiche del cervello, arrivando ad identificare quali aree si attivano di fronte a determinati stimoli. A tale fine utilizzano varie tecnologie. Tra queste vi sono l’elettroencefalografia (EEG) che misurare l’attività elettrica del cervello, la functional Magnetic Resonance Imaging (fMRI) che misura l’ossigenazione del sangue nelle aree del cervello, e sistemi di eye-tracking per rilevare la direzione dello sguardo e l’espressione facciale.

L’applicazione di tali studi in ambito web riguarda principalmente la possibilità di sfruttare alcuni stimoli per influenzare le azioni degli utenti, durante la navigazione. In particolare, operando sull'aspetto visivo della comunicazione è possibile, da un lato, facilitare il percorso di navigazione e, dall’altro, influire sulle scelte degli utenti. Ciò condiziona anche la progettazione e l’implementazione dei prodotti in termini di usabilità. Infatti, determinate caratteristiche del design, degli elementi interattivi, così come delle parole e dei testi di un sito, tendono a condizionare il comportamento dell’utente. Per questo motivo ho ritenuto necessaria una piccola digressione sul concetto di neuromarketing e, soprattutto, sul suo impatto in ambito web. Potenzialmente, infatti, gli studi di neuromarketing possono migliorare la fruizione dei prodotti online, fornendo nuovi strumenti di valutazione44.

Neuromarketing, usabilità e SEO possono intrecciarsi, permettendo la realizzazione di un progetto web che sia insieme funzionale ed efficace, sia dal punto di vista comunicativo che commerciale.

2.1.

Come funziona il cervello

Il cervello è un organo unico composto da tre parti che si comportano in maniera autonoma ma totalmente integrata. Uno stimolo esterno è valutato sempre da tutte e tre secondo una precisa sequenza temporale, di cui solamente una è sotto il controllo cosciente dell’essere umano. 43 Ale Smidts, Guardare nel cervello: sulle possibilità del neuromarketing, Rotterdam, Erasmus Research Institute of Management - Inaugural Lectures, 2002 (Titolo originale: Kijken in het brein: Over de mogelijkheden van neuromarketing) 44 Vincenzo Russo (a cura di), Neuromarketing, comunicazione e comportamenti di consumo. Principi, strumenti e applicazioni nel food and wine, Milano, Franco Angeli, 2015

Riferimenti

Documenti correlati

Riportiamo qui per convenien- za le ipotesi di applicabilità della regola di derivazione sotto il segno di integrale per questo tipo di integrali (vedi De Marco [1, pagina

a) predisposizione del percorso formativo personalizzato, anche con riguardo alla disciplina della sicurezza e salute nei luoghi di lavoro. In particolare, il

Lorem ipsum dolor sit amet, consetetur sadipscing elitr, sed diam nonumy eirmod tempor invidunt ut labore.. Lorem ipsum dolor sit amet, consetetur sadipscing elitr, sed diam nonumy

Da oggi in poi però gli stagisti avranno il diritto a una retribuzione certa, basta dunque a tirocini gratuiti, o a rimborsi spese ridicoli.. Il rimborso, previsto dalla riforma

OBBLIGATORIA ENTRO IL 19 maggio 2014 FATTORIE DIGITALI: CONOSCERE E FARSI CONOSCERE,.. PROMUOVERE E VENDERE ONLINE

Possiamo concludere, attraverso questo lavoro, che abbiamo potuto costa- tare come, nella ricerca di chiavi in DHT, un oggetto possa essere localizzato in modo efficiente

CARTELLONE MURALE SULLA COMPRENSIONE DELLE PAROLE CHIAVE NELLA RISOLUZIONE.

Leggi il testo e rispondi alle domande dopo aver dato un titolo alla poesia.. Pantalone, vecchio pidocchio, ci mise uno strappo