Capitolo Uno
Dal Web al Mobile
1.1) La nascita del Web
Il World Wide Web è ancora un ragazzo, ma dalla sua nascita è notevolmente cambiato. Ufficialmente ha visto la luce il 6 agosto 1991, quando il fisico inglese Tim Berners-Lee, che allora lavorava come ricercatore al CERN (Conseil Européen pour la Recherche Nucléaire) di Ginevra, pubblicò il primo sito Web. Coordinava il progetto anche l’informatico belga Robert Cailliau, insieme al quale Tim Berners-Lee è considerato padre e inventore del Web.
Il progetto partì 2 anni prima, quando entrambi ebbero l’idea di creare un sistema per la condivisione di documentazione scientifica in formato elettronico, con l’obiettivo di migliorare la comunicazione tra i ricercatori stessi all’interno del CERN. Vennero così scritti il primo server Web dal nome httpd e il primo client chiamato appunto
WorldWideWeb, composto da un editor per produrre le pagine Web e un browser per
accedervi e visualizzarle. Parallelamente, vennero definiti anche standard e protocolli per la realizzazione e lo scambio di documenti che, tutt’ora, anche se con numerose modifiche e miglioramenti, costituiscono la base del Web: le URL, il linguaggio HTML e il protocollo HTTP.
Una URL (Uniform Resource Locator) è una sequenza di caratteri conforme alla sintassi specificata che permette di identificare una risorsa sul Web. L’HTML (HyperText Markup Language) è un linguaggio di markup utilizzato per la formattazione di documenti ipertestuali sotto forma di pagine Web che, tramite l’utilizzo di opportuni marcatori detti
tag permette di descrivere le caratteristiche del documento. L’HTTP (HyperText Transfer
meccanismo richiesta/risposta tra client e server, che definisce la sequenza dei passi che compongono la comunicazione e la struttura dei messaggi scambiati tra client e server. Fondamentale è stato il concetto di ipertesto, introdotto negli anni ‘60 da Ted Nelson e Douglas Engelbart. Un ipertesto rappresenta un insieme di documenti collegati tra loro, che permettono una consultazione dell’informazione non sequenziale ma con differenti percorsi di lettura possibili. I documenti vanno a costruire una rete, della quali essi stessi rappresentano i nodi. I legami presenti all’interno di un documento che permettono il passaggio ad altre risorse sono detti collegamenti ipertestuali.
Inizialmente il Web venne utilizzato solo in ambito scientifico, ma il 30 aprile 1993 il CERN ha comunicato la decisione di metterlo a disposizione del pubblico rinunciando a qualsiasi diritto d’autore. Da questo momento il Web ha iniziato ad avere un enorme e rapido successo.
Nel 1994 Tim Berners-Lee lascia il CERN per accettare la proposta del MIT (Massachusetts Institute of Technology) di Boston, dove nello stesso anno fonda il W3C (World Wide Web Consortium), un’organizzazione che si occupa dello sviluppo del Web, stabilendone standard tecnici e impedendo che interessi privati possano limitarne la libertà.
1.2) Dal Web dei contenuti al Web 2.0
La versione iniziale del Web è una versione statica, i cui contenuti pubblicati consentono la sola consultazione o, eventualmente, il download degli stessi, ma nessuna interazione con l’utente. Le pagine Web contengono contenuti multimediali quali testo, immagini, audio, video e collegamenti ipertestuali ad altre risorse. Questo è ciò che rappresenta il Web dei contenuti.
La principale mancanza, cioè l’interazione con l’utente, spinse ad una evoluzione del Web che ebbe inizio con la possibilità di inserire commenti, e, grazie alle funzionalità offerte da nuovi linguaggi di programmazione, quali il php, creato inizialmente per la realizzazione di pagine web dinamiche, nacquero i primi forum e blog, per arrivare nell’era di quello che è stato definito Web 2.0.
Esso è costituito da tutte quelle applicazioni online che permettono uno spiccato livello di interazione, collaborazione e condivisione con l’utente. Ne sono un esempio Wikipedia, Youtube, Facebook, Twitter, Flickr. La loro principale caratteristica è che i
contenuti non vengono creati solamente dal webmaster, ma dalla comunità di tutti gli utenti che condividono le loro idee, pensieri, immagini, foto e video.
Per realizzare questo passaggio, in realtà, non sono state utilizzate tecnologie particolarmente innovative o appositamente create, semplicemente sono state combinate quelle già esistenti ad altre nuove tecnologie. Inoltre, se precedentemente la costruzione di un sito Web richiedeva perlomeno delle conoscenze di HTML e di programmazione, con l’evoluzione del Web chiunque è in grado di creare il proprio blog e pubblicare i contenuti che desidera.
Da una comunità Web costituita da esperti del settore, la situazione si ribalta e la maggior parte dei contenuti viene prodotta da utenti che non hanno particolari competenze tecniche. Questo è possibile grazie ai CMS (Content Management System)1,
come Drupal e Joomla quali CMS generici, o WordPress orientato alla realizzazione di blog, che permettono il loro utilizzo ad utenti che non hanno conoscenze specifiche di programmazione Web.
Un ulteriore esempio e punto di arrivo dei CMS sono le piattaforme Wiki, che consentono agli utenti di aggiungere, modificare o cancellare contenuti utilizzando un editor online. Si fruisce della conoscenza nell’ambiente stesso in cui essa viene creata con lo scopo di condividere informazioni in modo collaborativo. Esse si basano sull’utilizzo di un motore Wiki che mette a disposizione le funzionalità di modifica dei contenuti2. Ne sono esempi software liberi come MediaWiki, sviluppato dalla WikiMedia
Foundation e appunto utilizzato da Wikipedia, o TWiki.
Oltre che per la realizzazione di enciclopedie, sono utilizzate per la realizzazione di progetti collaborativi (come la documentazione della comunità di Ubuntu), o di progetti informatici in generale, educazione collaborativa e gestione della conoscenza aziendale.
1.2.1) Web Syndication
Dalla seconda metà degli anni ‘90 si sviluppano le tecniche di Web syndication, tramite le quali i contenuti di un sito Web diventano disponibili attraverso differenti applicazioni e piattaforme, utilizzate per fornire informazioni su contenuti aggiornati, generalmente
1 Sono strumenti software installati su un server Web che facilitano le gestione dei contenuti di un sito
Web in tutte le sue fasi, dalla creazione all’aggiornamento, alla pubblicazione e l’archiviazione.
news o post riportati su forum. Questa interoperabilità è possibile grazie al fatto che l’informazione è formattata secondo le specifiche XML (eXtensible Markup Language)3.
Ne sono un esempio i feed, unità informative strutturate secondo le specifiche XML, i cui formati più diffusi sono RSS e Atom. I feed prevedono un’iscrizione (senza la creazione di alcun account) e l’invio di informazioni continuamente aggiornate. Ciò avviene senza il bisogno di collegarsi al sito che funge da aggregatore e che produce i contenuti, i quali vengono letti tramite un feed reader che può essere un’applicazione stand-alone o un plug-in come nel caso di quelli presenti nei browser.
1.2.2) Web Service
Molto importante è stato lo sviluppo e la diffusione del modello basato sui Web service. Secondo la definizione del W3C, un Web service è un sistema software ideato per permettere l’interoperabilità nell’interazione macchina-macchina su una rete. Ha un interfaccia descritta in un formato automaticamente processabile (WSDL), e i sistemi interagiscono con esso utilizzando dei messaggi SOAP, tipicamente inviati tramite HTTP e serializzati in formato XML4.
L’interfaccia del Web Service espressa il linguaggio WSDL (Web Services Description Language) espone all’esterno i servizi associati e, tramite essa, i sistemi possono interagire con il Web Service utilizzando le funzionalità messe a disposizione. La comunicazione avviene attraverso appositi messaggi di richiesta formattati secondo il protocollo SOAP5, basato a sua volta su XML e trasportati generalmente tramite HTTP,
benché SOAP possa operare anche su altri protocolli di rete.
La loro principale caratteristica è proprio l’interoperabilità, in quanto risulta possibile che applicazioni software, scritte in differenti linguaggi di programmazione e su differenti piattaforme hardware, grazie all’ adozione di standard aperti (quali sono tutti quelli raccomandati dal W3C), possano essere utilizzate liberamente tramite l’interfaccia che i Web Service espongono. Questo abilita la realizzazione di un’architettura orientata ai servizi detta SOA (Service Oriented Architecture).
3 Metalinguaggio di markup che specifica le regole per la creazione di linguaggi di markup specifici, basato
su un meccanismo sintattico che consente di definire il significato degli elementi contenuti in un documento. È estensibile in quanto permette di creare tag personalizzati.
4http://www.w3.org/TR/ws-arch/#whatis
Tramite i Web Service è possibile, dunque, realizzare operazioni complesse come processi di business aziendali che coinvolgono più aree di un’impresa, utilizzando servizi modulari già disponibili che vengono semplicemente combinati tra loro. Inoltre, il disaccoppiamento tra Web Service e il sistema che lo utilizza, fa sì che entrambi possano essere modificati in maniera indipendente, andando semplicemente ad aggiornare l’interfaccia del primo nel momento che esso subisce una variazione.
1.3) Web 3.0: il Web Semantico e il Web of Things
1.3.1) Il Web semantico
Il Web procede continuamente nella sua evoluzione sotto numerosi aspetti.
Una delle più importanti è sicuramente il Web semantico. Con questo termine si intende la trasformazione del Web in un ambiente dove ai documenti pubblicati vengono associate delle informazioni, dette metadati, specificati in un formato adatto all’elaborazione automatica, e che permettono di determinare il contesto semantico, cioè il significato dei contenuti e il contesto al quale essi sono associati.
Questo permetterà di effettuare ricerche molto più accurate di quelle che si possono realizzare attualmente, proprio grazie all’utilizzo dei metadati che consentono di ottenere i risultati in base al contesto nel quale le chiavi di ricerca sono specificate. Inoltre, sarà possibile costruire una rete evoluta di connessioni tra documenti, secondo logiche che considerino il significato dei contenuti in essi specificati.
L’idea del W3C è costruire l’infrastruttura tecnologica per supportare il passaggio dal Web dei documenti al Web dei dati. Per fare questo, è importante avere una grossa quantità di dati disponibili in un formato standard, in modo che siano direttamente utilizzabili. Inoltre, è necessario non solo poter accedere ad essi, ma specificare le relazioni che vi intercorrono, in modo da non avere semplicemente una collezione di dataset scollegati. Il risultato sono quelli che il W3C definisce Linked Data.
Come detto, è fondamentale che i dati siano codificati in un formato standard. Si potrebbe pensare di utilizzare l’XML, che permette di descrivere soddisfacentemente un documento e il significato degli elementi che lo compongono, ma non definendo alcun meccanismo esplicito per indicare le relazioni tra documenti, risulta complicato comprendere se due documenti differenti si riferiscono allo stesso argomento o meno.
La soluzione proposta è stata quella dello standard RDF (Resource Description Framework). RDF è un’applicazione XML che si compone di due parti: RDF Model and Syntax e RDF Schema.
La prima utilizza la logica dei predicati per definire il modello dei dati, cioè descrive come rappresentare le risorse e le relazioni che possono intercorrere tra esse, con asserzioni costituite da triple soggetto, predicato e valore (subject, predicate, object).
Una risorsa è un qualsiasi oggetto che sia identificabile univocamente mediante un URI (Uniform Resource Identifier). Principalmente ci si riferisce a risorse presenti sul Web ma concettualmente potrebbero anche non esserlo. Inoltre stabilisce la sintassi, cioè come codificare l’informazione in un documento XML.
Graficamente, le relazioni vengono rappresentate mediante grafi etichettati orientati, in cui le risorse vengono identificate come nodi (delle ellissi), le proprietà come archi orientati etichettati, e il valore della proprietà, nel caso corrisponda a sequenze di caratteri come rettangoli, o come altre ellissi se è a sua volta una risorsa.
RDF Schema, invece, permette di realizzare il meccanismo di specifica delle proprietà, quindi la definizione di vocabolari indicando la semantica associata alle proprietà. Viene consentito alle singole comunità di effettuare quest’operazione. Un vocabolario viene adoperato per classificare i termini che sono utilizzati in una particolare applicazione, caratterizzando le possibili relazioni. Essi permettono di evitare le ambiguità che possono derivare sui termini usati in uno specifico data set. In più, consentono l’organizzazione della conoscenza. Per esempio librerie, musei, quotidiani, portali governativi, aziende, applicazioni di social networking possono utilizzare dei formalismi standard comuni.
Tuttavia, non è possibile affidare la semantica semplicemente al nome, che potrebbe avere significati più o meno differenti a seconda degli interessi specifici delle singole comunità. L’RDF identifica univocamente le proprietà mediante il meccanismo dei
namespace.
I namespace XML forniscono un metodo per identificare in maniera non ambigua la semantica e le convenzioni che regolano l'utilizzo delle proprietà, identificando l'authority che gestisce il vocabolario di namaspace. Uno degli esempi più noti è la Dublin Core Initiative.
Il passo successivo all’RDF per realizzare la codifica della conoscenza è stato lo sviluppo un altro standard più ricco ed espressivo del primo, che rappresenta un estensione di RDF: OWL (Web Ontology Language). Il risultato è la produzione di ontologie il cui significato è simile a quello di vocabolario prima espresso.
Lo stesso W3C indica che non vi è una chiara divisione tra i due termini6, ma
generalmente il termine ontologia è riferito per collezioni più complesse e formali. Su documenti realizzati in OWL è possibile effettuare un vero e proprio ragionamento deduttivo inferenziale, tramite degli elaboratori automatici.
Per utilizzare basi di conoscenza formalizzate secondo questi standard è necessario un linguaggio di interrogazione. Uno di questi è SPARQL (Simple Protocol And RDF Query Language), che permette di interrogare data set che contengono l’informazione codificata in RDF. Non è l’unico esistente, ma indiscutibilmente quello più utilizzato e candidato a diventare raccomandazione7 del W3C, che di fatto significa diventare uno
standard. Per OWL manca ancora un linguaggio di riferimento.
Ciò che emerge, suggerito anche dalla locuzione Web dei dati, è l’intento di trasformare il Web in un database globale, permettendo l’accesso all’informazione in maniera ottimizzata anche ad applicazioni che non siano dei browser.
6http://www.w3.org/standards/semanticweb/ontology
7 Una raccomandazione è un insieme di linee guida in merito ad aspetti tecnici che riguardano il World
Wide Web, che di fatto costituiscono uno standard grazie al processo di condivisione che porta alla loro realizzazione, e al numero elevato di membri che fanno parte del W3C. Il W3C in realtà non è un organismo di standardizzazione, infatti a differenza di essi non ha un programma di certificazione, e molti dei suoi standard di fatto non definiscono formalmente i livelli di conformità. Il W3C si limita a definire le sue raccomandazioni e invitare i produttori a seguirle.
In relazione con il Web semantico vi è l’idea di un percorso che porti all’utilizzo dell’intelligenza artificiale, in modo da consentire ad un software intelligente di interagire con il Web in modo simile a quello umano utilizzando dati semantici.
1.3.2) Web of things
Un altro aspetto dell’evoluzione del Web è il cosiddetto Web delle cose8. La visione che
lo caratterizza prevede che tutti gli oggetti in futuro siano dotati di sensori e sistemi che permetteranno ad essi di essere connessi in rete ed essere in grado di inviare e ricevere informazioni.
8 I termini Web of Things o Internet of Things, sono usati per esprimere lo stesso concetto, ma nel secondo
caso si indica la possibilità dell’utilizzo di Internet per il trasferimento delle informazione e non necessariamente del Web. Fatta questa precisazione verranno utilizzati in maniera equivalente.
In questo modo, gli oggetti diventano intelligenti grazie alla possibilità di comunicare dati su se stessi ed accedere ad informazioni dalla rete, acquisendo un ruolo attivo. Possiamo così immaginare il nostro frigo che ci invia una notifica quando è finito il latte, o le scarpe da corsa che trasmettono i tempi relativi al nostro allenamento.
Questo permetterà al mondo elettronico di creare una mappa del mondo reale dando un’identità digitale agli oggetti del mondo fisico.
Tutto ciò avviene grazie all’utilizzo della tecnologia RFId (Radio Frequency Identification) e reti di sensori che consentono di collegare il mondo fisico con il mondo digitale. Alla base vi sono gli oggetti intelligenti, smart objects, contraddistinti dalla caratteristica di avere una o più funzionalità di interazione con l’ambiente circostante, quali elaborazione dati, connessione e comunicazione delle informazioni raccolte o prodotte. Gli ambiti applicativi sono molteplici. Tra i più conosciuti vi è quello delle smart city &
environment, il quale identifica un ambiente urbano in grado di rispondere attivamente
al fine di migliorare la qualità della vita dei propri cittadini nei campi della mobilità, della comunicazione, dell’ambiente e dell’efficienza energetica.
Tra gli altri campi di utilizzo si individuano quelli appartenenti alla sfera della smart home
and building (soluzione domotiche che prevedono interazione tra gli impianti della casa
come quello di illuminazione e riscaldamento per migliorare il comfort, la gestione dei consumi, garantire la sicurezza), smart car (servizi GPS per la localizzazione dei veicoli o per il controllo dei parametri di guida), smart metering (ad esempio utilizzato in ambito elettrico con i contatori intelligenti per la rilevazione e l’ottimizzazione dei consumi),
smart asset management (manutenzione di sistemi tramite la gestione da remoto dei
dispositivi al fine di rilevarne il funzionamento o i guasti).
Ambiti meno sviluppati sono la smart logistics, la quale offre soluzioni di tracciabilità di filiera e la gestione delle flotte (tracciabilità del mezzo e delle sue condizioni) e l’eHealth, che si occupa del monitoraggio dei parametri vitali da remoto a fini diagnostici e di cura, favorendo l’eventuale ricorso all’ospedalizzazione, una conseguente riduzione dei costi e certamente un miglioramento della qualità di vita e cura dei pazienti.
Di fatto i campi di applicazione sono praticamente infiniti. Un esempio curioso della varietà di utilizzo degli smart object è quello pubblicato sul The Economist9 dal
titolo "Augmented Business”. L’articolo racconta e descrive un progetto di monitoraggio dei bovini sperimentato dalla Sparked, una startup olandese che impianta sensori nelle orecchie delle mucche per consentire agli allevatori di tenere sotto controllo le loro
condizioni di salute e di monitorarne gli spostamenti. Il risultato? Una fornitura di carne più sicura e abbondante per i consumatori, grazie alla “capacità” di ogni mucca di “generare” in media circa 200 MB di informazioni all'anno.
Ciononostante, vi sono alcune limitazioni che potrebbero ostacolare lo sviluppo del Web delle cose. Ad esempio, il definitivo passaggio a IPv610, in conseguenza della grande
quantità di indirizzi IP che saranno richiesti dai miliardi di nuovi sensori, o l’alimentazione degli stessi. A tal fine i sensori dovranno essere in grado di alimentarsi autonomamente. Immaginare di poter sostituire le batterie a miliardi di dispositivi installati in tutto il pianeta è pura follia. Occorre, quindi, una soluzione che consenta ai sensori di generare elettricità da elementi dell'ambiente quali vibrazioni, luce e flusso dell'aria.
In Italia, nel 2012 sono stati 5 milioni gli oggetti connessi tramite rete cellulare, la più utilizzata nel campo degli smart object, con un aumento del 25% rispetto all’anno precedente dei dispositivi collegati11. A livello mondiale, secondo le analisi della società
di consulenza Gartner, nel 2009 i dispositivi connessi con indirizzo IP differente erano 2.5 miliardi, e nel 2020 raggiungeranno la quota di 30 miliardi. La spesa IT nel campo dell’Internet delle cose, invece, raggiungerà nel 2014 i 3,8 trilioni con un incremento del 3,6% rispetto al 201312.
Un giro d’affari sicuramente in forte crescita che dovrà rappresentare una parte importante degli investimenti IT delle aziende che operano nel settore.
9 The Economist, Augmented Business, 2010 - http://www.economist.com/node/17388392
10 IPv6 è la versione dell'Internet Protocol designata come successore dell'IPv4. Tale protocollo introduce
alcuni nuovi servizi e semplifica molto la configurazione e la gestione delle reti IP. La sua caratteristica più importante è il più ampio spazio di indirizzamento.
11 Osservatorio Internet of Things, Internet of Things "Attenda, la stiamo collegando all'oggetto
desiderato", 2013
12 Gartner, Gartner Says It's the Beginning of a New Era: The Digital Industrial Economy
Da quanto sin qui affermato, è chiaro come l'Internet delle cose sia in grado di aumentare radicalmente la quantità di dati disponibili all’elaborazione, rappresentando un potenziale enorme. Attualmente, però, esso è ancora costituito da una serie di reti eterogenee, non collegate tra loro e appositamente create per scopi specifici.
La sfida principale, infine, è quella di fare in modo che queste preziose opportunità non si limitino ad essere solo un motivo di investimento delle aziende del settore tecnologico col fine di ottenere importanti ricavi. E, anche se maggiori efficienze e nuovi modelli aziendali avranno conseguenze economiche positive, i provider di servizi dovranno mettere a disposizione applicazioni in grado di conferire valore tangibile nelle vite delle persone.
L'Internet delle cose non deve incarnare il progresso tecnologico fine a se stesso. L'industria deve dimostrare valore in termini umani e, se possibile, essere un elemento di riduzione del divario tra popolazioni ricche e popolazione povere.
1.4) Dalle applicazioni web alle applicazioni native
Su un fatto pare che produttori e consumatori siano d’accordo: il Web non è il culmine della rivoluzione digitale.
Uno dei più importanti cambiamenti che sta avvenendo negli ultimi anni nel mondo digitale è il passaggio da un sistema completamente aperto come il Web, a piattaforme che utilizzano Internet per il trasferimento delle informazioni, ma non un browser per visualizzarle.
Durante i primi anni del 2000, l’ascesa dei browser come centro del mondo informatico appariva inevitabile. Sembrava una semplice questione di tempo il momento in cui il Web avrebbe sostituito le applicazioni software per pc, riducendo i sistemi operativi ad un semplice insieme di driver per le varie periferiche.
L’evoluzione delle tecnologie con l’introduzione di Java, quindi Flash, Ajax e HTML5, hanno consentito di aumentare l’interattività del codice online, con la promessa di mettere a disposizione tutte le applicazioni in rete. L’idea era che si sarebbe arrivati a
sostituire il desktop con il webtop13, e poter usufruire di un ambiente simile a quello dei
sistemi operativi con interfaccia grafica noti.
In realtà, come spesso accade, le cose non vanno come previsto. Il cambiamento è stato inizialmente guidato dalla diffusione del modello di elaborazione mobile stile iPhone, un mondo al quale Google (inteso come motore di ricerca) non può accedervi e dove l’HTML non è previsto, basato su applicazioni native sviluppate in maniera specifica per una piattaforma.
Un mondo che i consumatori scelgono sempre maggiormente, non perché rifiutino l’idea del Web, ma perché queste piattaforme dedicate spesso funzionano meglio in termini di facilità d’uso, tempo di risposta e praticità, o si adattano meglio ai dispositivi. Dunque, grazie all’esperienza ottimizzata sui dispositivi mobili gli utenti stanno abbandonando i browser general-purpose, continuando a utilizzare la rete ma non più il Web.
Dopo tutto, il Web è solo una delle molteplici applicazioni esistenti su Internet che utilizzano i protocolli TCP/IP14 per trasportare le informazioni. La vera rivoluzione rimane
sempre quest’architettura, non le applicazioni costruite al di sopra di essa.
I contenuti che quotidianamente vengono visualizzati sui browser, che costituiscono il traffico Web, attualmente rappresentano solamente il 15% circa del traffico su Internet15.
Il grafico riportato di seguito fornisce il trend del traffico IP globale fino al 2017 ed evidenzia che le applicazioni che producono la maggior parte dei dati traferiti sono lo streaming video (66%) e il file sharing (17%). Esiste infine, una piccola parte rappresentata dal gaming online non visibile sul grafico e inferiore al 2%.
13 Un webtop è un ambiente desktop reso disponibile tramite un browser o un applicazione client simile,
fornendo un ambiente analogo a quello dei sistemi operativi con interfaccia grafica, con la differenza che applicazioni, dati e configurazioni risiedono remotamente sulla rete.
14 Transmission Control Protocol e Internet Protocol (IP). Indicano comunemente, essendo i due protocolli
principali, la suite di protocolli Internet, cioè un insieme di protocolli di rete su cui si basa il funzionamento della rete Internet.
15 Cisco Systems, Cisco Visual Networking Index: Forecast and Methodology, 2012–2017 - Maggio 2013
http://www.cisco.com/en/US/solutions/collateral/ns341/ns525/ns537/ns705/ns827/white_paper_c11-481360_ns827_Networking_Solutions_White_Paper.html
Sicuramente si continuerà ad avere il Web e le pagine web, allo stesso modo in cui si hanno ancora le cartoline e i telegrammi, ma il centro di gravità dei media su Internet si sta muovendo verso un ambiente post HTML.
1.4.1) Qualità del Servizio (QoS)
Negli anni ’90 è diventato chiaro che le reti digitali avrebbero rappresentato il futuro. L’architettura di rete TCP/IP, con i suoi pacchetti persi e successivamente rinviati, e l’instradamento degli stessi impredicibile e non ottimizzabile a priori, rappresentava per le compagnie di telecomunicazione, che rendevano possibile il passaggio dei bit sulla rete, un’opportunità nel campo della qualità del servizio (QoS). Esse supponevano che l’esigenza dei clienti fosse quella di avere delle reti intelligenti, le quali (dietro il pagamento di un corrispettivo) permettessero ai pacchetti di seguire il miglior instradamento possibile e disponessero la banda necessaria affinché la trasmissione potesse fluire senza interruzioni. Solo le compagnie di telecomunicazione erano in grado di intervenire offrendo questi servizi, non appena gli utenti avrebbero iniziato a manifestarne il bisogno.
La soluzione alternativa era costituita dalle “dumb network”, cioè reti non intelligenti. Coloro che appoggiavano questa soluzione preferivano avere delle reti meno efficienti piuttosto che cedere il controllo completo alle compagnie di telecomunicazione. Mentre, sarebbe stato sufficiente aumentare la disponibilità di banda per avere un servizio sufficientemente buono.
Questa seconda soluzione ha vinto. Il prezzo pagato non è stato monetario, ma quello di passare i pomeriggi ad attendere il caricamento dei filmati su Youtube.
Con la diffusione delle applicazioni mobili gli utenti hanno iniziato a poter scegliere la qualità del servizio offerto optando per una delle molteplici opzioni proposte. Applicazioni efficienti grazie al codice eseguito localmente, per le quali si decidiamo di pagare, o in denaro o con l’accettazione di uno standard non Web.
1.4.2) Il dominio di Google
Il Web, da un lato, ha sempre rappresentato la rottura dei modelli classici di business e tradizionali strutture dominanti, dall’altro, la continua lotta di potere con le grandi multinazionali che hanno cercato di prendere il controllo di tutti o gran parte i settori del Web. Ad esempio Amazon ha cercato di dominare la vendita al dettaglio, Yahoo la ricerca.
Il punto finale di questo processo si è avuto con Google. Google rappresenta una sorta di impero di Roma nel panorama di Internet. Si Potrebbe dire che Google distribuisce i film e possiede anche tutti i teatri. Infatti, gestendo sia la ricerca sia la vendita della pubblicità, crea una condizione in cui è impossibile per qualsiasi concorrente pensare di entrare nel business e poter diventare competitivo quanto o più di lui. È difficile immaginare un altro settore così strettamente controllato da un solo attore.
Ci si sta spostando verso un nuovo modello, quello delle applicazioni mobile, in parte, perché ci sono compagnie che vogliono dominare nel panorama digitale rispetto all’idea collettivista del web. Questa è la maturazione di un idea di competitività che rifiuta l’etica del Web.
Così alcuni uomini di business più visionari e ambiziosi hanno posto come proprio obiettivo quello di superare il modello di Google. Questo è stato possibile solo creando un alternativa al Web, visto che esso era stato ormai dominato. Ed ecco l’arrivo di Facebook. Esso rappresenta una sorta di versione ridotta del Web, trasformando un sito
per favorire la socializzazione in una vera e propria piattaforma. E’ possibile intrattenere relazioni sociali, trovare notizie di informazione, giochi (appositamente sviluppati), rendendo l’intrattenimento per molti anche più appagante del girovagare per il Web. Dunque, si passa dal Web di innumerevoli imprenditori ad una piattaforma di un unico proprietario, rendendosi un esempio estremo di tutto ciò che il Web non è stato: norme rigide, design, controllo centralizzato.
1.4.3) L’utilizzo commerciale del Web
Zuckerberg non è stato l’unico a voler rovesciare l’egemonia di Google e del Web aperto. Sul Web i ricavi pubblicitari (misurati in CPM, costo per mille impressioni, cioè visualizzazioni del messaggio pubblicitario) sono in caduta.
Le grandi società che producono contenuti digitali, quali editori, società di comunicazione, di diffusione del sapere (learning company), dipendono dalla pubblicità per poter promulgare e finanziare la loro produzione. E il Web non si è dimostrato il miglior mezzo pubblicitario.
Inizialmente, ciò è stato mascherato dalla continua crescita della quota di pubblico e dalla falsa convinzione che un utente online valesse sempre di più di un utente raggiunto su altro mezzo di comunicazione. Tale convinzione era sostenuta dal fatto che grazie al Web la pubblicità poteva essere mirata andando a scovare potenziali nuovi clienti che non erano mai stati raggiunti. Ma, pian piano, gli investimenti hanno iniziato a rallentare poiché i ritorni non erano quelli sperati e non reggevano il confronto di altri mezzi quali radio e TV. D’altronde il Web è stato creato da ingegneri non da editori.
I consumatori non sono mai stati motivati dalla pubblicità sul Web, il cui fondamento continua a essere rappresentato dai banner pubblicitari. Sono pochi gli utenti che decidono di cliccare su di essi, ritenuti anzi un fastidio.
Per generare ricavi sono necessari milioni di click. Nemmeno le più grandi agenzie pubblicitarie del mondo vi sono riuscite. L’unica è stata Google, sempre e solo lei. Grazie ad adWords (annunci della propria attività sulle pagine di ricerca Google o su siti partner) ed adSense (servizio di banner pubblicitari di altre compagnie da inserire nella propria pagina Web), Google ha totalizzato nel 2012 ricavi per 43,6 miliardi di dollari16. Se questo
non bastasse, c’è da considerare che la maggior parte degli utenti visitano una pagina
dopo averla trovata tramite un motore di ricerca, quindi è nuovamente Google ad avere il controllo del gioco. Questi utenti si trovano a cliccare un link senza sapere perché è quello il risultato della loro ricerca o spesso senza nemmeno far caso al sito che visitano. In questo contesto si è inserita la crisi globale, e le compagnie pubblicitarie hanno definitivamente premuto il bottone “allarme rosso”, decretando una volta per tutte che l’idea di poter utilizzare il Web per i propri scopi è definitivamente tramontata. Di conseguenza, esse hanno l’interesse a migrare verso un modello differente, che in questo caso prevede applicazioni sviluppate specificamente per i dispositivi che contengono al loro interno della pubblicità.
Inoltre, per le aziende di tutti i settori risulta più semplice realizzare dei guadagni su queste piattaforme seguendo quella che risulta essere la tendenza del momento. Si sta passando, dunque, da applicazioni adware (advertising-supported software) completamente free, verso il freenium, cioè contenuti liberi con restrizioni sulle funzionalità a disposizione, che possono essere utilizzate con l’acquisto della versione a pagamento del servizio.
Le persone amano le cose libere e fruibili e allo stesso modo amano le cose che funzionano correttamente, in modo affidabile e senza interruzioni. E, se è necessario pagare per ciò che amano è accettabile.
Un’intera generazione è cresciuta davanti ad un browser, ed Internet è parte delle loro vite. Ma, la natura umana spesso porta a scegliere la via più comoda per ottenere un qualcosa, e le persone sono disposte a pagare per comodità e affidabilità. Caratteristiche che vengono offerte dalle applicazioni mobile, permettendo di ottenere immediatamente ciò che si desidera, nonostante questo spesso sia disponibile gratuitamente da qualche parte sul Web.
Questo cambiamento nell’utilizzo delle informazioni riguarda il futuro dei contenuti commerciali dell’economia digitale, e non l’intero Web. L’e-commerce continuerà ad esistere sul Web, e ciò è confermato dal fatto non si conoscono casi di compagnie per le quali esso rappresenti un core-business da abbandonare.
Inoltre, la fortuna del Web è che la maggior parte dei contenuti che lo popolano sono di natura non commerciale. Il fatto che ognuno possa continuare a creare liberamente ciò che desidera, spinto dalla libertà di espressione, costituirà sempre la forza di quest’ultimi.
In sostanza, è in crisi il concetto di Web come marketplace per la distribuzione digitale, non dell’intero Web come mezzo di diffusione del sapere.
1.4.4) Il modello Apple
Dalla sua nascita, il Web si è caratterizzato per un’importante mancanza: nessuno di coloro che l’ha sviluppato possedeva conoscenze nel campo dei media. Allo stesso tempo, tra gli esperti di media non c’era nessuno che avesse competenze di tecnologia. Non c’è stata la necessaria connessione tra creatori di sistemi e creatori di contenuti per avere uno stretto rapporto tra pubblico, produttore e consumatore.
Steve Jobs ha colmato questo vuoto. La Apple è sia produttore di contenuti che fornitore della piattaforma per distribuirli e dei dispostivi per consumarli. Mentre, nel modello di Google esso si occupava di gestire solamente le vendite.
Tra tutte le innovazioni introdotte con il lancio del primo iPhone, il 29 giugno 2007, quella più importante è stata che le funzionalità del dispositivo vengano rese disponibili come applicazioni native separate, sviluppate con codice specifico della piattaforma, e non con le tecnologie classiche utilizzate per le applicazioni Web. Le applicazioni tradizionalmente offerte come funzioni del sistema operativo sono, invece, sviluppabili oltre che dalla stessa Apple, anche da terze parti e scaricabili sul dispositivo. Questo ha aperto la strada alla nascita di sviluppatori di applicazioni native per dispositivi mobili e alla creazione di marketplace per la distribuzione delle applicazioni. Primo fra i quali l’App Store di Apple, che verrà però aperto solo un anno dopo il lancio dell’iPhone 2G. Ma Google aveva fiutato il cambiamento già nel 2005. Due anni prima che il primo iPhone vedesse la luce, ha acquisito la società Android Inc., che attualmente rappresenta il maggior concorrente nel campo dei sistemi operativi per dispositivi mobili e una delle principali piattaforme di sviluppo di contenuti. Per chi non se ne fosse accorto tutto è diventato chiaro il 6 marzo 2012, quando l’Android Market cambia nome in Google Play. Di Google non ce ne si libera mai.