1 Università di Pisa – Dipartimento di Economia e Management
UNIVERSITÀ DEGLI STUDI DI PISA
DIPARTIMENTO DI ECONOMIA E MANAGEMENT
Corso di laurea in Strategia, Management e Controllo
I BIG DATA: IMPATTO SU IMPRESA E FUNZIONI AZIENDALI
Relatore: Candidato:
Prof. Nicola Giuseppe Castellano Lorenzo Balluchi
2
INDICE
INTRODUZIONE _______________________________________________________________ 5
CAPITOLO 1: UN QUADRO GENERALE __________________________________________ 7
1.1 COSA SI INTENDE PER BIG DATA _________________________________________________ 7 1.1.2 Dati non strutturati _________________________________________________________________________ 8
1.1.3 Le 4 V ___________________________________________________________________________________ 10
1.2 BUSINESS ANALYTICS ______________________________________________________________________ 14
1.2.1 Big data analytics _________________________________________________________________________ 18
1.2.2 Rapporto tra Big data e Internet of things (IoT) __________________________________________________ 18
1.3 BIG DATA O BIG PROBLEM? ________________________________________________________________ 22
1.3.1 Il problema della privacy ___________________________________________________________________ 22
1.3.2 Affidabilità dei dati ________________________________________________________________________ 24
1.3.3 La qualità dei Big Data _____________________________________________________________________ 26
CAPITOLO 2. ALCUNI SETTORI DI APPLICAZIONE ______________________________ 28
2.1 Settore Manifatturiero _________________________________________________________________________ 29
2.2 Settore assicurativo____________________________________________________________________________ 31
2.3 Settore sanitario ______________________________________________________________________________ 34
2.4 Settore della vendita al dettaglio _________________________________________________________________ 38
2.5 Settore della Pubblica amministrazione ___________________________________________________________ 42
CAPITOLO 3: BIG DATA IN AZIENDA ___________________________________________ 45
3 3.1.1 Vantaggio competitivo prima e dopo i Big Data _________________________________________________ 46
3.2 Governance dei sistemi di Big data analitycs ______________________________________________________ 48
3.2.1 Il Data scientist ___________________________________________________________________________ 48
3.2.2 Chief data officer __________________________________________________________________________ 52
3.2.3 Il controller ______________________________________________________________________________ 54
3.3 OPPORTUNITÀ E SVANTAGGI ________________________________________________________________ 56
CAPITOLO 4. IMPATTO NELLE VARIE FUNZIONI AZIENDALI ____________________ 63
4.1 Il controllo di Gestione _________________________________________________________________________ 63
4.1.1 Crisi dei tradizionali sistemi di misurazione delle performance _____________________________________ 66
4.1.2 Data driven decision (DDD) _________________________________________________________________ 69
4.2 Big data e Marketing __________________________________________________________________________ 72
4.2.1 Verso una nuova era del Marketing ___________________________________________________________ 76
4.2.2 Dal Marketing 1.0 al Marketing 4.0 __________________________________________________________ 77
4.3 Impatto sulla funzione Risk Management _________________________________________________________ 81
4.4 Effetti sull’Auditing __________________________________________________________________________ 86
5. CONCLUSIONI _____________________________________________________________ 91
BIBLIOGRAFIA _______________________________________________________________ 93
SITOGRAFIA _________________________________________________________________ 95
4
A mio zio.
5
I Big data: impatto su impresa e funzioni aziendali
INTRODUZIONE
“Guardatevi intorno e scegliete a caso. Non importa se siete in auto, o a casa, in ufficio o in treno. Ogni settore sta per essere attraversato da una rivoluzione digitale che moltiplicherà le connessioni. Ogni oggetto fisico diventerà una miniera di dati. Ogni dato sarà raccolto, analizzato e conservato, e contribuirà a creare quell’universo sconfinato chiamato Big Data.”1
Parlare di Big Data significa far riferimento ad una delle evoluzioni più importanti e pervasive del mondo digitale. Una tendenza che sembra ormai destinata ad incidere profondamente sulla nostra vita e sul nostro modo di fare business.
Il mio lavoro punta ad analizzare questo trend che sta portando forti cambiamenti nel modo di lavorare delle imprese, le quali potranno, in maniera sempre più marcata, ricavare benefici in termini di incremento della competitività, produttività ed efficacia dei processi decisionali. L’obiettivo di questa tesi è quello di offrire un supporto al lettore, per capire come i Big data stiano diventando strumenti fondamentali all’interno del panorama aziendale. Solo attraverso il progresso tecnologico, che rappresenta il terreno fertile sul quale i Big data si sviluppano, sarà possibile favorire l'efficienza operativa, il miglioramento delle performance, le relazioni con i consumatori, l'innovazione nei prodotti/servizi e nei modelli di business.
La parte inziale dell’elaborato introduce il concetto di Big data, cercando di evidenziare le varie definizioni attribuite al fenomeno, facendo poi riferimento al concetto cardine delle “4V”.
1 James Simonetta (2015), “I Big data”
6
Verrà anche analizzato il rapporto che intercorre tra i dati ed il mondo dell’internet of things, una vera e propria fonte dalla quale attingere per ricavare informazioni utili.
Nella parte finale del capitolo l’attenzione verrà spostata sui problemi che le imprese sono solite riscontrare nel nuovo panorama tecnologico.
Da qui in poi l’elaborato si focalizzerà sul rapporto tra Big data ed imprese; così, nel secondo capitolo, prenderò in esame alcuni settori di mercato che sono stati, o potrebbero essere, particolarmente influenzati dal loro utilizzo.
Nel terzo capitolo verrà descritto come il progresso tecnologico abbia spinto le imprese ad attrezzarsi, sia nella creazione di nuove figure professionali che sappiano trattare i dati a disposizione, sia nella ricerca del vantaggio competitivo ricavabile dall’analisi delle informazioni.
Nell’ultimo capitolo invece l’analisi riguarderà i cambiamenti che le organizzazioni hanno dovuto attuare all’interno delle proprie funzioni aziendali per rimanere al passo con i tempi. Controllo di gestione, Marketing, Risk management e Cost management, facendo leva sui Big data, hanno consentito all’impresa di compiere uno step ulteriore per il raggiungimento delle “3 E”: efficacia, efficienza ed economicità.
7
CAPITOLO 1: Un quadro generale
1.1 COSA SI INTENDE PER BIG DATA
Nell’ultimo ventennio abbiamo assistito ad una rapida ed incontrollata crescita delle informazioni a nostra disposizione, una grande mole di dati che può essere fonte di analisi per le aziende e che può essere utilizzata per gli scopi più vari.
Le informazioni, da sempre, giocano un ruolo chiave nel panorama industriale; di conseguenza l’individuazione delle fonti da cui è possibile estrapolarle risulta assolutamente strategica per le imprese. Il grande cambiamento rispetto al passato sta nella modalità di generazione di questi dati che, cavalcando l’onda dello sviluppo tecnologico, al giorno d’oggi si presentano in quantità sempre più elevate, costringendo chi opera in azienda a creare sistemi di analisi maggiormente innovativi ed adattabili ai cambiamenti dell’ambiente circostante.
Ecco che in questo contesto è lecito parlare di “Big Data”.
Non esiste una definizione universalmente riconosciuta del fenomeno.
Il termine Big Data venne coniato nel 2001 da Douglas Laney, un’analista del Gartner Group, il quale definì con questo vocabolo “tutte quelle risorse informative ad alto volume, ad alta
velocità e varietà che richiedono forme innovative ed economiche di elaborazione delle informazioni per approfondire le conoscenze e prendere decisioni.” 2
In sostanza, come sostenuto successivamente da James Manyika del McKinsey Global Institute, quando parliamo di Big data facciamo riferimento “ad un dataset la cui dimensione
va al di là della capacità di un database normale di catturare, memorizzare, gestire e analizzare i dati”.3
2https://www.gartner.com/it-glossary/big-data/
8
Questa definizione mette in risalto due caratteristiche cardine dei Big data: le dimensioni e le quantità dei dati rilevati (ed immagazzinati), a nostra disposizione. Per farsi un’idea di come in epoca recente il ritmo con cui le informazioni vengono prodotte sia aumentato esponenzialmente, basti pensare che oggi, in due soli giorni, saremmo in grado di creare un volume di dati esattamente uguale a quello che l’intera umanità è stata in grado di produrre fino al 20034.
Se ci riflettiamo meglio ciò non deve sorprenderci: ci sono strumenti e servizi digitali che sono entrati a far parte della nostra vita quotidiana, ed il loro utilizzo abituale genera un numero di informazioni utili che prima non era neanche lontanamente possibile immaginare di possedere. Ormai ogni nostra azione lascia una traccia sul web: le ricerche effettuate su Internet, i prodotti che acquistiamo e consumiamo, le interazioni che abbiamo sui social network, i registri chiamate e addirittura gli spostamenti che compiamo durante una giornata, grazie ai dispositivi GPS, sono tutte operazioni dalle quali le aziende (e non solo) possono ricavare elementi utili per il proprio lavoro; si stimano circa due quintilioni e mezzo (2.500.000.000.000.000.000) di byte creati ogni giorno nel mondo.5
1.1.2 Dati non strutturati
Un elemento caratterizzante dei Big data è quello di accogliere all’interno del proprio dominio, una serie di dati che, per caratteristiche, vengono definiti “non strutturati”.
In natura esistono due tipologie di dati differenti che, in generale, vengono raccolte all’interno di altrettante categorie: la prima classe è quella dei dati strutturati; la seconda invece è quella, appunto, dei dati non strutturati.
Vediamo nel dettaglio a che cosa ci riferiamo quando parliamo di queste famiglie.
4 http://www.beantech.it/blog/articoli/big-data-cosa-sono-e-loro-utilizzo/ 5 Ricerca svolta dagli esperti di IBM
9
Si fa riferimento ai “dati strutturati” quando essi sono conservati in database, organizzati secondo schemi e tabelle rigide; è il caso di una tabella in cui ad ogni cella viene collegato un valore preciso. Lo schema è rappresentativo dell’infrastruttura, che dirige l’organizzazione dei dati e stabilisce quali siano i vincoli da rispettare per donare loro coerenza.
Questa è la tipologia più adatta a costruire modelli di gestione relazionale delle informazioni. I dati strutturati sono semplici ed aderiscono ad un formato prestabilito.
All’ estremo opposto troviamo invece i “dati non strutturati”.
In questa classe rientrano quei dati che vengono conservati senza seguire alcuno schema; per fare alcuni esempi possiamo citare, tra i tanti: le email, i PDF, i business plan, ma anche suoni, immagini e video.
La loro particolarità sta nel fatto che non si possono organizzare o catalogare in uno specifico processo (ad esempio in tabelle), a causa delle irregolarità che li contraddistinguono. Ad oggi, circa l’80% dei dati rientra in questa categoria6.
A causa della loro natura, una delle maggiori difficoltà che le aziende si trovano a dover risolvere riguarda la loro protezione, a maggior ragione in un’epoca come la nostra dove i crimini informatici sono quasi all’ordine del giorno.
Le aziende hanno la capacità di immagazzinare una moltitudine di elementi che, se rubati da cyber criminali, possono creare danni ingenti all’impresa ad esempio nel caso in cui vengano rivenduti sul mercato nero.
A metà strada tra i dati strutturati e i non strutturati, troviamo una terza categoria per cosi dire “ibrida” che è quella dei “dati semi-struttrati”.
Essi abbracciano alcune caratteristiche dei dati strutturati ma anche altre caratteristiche che sono proprie dei non strutturati.
10
XML e altri linguaggi di markup rientrano nella categoria dei semi-strutturati.
1.1.3 Le 4 V
I veri elementi distintivi che rendono i Big data un fenomeno unico nel suo genere, sono però le cosiddette “4 V”:
- Volume:
Riguarda la dimensione dei dati e la capacità delle imprese di saperli acquisire e memorizzare. Il Volume si ottiene dalla sommatoria delle dimensioni dei singoli elementi che costituiscono il dataset. Possiamo trovare dati espressi in Gigabyte, Terabyte, Petabyte, Exabyte e Zettabyte. La loro origine è varia, tanto che risulta plausibile trovare aziende impegnate a lavorare sia con input generati da esseri umani ma anche da macchine, in maniera del tutto automatica. Se pensiamo ai volumi spropositati di dati che vengono generati dalle transazioni bancarie o da movimenti sui mercati finanziari, possiamo capire perché i sistemi tradizionali di raccolta dati stiano diventando pian piano obsoleti.
Per citare un esempio che sia esplicativo di questa situazione, basti pensare che ogni giorno Google elabora circa 24 petabytes di dati7; risulta evidente che la gestione di una simile mole di
11
elementi non possa esser controllata con i tradizionali sistemi database, studiati e costruiti per gestire ed analizzare quantità di dati di gran lunga inferiori.
La recente crescita del volume porta con se un altro aspetto da non sottovalutare, ovvero quello di non escludere a priori le potenziali informazioni a disposizione; ciò che oggi può sembrarci inutile rischia di assumere rilevanza in futuro, quindi è sempre meglio immagazzinare tutto il materiale a disposizione, senza cancellare niente. Starà alla bravura dei manager filtrare le informazioni e capire quali di esse possono avere un’utilità nell’arco temporale considerato.
- Velocità:
Pur non essendo una problematica nuova, la velocità rappresenta uno dei punti attorno al quale le aziende devono lavorare per stare al passo con la concorrenza.
Poter fare affidamento su informazioni generate quasi in tempo reale, è indubbiamente un fattore che può fare la differenza. Le imprese devono concepire la velocità come un elemento sul quale insistere per raggiungere il vantaggio competitivo: tempestività nella generazione di informazioni significa anche velocità di risposta alle possibili insidie del mercato e dell’ambiente concorrenziale.
- Varietà:
Si riferisce alle fonti di provenienza dei dati. Se noi pensassimo di avere a che fare solo con dati strutturati, tutti con lo stesso formato o la stessa lunghezza, e relativamente facili da immagazzinare, trascureremmo una grossa parte di elementi potenzialmente utili; le imprese devono riuscire a sfruttare le opportunità che derivano dal possedere anche dati non strutturati la cui fonte di provenienza è varia, dati che difficilmente sono confrontabili a causa delle loro caratteristiche eterogenee.
12
L’elemento di rottura rispetto ai sistemi tradizionali è proprio questo: prima le analisi richiedevano informazioni strutturate e che seguissero uno schema ben delineato, oggi con questa varietà di fonti risulta impossibile ricorrere agli stessi strumenti analitici di 20-30 anni fa.
Se volessimo classificare8 le più importanti categorie di dati presenti nel nostro sistema digitale avremmo:
1) Dati strutturati in tabelle: sono quelli adoperati per i servizi tradizionali.
Il miglioramento continuo degli strumenti in grado di archiviare ed analizzare i dati rende ancora oggi i dataset relazionali la categoria più utilizzata nella maggior parte delle piattaforme di analytics.
2) Dati semi-strutturati: rappresentano una nuova tipologia di dati in continuo aumento. Sono
perlopiù dati business-to-business organizzabili gerarchicamente.
3) Dati di eventi e macchinari (messaggi, sensori, periferiche): quella tipologia di dati che
maggiormente si indentifica con il termine Big Data; fino a pochi anni fa erano memorizzati solo temporaneamente, a causa delle difficoltà in termini di immagazzinamento.
4) Dati non strutturati (linguaggio umano, audio, video): sono composti da un elevatissimo
numero di metadati, perlopiù memorizzati all’interno delle varie pagine web, e dai quali è possibile estrarre informazioni strutturate attraverso tecniche avanzate di analisi semantica.
5) Dati non strutturati da social media: rappresentano l’elemento più recente tramite cui le
aziende riescono a tracciare dati. Il loro studio ed utilizzo ha creato nuovi scenari e nuovi paradigmi di analisi.
6) Dati dalla navigazione web: forniscono dei feedback sulle abitudini dei consumatori e sulle
loro attitudini di acquisto. Anche in questo caso i volumi stanno aumentando vertiginosamente.
13 7) Dati GIS (geospaziali): sono generati da applicazioni per smartphone sempre più diffuse ed i
loro volumi sono in costante aumento;
8) Dati scientifici (astronomici, genetica, fisica): sono anch’essi, al pari dei dati di eventi e
macchinari, per definizione dei Big Data. Sono state messe a punto nuove tecniche di calcolo per poterli analizzare a pieno e anno dopo anno si è arrivati alla creazione di calcolatori elettronici in grado di tenere sotto controllo questa grande mole di dati.
Come è ovvio che sia, anche in questo caso i loro volumi sono in costante aumento.
- Veracità:
A voler essere precisi, questo è da considerare l’unico aspetto “negativo” delle 4V 9: quando noi scegliamo e trattiamo i dati, non sappiamo se essi siano o meno rappresentativi della realtà. Banalmente basti pensare a ciò che troviamo sui social network: spesso e volentieri capita di imbattersi in fake-news o addirittura, in casi estremi, in profili di utenti fittizi gestiti da sistemi automatici che possono far perdere rilevanza al campione analizzato.
Filtrare le informazioni e considerare solo quelle veritiere è per questo importante; le imprese devono garantire la qualità del dato.
In alcuni casi gli studiosi hanno aggiunto una quinta “V”, ovvero il Valore, inteso come la capacità di saper usare le informazioni per incrementare la produttività e la competitività delle aziende e creare surplus economico per i consumatori.
14
1.2 BUSINESS ANALYTICS
L’importanza per le aziende di riuscire a studiare e capire i dati in proprio possesso, non può che passare dall’utilizzo di sistemi di elaborazione delle informazioni efficaci, a maggior ragione in contesti ambientali condizionati da rapidi cambiamenti e da crescente complessità. In questa ottica si inseriscono i sistemi di Business analytics, che sono considerati una naturale evoluzione dei sistemi di Business intelligence.
Ma procediamo con ordine: le applicazioni di Business intelligence (BI) hanno rappresentato il primo passo delle imprese nella lettura e nello studio dei dati.
La BI ha lo scopo di convertire dati grezzi in informazioni utili per le aziende, e per compiere questa trasformazione fa leva su metodi, processi e tecnologie utili ad acquisire ed analizzare elementi.
Con i sistemi di BI le imprese sono in grado di avere una visione chiara del passato, e anche del presente, in riferimento alle prestazioni delle varie funzioni aziendali: vendite, marketing, approvvigionamento e cosi via.
Sebbene ciò sia già di per se un fattore di grande importanza, la BI “soffre” il fatto di non riuscire a fare previsioni su quelli che saranno, o meglio potrebbero essere, gli andamenti futuri.
Avere un orientamento al passato o tutt’al più al presente, non consente alle imprese di capire come le conseguenze di un azione intrapresa oggi si potranno sviluppare nel futuro.
In sostanza la Business intelligence riassume i dati storici, rappresentando una chiave di lettura ottimale per capire cosa è successo e cosa sta succedendo, offrendo soluzioni che aiutano a scoprire schemi di comportamento significativi e legami tra le variabili entro un complesso insieme di dati, strutturati e non strutturati.
15
La Business analytics (BA) rappresenta uno sviluppo della BI.
Non esiste una definizione univoca della Business analytics, cosi come per i Big data, nonostante diversi autori abbiano cercato di dare una spiegazione a questo fenomeno.
Il concetto di Business analytics può essere sintetizzato come “un insieme di tecniche e di
metodi matematico-statistici di elaborazione dei dati, utili a supportare il processo decisionale, al fine di ridurre la probabilità di errore”.10
Il suo scopo principale è dunque quello di dar man forte ai soggetti incaricati di prendere le decisioni in azienda, cercando di far diventare il processo decisionale il più semplice ed automatico possibile.
Inoltre, mentre i sistemi di BI sono utili per analizzare elementi passati e creare una reportistica efficace che consenta di diffondere la conoscenza in azienda, la BA cerca di individuare i possibili scenari che l’impresa potenzialmente può trovarsi di fronte a seguito delle decisioni prese.
Per fare questo la BA sfrutta anche le informazioni raccolte tramite sistemi di Business intelligence, ribaltandoli però in scenari futuri.
A seconda che lo scopo sia quello di presagire circostanze future oppure sia quello di analizzare dati storici per capire le cause di ciò che è accaduto in azienda, si hanno tre tipi di analisi:
- Analisi Descrittiva (Descriptive):
L'analisi descrittiva è una fase preliminare dell'elaborazione dei dati.
La sua utilità è quella di sintetizzare le indicazioni storiche, attraverso un riepilogo che consenta di evidenziare le informazioni utili ed eventualmente mettere a disposizione i dati per ulteriori analisi.
16
Il suo compito è quindi quello di sintetizzare o descrivere il materiale che si trova allo stato grezzo per renderlo comprensibile agli esseri umani. Più precisamente, gli elementi che vengono analizzati sono collegati agli eventi passati, dove per “eventi passati” si fa riferimento a qualsiasi istante temporale in cui si è verificato un evento, sia che esso sia accaduto da un minuto sia che esso abbia avuto origine un mese prima. Le analisi descrittive vengono utilizzate perché permettono alle imprese di studiare i comportamenti passati, consentendo di capire quali errori sono stati commessi o, viceversa, quali azioni possono essere replicate in quanto vincenti. Questo è utile soprattutto per il lavoro del manager, che sarà in grado di capire cosa sta accadendo all’interno della propria impresa.
Generalmente con questo tipo di analisi si cercano risposte alle domande: “Che cosa è successo?”, “ che cosa sta accadendo?”.
- Analisi Predittiva
Il compito dell’analisi predittiva è, come facilmente intuibile dal nome, prevedere ciò che succederà in futuro. Tramite questo tipo di analisi è possibile migliorare la comprensione del business ed il livello di performance dell’organizzazione.
Tale categoria di indagine fa leva sia su dati storici sia su dati nuovi per cercare di predire orientamenti ed atteggiamenti; si tratta di assegnare un punteggio alla probabilità che un determinato evento si verifichi, sulla base di tecniche di analisi statistica, query analitiche o algoritmi di apprendimento automatico. È importante sottolineare che nessun algoritmo statistico e nessuna analisi può prevedere il futuro con il 100% di precisione stimata.
L'analisi predittiva ha beneficiato molto dell’espandersi dei sistemi Big data: approfittando del maggior numero di materiale a disposizione, infatti, le imprese sono riuscite a creare maggiori opportunità di estrazione per ricavare informazioni previsionali.
17
Essa contribuisce a scoprire nuove opportunità per le imprese, correlando componenti apparentemente poco informative e traducendole in insight utili per azioni concrete, da usare per progettare strategie di mercato efficaci.
Fornisce le risposte alla domanda “che cosa potrebbe accadere?”.
Per fare degli esempi, a livello aziendale questo tipo di analisi viene applicata per stabilire il targeting di annunci pubblicitari online, per analizzare il comportamento dei clienti, o ancora per prevedere eventuali guasti a componenti di apparecchiature industriali prima che ciò accada, o ad esempio nel caso di istituzioni finanziarie, per capire con quale probabilità i clienti effettueranno pagamenti futuri in tempo.
- Analisi Prescrittiva
L’analisi Prescrittiva (termine coniato nel 2003)11 è una delle tendenze maggiormente in voga degli ultimi anni nella tecnologia dei dati.
È una tipologia di analisi che si differenzia dalle altre, in particolare dalla predittiva, perché si spinge oltre la previsione di risultati futuri, fornendo consigli utili sulle azioni da intraprendere; l’analisi prescrittiva spiega il perché di un certo evento: i modelli predittivi ci dicono cosa è ragionevole aspettarsi che succeda, mentre i modelli prescrittivi ne spiegano le motivazioni. Tutto ciò viene realizzato sintetizzando i fattori a disposizione e contemporaneamente utilizzando scienze matematiche e regole di business. L’effetto naturale di tutto questo è la capacità del modello prescrittivo di aiutare i “decision makers” a mettere in atto azioni immediate, imperniate su regole precise e su previsioni probabilistiche.
Ci consente di rispondere alla domanda: “Come possiamo far capitare un determinato risultato-obiettivo?”
18
1.2.1 Big data analytics
In definitiva possiamo concludere dicendo che i Big data ed i sistemi di business analytics sono fortemente legati da una relazione di interdipendenza.
I Big data presi da soli allo stato puro, non possiedono un grande valore, ma se riusciamo ad elaborarli, affiancando ad essi dei sistemi di BA, è possibile ricavare delle informazioni molto utili per tutte le funzioni aziendali.
Raccogliere ed analizzare i Big data consente di espandere il terreno informativo all’interno del quale l’azienda può navigare.
L’applicazione dei sistemi di Business analytics alla grande mole di dati proveniente dai Big data, prende il nome di “Big data analytics” (BDA).
Il BDA è “un processo di ispezione, pulizia, trasformazione e modellazione di grandi dati con
l'obiettivo di scoprire conoscenze, generare soluzioni e supportare il processo decisionale”12. Le aziende devono riconsiderare i loro metodi di analisi in modo strategico, operativo e culturale per la gestione dei dati, quindi selezionare gli elementi necessari e prendere le giuste decisioni basandosi su di essi.
1.2.2 Rapporto tra Big data e Internet of things (IoT)
Il termine Internet of Things (IoT), letteralmente “Internet delle cose”, fu coniato per la prima volta nel 1999 da Kevin Ashton13, ricercatore presso il MIT (Massachussets Institute of Technology) ed ingegnere della famosa compagnia Procter and Gamble, per definire quegli oggetti che potevano essere identificati attraverso tag.
12 Lin Zhang (2016). Challenges and Opportunity with Big Data.
19
Nel corso degli anni sono state date altre definizioni di questo fenomeno, anche in virtù del suo sviluppo, ma il suo reale significato si può facilmente comprendere considerandolo come una sorta di evoluzione e di estensione dell’Internet tradizionale: l’Internet of Things, a dispetto di quello tradizionale pone l’accento sulle cose, e punta a collegare tra loro oggetti di uso quotidiano connettendoli ad Internet per consentire la comunicazione con l’ambiente che li circonda ma anche tra loro stessi. La grande espansione dei così detti “oggetti connessi”, come wearable device14 e la domotica, ha portato e porterà a consistenti vantaggi ottenuti grazie al flusso costante di elementi che provengono dai vari dispositivi.
Internet of Things è quindi un neologismo impiegato nel campo delle telecomunicazioni, nato con l’esigenza di dare un nome agli oggetti reali connessi ad internet.
Per capire la portata di questo evento e di come si stia investendo nell’IoT, ci viene a supporto uno studio di Cisco Systems15, secondo il quale nel 2020 saranno installati nel mondo fra i 30 e i 50 trilioni di sensori che collegheranno oggetti di ogni tipo a Internet.
L’IoT è potenzialmente sviluppabile in vari settori, rappresentati da quei contesti dove ci sono “cose” che possono “parlare” e generare nuove informazioni come ad esempio edifici intelligenti, self driving car, robotica e altro.
Oltre che avere un impatto nella vita dei consumatori, l’IoT rivestirà sempre più un ruolo di primaria importanza e rappresenterà un cambiamento anche per il mondo aziendale. Alcuni esempi tra i più visibili sono:
- Lo sviluppo di sensori sui macchinari per ottimizzare i processi industriali, abbattendo i costi e contendendo gli sprechi;
-Servizi di car/bike sharing basati sull’utilizzo di dati inerenti alla localizzazione dei veicoli;
14 Trad. “Dispositivo indossabile”. Rientra nella categoria dei dispositivi elettronici che si indossano e
trasferiscono dati a smartphone collegati (ad esempio lo Smartwatch).
20
-Creazione di città intelligenti, meglio conosciute come “smart cities”, grazie all’ottimizzazioni dei costi di manutenzione e gestione.
- Attività di marketing che sfruttano le informazioni sui comportamenti dei consumatori all’interno del negozio;
- In ambito sanitario, con tecnologie per il monitoraggio dei pazienti;
- Tracciamento dell’intera catena del prodotto, dall’approvvigionamento delle materie prime ai magazzini dei prodotti finiti, fino alla giacenza nel punto vendita.
In definitiva dal punto di vista delle aziende, la tecnologia IoT consentirà di migliorare l’efficienza.
Il mondo dell’Internet of things è strettamente intrecciato al fenomeno dei Big data, tant’è che l’IoT è proprio uno degli elementi trainanti di questo fenomeno.
Già nel 2012 la quantità di dati che era possibile raccogliere nell’arco di una giornata, era arrivata a toccare la spropositata cifra di 2,5 quintilioni di bytes16; sette anni dopo è lecito aspettarsi che con l’utilizzo sistematico di “oggetti connessi” sia possibile avere a disposizione ancor più dati da analizzare.
Quindi, se già in passato era difficile immagazzinare elementi ed isolare le informazioni utili, a questo punto è necessario provvedere allo sviluppo di tecniche di gestione dei dati che riescano ad abbracciare questo flusso ancor più grande di indicazioni. È fondamentale riuscire a sviluppare dei meccanismi tecnologici che siano in grado di comprimere le informazioni e di eliminare gli errori in modo da filtrare gli elementi a disposizione delle aziende.
Il materiale raccolto dai dispositivi IoT va a comporre i Big Data, dal momento che questi device sono di norma sempre connessi alla rete e sono in grado di reperire dati grazie ai sensori presenti al loro interno, che poi saranno esaminati per ricavare le informazioni utili ad applicare politiche aziendali nell’ottica del miglioramento delle performance.
16 Delmonte, www.dmep.it
21
In definitiva, Big data e IoT possono essere considerati due facce della stessa medaglia: se da un lato l’evoluzione dell’Internet of Things ha generato un aumento nel numero di fattori da poter analizzare, dall’altro la raccolta di questi dati provenienti dalle tecnologie IoT è stata di fondamentale importanza per comporre i Big Data.
Creazione di dati ed analisi degli stessi, non possono non essere considerati congiuntamente, specie se si vuol riuscire a sfruttare in maniera precisa ed ordinata le informazioni che danno un quadro preciso sull’ambiente che circonda le aziende.
È sempre più importante per un’azienda raccogliere e decodificare i Big Data provenienti anche dall’IoT per connetterli con quelli già presenti nei sistemi aziendali, fornendo una visione ancora più ampia e variegata al processo decisionale.
In termini economici l’Internet of Things applicato in ambito aziendale, potrebbe avere un impatto di 14,2 trilioni di dollari sulla produzione entro il 2030, secondo uno studio della multinazionale Accenture denominato “Winning with the Industrial Internet of Things”, condotto a livello mondiale17.
Inoltre le maggiori società di ricerca, tra cui anche Accenture, caldeggiano l’ipotesi che si possa arrivare alla creazione di oltre 25 miliardi di apparati Iot entro il 2020.
In Italia questo incremento potrebbe significare una crescita del PIL fino all’1.1% .
Tuttavia questo studio, che ha coinvolto oltre 1.400 leader aziendali globali, fra cui 736 CEO, mostra come al momento l’occasione di ottenere tali guadagni sia a rischio, a causa della mancanza da parte delle aziende di piani concreti (73% del campione).
Nel nostro paese un grosso passo avanti per lo sviluppo dell’Iot collegato a quello dell’Industry 4.0 (o Industria 4.0) è stato fatto con il “Piano Calenda”, che prende il nome dell’ormai ex Ministro dello Sviluppo Economico (MISE) Carlo Calenda, che lo ideò.
17
22
Il Piano Industry 4.0 attribuisce grande rilevanza all’IoT come fattore di sviluppo e di integrazione nelle imprese e come elemento di raccordo tra la Information Technology e la Operational technology (IT e OT).
Il Piano si fonda su tre pilastri che sono stati confermati anche nei successivi interventi del legislatore:
-Investimenti nell’internet delle cose. -Formazione sull’internet of things.
-Standard per l’adozione di tecnologie IoT.
1.3 BIG DATA O BIG PROBLEM?
1.3.1 Il problema della privacy
Navigando in rete gli utenti generano, consapevolmente o meno, una quantità di materia informativa che le aziende possono sfruttare per migliorare i propri servizi ed il proprio rapporto con i clienti. A volte le tracce lasciate sul web riguardano anche componenti strettamente personali, come ad esempio nome, codice fiscale ed indirizzo di residenza.
Con l’avvento di smartphone e tablet, tutto ciò si è ulteriormente amplificato e, se prima l’oceano di dati in cui le aziende si trovano a navigare, era prodotto “solo” dai pc, adesso ci sono tutta una serie di device che consentono di raccogliere informazioni in qualsiasi maniera.
I consumatori devono essere consci che in quest’epoca così tecnologica, ogni volta che essi navigano su internet, lasciano delle orme che sono prontamente raccolte, archiviate, manipolate e condivise dalle imprese.
23
Tutte le tracce raccolte vengono infatti analizzati e successivamente usate a scopo commerciale mediante complessi algoritmi ed è proprio questo, di fatto, che pregiudica gli utenti, violando la loro privacy su scala globale.
Affinchè si possa arrivare ad un concreto sviluppo economico incentrato sull’utilizzo dei Big data, sarà fondamentale trovare il modo di instaurare un clima di fiducia negli ambienti online. Se non si riesce a trasmettere al cliente la sensazione di sicurezza, essi potrebbero essere più restii ad acquistare ed utilizzare nuovi servizi, e di conseguenza a fornire informazioni personali all’azienda; questa situazione rischia di rallentare lo sviluppo di applicazioni tecnologiche innovative.
L’Unione Europea si è prodigata a cercare una soluzione che, da un lato proteggesse i consumatori, e dall’altro non compromettesse lo sviluppo aziendale.
Così il 27 aprile 2016 è stato varato il “Regolamento generale sulla protezione dei dati” (GDPR) 18, divenuto applicabile in tutti gli Stati dell’Unione a partire dal 25 maggio dello scorso anno.
Il GDPR riconosce che, mentre il flusso di informazioni senza vincoli è indispensabile per il commercio, le informazioni personali dei consumatori devono essere preservate affinchè non si vìolino i loro diritti, nello specifico il diritto alla privacy.
Rafforzare la tutela dei dati dei cittadini europei deve diventare una priorità, a maggior ragione in un epoca come la nostra, dove la tecnologia ha cambiato drasticamente la vita a milioni di utenti e milioni di imprese.
Il diritto alla privacy è molto diverso oggi; non si tratta, infatti, solo del concetto di riservatezza personale, ma si fa riferimento ad una sfera molto più ampia riguardante l’utilizzo e la diffusione di tutte le informazioni proprie, che è l’individuo stesso a mettere in circolazione.
24
Alcune imprese, proprio perché non sono riuscite ad adattarsi a queste nuove normative europee, sono finite nell’occhio del ciclone.
Mediaticamente clamoroso è stato il caso di “Whatsapp Inc.” nel 201619: l’Autorità garante della concorrenza e del mercato ha avviato un’istruttoria nei suoi confronti, riferita all’opzione predefinita per gli utenti di dover obbligatoriamente condividere con Facebook dati personali del proprio account WhatsApp, pena l’immediata interruzione del servizio. Cosi facendo Facebook avrebbe potuto migliorare la propria attività pubblicitaria e, conseguentemente, avrebbe incrementato i ricavi.
l’Autorità in conclusione ha accertato che la pratica commerciale finita sotto esame era “specificatamente aggressiva” in quanto “mediante indebito condizionamento, idonea a
limitare considerevolmente la libertà di scelta o di comportamento del consumatore medio, inducendolo, pertanto, ad assumere una decisione di natura commerciale che non avrebbe altrimenti preso”20.
1.3.2 Affidabilità dei dati
Troppe informazioni possono creare diversi ostacoli quando si cerca di portare a termine un’analisi che sia quanto più fedele possibile alla realtà.
Avere a disposizione tanti elementi significa, prima o poi, dover far i conti anche con materiale non del tutto appropriato che catapulta i manager a lavorare in uno stato di incertezza circa l’affidabilità delle componenti a disposizione.
I computer possono misurare dati con grande meticolosità, fino ad arrivare ad una attenta selezione e definizione di un determinato campione per una precisa casistica, ma non sempre tutto questo basta a risolvere le criticità.
19 Lucrezia Berto (2018). “Big data e Antitrust: l’importanza dei dati nelle acquisizioni, il caso WhatsApp”.
20 “E- commerce e disciplina delle pratiche commerciali scorrette alla luce della giurisprudenza e delle decisioni
25
In primis perché è l’uomo a dover completare il lavoro elaborando le informazioni a disposizione, ma esso è in grado soltanto di analizzare una certa quantità alla volta, anche quando i computer raccolgono e processano una miriade di informazioni al servizio dei nostri limiti.
Inoltre i metodi di gestione e analisi dei Big Data si basano sostanzialmente su algoritmi o su analisi statistiche e euristiche che in genere, pur avvicinandosi molto, non raggiungono mai una totale attendibilità.
Rimane quindi sempre almeno una piccola parte di rischio che le imprese devono fronteggiare quando si trovano a fare affidamento su informazioni derivanti dai Big data, perché se è vero che c’è valore nelle informazioni, è altrettanto vero che può esserci danno ad averne troppe. Le macchine proseguono a scandagliare una ricca mole di elementi, di tutti i tipi, ma molti hanno veramente una valenze esigua.
In sostanza questo comporta che le aziende, basandosi su principi errati, potrebbero prendere decisioni non del tutto fondate e dare vita ad azioni dannose per se stessa, ma soprattutto per i consumatori.
Come conseguenza gli individui subirebbero le ripercussioni di questi errori di valutazione e finirebbero per essere trattati in maniera non appropriata.
Questo, tuttavia, non deve intaccare la fiducia dell’imprese circa il potenziale dei Big Data, poiché con gli strumenti idonei e la giusta attitudine, le organizzazioni possono evolversi, sia all’interno del mercato, sia a livello operazionale, assicurando ai consumatori soluzioni più in linea con i loro bisogni.
La vera sfida per le imprese è quella di trovare il giusto approccio, la giusta via che permetta loro di ricavare dai dati informazioni virtuose per il proprio lavoro.
26
1.3.3 La qualità dei Big Data
Un altro aspetto che può vanificare i vantaggi potenziali derivanti dall’utilizzo dei Big data, riguarda la qualità di quest’ultimi.
La qualità viene vista come un incrocio di sei caratteristiche:
- Accuratezza: si riferisce a quanto siamo vicini al valore reale con una data misura.
- Assenza di duplicazione: ovvero evitare di ripetere all’interno dello stesso sistema, o in sistemi diversi, file e tabelle.
- Completezza: avere a disposizione tutti i dati utili a descrivere una grandezza.
- Consistenza: i dati devono essere significativi ed utilizzabili nelle applicazioni dell'azienda. Non ci devono essere elementi di contraddizione.
- Integrità: si deve garantire che le operazioni effettuate da utenti autorizzati non provochino una perdita di consistenza dei dati. Si arriva a questo risultato facendo in modo che i dati rispettino alcuni vincoli.
- Veridicità: non sempre i file contengono notizie o dati che sono veritieri, per questo ci si deve basare solo sui dati dei quali siamo sicuri circa la loro correttezza.
È importante che ci sia un costante processo di verifica e controllo dello standard qualitativo, perché, come facilmente intuibile, se le analisi si basano su dati poco concreti la conseguenza sarà un processo decisionale infruttuoso, caratterizzato da scelte non efficaci o nella peggiore delle ipotesi completamente sbagliate, che contribuirebbero ad indirizzare l’azienda su binari sbagliati.
Quando si parla di data-quality con specifico riferimento ai Big data si possono distinguere tre tipologie diverse di elementiti, che possono manifestare delle criticità in merito alla qualità: - Dati provenienti da sistemi operazionali: ci riferiamo ad esempio a sistemi strettamente connessi al mondo della finanza, che producono una grandissima quantità di dati. In questa
27
situazioni i problemi circa la qualità sono conosciuti e per questo si riescono ad utilizzare dei sistemi di controllo e gestione dei dati.
- Dati che nascono da sensori e strumenti scientifici: ovviamente nel caso in cui ci siano dei difetti strutturali nei sensori o negli strumenti utilizzati, quello che ne scaturirà saranno dei dati qualitativamente non adeguati.
- Dati provenienti dal web: i dati in questo caso si presentano spesso in forme errate, basti pensare ai dati provenienti dai social network come ad esempio commenti, post, tweet; a seguito di un semplice errore grammaticale o di un errore di battitura la qualità del dato risulta alterata e allora si dovrà procedere ad un processo volto a filtrare le informazioni di quel dato particolare.
Quando si parla di Big data allora, è importante riuscire a comprendere la loro rilevanza rispetto al processo di analisi in questione.
Non sempre è conveniente però, procedere a processi di pulizia dei dati, poiché si potrebbero eliminare elementi potenzialmente utili. Ciò che magari oggi non mi serve per una determinata analisi può invece essere rilevante per analisi future, quindi si deve procedere con cautela prima di privarsene per sempre.
28
CAPITOLO 2. ALCUNI SETTORI DI APPLICAZIONE
Quando si parla di Big Data, è interessante cercare di capire come questo fenomeno riesca ad influenzare i vari settori del mercato. Big data e Analytics stanno ricoprendo un ruolo sempre più strategico per le grandi imprese, italiane e non.
Secondo uno studio condotto da “Assintel” e chiamato Report 19 21, la spesa per Big Data ed Analytics in Italia ha raggiunto i 348 milioni di euro nell’anno 2018, con un incremento del 26% rispetto al 2017, e continuerà anche nel 2019 arrivando a superare i 400 milioni di euro. Entro la fine del 2019, gli investimenti saranno più mirati e coinvolgeranno soprattutto gli strumenti utili a conoscere l’orientamento e le opinioni dei clienti, in modo da indirizzare le campagne pubblicitarie e regolare i regimi produttivi.
Complessivamente il settore con la maggiore quota di mercato è quello delle banche (28%). In alcuni comparti come il manifatturiero ed il settore assicurativo il trend di crescita è superiore al 25% annuo, seguiti dalla grande distribuzione organizzata.
Non tutti sono però riusciti a capire le opportunità che possono scaturire dall’utilizzo di informazioni cosi grandi ed esaustive, sottovalutando e scartando un possibilità di crescita pressoché unica; a testimoniare questa sorta di “miopia” ci sono alcuni settori, come ad esempio la Pubblica amministrazione e la Sanità, dove lo sviluppo è davvero modesto nonostante il grande potenziale.
Vediamo nello specifico come i Big Data vengono considerati nei settori citati: il settore assicurativo, il manifatturiero, quello sanitario, la pubblica amministrazione ed il retail.
29
2.1 Settore Manifatturiero
Prima di analizzare l’impatto che i Big data stanno avendo all’interno di questa categoria, occorre fare una premessa: l’industria manifatturiera, rispetto ad altri settori, è molto più complessa e porta con se delle difficoltà strutturali che non si riscontrano in altri campi.
Ad esempio, una produzione di fabbrica non può funzionare utilizzando versioni beta di un software perché, non essendo adeguatamente testati, si andrebbe incontro al rischio di causare morti o lesioni, specie nei settori che si occupano di veicoli o altre apparecchiature sensibili. È necessario quindi assicurarsi di avere a disposizione sistemi ben navigati ed ampiamenti sperimentati, in modo da garantire la massima sicurezza.
Nonostante le varie difficoltà che si possono riscontrare, ci sono indubbi benefici che si conseguono utilizzando i Big Data nel comparto manifatturiero e, sebbene ci sia ancora un po’ di ritardo per quel che riguarda l’adozione di tecniche digitali in questo contesto, si calcola che nei prossimi anni ci sarà una crescita sempre più elevata.
Le odierne organizzazioni manifatturiere devono trovare un modo per gestire ed elaborare la grande mole di dati a loro disposizione.
Non tutti i dati generati possono fornire informazioni utili, ma secondo le stime22, il 33% di essi potrebbe possedere un’utilità, una volta analizzato. Tuttavia, solo lo 0,5% di tutti i dati disponibili viene elaborato dalle aziende; ciò significa che in questo comparto, le imprese non stanno utilizzando il restante 32,5% dei dati che potrebbero fornire loro preziose informazioni di business.
I guadagni che si ottengono utilizzando i Big data all’interno di questo settore, si ricollegano principalmente ad un incremento dell’efficienza nelle attività di progettazione e di produzione,
30
una maggiore qualità dei prodotti, accompagnata da una crescente soddisfazione dei consumatori ed una produttività più alta.
Uno studio23 della “Honeywell-KRC” ha mostrato inoltre che l'analisi dei Big Data può consentire di ridurre i guasti agli impianti fino al 26% e di tagliare i tempi di inattività non programmati di quasi un quarto.
Con le giuste analisi, i produttori possono concentrarsi su ogni singolo segmento del processo di produzione ed esaminare le catene di approvvigionamento nei minimi dettagli, tenendo conto delle singole attività. Questa capacità di focalizzare l’attenzione su determinate aree, consente ai produttori di identificare i colli di bottiglia e di rilevare processi e componenti poco performanti.
Per un’impresa manifatturiera è fondamentale sviluppare trasparenza, intesa come la capacità di un'organizzazione di comprendere e quantificare le incertezze, per determinare una stima oggettiva delle sue capacità di produzione. La qualità della linea di produzione può essere quindi notevolmente migliorata attraverso l'analisi dei Big data. L'analisi può rilevare tempestivamente i difetti di fabbricazione, riducendo il tempo ed i costi legati alla correzione dei processi di produzione.
Migliorando la qualità del processo produttivo, grazie alle informazioni raccolte dall’analisi dei dati, le imprese manifatturiere riescono a ridurre tutta una serie di costi legati alle inefficienze, uno su tutti il costo di garanzia del prodotto.
I Big data, in definitiva, offrono continue opportunità di ottimizzazione, riduzione dei costi e prevenzione, purché siano disponibili gli strumenti giusti per l'analisi dei dati.
Al fine di raggiungere la trasparenza, l'industria manifatturiera ha sposato il concetto di analisi predittiva. Questa evoluzione necessita di strumenti di previsione tecnologicamente avanzati, in
31
grado di evidenziare le incertezze e consentire al personale di prendere decisioni tempestive e maggiormente orientate verso gli obiettivi.
L’industria manifatturiera sta così assumendo una configurazione “build to order”24 una tendenza che riguarda non solo la produzione di automobili, ma anche l'aviazione, i servizi informatici e qualche bene di consumo. L'approccio di produzione build to order è un modello di business molto efficiente e redditizio, che basa il suo successo su una solida base di dati, utile a captare le necessità ed i comportamenti dei clienti.
Il produttore facendo leva sui Big data è in grado di effettuare analisi predittive precise che evidenziano i volumi previsti degli ordini su ogni possibile configurazione, e permettono di adeguare la propria catena di approvvigionamento.
I leader delle imprese manifatturiere comprendono pienamente la posta in gioco, soprattutto negli USA. Sempre dallo studio della “Honeywell -KRC” è stato riscontrato che il 67% dei dirigenti americani del settore manifatturiero ha pianificato di investire nell'analisi dei Big Data, anche a fronte di pressioni per ridurre i costi. La maggior parte è consapevole che l'analisi dei Big Data è necessaria per competere con successo in un'economia basata sui dati e sta facendo investimenti nell'integrazione dei dati e nelle risorse gestionali per ottenere la trasformazione digitale e ottenere un vantaggio competitivo.
2.2 Settore assicurativo
Le compagnie assicurative, in passato, si servivano di valutazioni storiche per fare previsioni sui costi futuri, ma adesso il fatto di avere a disposizione dati praticamente in tempo reale, consente ad esse di possedere istantaneamente tutta una serie di informazioni su cui basare le
24 Le imprese fabbricano il prodotto solo dopo che hanno ricevuto l'ordine, ma le attività di progettazione
32
proprie valutazioni di rischio. Ciò permette di essere più reattivi in un ambiente caratterizzato da elementi di rischio sempre più volatili.
Ad esempio, per quel che concerne il rischio di risarcimento derivante da eventi climatici, le compagnie assicurative possono migliorare le informazioni meteo sfruttando grandi masse di dati provenienti da dispositivi che, facendo leva su sensori, consentono di comprendere la velocità del vento, la pressione barometrica, la temperatura ed i cambiamenti di corrente25. Altro esempio è quello che riguarda le cosiddette “auto connesse” (connected cars) che stanno rivoluzionando il modo in cui le aziende considerano l'assicurazione automobilistica. Oggi i veicoli inviano ogni secondo migliaia di dati ai server, con notizie riguardanti i percorsi, la velocità ed il traffico. Le imprese assicurative possono decidere di affidarsi a questi elementi per la gestione del rischio, consigliando ad esempio all’automobilista percorsi stradali alternativi o poco rischiosi; sarà quindi possibile mettere a punto delle assicurazioni auto che non siano influenzate più dall’età o dal luogo di residenza dell’assicurato, ma bensì dal suo modo di guidare, dalla sua velocità media e dai tipi di spostamenti effettuati.
Tra i casi più famosi rientra la collaborazione tra Ford ed IVOX, sviluppatore dell'app DriverScore26. Quest'app sfrutta i progressi tecnologici delle cosiddette “auto connesse” (connected cars), ovvero veicoli dotati di dispositivi elettronici (le cc.dd. scatole nere) in grado di registrarne l’attività, e sulla base dei dati raccolti comunicare alle compagnie di assicurazione il rendimento dei guidatore al fine di ridurre potenzialmente il premio assicurativo.
Per essere competitive, le compagnie di assicurazione devono quindi essere pronte a ricercare informazioni in modi innovativi. Tuttavia secondo alcune recenti ricerche, non tutti all’interno
25 Come testimoniato da Vincent-Henry Peuch, manager di “Copernicus Atmosphere”
26
33
di questo settore riescono a comprendere le potenzialità derivanti dall’analisi e l’utilizzo dei Big data, specie nel nostro paese.
Secondo un rapporto27 redatto dall’Osservatorio triennale sulla digitalizzazione delle compagnie assicurative europee realizzato da Celent nel 2016, circa il 40% delle compagnie assicurative italiane non considera prioritario sfruttare i dati che i consumatori sono disposti a condividere con esse.
La cosa più inquietante è che la grande maggioranza dei consumatori italiani si dice pronta a condividere alcuni dati specifici con le compagnie, come quelli sul proprio stile di guida (l’82% del campione) o sulla propria salute (66%), una disponibilità questa, che agevolerebbe di molto il lavoro degli analisti assicurativi; attraverso queste informazioni, essi potrebbero esser messi nelle condizioni di formulare più facilmente le offerte commerciali adatte alle richieste dei clienti.
Allora il motivo di questa avversione all’utilizzo di dati da parte delle compagnie non è da ricercare nella poca collaborazione delle persone coinvolte, ma piuttosto, come dimostra uno studio condotto dal BearingPoint Institute28, le prime cause che incidono sullo scarso impiego dei Big Data derivano da una mancanza di esperienza e competenze, dalla mancata applicazione di strategie e da un’attribuzione non chiara delle responsabilità.
Questa tendenza tutta italiana a sottovalutare le informazioni, non si rispecchia in realtà con l’andamento europeo, infatti le imprese assicurative europee sembrano essere più attente e propense a cogliere le opportunità derivanti dalla digitalizzazione, e circa l’84% di esse lavora con i Big data per migliorare le proprie attività.
27 “Perceptions and Misconceptions of Big Data in Insurance” 28 “The changing face of the digital insurer”
34
2.3 Settore sanitario
Dopo decenni di ritardo tecnologico, anche la medicina ha fatto il suo ingresso nell’era dei Big data.
Con l’avvento delle tecnologie mobili, dei sensori, il sequenziamento del DNA ed i miglioramenti dei sistemi di software adesso è possibile anche in ambito medico reperire tutta una serie di informazioni personali.
I Big Data sono il fenomeno del momento, anche in sanità. Tuttavia, non c’è sempre comunione di intenti su come i dati scientifici raccolti, possano essere nella realtà sfruttati nell’ambito medico-sanitario.
Il primo step è capire quali sono le informazioni che effettivamente possono tornare utili per comprendere le preferenze, ma anche le perplessità, dei fruitori del servizio. Il secondo passo, invece, è indirizzato verso l’immagazzinamento e l’analisi di questi dati per offrire un’esperienza sanitaria più efficace e promuovere la ricerca.
Per assemblare queste informazioni è stato necessario introdurre degli archivi elettronici, che hanno di fatto preso il posto dei documenti cartacei, trascinandosi dietro innumerevoli vantaggi. Il più notevole tra tutti è sicuramente l’eliminazione delle inefficienze, grazie alla facilità con la quale è possibile accedere ai dati dal momento che sono tutti mantenuti in un unico luogo. La somma delle indicazioni raccolte potrebbe trasformare radicalmente la medicina, con risvolti epocali per ciò che riguarda il trattamento del paziente.
Infatti con l’utilizzo di tutte le informazioni personali ricavate dai Big data, si potrebbe passare dall’attuale suddivisione dei pazienti in gruppi di trattamento a seconda del loro fenotipo (trattamenti standard per paziente a seconda della categoria), a tutta una serie di cure specifiche a seconda delle loro esigenze, considerando le caratteristiche genetiche di ogni individuo come la principale fonte di dati, trasferendo così un maggiore controllo dai medici ai pazienti.
35
Il ruolo dei pazienti va quindi ad assumere un enorme importanza poiché, disponendo di strumenti tecnologici avanzati, essi possono controllare in tempo reale ed in perfetta autonomia una serie di parametri chiave (come la frequenza cardiaca o il livello di attività quotidiano, solo per citarne alcuni). Avere a disposizione un rapporto ben dettagliato sullo stato di salute, permette ai medici di seguire ciascuno in maniera sempre più personale e “su misura”; per esempio, grazie ai Big data è possibile schedare dati sufficienti per consentire ai medici di capire con un anno di anticipo e con una percentuale di certezza pari al 98%, se un determinato farmaco causerà degli effetti collaterali ad una data persona29. Questa informazione sarà molto utile, non solo per prescrivere un diverso medicinale al degente, ma anche e soprattutto per risparmiare tempo e risorse.
Inoltre, con l’utilizzo di nuovi dispositivi tecnologici applicati alla medicina, è possibile fare in modo che la cura, il controllo e la riabilitazione dei pazienti possano avvenire in ambito domestico, con vantaggi sia per il paziente stesso che per le strutture ospedaliere interessate da una notevole riduzione del numero di ricoveri e delle relative spese mediche.
Un ulteriore aspetto benefico legato all’utilizzo dei Big data in questo settore scaturisce dalla generazione di nuova conoscenza e, conseguentemente, dall’introduzione di miglioramenti significativi che consentono di ottenere risultati sempre migliori in termini di ricerca e sviluppo. Ciò può avvenire tramite l’utilizzo di strumenti matematico-statistici, nell’ottica di migliorare i test clinici eliminando quelli non proficui o non adatti alle necessità delle persone in cura.
I Big data in ambito sanitario consentono di costruire, allo stesso momento, mappe sanitarie ad ampio raggio collegate a schede di carattere individuale, incrociando le informazioni ricavate da un singolo paziente con quelle degli altri. Grazie a questo metodo è possibile avere un quadro generale non solo sulle malattie in circolazione in una determinata area, ma anche su
36
altri fattori come ad esempio indici qualitativi del servizio sanitario o di benessere della popolazione. Un esempio pratico è la “FluView”, un’applicazione sviluppata negli USA dal Center for Disease Control (CDC) per combattere l’influenza30. Durante il corso della settimana il CDC riceve circa 700.000 resoconti sull’influenza, che mettono in luce i dettagli della malattia ma anche l’efficacia del trattamento applicato per sconfiggerla. Un report cosi particolareggiato permette ai medici di capire, praticamente in tempo reale, in che misura la malattia si sta evolvendo e diffondendo nella zona geografica considerata. Tramite l’utilizzo della FluView, i centri di ricerca acquisiscono gli elementi necessari per capire se una tipologia di vaccino riesce a debellare un particolare ceppo influenzale e, regolandosi su questa base, quali medicinali è opportuno sviluppare per combattere il virus.
I dati rivestono un ruolo fondamentale anche in un’ottica di maggiore efficienza dei servizi sanitari; tramite essi infatti si possono ricevere indicazioni circa le strategie da adottare per il contenimento dei costi, per l’ottimizzazione delle risorse e per la pianificazione del lavoro. Proprio l’abbattimento dei costi è uno dei motivi principali dell’utilizzo dei Big data in questo settore: l’aumento dell’efficienza dovuta alla quantità di informazioni a disposizione consente di individuare eventuali trattamenti medici non funzionali e non economicamente vantaggiosi; la loro eliminazione, riduce gli sprechi e concede la possibilità di focalizzarsi su altri tipi di cure. Inoltre il poter far ricorso a quadri patologici definiti permette di stimare la domanda futura di farmaci e di conseguenza favorire un’allocazione delle risorse più vantaggiosa.
Il McKinsey Global Institute (MGI)31 stima che negli Stati Uniti l’analisi dei Big data farà risparmiare circa 300 miliardi di dollari all’anno per l’assistenza sanitaria, due terzi dei quali attraverso una riduzione dell’8% della spesa sanitaria nazionale.
30 Sito web: https://www.cdc.gov/flu/weekly/usmap.htm
37
Con riferimento all’Italia, anche in questo caso, è da registrare un leggero ritardo del nostro sistema sanitario rispetto alle altre potenze economiche, per quel che riguarda l’utilizzo dei Big data. Il processo di digitalizzazione in Italia è lento in sanità, al pari di tutti gli altri settori. Negli ultimi tempi tuttavia si stanno espandendo, anche se non in maniera propriamente omogenea, strumenti come il Fascicolo Sanitario Elettronico, i nuovi sistemi CUP, il taccuino dell’assistito, il dossier sanitario e la Cartella Clinica Elettronica. Tali innovazioni, se riusciranno a radicarsi bene, consentiranno di arrivare alla dematerializzazione delle informazioni.
È necessario sottolineare come ci siano delle sostanziali differenze territoriali tra nord e sud del paese: alcune regioni del nord hanno già intrapreso una strada ben delineata, prodigandosi ad assemblare gran parte di questi dati in maniera organica, pur non facendone ancora un uso del tutto coerente con gli obiettivi fissati. Dall’altra parte troviamo le regioni del centro-sud in cui la situazione è più deficitaria ed il ritardo è consistente.
Alla base di questo generale ritardo ci sono fattori di ordine economico che continuano ad avere la meglio rispetto al miglioramento dei servizi. Nel 2018, sebbene sia aumentata la quota dei direttori sanitari che hanno indicato lo sviluppo di Big data analytics come prioritario (45% rispetto al 36% del 2017), si è registrata, in controtendenza, una lieve flessione negli investimenti (13 milioni contro i 15 della rilevazione precedente)32.
Le informazioni vengono ancora analizzate principalmente con strumenti di descriptive analytics (71%) per descrivere la situazione attuale e passata, mentre solo nel 4% dei casi vengono utilizzati strumenti di predictive analytics per cercare di ipotizzare cosa potrebbe accadere in futuro.
Per riuscire a far decollare definitivamente i Big data in Sanità anche nel nostro paese, sarà di fondamentale aiuto che le istituzioni cerchino di disciplinare meglio l’argomento in termini di
38
privacy. Spesso è negato l'accesso alle informazioni, servono sistemi per valorizzare e rendere più sicura la condivisione dei dati e occorre organizzarsi per governare un mercato emergente valutando attentamente gli aspetti etici.
2.4 Settore della vendita al dettaglio
L’errore più comune quando si pensa a come utilizzare i Big data nel Retail, è quello di circoscrivere la loro utilità all’analisi delle vendite; cosi facendo si tralasciano una serie di funzioni importanti che i dati ricoprono in questo settore. I rivenditori e la GDO sono infatti in grado di servirsi di Big data per osservare: preferenze, orari più frequentati dalla clientela, durata delle visite in negozio, tempo di permanenza, eventuali code, fedeltà dei clienti, scelte, promozioni e tante altre cose che permettono di stilare, sempre più approfonditamente, un profilo fedele di ogni consumatore.
Dal punto di vista del business, i rivenditori avranno il compito di responsabilizzare maggiormente le persone che lavorano all'interno della loro organizzazione affinché esse siano in grado di prendere decisioni in modo rapido, preciso e sicuro. Risulta evidente come il raggiungimento di questi obiettivi sia strettamente connesso alla raccolta e all’uso di dati.
Per comprendere meglio il valore dell'analisi dei Big data nel settore della vendita al dettaglio, diamo un'occhiata a tre tipologie di azioni consigliate nel ramo del Retail, evidenziati da uno studio condotto da “Datameer”33, per trarre profitto dai dati.
1) Analisi del comportamento dei clienti
39
I consumatori si connettono con le imprese attraverso le più disparate modalità di interazione: social media, negozi, e-commerce ecc.
Se da un lato aumenta la difficoltà di analizzare dati molto spesso diversi tra loro per conformazione, dall’altro la grande quantità di indicazioni che ne risulta può essere usata come base per studiare il comportamento e le caratteristiche dei consumatori, ad esempio individuando i segmenti di clientela più profittevoli, cosa li spinge ad acquistare o ancora quando è più conveniente attrarli all’interno del punto vendita formulando proposte ad hoc; è normale che, basandosi su queste informazioni, le imprese riescano ad acquisire nuovi clienti e a rafforzare i rapporti con coloro che già erano in contatto con l’azienda.
Lo studio, attraverso i nuovi sistemi di analisi collegati ai Big data, è la chiave per intercettare le informazioni, strutturate e non strutturate, relative ai comportamenti dei consumatori. Di fatti è lecito combinare, integrare ed analizzare tutti i dati contemporaneamente per generare le informazioni necessarie per acquisire e fidelizzare i clienti.
2) Personalizzazione dell'esperienza “In-Store” con i Big Data
In passato, il merchandising era considerato una forma d'arte, che non aveva delle vere e proprie linee guida da seguire per misurare l'impatto specifico delle decisioni prese. Con l'esplosione del fenomeno dell’e-commerce, è nata una nuova tendenza in cui gli acquirenti, prima di procedere all’acquisto online, si recano nei negozi per vedere e provare il prodotto. Una piattaforma di ingegneria dei dati può aiutare i rivenditori ad ottimizzare le tattiche di merchandising, personalizzare l'esperienza in negozio con strategie volte alla fidelizzazione e a promuovere offerte tempestive per incentivare i consumatori a completare gli acquisti, con l'obiettivo finale di aumentare le vendite su tutti i canali.
L'utilizzo dei Big data risulta utile per monitorare il comportamento dei clienti all'interno del punto vendita e promuovere offerte per incentivare gli acquisti in negozio o, in seguito, acquisti