• Non ci sono risultati.

1. L’ IMPATTO DELLA TECNOLOGIA SUL MANAGEMENT

1.1. Big Data

In ambito aziendale il fenomeno dei big data si riferisce alla presenza di un ampio volume di dati che sommergono quotidianamente organizzazioni di ogni natura e che, complessivamente, occupano molto spazio di archiviazione.

I big data vengono immagazzinati ed utilizzati praticamente da tutte le tipologie di aziende e da enti pubblici e privati, come:

- Le banche: in possesso di grandi volumi di informazioni provenienti da numerossissime fonti, le banche debbono migliorare la gestione dei big data. Per gli enti finanziari è infatti fondamentale capire e soddisfare il cliente, così come minimizzare i fattori di rischio e frode, facendo attenzione a rispettare le normative vigenti;

- Le organizzazioni attive nel campo della formazione: fornire agli insegnanti informazioni corrette e strutturate, può avere un impatto significativo sul sistema scolastico. Tramite l’analisi dei big data si possono individuare gli studenti a rischio, ci si può assicurare che gli alunni stiano facendo progressi adeguati e si può sviluppare un sistema di valutazione migliore a supporto degli insegnanti;

5 - Gli enti pubblici di vario genere: tramite lo sfruttamento dei big data, la pubblica amministrazione riesce a gestire in maniera significativa i servizi pubblici a favore della collettività, come ad esempio la gestione dei problemi di viabilità o di prevenzione del crimine. Ciò permette alle amministrazioni di offrire una maggior tutela e trasparenza;

- Le organizzazioni sanitarie: quando i big data vengono gestiti in modo efficace, gli operatori sanitari possono gestire in miglior modo i dati sensibili dei clienti, migliorare il grado di cura fornito ai pazienti e contribuire in maniera determinante alla ricerca di patologie di varia natura;

- Le aziende manifatturiere: grazie alle informazioni offerte dai big data, le aziende manifatturiere riescono a minizzare gli sprechi facendo leva sulla qualità dei prodotti immessi nel mercato. In un sistema basato sugli analytics5, i produttori migliorano la loro capacità di risolvere i problemi e prendono decisioni di business cruciali, come la creazione di una nuova linea di prodotti, più rapidamente;

- Aziende attive nel commercio: attraverso i big data si può gestire più efficacemente la relazione con i clienti, che è fondamentale nel campo del retail. I rivenditori attraverso l’analisi dei dati dei propri clienti, sono in grado di rendere più proficua la compravendita e di incentivare l’acquisto e il riacquisto nel lungo periodo di altri prodotti capaci di soddisfare le esigenze dell’utente.

Come è possibile evincere dall’elenco appena stilato, è praticamente impossibile identificare un settore pubblico o privato dove l’impatto dei big data non possa essere decisivo e positivo.

5 Con il termine “Analytics” ci si riferisce a quegli strumenti software che si basano su tecniche e scienze che vanno dalla statistica, alla business intelligence, al reporting fino a varie forme di analisi avanzate. Sono degli strumenti che consentono alle aziende, sia pubbliche che private, di prendere decisioni migliori.

6 Tuttavia, ciò implica per le imprese una serie di difficoltà: non è fattibile infatti, sia in termini di costi che in termini di volume, gestire una grande quantità di dati utilizzando dei database tradizionali.

Pertanto, la presenza di questi elementi ha permesso di sviluppare nuovi modelli di elaborazione e gestione dei dati, garantendo alle aziende di ridurre i costi, di archiviare, trasferire e combinare i dati con maggiore velocità e quindi di diventare più competitive.

Per gestire grandi quantitativi di dati sono dunque state proposte nel tempo alcune tecnologie nel campo del data mining6 e del data warehouse7, le quali tentano di correggere e, in qualche modo, di mitigare i più importanti fattori di complessità del fenomeno dei big data, che sono:

- la quantità: la crescita continua della capacità di memorizzazione dei dispositivi di memoria di massa rende possibile l’archiviazione di dati che sono di grandezza superiore a quelli normalmente trattati dalle tradizionali strutture di data warehouse. La disponibilità di memoria di massa a basso costo porta a sviluppare la tendenza a conservare dati che precedentementesarebbero considerati obsoleti ed eliminati immediatamente;

- l’eterogeneità: in presenza di grande eterogeneità, il trattamento di dati richiede soluzioni specifiche, al contrario di quando i dati invece sono omogenei;

- la velocità di produzione: ha una duplice accezione. In prima battuta, rappresenta la velocità con cui i dati vengono prodotti. In alcuni casi infatti non si fa riferimento alle singole transazioni, ma ai flussi continui di dati che devono essere archiviati

6 Significa “estrazione di dati” e rappresenta l’insieme delle tecniche che hanno per oggetto l’estrazione di informazioni utili dai database utilizzando sistemi automatizzati.

7 Significa “magazzino dati” e si riferisce all’aggregazione di dati strutturati, provenienti da fonti interne ed esterne rispetto al sistema informativo aziendale. Tali dati, prima adattati tramite strumenti di trasformazione e poi analizzati tramite strumenti di analisi, sono fondamentali alle analisi di reporting.

7 per successive elaborazioni. In seconda battuta, rappresenta la velocità relativa all’immediatezza con cui si richiede che i dati vengano analizzati per produrre informazione;

- la non strutturabilità: alcuni dati possono non essere strutturati8 e in questi casi il loro contenuto informativo emerge da un’azione di interpretazione che dipende dalle conoscenze pregresse di cui si dispone.

Tuttavia, un dato, e in senso traslato un database, per essere considerato “big” non deve necessariamente possedere tutte le caratteristiche appena elencate, anche se alcuni autori hanno una visione più restrittiva e richiedono invece la contemporaneità delle caratteristiche evidenziate.

Uno di questi autori, l’analista Douglas Laney, in uno studio del 20019, ha definito il modello di crescita dei dati come tridimensionale (modello delle “3V”) riferendosi a:

- Volume: ossia la quantità di dati generati in ogni momento che occupa spazi di archiviazione, la cui unità di misura è il zettabyte (1 zettabyte = 1 miliardo di terabyte). Altrimenti si trattarebbe di medium o small data;

- Varietà: ossia la diversa tipologia dei dati generati, archiviati ed utilizzati nelle imprese. Inizialmente i dati strutturati erano gli unici ad essere oggetto di analisi, ma in seguito, per ottenere uno studio più minuzioso, è stato necessario prendere in considerazione anche i dati non strutturati e semi strutturati10;

8 I dati strutturati sono i dati organizzati nei database secondo schemi e tabelle e sono i più indicati per gestire le informazioni in modo pratico e veloce. Invece, i dati non strutturati sono conservati senza alcuno schema poiché non catalogabili né organizzabili.

9 DOUGLAS LANEY, 3D Data Management: Controlling Data Volume, Velocity and Variety, Gartner, 2001.

10 Nei dati semi strutturati si incontrano alcune delle caratteristiche dei dati strutturati e alcune di quelle dei non strutturati.

8 - Velocità: si riferisce alla rapidità con cui sono prodotti nuovi dati. Non è importante solo la velocità nella generazione dei dati, ma anche la necessità che questi dati arrivino in tempo reale al fine di poter essere analizzati.

Con il tempo, sono state inserite nel presente modello altre “2V”:

- Veridicità: è necessario che le analisi effettuate siano frutto di dati precisi, altrimenti i risultati non saranno mai veritieri. In questi casi è bene assegnare ai dati un indice di veridicità, così da avere una misura di attendibilità delle informazioni;

- Valore: si riferisce alla capacità di trasformare i dati raccolti in valore e conoscenza.

Analizzare i big data comporta infatti alle aziende elevati investimenti per la raccolta di dati e per la loro successiva analisi. Pertanto, prima di avviare un progetto simile, le aziende devono valutare il valore aggiunto che verrà portato al loro business.

Infine, si può asserire che si parla di big data quando l’insieme di dati è talmente grande e complesso da richiedere alle aziende l’implementazione di nuovi sistemi per estrapolare, gestire e manipolare le informazioni più velocemente.

Proprio in questo frangente si colloca la business intelligence, come metodo per trasformare i dati in risultati concreti, in parallelo con i modelli informatici utilizzati per i processi decisionali e la pianificazione.

Ad oggi, infatti, la maggior parte delle aziende punta ad acquisire un vantaggio competitivo lavorando sui dati. Proprio perché ciò che conta non è la quantità di dati posseduti, ma come questi ultimi vengano utilizzati.

Possedere “in toto” i big data significa analizzarli per ottenere le informazioni necessarie in modo da prendere migliori e più consapevoli decisioni aziendali: tagliare i costi, ridurre i tempi, sviluppare nuovi prodotti, ottimizzare l’offerta...

9