• Non ci sono risultati.

Big Data and Analytics

3. CAPITOLO 3: LE TECNOLOGIE ABILITANTI DELL’INDUSTRIA 4.0

3.3 Big Data and Analytics

Al giorno d’oggi la possibilità di disporre di una grande quantità di dati e di informazioni rappresenta un fattore critico di successo per le imprese e una forte spinta ad intraprendere un nuovo percorso di crescita, volto a cavalcare l’onda del progresso tecnologico, per le società. Grazie all’avvento della rete e alla nascita di nuove piattaforme, come i social- network, l’e-commerce e l’internet mobile, un maggior numero di persone e dispositivi

fisici sono connessi ad Internet e, attraverso l’ausilio di sensori, RFId e gateways, sono in grado di raccogliere un enorme quantità di dati, che verranno trasmessi per mezzo dell’IOT. Nella stragrande maggioranza dei settori, specialmente in quello industriale, i processi decisionali si basano sempre di più sulla disponibilità di dati e la possibilità di svolgere analisi sui medesimi. Tuttavia, nonostante la crescente importanza ed attenzione rivolta verso i dati, ancora oggi non si è in grado di dare una definizione univoca al concetto di Big Data. Esso viene utilizzato, in generale, per descrivere una rilevante mole di dati, i quali possono presentarsi in tre differenti forme (strutturati, semi-strutturati e non strutturati68), provenienti da fonti eterogenee, che necessiterebbero di troppo tempo e denaro per essere memorizzati ed analizzati, al fine di trarne valore, con i tradizionali strumenti disponibili a livello aziendale69. La maggior parte delle aziende raccoglie grandi quantitativi di dati tramite sensori eterogenei appartenenti al più ampio sistema aziendale di cui fanno parte ad esempio i macchinari utilizzati, il sistema di identificazione dei prodotti, il sistema di gestione dei magazzini e della logistica e i sistemi di monitoraggio della produzione; tuttavia, per esaminare i dati, tali aziende normalmente utilizzano tecniche di analisi elementari che permettono di ottenere informazioni meno dettagliate rispetto al potenziale originale dei dati stessi. Ad esempio le imprese sono in grado di dire se un macchinario sta funzionando correttamente oppure se deve essere lanciato il segnale di allarme ma non sono capaci di prevedere quando possa verificarsi un guasto o quando debba essere effettuata la manutenzione dello stesso macchinario al fine di scongiurarne ogni possibile logorio anticipato. Quest’ultime finalità possono invece essere garantite mediante le cosiddette tecniche di “data mining” (letteralmente estrazione di dati) che consentono di estrapolare una maggiore conoscenza dai dati. Le imprese di più grandi dimensioni, che per prime hanno preso coscienza dell’importanza di avere a disposizione un enorme quantità di dati, quale fonte primaria di informazioni e quindi di valore, si sono dotate di complessi software e costosi server in grado di offrire una potenza di calcolo maggiore e di garantire una migliore gestione in tempo reale di grandi masse di dati e delle conseguenti informazioni70. Oggi anche le imprese di più piccole dimensioni

68 I Dati Strutturati sono dati che vengono conservati in database secondo schemi e tabelle rigide (es. cifre,

simboli, tabelle); per Dati Non Strutturati intendiamo dati che sono conservati senza alcuno schema predefinito (es. registri, audio, video, immagini); infine i Dati Semi-Strutturati raccolgono alcune delle caratteristiche dei primi e dei secondi (es. grafici, doc xml). https://www.bucap.it/news/approfondimenti- tematici/digitalizzazione-documenti/dati-strutturati-semi-non-strutturati.htm.

69 Qi, Q., & Tao, F. (2018). Digital twin and big data towards smart manufacturing and industry 4.0: 360

degree comparison. IEEE Access, 6, 3585-3593.

possono, tramite nuove piattaforme open source e software meno costosi, risolvere il problema della gestione dei dati nonostante permanga, come per le grandi imprese, un problema di fondo a livello organizzativo. Infatti, è necessario programmare e adattare la strumentazione disponibile ad ogni specifica realtà dato che non tutte le aziende sono dotate della medesima struttura, di un uguale modus operandi e delle stesse competenze richieste per far fronte a determinati problemi strutturali. Sorge, dunque, la necessità di avere un cultura aziendale improntata a cogliere i cambiamenti provenienti dall’ambiente, tempo e skills adeguate oltre a macchine, strutture dati e algoritmi in grado di memorizzare, trasmettere, processare, analizzare ed estrarre in modo efficiente ed efficace informazioni dai Big Data.

Nonostante la maggior parte delle trattazioni inerenti al tema dei Big Data facciano riferimento e si concentrino quasi esclusivamente sulla dimensione dei dati in memoria, ovvero sul Volume, essa non rappresenta l’unica caratteristica attribuibile ai Big Data. Il “modello delle tre V”, definito e sviluppato nel 2001 da Doug Laney71, affiancava al “Volume” altre due importanti connotati come la “Varietà” e la “Velocità” con le quali vengono trasmessi i dati72. Sebbene tale modello non nascesse con l’intento di fornire una descrizione relativa al fenomeno, negli anni successivi la maggior parte delle aziende, come ad esempio IBM, e degli istituti di ricerca hanno utilizzato il “modello delle tre V” come punto di partenza per fornire una definizione ai Big Data73. Quando si parla del “Volume” si fa riferimento all’enorme quantità di dati generati, raccolti e analizzati al fine di ottenere i risultati desiderati. Con il termine “Velocità” si identifica la tempestività con la quale gli stessi vengono raccolti, archiviati, elaborati ed analizzati al fine di trarne il massimo valore commerciale possibile; mentre per Varietà si intende la molteplicità di forme (vedi nota n.67) con le quali si presentano i medesimi. Successivamente furono aggiunte al modello altre due “V”, ovvero il “Valore” e la “Veridicità”. Con il termine “Valore” si cerca di cogliere tutti i frutti che la proprietà o lo scambio dell’enorme mole di dati possono generare non solo da un punto di vista commerciale ma anche come input per la crescita delle competenze e del know how aziendale. Infine per “Veridicità” si definisce la coerenza e l’affidabilità che i dati devono avere come una delle principali caratteristiche al fine di garantirne un corretto scambio tra una molteplicità di attori.

71 Analista del gruppo META ora conosciuta sotto il nome Gartner.

72 Tole, A. A. (2013). Big data challenges. Database systems journal, 4(3), 31-40.

73 Chen, M., Mao, S., & Liu, Y. (2014). Big data: A survey. Mobile networks and applications, 19(2), 171-

Tra i principali benefici derivanti dall’utilizzo della tecnologia abilitante dei Big Data & Analytics è possibile evidenziare per le aziende:

 La maggiore disponibilità ed impiego di informazioni utili a svolgere in maniera migliore la propria attività in tempo reale (es. società di e-commerce, come Zalando, li utilizza al fine di garantire un migliore tracciamento degli ordini).  La capacità di cogliere in anticipo i cambiamenti provenienti dall’ambiente

interno (es. controllo real-time dello status dei macchinari) ed esterno (es. modifiche nei gusti e nel comportamento dei consumatori).

 Un supporto all’attività decisionale maggiore e tempestivo (es. possibilità di prevedere, tramite apposita strumentazione, determinati scenari al fine di prendere decisioni migliori).

 il miglioramento delle performance delle imprese e della produttività (es. miglioramento del controllo della qualità dei prodotti tramite robot in grado di inviare informazioni precise sulle caratteristiche in tempo reale dei prodotti e confrontarle con i requisiti di base dei prodotti in modo da ridurne difettosità e scarti, con conseguente aumento del fatturato e una riduzione dei costi; ad esempio il produttore di semiconduttori Infineon Technologies ha diminuito i guasti del prodotto correlando i dati a singoli chip che seguono il medesimo durante tutte le fasi del processo produttivo) e infine conseguente miglioramento dell’ambiente.

Mentre tra i maggiori limiti, che pongono un freno all’adozione di tale tecnologia, troviamo: la necessita di una strumentazione tecnica idonea alla rilevazione, elaborazione e analisi dei dati spesso molto costosa e che necessita di ingenti investimenti, la presenza di una miopia manageriale e di una cultura aziendale, specialmente nel nostro paese, ancora arretrata sul tema, scarse competenze del personale nell’utilizzo e nell’interpretazione di dati e strumenti.