CAPITOLO 2 L’ITALIA E IL LENTO CAMMINO
2.2. I FATTORI DELLA DIGITALIZZAZIONE DEL SISTEMA BANCARIO
2.2.2. L’utilizzo dei Big Data
Non esiste ancora una definizione unica che riesca a spiegare il vero significato del termine Big Data. Volendo trovarne una che si avvicini il più possibile agli standard mondiali potremmo definire i Big Data come quel patrimonio informativo di elevato volume, grande velocità e varietà, che richiede forme innovative ed efficienti di interpretazione dei dati per poter dare un valido contributo ai processi decisionali e all’automazione dei processi. Tale definizione può essere presa come appropriata in quanto va a toccare gli argomenti di maggior rilievo, cioè la grande quantità di dati ed informazioni resi disponibili dalla rivoluzione digitale e la possibilità di ogni soggetto, dotato di apposita tecnologia, di poterli sfruttare per crescere ed affermarsi nel proprio business. Quando si parla di rivoluzione dei Big Data infatti non ci si riferisce alla sola messa a disposizione di questi dati, ma alla capacità di saper utilizzare queste
100 Rapporto 2017 sulla Sicurezza ICT in Italia - aggiornamento giugno 2017.
101 Longo A., Cybercrimine, il nostro anno peggiore: rapporto Clusit 2017, l’Italia preda degli hacker, in Repubblica Tecnologia e Sicurezza, febbraio 2017.
102 Boldoni R., Mintanari L., Querzoni L., Framework Nazionale per la Cybersecurity, Italian Cybersecurity Report: controlli essenziali di Cybersecurity, 2016.
informazioni, quindi raccoglierle, analizzarle, saperle interpretare ed implementarle nel modo opportuno all’interno della propria realtà aziendale. Le piattaforme digitali e le infrastrutture tecnologiche di cui oggi le banche dispongono, sono state sviluppate in- house, secondo logiche di difficile scalabilità103. Le banche devono realizzare in tempi brevi iniziative di re-platforming esteso, rese possibili grazie alle tecnologie disponibili, accelerando la migrazione delle proprie strutture informative verso piattaforme digitali open di nuova generazione. Ristrutturare le piattaforme bancarie, in una logica di flessibilità e interoperabilità, può contribuire anche a ridurre i costi associati alla compliance e a liberare risorse e investimenti in tecnologie innovative, a partire dalle politiche di open system, open standard e open surce. Utilizzare logiche di open standard costituisce un fattore abilitante del processo di semplificazione e riduzione dei costi del patrimonio ICT delle banche. Implementare l’open standard sia in termini di infrastrutture tecnologiche sottostanti, sia in termini applicativi, in modo da poter facilitare l’integrazione e le sinergie anche in ottica di federazione delle risorse. Privilegiare le logiche “open” permette di ridurre i costi di sviluppo e il time to market, facendo vantaggio sull’intelligenza collettiva e sulle competenze sviluppate nei network, garantendo l’interoperabilità end to end con l’infrastruttura di riferimento104. Le banche hanno a disposizione un ingente patrimonio informativo di dati sulla propria clientela, che attraverso un utilizzo strutturato dei Big Data Analytics può seguire i clienti in ottica di omnicanalità, fare leva sui vantaggi tipici dei nuovi player digitali, per rispondere al meglio alla concorrenza e abilitare nuovi e migliori servizi in base alle reali esigenze dei clienti105. In questo contesto competitivo, per le banche restare
indietro nell’innovazione tecnologica si rivela una politica perdente nel medio termine106. Gli strumenti messi a disposizione dai Big Data e dai Data Analytics anche se presentano la problematica inerente la tutela della privacy, consentono agli istituti di credito di offrire servizi finanziari sempre più allineati ai profili dei consumatori, avvalorati da componenti aggiuntive, non necessariamente di natura bancaria che permettono l’integrazione anche con le grandi catene distributive. La geo- localizzazione permette di fornire al cliente offerte in tempo reale circa le occasioni di risparmio presso esercizi commerciali nelle vicinanze. Con l’aumento della disponibilità d’informazioni, sempre più aziende hanno compreso che i dati e i sistemi
103 Osservatorio digital innovation, BIG DATA ANALYTICS & BUSINESS INTELLIGENCE / BUSINESS CASE, 2017. 104 The connected Banking Report, Executive sommary, Opportunità emergenti l’innovazione digitale, The Euripean House – Ambrosetti, 2015.
105 Rezzani A., Big Data Analytics. Il manuale del data scientist, Apogeo Education, giugno 2017. 106 Rezzani A., Big Data Analytics: il manuale del data scientist, Apogeo Education, giugno 2017.
di Analytics sono una fonte di vantaggio competitivo che può portare all’evoluzione del modello d’impresa. Anche nel 2016107, per il terzo anno consecutivo, i Big Data e più in
generale gli Analytics rappresentano la principale priorità di investimento per i CIO, Chief Information Officer, italiani. Vista la novità del tema, è importante chiarire cosa s’intende con Big Data, in modo più specifico, e come si distinguono le iniziative di questo tipo rispetto ai progetti più tradizionali.
Figura 15 – CRESCE L’UTILIZZO DEI BIG DATE & ANALYTICS IN ITALIA.
Fonte: Osservatorio Digital Innovation108.
Il termine Big Data si riferisce a un dataset, una collezione di dati con dimensioni che vanno al di là della capacità di un database tradizionale di catturare, memorizzare, gestire e analizzare i dati. Le caratteristiche109 proprie di questi dati sono:
• Volume: un effetto puramente quantitativo. I dati messi a disposizione sono sicuramente tantissimi, ma diventa importante saper utilizzare personale e software specializzati per identificare tra questi, le informazioni che davvero possano risultare utili. Una volta identificate si dovrà porre attenzione anche ai processi di raccolta e successivamente di archiviazione, il quale risulta sicuramente più semplice e conveniente rispetto al vecchio metodo di archiviazione cartacea, ma dovrà comunque rispondere pienamente ai nuovi requisiti richiesti dal digitale di sicurezza ed accessibilità110.
• Velocità: il riferimento alla velocità è quello con la quale vengono generati nuovi dati. Il grande volume di dati a disposizione, come sopra detto, è sempre sottoposto ad una continua crescita ed è in costante aggiornamento. Le nuove
107 Survey realizzata dall’Osservatorio Digital Innovation, Politecnico di Milano: rilevazione su un campione di 212 CIO di medio- grandi imprese italiane, 2015.
108 Osservatorio digital innovation, BIG DATA ANALYTICS & BUSINESS INTELLIGENCE / BUSINESS CASE, 2017. 109 Data Skillis understanding the world, Caratteristiche dei Big Data, gennaio 2016.
110 Seminario presso il Dipartimento di Scienze Economiche e Statistiche, Università degli Studi di Napoli Federico II, a cura dei professori Giacalone M. e Scippacercola S., Il ruolo dei Big Data nelle strategie di apprendimento, Napoli, 2016.
tendenze costringono le aziende ad operare con un elevato livello di tempestività, ponendo particolare attenzione alle funzioni di analisi e raccolta delle informazioni che devono dimostrarsi capaci di assimilare questi dati in tempo reale111.
• Varietà: intendiamo le differenti tipologie dei dati, che possono essere di diversa origine, interna all’azienda e facilmente interpretabili, oppure esterna che risulta essere più difficoltosa e può anche riferirsi sia a dati strutturati sia non strutturati112. Si possono acquisire informazioni da aziende specializzate o da altre imprese del nostro settore, che risultano già ordinati e facilmente interpretabili, e/o informazioni ottenute dai social, che appaiono confusionarie e difficilmente cifrabili. La sfida per le aziende è quindi quella di riuscire ad acquisire ed analizzare ogni tipologia di dato di qualsiasi provenienza113.
• Variabilità: si parla della tipologia del dato. Ci si riferisce ai diversi ambiti in cui i dati vengono raccolti. Durante la fase di analisi delle informazioni risulta importante capire e tenere conto da quale contesto tali informazioni sono state selezionate ed in base a questo, l’interpretazione del dato può assumere diversi significati. Inoltre c’è da affrontare anche la problematica dell’alta variabilità del flusso informativo. Infatti anche in questo caso si assiste ad un’ampia irregolarità dei trend dei dati, in cui, a periodi con elevato flusso di informazioni, si susseguono intervalli negativi con bassa circolazione dei dati114. • Complessità: la grande variabilità dei dati aumenta non solo la difficoltà di
raccolta ma anche quella di gestione di questi. Le diverse tipologie di dati devono passare sotto un processo di omologazione per poter essere utilizzati, e tutto questo si traduce in una maggiore complicazione nelle funzioni di interpretazione, conversione e implementazione. Quindi più aumenta il volume dei dati da amministrare più aumenta la complessità115.
• Veridicità: un dato per poter essere correttamente utilizzato deve soddisfare determinati criteri di attendibilità. Prima di poter implementare le informazioni all’interno dell’organizzazione è necessario ricercare garanzie sulla qualità di queste, altrimenti le operazioni derivanti da tali dati potrebbero andare a creare
111 Raccolta dati a cura di Visconti R.M., presso l’Università Cattolica di Milano, Valutazione dei Big Data e impatto su innovazione e digital branding, in Diritto Industriale, Milano, 2016.
112 Rezzani A., Big Data Analytics: il manuale del data scientist, Apogeo Educatio, giugno 2017. 113 Data Skillis understanding the world, Caratteristiche dei Big Data, gennaio 2016.
114 Data Skillis understanding the world, Caratteristiche dei Big Data, gennaio 2016.
115 Seminario presso il Dipartimento di Scienze Economiche e Statistiche, Università degli Studi di Napoli Federico II, a cura dei professori Giacalone M. e Scippacercola S., Il ruolo dei Big Data nelle strategie di apprendimento, Napoli, 2016.
conseguenze negative all’azienda sia a livello operativo che di immagine116. Se ben organizzati però lo sfruttamento dei Big Data rappresenta un’opportunità fondamentale per ottenere nuovi vantaggi sia in ambito strategico che in ambito logistico, con una diminuzione dei costi.