• Non ci sono risultati.

Capitolo 6. Applicazione del modello proposto

6.4 Sintesi dei risultati emersi dall’applicazione

6.4.4 Azioni di indirizzo e identificazione di una roadmap

Nel seguente paragrafo verranno elencate una serie di azioni correttive, a titolo esemplificativo, che le aziende sopra analizzate potranno intraprendere al fine di identificare il prossimo obiettivo.

Per l’azienda A si suggerisce di intraprendere azioni correttive per l’area organizzazione, precisamente nelle componenti competenze e finanziamento: ad esempio istituire un team e

pianificare un budget dedicato alla gestione degli analytics. Risultano invece di grande rilevanza, le azioni che potrebbero essere intraprese per le componenti degli analytics. In particolar modo, per raggiungere i livelli più elevati si consiglia di valutare la costituzione di un data analytics team. Questo azione conferma il quadro analizzato nell’area organizzazione. Per quanto riguarda la componente infrastrutturale, l’azienda A potrebbe non intraprendere nessuna azione correttiva. Nel Data Management l’azione principale che si consiglia di attuare è l’identificazione di un framework per la gestione del dato. Una maggiore strutturazione aiuterebbe l’azienda nella gestione dei dati evitando così errori bloccanti. Anche se l’analisi della Governance non ha evidenziato elementi che potrebbero risultare problematici, si consiglia di migliorare alcuni aspetti. Le migliore che si possono apportare riguardano le procedure di tracciamento degli eventuali incidents, delle richieste sulla qualità del dato e relative metodologie per poterli risolvere. Alla luce dell’analisi effettuata con il modello, si ritiene che l’Azienda A potrebbe, investendo in una maggiore strutturazione, potrebbe essere in grado di effettuare progetti di Analytics così da poter effettuare un passaggio di livello aggiuntivo: questo è giustificato dal fatto che le componenti che inficiano sono superabili grazie ad attività puntuali e che, invece, molte componenti risultano essere già pronte.

Anche per l’azienda B si suggeriscono azioni correttive per l’area organizzazione, precisamente nella componente delle competenze: inserire collaboratori all'interno dell'azienda con competenze di analytics avanzate in grado di supportare i bisogni del business (Data Scientist; Business Analysts, Computer Scientist, etc.) e migliorare la formazione degli utenti. Si suggeriscono inoltre, interventi mirati anche per la componente infrastrutturale per evitare il mancato servizio delle soluzioni ad oggi implementate. Anche per il data management, che complessivamente aveva ottenuto un punteggio alto si consiglia di migliorare alcuni aspetti. Le azioni correttive possono vertere sull’identificazione di metriche sulla qualità del dato e sul monitoraggio dei costi di storicizzazione del dato. Nella governance si consiglia di implementare delle modifiche alla struttura e all’attenzione della conformità: si potrebbero tracciare gli eventuali incidents e le richieste sulla qualità del dato, una maggiore strutturazione dei team di lavoro, tracciare e acquisire le informazioni utili per la verifica del rispetto delle norme e della conformità del settore. Alla luce dell’analisi effettuata, si ritiene che l’azienda B potrebbe converge le risorse in un consolidamento del suo secondo livello, nuovi progetti potrebbero risultare fallimentari.

Per l’Azienda C si consiglia una maggiore strutturazione per identificare una strategia e un budget dedicato maggiore per la realizzazione dei sui progetti negli analytics. Nell’area degli Analytics, si

consiglia di apportare alcune azioni correttive per le componenti competenze e accesso: per la complessità progettuale si consiglia di elevare il team analytics in una funzione corporate e non più a livello di unità di business e formare gli utenti così da aumentare la percentuale di persone in possesso del Know-How per analizzare i dati autonomamente. Nel Data Management si potrebbe migliorare il livello di diffusione e accesso agli strumenti analitici e la metodologia di consegna degli analytics. In particolare esistono modalità di accesso unificato solo per alcuni sistemi sorgenti e il monitoraggio dei costi per la storicizzazione del dato non è strutturato e dettagliato. Questa componente potrebbe incidere sulla riuscita di un progetto Big Data si consiglia pertanto un intervento mirato. Nella governance si consigliano interventi mirati sulle norme: migliorare le norme e la documentazione per la gestione degli analytics.

Conclusioni

Il presente lavoro di tesi ha approfondito il tema della valutazione della maturità raggiunta dalle aziende nella gestione del patrimonio informativo in ottica Advanced Analytics.

Le organizzazioni, data la dinamicità di contesto, si potrebbero trovare dinnanzi alla necessità di dover dotare il proprio sistema informativo di classiche soluzioni di Business Intelligence oppure dover adottare soluzioni più evolute come ad esempio nel caso delle Advanced Analytics.

Lo scopo principale di questo lavoro è stata la realizzazione di un modello di maturità, che investighi l’adozione di soluzioni di Advanced Analytics, tenendo in considerazione tutti gli aspetti dell’implementazione strategica, tecnologici ed organizzativi. E’ stato individuato un modello guida utile alle organizzazioni per definire percorsi evolutivi verso una maggiore maturità ICT in termini di gestione ed utilizzo del dato.

Il nuovo modello pertanto analizza sia la tipologia di dato utilizzato e analizzato in azienda (dato strutturato e dato destrutturato), sia le tipologie di analisi effettuate oltre che approfondire le caratteristiche organizzative, strategiche, tecnologiche, infrastrutturali, di analisi e di governance. In particolare, tale modello si prefigge di prendere in considerazione le possibili configurazioni organizzative e tecnologiche in cui l’azienda potrebbe ritrovarsi in relazione alla gestione delle informazioni.

L’obiettivo è stato quello di realizzare un modello che sia il più possibile generale e in grado di adattarsi a diverse realtà: il modello potrà essere applicato su tutte le tipologie di azienda, piccola, media o grande impresa e su tutti i settori. Questo perché in tutti i settori aziendali potenzialmente si potrebbe fare ricorso all’utilizzo di logiche Big Data e utilizzo di dati destrutturati.

Al fine di perseguire l’obiettivo, è stata svolta un’attenta analisi della letteratura per comprendere appieno il fenomeno dell’Advanced Business Intelligence con un approfondimento sul tema Big Data e i fattori che ne condizionano in positivo e in negativo la diffusione presso le aziende. Da ciò è risultato un contesto, trasversale ai settori industriali, in profonda evoluzione, caratterizzato dalla necessità di saper raccogliere, gestire e utilizzare volumi di dati sempre più ingenti in tempi sempre più ridotti, adottando nuove tecnologie più scalabili ed efficienti rispetto a quelle tradizionali.

È emerso tuttavia che tale processo di adozione viene ostacolato da aspetti organizzativi e di governance, quali la mancanza di commitment a livello executive, la limitata conoscenza dei

benefici conseguibili, l’incapacità di gestire il cambiamento interno generato e la mancanza di norme strutturate per la gestione dei dati. Inoltre si è notato come le principali cause che impediscono l’adozione di soluzione in Advanced Analytics siano rappresentate da delle difficoltà culturali e ambientali.

Per quanto concerne la visione che i CIO hanno rispetto al tema della gestione dei dati a supporto del processo decisionale attraverso l’utilizzo di soluzioni di Advanced Analytics emerge che la maggior parte di loro ritiene questo, un vantaggio per il proprio business e dichiara di voler intraprendere dei progetti in merito80. Non stupisce però che esista ancora una piccola

percentuale81 che dichiara di non comprendere come l’utilizzo di analisi approfondite su una

generazione di dati non gestibili dalle classiche componenti tecnologiche possa offrire un valore per il business. Questo aspetto mette in luce quindi che, nonostante siano anni che si parla di soluzioni avanzate, il tema non è ancora stato compreso appieno da chi dovrebbe farsi promotore di nuove soluzioni all’interno di un’azienda.

Risulta quindi che da un lato si ha un mercato dell’offerta tecnologica che evolve in maniera molto rapida e mette a disposizione soluzioni sempre più evolute in grado di gestire mole di dati ad una velocità inimmaginabile fino a qualche anno fa. Dall’altro un comparto di business che comprende i possibili benefici derivanti dalle soluzioni offerte ma fatica a comprendere quali siano i cambiamenti strutturali interni che effettivamente soddisfano le proprie necessità di business.

E’ stata pertanto condotta un’indagine relativamente a modelli e framework già presenti in letteratura e che indirizzano il tema della misura della maturità delle aziende per l’adozione di soluzioni di BI e advanced analytics al fine di comprendere se vi siano già linee guida e strumenti di assessment che possano aiutare le aziende in tale percorso di adozione.

La metodologia utilizzata per la realizzazione del nuovo modello di maturità è la meta-sintesi. Questa metodologia ha permesso di ottenere un unico risultato frutto della sintesi di studi precedenti in cui sono riproposte le proprietà e le caratteristiche più significative relative a ogni studio.

Sono stati analizzati in dettaglio e presi come base per la rielaborazione 10 modelli di maturità selezionati tra i 22 modelli ricercati in letteratura. Alla luce dei trend analizzati i modelli sono stati classificati in base alla disponibilità di strumenti utili all’applicazione del modello e alla completezza di indagine e successivamente ad ogni modello è stato assegnato un punteggio.

In base alla completezza di indagine i modelli sono stati analizzati individuando le aree di analisi presenti: organizzazione, analytics, infrastruttura, data management e governance.

Grazie all’utilizzo della meta-sintesi, sono stati individuati elementi in comune e differenze tra i modelli.

E’ emerso che i modelli di maturità analizzati, sia quantitativi che descrittivi, focalizzandosi ognuno su ambiti specifici di interesse non coprono in modo completo e profondo tutte le aree identificate inoltre i modelli classificati come qualitativi analizzano con un maggior dettaglio ed enfasi alcuni aspetti come l’innovazione e la cultura al cambiamento. Tali aspetti però si configurano come chiave per la realtà in cui oggi ci troviamo ad interfacciarci.

In dettaglio i principali punti emersi dall’analisi e confronto dei modelli di maturità analizzati:

o I modelli descrittivi analizzano delle componenti con maggiore profondità rispetto i modelli quantitativi. Vale il contrario.

o Non esiste ad oggi un modello che analizzi con lo stesso livello di dettaglio tutte le componenti delle aree.

o L’unico modello quantitativo che si distingue non presenta comunque il massimo punteggio in tutte le aree di analisi.

o Manca una guida dettagliata per supportare le aziende nel passaggio di gestione dal dato strutturato al dato destrutturato.

Per l’obiettivo di tesi si è scelto di utilizzare come template i modelli quantitativi per la loro capacità di cogliere in profondità ogni aspetto di analisi: l’azienda che risponde al modello, può puntualmente, per ogni domanda, individuare il proprio stato, così facendo si è in grado di discriminare ogni elemento della singola componente.

La strutturazione del nuovo modello si basa su un’analisi suddivisa per aree, componenti, check- list e identificazione del livello di maturità.

Sono state individuate cinque aree di analisi:

o Organizzazione: in questa area si analizzano tutte le componenti che descrivono gli aspetti organizzativi all'interno dell'azienda. L’adozione di soluzioni Analytics ha impatti talmente elevati all’interno di un’azienda, da renderne necessario l’allineamento organizzativo in termini di strategia e di governance. Le componenti individuate per quest’area sono: strategia, leadership, competenze, finanziamento, cultura.

o Infrastruttura: in questa area, saranno analizzate tutte componenti dell'architettura infrastrutturale dell'ICT aziendale. La dimensione infrastrutturale si riferisce da un lato alle fonti di dati sfruttate dall’azienda, dall’altro alla parte hardware della gestione dei dati. Nel dettaglio, l’area include le seguenti componenti: architettura, development, competenze, tecnologie.

o Data Management: in questa area si analizza la tipologia dei dati utilizzati nelle analisi (varietà, volume, velocità) e come l'azienda li gestisce. È importante, quindi, analizzare le seguenti componenti: processo, tipologie dato, integrazione delle fonti di dati, qualità del dato, metodologia.

o Analytics: in questa area si analizza lo stato dell'arte dell'utilizzo degli analytics in azienda. Si esaminano le tipologie di analisi utilizzate e come le analisi vengono diffuse nell'organizzazione. Gli strumenti di analisi sui dati rappresentano un altro elemento centrale delle iniziative di Analytics. È stato quindi ritenuto opportuno considerare sia il loro supporto operativo dato ai processi, sia le modalità di sviluppo e accesso, declinando le seguenti componenti: cultura, delivery Methods, competenze, tecnologia.

o Governance: in questa area si analizza la coerenza della strategia per la gestione dei dati aziendali a supporto degli analytics. Le componenti analizzate sono: norme, struttura, conformità.

Il modello individua 5 livelli di maturità:

o Initial: non è presente un vero e proprio data management. I dati sono in formati diversi e esistono data mart ridondanti. Ci si focalizza sulle esigenze operative individuali e non sui piani aziendali a lungo termine.

o Localized Analytics: i processi sono gestiti attraverso policy e le procedure sono stabilite all’interno di un progetto. Esiste un team dedicato alle analisi del singolo dipartimento. o Corporate Adoption: il team Analytics è cross su tutta l’azienda. Si inizia ad allestire un

Logical Data Warehouse (LDW), in vista delle trasformazioni strategiche e operative necessarie per diventare una data-driven enterprise.

o Strategic: l’azienda si lancia in Proof of Concept (POC), con lo scopo di conseguire risultati tali da giustificare la scelta di intraprendere iniziative Analytics. A causa soprattutto dell’aumento e della varietà dei dati, le organizzazioni implementano LDW e altri strumenti di integrazione e virtualizzazione. Gli Analytics sono entrati ormai nella

consuetudine operativa aziendale e si predispone l’infrastruttura necessaria per iniziative future. Gli Analytics sono visti come un fattore competitivo.

o Transformative: l’organizzazione diventa una data-driven enterprise, con cambiamenti significativi nel mindset (apertura mentale, nuove domande, nuove idee) e con la necessità di una piattaforma decisionale collaborativa, in cui le persone possano interagire, sfruttare gli analytics e accedere alle informazioni. Nell’azienda sono gestiti e analizzati dati strutturati e destrutturati.

E’ stata aggiunta un’ulteriore analisi per poter investigare sulla presenza delle principali cause rappresentate da delle difficoltà culturali e ambientali.

Questi fattori hanno impatti diversi su tutte le aree del modello di maturità ed è per questo che è stato deciso di estrapolarle dal modello di maturità, inserendole in un’analisi aggiuntiva.

Questi fattori se assenti rappresentano dei potenziali limiti all’adozione delle soluzioni di advanced analytics e quindi si configurano come resistenze che potrebbero limitare il passaggio per l’organizzazione da una configurazione di maturità successiva. Al contrario, se presenti, mettono in luce i fattori di spinta creando, quindi, il giusto contesto per accelerare il processo di adozione di soluzioni di analisi avanzate.

Ed è per questo che al modello di maturità sono state aggiunte alcune domande categorizzate come

«Fattori Impattanti». I fattori sono stati classificati in:

o Esogeni: sono stati raggruppati gli elementi caratterizzanti il settore di appartenenza. o Endogeni: rientrano in questa categoria caratteristiche aziendali. I fattori endogeni si

suddividono a loro volta in Skills e Cultura.

La proposta consta di un assessment tool basato su un questionario per guidare la fase di indagine e finalizzato alla rilevazione del profilo di maturità AS-IS, all’assegnazione del livello di maturità da raggiungere (TO BE) per soddisfare le esigenze di gestione del dato dell’azienda.

La struttura rispecchia il framework del modello di maturità e prevede:

o 68 domande a risposta multipla relative alle aree di analisi: Organizzazione Analytics, Data Management, Infrastruttura, Governance

o 13 domande sulla presenza dei fattori impattanti.

o Risultato globale: sarà fornito il livello di maturità aziendale nella gestione degli analytics. Si avrà anche il dettaglio delle singole aree: per ogni area sarà determinato il proprio livello di maturità.

o Risultato dettagliato: sarà fornita una visione più dettagliata delle aree di analisi. Per ogni area saranno individuati i livelli di maturità dei singoli componenti.

o Analisi Fattori impattanti.

Il nuovo modello proposto tenta di superare i limiti riscontrati consentendo di definire una roadmap di adozione di soluzioni analytics che comprende sia piccole implementazioni non strutturate sino ad arrivare a soluzioni di Advanced Analytics con l’utilizzo di dati destrutturati. Il modello pertanto, permette:

o Identificazione del livello di maturità AS-IS, o Definire la configurazione TO-BE (desiderata),

o Individuare i gap tecnologici e organizzativi che dovranno essere colmati per evolvere al livello di maturità target e fornire indicazioni sulle azioni da intraprendere

o Confrontare l’AS-IS, e il desiderato

L’applicazione a casi reali ha permesso di validare la struttura e le logiche sottese al modello. Sono stati identificati tre casi aziendali: una cooperativa italiana di ristorazione collettiva; un’azienda specializzata nel settore dell’energia e un’azienda operante nel settore degli Email Service Provider.

L’assessment è stato così raffinato e testato su aziende con dimensioni diverse in termini di fatturato, numero di divisioni e risorse, supporto informativo, esigenze e settore di appartenenza. Questo ha permesso di verificare la stabilità del modello e l’applicabilità su diverse realtà aziendali.

L’intervento ha accertato che la struttura del modello consente di comprendere e indirizzare l’adozione di soluzioni di tipo Advanced Analytics da parte delle aziende, identificando gli step generali di evoluzione. Il modello aiuta a definire in modo circoscritto, per ciascuna variabile esaminata (organizzazione, analytics, infrastruttura, data management e governance), la configurazione a tendere. E’ da tenere presente che trattandosi di un modello ampio, che ha l’obiettivo di abbracciare diverse dimensioni e tipologie di aziende, la roadmap che ne deriva

suggerisce ambiti e natura degli interventi necessari ma gli specifici cantieri da attuare dovranno essere definiti in modo specifico per ciascuna azienda.

Si possono identificare due tipologie di azioni correttive:

o Gap associati alla omogeneità complessiva aziendale o Gap per un nuovo progetto di analytics.

I fattori abilitativi aiutano nell’inquadrare lo scenario da un punto di vista qualitativo determinando la necessità di un cambiamento strutturale e culturale aziendale.

Durante l’applicazione tuttavia, sono state riscontrate alcune difficoltà nella compilazione del questionario, riconducibili non tanto alla chiarezza delle risposte, quanto piuttosto alla necessità di possedere informazioni sia globali (dimensioni organizzative e legate alle risorse umane) sia di dettaglio (esigenze degli utenti coinvolti nei processi analizzati). L’assessment pertanto non è ancora pronto nell’ottica dell’auto compilazione perché vista la pluralità delle figure che sono necessarie alla compilazione, l’interpretazione dei risultati e l’indirizzamento sono da attuare con un supporto, un mediatore, che aiuti nell’interpretazione dei risultati, definendo la roadmap che andrà condivisa con le figure aziendali.

Inoltre, visto il livello di profondità dell’assessment su aspetti particolari quali ad esempio gli analytics, potrebbe essere necessario un supporto anche per chiarire lo specifico ambito di indagine.

Tutti i modelli di self assessment dipendono dall’arbitrarietà del modello e dal contesto di utilizzo (esempio approccio cautelati per i servizi non erogati), questo rende ancora di più necessaria la figura del mediatore.

Dovuto alla numerosità delle domande, un altro aspetto da curare sarà l’omogeneità e la granularità delle domande e risposte: il modello dovrà essere raffinato, con le future applicazioni per individuare maggiori aspetti di differenziazione e eliminare invece le domande che non forniscono un reale contributo; inoltre sarà necessaria una maggiore standardizzazione delle domande e delle risposte.

Un ulteriore limite che è stato riscontrato è la numerosità delle domande: il limite potrebbe essere superato da una preparazione dell’intervistato che è stato sufficientemente informato sulle tematiche analizzatecosì da poter rendere l’incontro più efficace.

Il modello per sua natura è stato costruito tarando il fondo scala in modo tale da abbracciare i progetti che vanno da una business intelligence classica a progetti di advanced analytics con l’utilizzo di dati destrutturati, contestualizzato però rispetto al livello attuale di adozione. Si è scelto infatti di individuare un unico livello che analizzi il dato destrutturato: in questa fase di analisi, contestualizzando il modello, non è stato ritenuto necessario analizzare il come si utilizza il dato destrutturato, ma è stato verificato se l’azienda utilizza e analizza, o meno, i dati destrutturati. Sarà, pertanto necessario nei prossimi anni andare a ridefinire il fondo scala, dettagliando maggiormente le tipologie di utilizzo del dato destrutturato.

I tre casi sui quali è stato applicato il modello non sono esaustivi (dimensione dell’azienda e settore di appartenenza) ma hanno permesso di attuare un primo tuning del modello e di verificare la comprensibilità e l’utilità dei risultati conseguibili con l’applicazione. Per una migliore valutazione, però, il modello andrebbe sottoposto su più casi aziendali, in particolare per verificare e validare aspetti più evoluti, come ad esempio realtà che hanno già consolidato un progetto big data o aziende che stanno per implementare un progetto simile.