• Non ci sono risultati.

Capitolo 3: La Business Analytics a supporto della gestione dei processi

3.3 Un’architettura per la Business Process Analytics

3.3.1. Il funzionamento della nuova architettura

L’idea di implementare un progetto di business process analysis in azienda ha un

background di fasi da rispettare e sono: 74

1. la pianificazione, 2. estrazione dei dati,

3. creazione di un flusso di controllo,

4. creazione di un modello integrato di processo, 5. supporto alle decisioni.

L’attività di pianificazione è la fase iniziale ed è quella in cui i manager pianificano le strategie da adottare affinché gli obiettivi siano raggiunti in fase di esecuzione del processo. Nella fase successiva l’attenzione si sposta sull’estrazione dei dati che sono già disponibili e sui modelli progettati che saranno poi utili per il terzo step che definisce la creazione del flusso di

73 D.Grigori et al./Computers in Industry 53(2004) 321-343 Business process Intelligence

74 “La business intelligence a supporto dell’analisi dei processi” V. Bussolin , D. Cozzolino , D.Mancini

controllo, che si basa sulla fase di discovery ed arrivare alle opportune interpretazioni di un riadattamento del processo o di una sua radicale ristrutturazione.

Una volta definita questa fase, il flusso di controllo può essere opportunamente integrato con le risorse, i tempi e i dati stessi.

Infine si arriva al nocciolo dell’implementazione che è l’ultima fase, ovvero il supporto alle decisioni.

Una volta definite le fasi principali per sviluppare un progetto d’intelligence in azienda, si descrivono di seguito quelle che sono le prospettive dell’analisi dei processi con strumenti del genere al loro supporto:

o prospettiva del flusso di controllo: si focalizza sull’ordine delle attività, l’obiettivo consiste nel trovare una caratterizzazione di tutti i possibili percorsi del processo,

o prospettiva dell’organizzazione: si focalizza sugli attori coinvolti e di come si relazionino tra di loro e anche sulle risorse che bisogna usare. L’obiettivo è pertanto quello di strutturare l’organizzazione classificando le persone in base ai ruoli che svolgono e alle unità organizzative,

o prospettiva sul tempo: è collegata alla frequenza con cui gli eventi accadono e questo permette di scoprire eventuali colli di bottiglia che possono impedire il corretto funzionamento del flusso.

Figura 3.3 Architettura della Big Data Analytics

Fonte: Vormetric Solutions Protect Data-at-rest Within Big Data Environments (05/03/2015)

La figura 3.2 è una chiara rappresentazione del percorso naturale che segue la trasformazione del dato in conoscenza a supporto delle decisioni. A monte sono state già descritte le varie fasi che devono precedere l’implementazione del progetto della business analytics in azienda e tramite la figura si nota in modo più esplicito come una mole eterogenea di dati entra in azienda, ma prima di tutto devono essere sottoposti ad un processo di depurazione e poi successivamente potranno essere un valido supporto per il management.

Innanzitutto si può procedere con la descrizione di tre principali caratteristiche

dell’architettura del processo: 75

Process data warehouse(PDW): estrae i dati dal process logs, ne

controlla la coerenza, calcola il livello metrico del business, e inserisce i dati in un process data warehouse, la cui struttura permette la facile definizione e la rapida esecuzione di reports dettagliati e aggregati, e provvede ad un ampio range di funzionalità analitiche;

Process mining engine (PME): applica le tecniche del data mining ai dati

che sono presenti nel data warehouse e genera sofisticati modelli per aiutare gli utenti ad identificare le cause del comportamento di interesse e

75

prevedere il verificarsi di comportamenti nei processi in esecuzione. L’output del PME è conservato nel database “Analysis e Predictions”. I modelli di analisi aiutano i progettisti del processo a comprendere l’impatto e il comportamento dei modelli nuovi o modificati, vengono utilizzati durante la fase di riprogettazione suggerendo modifiche che possono incrementare il valore della qualità del processo;

Dashboard: è un’interfaccia grafica disegnata per fornire report agli

utenti aziendali. Questa, permette di visualizzare i dati nel data warehouse in un modo semplice, consente di effettuare analisi sulla qualità, il monitoraggio e la gestione dei processi. Inoltre informa gli utenti di una situazione reale o prevista che sia critica e interagisce con il PME per evitare di ridurre o limitare situazioni indesiderate.

Lo schema proposto è quello generale quando si decide di implementare una soluzione di BA in azienda, ma ovviamente è già risaputo che avendo a che fare con cambiamenti repentini, non si può avere un’unica tecnologia e quindi un’unica soluzione per la gestione dei big data.

Questo aspetto non può essere sottovalutato poiché le aziende hanno davvero un “problema” di gestione. Bisogna perciò essere flessibili e ragionare in un’ottica di intelligence.

L’architettura preposta quindi, deve potersi adattare facilmente alle tecnologie che si aprono spazi nel mercato dell’IT.

Si accenna al proposito, la tecnologia HADOOP 76che è associata al

movimento dei big data degli ultimi anni. È una tecnologia open source che ha rivoluzionato le percezioni delle aziende su cosa può essere fatto con la grande varietà di dati che si hanno a disposizione. Questa crescita esplosiva ha fatto si che una tecnologia del genere diventasse punto di riferimento per piccole, medie e grandi aziende.

76 https://www.digital4.biz/marketing/big-data-analytics/ 16/02/2016

È un grande storage che rende disponibili enorme quantità di risorse di calcolo per elaborare i volumi di dati non strutturati, e ciò che differenzia hadoop dalla tecnologia del data mining è la variabile tempo.

L’architettura classica mira all’ottimizzazione del processo, quindi al supporto dello stesso, prevedendo il futuro tramite algoritmi che permettono di fare previsioni accurate. Hadoop che viene utilizzato nell’ambiente dell’analytics cerca di abbattere i tempi, andando magari a discapito dell’ottimizzazione. Dunque, dal punto di vista operativo il vantaggio è quello di accorciare notevolmente i tempi di sviluppo e di elaborazione.

Un errore che spesso si commette è quello di pensare che l’uso di un’unica tecnologia possa essere utile per ogni tipo di elaborazione.

Ogni problema ha la sua soluzione, e per fortuna oggi non si è carenti di soluzioni da adottare; bisogna certamente però fare un’attenta analisi del problema e procedere con la soluzione che sembra più opportuna.

Quando si parla di big data sicuramente una variabile da non trascurare è il tempo, e anche il trasferimento del dato ha un certo peso, perché è ciò che supporta sostanzialmente una decisione.

Altro fattore da non sottovalutare è l’ambiente di lavoro, in quanto a seconda del contesto in cui la BA deve essere implementata si sceglie la tecnologia più adatta.

Oggi ad esempio il mondo della finance sfrutta le soluzioni di BA per alleggerire il rischio di alcune decisioni, e quindi si capirà come una tecnologia hadoop potrebbe essere utilissima perché elabora grandi quantità di dati in tempi ridottissimi e l’algoritmo di data mining potrebbe supportare la finanza nel prevenire situazioni future.

3.4. I passi verso la realizzazione di un sistema di