• Non ci sono risultati.

Capitolo 7 Il modello di azienda virtuale Boglietti

7.2 Il modello di riclassificazione dei dati

Al fine di realizzare previsioni corrette è necessario valutare le caratteristiche dei dati disponibili. In riferimento all’azienda Boglietti, il sistema informativo, sede della maggior parte dell’informazione codificata, è integralmente orientato a soddisfare le esigenze delle attività svolte quotidianamente dalle diverse funzioni aziendali. Non esistono meccanismi negli strumenti di memorizzazione dei dati che predispongano i dati stessi per il supporto alle decisioni. Ciò si evince osservando come le classificazioni del campionario prodotti, sopra descritte, sono spesso manipolate al fine di adattarsi alle mutate esigenze della stagione produttiva. Nessuno strumento si occupa di riclassificare i dati in una metrica coerente, quale supporto all’attività di analisi successiva degli stessi.

Ad ogni stagione la definizione delle famiglie è completamente ridisegnata e ciascuna categoria assume un nome differente. Non esiste nessuna relazione codificata nei database che consenta di realizzare una corrispondenza tra famiglie omogenee appartenenti a due stagioni diverse. Al fine di comprendere l’evoluzione del mercato è necessario possedere una serie storica dei dati che sia confrontabile in quanto abbia elementi omogenei.

Il management Boglietti svolge l’attività di previsione utilizzando un mix di informazioni disponibili on-line, provenienti cioè dal sistema di memorizzazione dei dati, e di una ricca dose di

informazioni non codificate, ma distribuite nella conoscenza implicita del previsore, informazioni spesso di carattere qualitativo.

La previsione è dunque realizzata con un metodo non schematico e rigoroso. Il punto di partenza per disegnare una metodologia formale è l’utilizzo di strumenti che consentano di analizzare in modo efficace i dati. L’idea di costruire un modello di simulazione consente di estrarre potenzialmente alcune delle informazioni implicite e di includere nei meccanismi degli agenti la capacità di aggregare e riclassificare i dati. Di fatto, il modello deve svolgere l’attività che è comunemente detta di on-line analytical processing (OLAP).

In Chaudhuri, Dayal (1996) si definisce strumento OLAP un software in grado di riclassificare i dati, collezionati durante l’attività di produzione, secondo uno schema denominato a “cubi multidimensionali”. La riclassificazione permette di realizzare numerose preaggregazioni di dati in modo da fornire al decisore la possibilità di interrogare il database producendo aggregazioni in tempo reale lungo alcune dimensioni del cubo (il tempo, le aree geografiche, le unità di vendita, ecc.). Attraverso la tecnica del drill-down lo strumento OLAP fornisce la possibilità di approfondire l’analisi lungo una dimensione, de-aggregando i dati. Le situazioni che difficilmente emergono ad un livello aggregato di analisi, si possono osservare con un procedimento di drill-down progressivo, ovvero ricercando le situazioni critiche ad un più basso livello di dettaglio.

Indagando con tale tecnica i dati di vendita, si può, ad esempio, scoprire che la

performance di un particolare rivenditore o rappresentante è dissonante rispetto all’indicatore

medio del settore e ne influenza il risultato complessivo.

L’uso degli strumenti OLAP nasce da un lato dall’esigenza dei manager di avere la situazione aziendale costantemente sotto controllo e dall’altro lato dallo sforzo delle aziende di formalizzare il più possibile la conoscenza, codificandola nelle architetture fornite dall’information technology, per superare la difficoltà nell’analisi a posteriori dei processi e dei dati.

Le tecnologie del data warehousing e del on-line analytical processing (OLAP) sono elementi essenziali nel supporto alle decisioni. Tale attività richiede caratteristiche diverse rispetto alla tecnologia di immagazzinamento dei dati tipica delle applicazioni utilizzate per le transazioni relative all’attività quotidiana di produzione. Sempre in Chaudhuri, Dayal (1996) si definisce data

warehouse (magazzino di dati) un contenitore di informazioni “orientate al soggetto, integrate,

variabili nel tempo, non volatili” usate primariamente per prendere decisioni all’interno delle organizzazioni. Generalmente il data warehouse è mantenuto separato dai database operativi dell’azienda. Ciò avviene per molte ragioni. Il data warehouse è utilizzato per fare processi analitici sui dati (OLAP), il database tradizionale si occupa di elaborare le transazioni (OLTP,

on-line transaction processing). Quest’ultimo registra le operazioni che avvengono quotidianamente

in contrasto necessita di dati aggregati e consolidati. Le operazioni caratteristiche di un processo OLAP includono il rollup (meccanismo di aggregazione progressiva dei dati, al crescere del punto di osservazione) e di drill-down (al crescere dell’esigenza di dettaglio, come processo di de-aggregazione).

Attraverso l’integrazione delle tecnologie informatiche nell’infrastruttura del modello ad agenti si può superare il limite strutturale delle tecniche OLAP. Esse infatti, nonostante impongano all’organizzazione un rigore formale nella gestione delle informazioni, delegano all’abilità del manager la capacità di saper analizzare i dati riconducendoli alle informazioni non codificate. In sostanza, il decisore ha a disposizione uno strumento potente di indagine, ma la ricerca dei fattori determinanti deve essere condotta sulla base delle sue “sensazioni”.

Se si sceglie il modello di azienda virtuale è plausibile pensare di integrare nel software che determina il comportamento degli agenti i meccanismi che facciano emergere le situazioni critiche dal “basso”. La ricerca di tipo bottom-up di tali punti critici è sicuramente più efficace di quella tradizionale, realizzata da un punto di vista aggregato (top-down).

Inoltre, è fondamentale notare che la previsione della stagione di vendita dipende non soltanto dalla struttura della domanda e dalle caratteristiche ambientali: ciò che influisce nella determinazione del modello è proprio la qualità e la struttura degli stessi.

Le tecniche statistiche di previsione presuppongono che i dati da analizzare siano pre-elaborati, al fine di renderli compatibili con le caratteristiche della tecnica previsiva utilizzata. Nel caso dei modelli ARIMA o delle reti neurali, ad esempio, spesso è consigliabile applicare un operatore alle differenze prime.

Non si può pensare di applicare in modo acritico tutte le tecniche di previsione ai dati posseduti, al fine di determinare quale dia i migliori risultati. Prevedere i dati significa possedere una giusta chiave di lettura della loro natura. La tecnica di previsione deve essere scelta in funzione del tipo di risultato che si vuole ottenere.

Nel caso specifico dei dati di vendita di un bene di consumo così mutevole come i capi moda di biancheria intima, le variabili esogene hanno un forte peso sulla domanda. Esse sono legate a fattori di scelta irrazionali e quindi i dati devono essere analizzati in uno schema che ne colga le componenti più stabili e consenta di osservare più chiaramente i fenomeni ricorrenti. Da ciò nasce l’idea di integrare le tecniche di previsione all’interno di un modello di simulazione che sia in grado di fornire i dati “riclassificati” in modo autonomo.

Il problema di tali modelli è, però, legato alla loro separazione logica dai dati reali dell’azienda. I modelli consentono di emulare in modo realistico le attività, i processi, i flussi di informazione codificata che quotidianamente si osservano all’interno della realtà aziendale. Il limite è rappresentato dai dati esterni al modello come la domanda, gli eventi ambientali, i blocchi di produzione causati da incidenti, i quali sono normalmente introdotti attraverso formule aleatorie in cui la distribuzione di probabilità è stimata sui dati rilevati nel passato. Esiste una

sensibile differenza tra l’utilizzo dei dati veri e propri e dei dati generati casualmente sulla base della struttura probabilistica del fenomeno. La previsione delle vendite dipende intimamente dalle rilevazioni dei dati reali e allo stesso tempo dall’influenza di fenomeni non quantificabili, ma riproducibili attraverso un modello basato su regole plausibili.