• Non ci sono risultati.

Modelli di stima dei costi futuri nel settore Oil & Gas

N/A
N/A
Protected

Academic year: 2021

Condividi "Modelli di stima dei costi futuri nel settore Oil & Gas"

Copied!
93
0
0

Testo completo

(1)

Indice

Premessa

Modelli teorici di stima • Introduzione

• La scelta del modello di stima • Tipologie di modelli di stima Tecniche qualitative • Metodo Delphi • Ricerche di mercato • Panel Consensus • Visionary Forecast • Historical Analogy Serie storiche • Medie mobili • Exponential Smoothing • Box-Jenkins • Proiezioni di trend Modelli causali • Modelli di regressione • Modelli econometrici

• Intention to Buy & Anticipations Surveys • Modelli Input-Output

• Indici di diffusione GE Oil & Gas

• Introduzione

• Storia: dagli anni Novanta ad oggi • Organizzazione interna

(2)

• Turbomachinery & Process Solutions • Subsea Systems & Drilling

• Oilfield Services • Surface

• Digital Solutions

Turbomachinery & Process Solutions (TPS) • Introduzione

• Contractual Service Agreements • Revenues Recognition

• Deferred Revenues • ASC 6o5 vs. ASC 6o6

Processi interni di stima e gestione operativa • Contractual Margin Review;

• Catalogo;

• Stima delle Sales future; • Regole di Catalogo; • Attualizzazione;

• Correlazione tra Catalogo ed attualizzazione; Stima dei costi futuri nel settore Oil & Gas

• Planned Outage Fee

• Calcolo della Planned Outage Fee per il 2017 • Simulazione della Planned Outage Fee per il 2018 • Produttività ed azioni correttive

Conclusioni Bibliografia

(3)

Premessa

Dal momento che, in quasi tutte le industrie ed i settori economici, le aziende si interfacciano ogni giorno con improvvise variazioni nella domanda, tagli dei costi da parte dei competitors, scioperi e cambiamenti macroeconomici, assume un’importanza sempre più rilevante stimare le variabili incerte per il futuro. Pertanto, nella realtà operativa odierna, ogni organismo aziendale ha la necessità di utilizzare, per le proprie decisioni, modelli di stima per la previsione di eventi futuri.

L’obiettivo del presente elaborato è quello di esaminare le principali metodologie previsio na li elaborate in dottrina, illustrare mediante un “case study” il funzionamento operativo delle tecniche di stima dei costi ed evidenziare le principali difficoltà di applicazione di modelli teorici ad un contesto operativo dinamico e mutevole come quello attuale.

(4)

Modelli teorici di stima

Introduzione

Nella realtà operativa odierna ogni manager utilizza modelli di stima per la previsione di eventi futur i. Naturalmente, esistono innumerevoli tecniche per prevedere l’andamento ed il comportamento di una determinata variabile, ognuna di esse con i relativi punti di forza e di debolezza.

Ciascuna tecnica risulterà più o meno efficace a seconda delle circostanze e delle necessità, data l’impossibilità di sviluppare un modello che risulti applicabile e massimamente efficiente in tutte le situazioni.

La selezione del metodo di stima dipende da molti fattori, quali: • Il contesto;

• La disponibilità di dati storici; • Il grado di accuratezza desiderato; • L’orizzonte temporale;

• Il costo e la rilevanza strategica della stima;

• Il tempo a disposizione per implementare il sistema di previsione.

Tali fattori devono essere pesati attentamente, attribuendo il maggior peso specifico a quelli ritenut i maggiormente strategici. Come regola generale, si dovrebbe scegliere come metodo di previsio ne quello che permette di utilizzare nel miglior modo possibile i dati a disposizione. Ad esempio, se una data realtà aziendale può facilmente applicare una tecnica di “forecast” con un livello medio di accuratezza, ma sufficientemente adeguato alle esigenze, non dovrebbe sviluppare ed implementa re una tecnica più sofisticata che richieda una spesa maggiore per migliorare la qualità dei dati di input. In tal caso, il trade-off richiede una scelta relativamente facile. D’altro canto, esistono casi in cui trovare un equilibrio tra dati a disposizione e risultato desiderato non è così immediato.

(5)

Come altra regola generale, si deve tener presente che, qualora un’impresa manifesti la necessità di stimare una variabile con riferimento ad un determinato prodotto, essa deve prendere in considerazione il cosiddetto “life cycle” del prodotto stesso. La disponibilità di dati storici, così come la possibilità di stabilire relazioni tra i fattori da stimare, dipendono proporzionalmente dalla maturità del prodotto.

La scelta del modello di stima

Considerata la disponibilità di una molteplicità di modelli di stima e di previsione, la scelta del metodo più funzionale alle necessità contingenti dei soggetti economici ha assunto un’importa nza fondamentale nella programmazione e nell’organizzazione aziendale.

Il primo step per scegliere il modello di stima più adeguato consiste nell’individuare ed interpretare correttamente le esigenze e gli obiettivi del forecast. Più in particolare, è necessario tener presente due fattori:

• Lo scopo della previsione;

• Le relazioni tra le variabili che dovranno essere stimate.

L’obiettivo della previsione determina il grado di accuratezza richiesta dalla stima e, pertanto, è il fattore chiave che guida la scelta. Naturalmente, decidere se penetrare o meno in nuovo segmento di mercato richiederà una stima abbastanza approssimativa della dimensione del mercato stesso. Al contrario, il forecast a fini di budgetizzazione dovrebbe essere più accurato.

Se la stima è finalizzata all’individuazione di un certo “benchmark”, ovvero uno standard rispetto al quale confrontare una determinata performance, allora la stima stessa non dovrebbe prendere in considerazione eventuali eccezioni, dal momento che queste ultime potrebbero alterare la significatività dei dati storici e le relative relazioni.

(6)

In linea generale, per il sano sviluppo di un’azienda, una tecnica di forecast che sempliceme nte evidenzi quale sarà il futuro dell’impresa se quest’ultima non intraprende alcun cambio direziona le strategico non è sufficiente per scopi di pianificazione. A tal fine, è necessario concentrarsi su variabili più specifiche, come per esempio l’impatto sulle vendite del lancio di un nuovo prodotto sul mercato, che ovviamente richiede tecniche di stima più accurate.

Le tecniche di previsione, oltre a variare in base all’accuratezza, variano anche in base al costo. Ogni organizzazione aziendale deve scegliere il grado di imprecisione tollerabile. Ciò permetterà di individuare più facilmente il balance tra costo e precisione. Per esempio, ai fini della messa in produzione di un determinato prodotto, una maggiore accuratezza è probabile che porti ad una riduzione delle scorte di magazzino. Pertanto, in questo caso, l’azienda dovrà scegliere tra il maggior costo derivante da un sistema di previsione più sofisticato ed il maggior risparmio potenziale dei costi di magazzino.

Una volta definito lo scopo della previsione, un’altra variabile da definire è rappresentata dalla frequenza della stima. Inoltre, da un punto di vista prettamente strategico, si dovrebbe discutere la possibilità e le eventuali modalità con cui modificare il metodo di previsione, qualora producesse un risultato non in linea con le aspettative.

Per quanto riguarda le relazioni tra le variabili da stimare, si tratta di un aspetto da non sottovaluta re. In linea generale, l’impresa dovrebbe predisporre una tabella riassuntiva, che mostri le relazioni positive e negative tra le differenti variabili. Inoltre, l’azienda dovrebbe analizzare quali sono le variabili direttamente sotto il suo controllo, e quali, invece, sono influenzate da fattori esogeni. Per quanto riguarda le variabili sotto stretto controllo dell’organizzazione aziendale, generalmente si tende a stimare relazioni di causa-effetto. Per questo motivo, è possibile utilizzare tecniche che considerino esplicitamente legami di tipo causale.

(7)

Una volta che sono stati individuati sia i fattori da stimare, che le relative variabili, si può costruire un primo modello causale, in accordo alle specifiche esigenze di stima.

Tipologie di modelli di stima

In linea generale, esistono tre famiglie di modelli di stima: • Tecniche qualitative;

• Serie storiche; • Modelli causali.

I primi si basano su dati di tipo squisitamente qualitativo (per esempio, opinioni di esperti) e possono o meno prendere in considerazione il passato, alla ricerca di eventuali trends o patterns.

I secondi si concentrano unicamente sui patterns passati e sui relativi cambiamenti, e si basano, come suggerito anche dal nome, su dati storici.

I terzi utilizzano ed elaborano le informazioni sulle relazioni tra le differenti variabili da stimare al fine di prevederne il comportamento atteso. In molti casi, tali modelli possono prendere in considerazione eventi una tantum, cioè eventi che non appartengono alla normalità, ma che si verificano sporadicamente in modo del tutto casuale. Così come per le serie storiche, l’input di tali modelli è rappresentato dal comportamento passato delle variabili da stimare.

Le differenze appena evidenziate consentono di disporre di tecniche diverse per la stima dell’andamento futuro della medesima variabile a seconda del ciclo di vita. Così, per esempio, una tecnica che si basa su dati storici potrebbe risultare completamente inapplicabile per valutare l’impatto sul business derivante dal lancio di un nuovo prodotto.

(8)

Tecniche qualitative

Le tecniche qualitative sono primariamente utilizzate in assenza di dati storici, ad esempio in occasione del lancio di un nuovo prodotto. Tale tecniche si basano sulla traduzione di informazio ni di tipo qualitativo (per esempio, giudizi di esperti di settore) in stime quantitative.

Lo scopo principale è quello di inserire in un modello logico e coerente tutte le informazio ni necessarie per giungere alla stima desiderata. Tale tecniche sono spesso utilizzate in campi ad elevato contenuto tecnologico, in cui lo sviluppo ed il lancio sul mercato di un nuovo prodotto si basano su molteplici innovazioni, che naturalmente risultano difficili da stimare.

Le principali tecniche qualitative ad oggi correntemente utilizzate sono: • “Metodo Delphi”;

• “Ricerche di mercato”; • “Panel Consensus”; • “Visionary Forecast”; • “Historical Analogy”.

Prima di passare alla descrizione di ciascuna metodologia, è opportuno sottolineare che ogni tecnica sarà valutata in base ai seguenti parametri:

• Accuratezza, misurata su orizzonti temporali di breve, medio e lungo periodo;

• Identificazione dei cosiddetti Turning Points, ovvero i momenti di inversione del trend (o del pattern) in vigore sino a quel determinato momento;

• Campo di applicazione; • Dati di partenza; • Costo;

(9)

Metodo Delphi

Il metodo Delphi è un metodo d'indagine iterativo, particolarmente utilizzato nella ricerca scientifica in materia di business. Tale metodo prevede molteplici fasi di espressione e di valutazione delle opinioni di un gruppo di esperti, il cui obiettivo è quello di individuare il giudizio più completo e condiviso.

In termini più specifici, il metodo Delphi è una tecnica usata per ottenere risposte ad un determina to problema da un “panel” di esperti indipendenti attraverso due o tre round. Dopo ogni fase, un amministratore, che prende il nome di “facilitator”, fornisce un sommario anonimo delle risposte degli esperti e le relative ragioni. Al termine dell’ultimo round, viene eseguita una sorta di media matematica tra le risposte.

Il metodo è un modello revisionale sistematico e interattivo basato su input indipendenti di un pool di esperti selezionati. Il metodo Delphi riconosce il valore dell'opinione, dell'esperienza e dell'intuizione dell'esperto e permette di usare tale informazione qualora manchi un pieno sapere scientifico.

Per ciascuna fase, gli esperti vengono consultati mediante una serie di questionari. Le domande sono solitamente formulate come ipotesi su cui i membri esprimono il loro giudizio per un tempo prestabilito. Ciascun ciclo di domande è seguito dal feedback sul precedente round di risposte. L’idea di base è che, durante tale processo, la serie di risposte diminuisca e il gruppo converga in direzio ne della risposta corretta. Al termine dell’ultimo round, la media dei risultati determina la risposta fina le.

In termini di accuratezza, il metodo Delphi permette di conseguire un buon risultato su tutti e tre gli orizzonti temporali. Allo stesso tempo, tale metodo consente di identificare con un buon livello di precisione i Turning Points.

(10)

Il metodo Delphi risulta particolarmente adatto per stimare gli impatti di lungo periodo in una situazione di elevata incertezza e in assenza di dati storici, come, per esempio, la decisione di penetrare in un nuovo segmento di mercato.

Per quanto riguarda i dati di input, questi ultimi sono rappresentanti dai questionari distribuiti al pool di esperti e dalle relative risposte.

Infine, per quanto riguarda il costo ed i tempi di realizzo, il metodo Delphi richiede un esborso non inferiore ai duemila dollari e non meno di due mesi di tempo.

Ricerche di mercato

Per ricerca di mercato si intende un processo che include la raccolta, l’elaborazione e l’analisi di dati finalizzato a testare una o più ipotesi con specifico riferimento ai mercati reali.

Le ricerche di mercato si occupano principalmente di due fattori:

• Lo studio dei comportamenti e dei processi decisionali dei consumatori in un'economia di mercato;

• La definizione della struttura di un determinato mercato o segmento di mercato.

Le ricerche di mercato rappresentano una fonte di informazione essenziale per la funzione che, all’interno del circuito aziendale, è tenuta a prendere decisioni di marketing. In linea generale, sono classificate come decisioni di marketing tutte quelle scelte che riguardano : prodotti, distribuzio ne, efficacia della pubblicità e delle tecniche promozionali, nonché valutazione della posizio ne complessiva dell'impresa nel mercato.

Le ricerche di mercato possono essere di tipo quantitativo o qualitativo.

Per quantitativa si intende la ricerca di mercato costruita in modo da descrivere un’intera popolazione a partire da un campione. Al riguardo, si parla di rappresentatività statistica.

(11)

Per qualitativa si intende la ricerca di mercato eseguita in modo destrutturato, in genere attraverso una discussione libera o con una serie di domande aperte, che lascia una grande facoltà all'intervistatore di approfondire differenti tematiche.

Le funzioni a cui le ricerche di mercato qualitative assolvono sono di tipo: • Propedeutico alla ricerca quantitativa;

• Esplorativo, al fine di ottenere informazioni di carattere emotivo ed affettivo nei confronti di prodotti e/o marche;

• Creativo, per coadiuvare le imprese nella scelta dei nomi di marche e/o prodotti; • Diagnostico, se destinate ad approfondire particolari tematiche di mercato.

In realtà, è possibile distinguere le ricerche di mercato anche seguendo una classificazione di tipo scientifico. In tal caso si ha ricerche di tipo:

• Esplorativo; • Descrittivo; • Causale.

La ricerca esplorativa è volta a chiarire la natura di un problema, a migliorare la comprensione di una situazione ed a fornire indicazioni per indagini future. Tramite la ricerca esplorativa è possibile accrescere la familiarità con il problema e si è generalmente in grado di formulare ipotesi e congetture. Il dato di ricerca è trattato in modo qualitativo. Pertanto, i risultati non sono in grado di rappresentare un fenomeno generale.

La ricerca esplorativa è spesso utilizzata dalle imprese che intendono esportare i propri prodotti su nuovi mercati. In tale ambito, i metodi più utilizzati sono i seguenti:

• Focus group;

(12)

• Metodi proiettivi;

• Osservazione partecipata.

La ricerca descrittiva è finalizzata:

• Alla definizione della struttura competitiva di un mercato o di uno specifico segmento; • Alla descrizione del comportamento di organizzazioni o gruppi di consumatori.

L'informazione è trattata in modo quantitativo. La base di partenza è rappresentata da un campione più o meno ampio, che viene analizzato per determinare gli elementi estendibili all’inte ra popolazione. Pertanto, oggetto d'indagine sono i comportamenti espressi e non le motivazio ni profonde che portano a tali comportamenti, per indagare le quali è più utile un'indagine esplorativa.

I metodi più utilizzati sono:

• Intervista con questionario; • Osservazione.

La ricerca causale ha lo scopo di definire connessioni causa-effetto tra più variabili, la loro natura e caratteristiche come la direzione e l'intensità.

Anche in questo caso, l'informazione è trattata in modo quantitativo, ricercando le variabili causali in grado di spiegare il comportamento di altre variabili.

Il metodo di ricerca tipico è rappresentato dall’esperimento.

Per quanto riguarda l’accuratezza delle ricerche di mercato, è necessario distinguere tra breve, medio e lungo periodo. Nel breve periodo, l’accuratezza è eccellente, nel medio è molto buona ed infine, nel lungo, tende a peggiorare, rimanendo comunque ad un livello accettabile.

Le ricerche di mercato permettono inoltre di catturare, con un buon livello di approssimazione, i Turning points.

(13)

Per quanto riguarda le applicazioni, come già menzionato in precedenza, le ricerche di mercato sono ottime sia per prendere decisioni strategiche, come il lancio di una nuova linea di produzione, sia per assumere decisioni di marketing.

Come dati di partenza, ogni ricerca di mercato richiede due differenti set di dati. Il primo contenente un ammontare significativo di dati di mercato, provenienti da questionari ed indagini. Il secondo contenente dati storici relativi ad una o più variabili, come, per esempio, i dati del mercato da penetrare.

Infine, per quanto riguarda i costi ed i tempi di realizzo, è molto difficile realizzare una buona ricerca di mercato con un budget inferiore ai cinquemila dollari e con un orizzonte temporale inferiore ai tre mesi.

Panel Consensus

La tecnica del Panel Consensus si basa sull’assunzione che molti esperti possano giungere ad una soluzione migliore rispetto ad un solo individuo. Pertanto, si tratta di una tecnica in cui la comunicazione risulta fondamentale, accompagnata, ovviamente, dalla condivisione completa delle informazioni.

La tecnica del Panel Consensus è stata progettata per essere utilizzata in grandi organizzazioni, in cui risulta più facile generare un gran numero di idee. Tale tecnica non lascia alcuno spazio per la ricerca. Infatti, si suppone che, dato l’elevato numero di persone coinvolte, siano già disponibili tutte le conoscenze necessarie, e che, pertanto, si possa giungere alla decisione in base esclusivamente alla discussione ed al voto.

Tale tecnica si struttura a fasi. Innanzitutto, il processo si apre con la proposta di un numero elevato di idee da parte di un pool di persone allargato, comprendenti sia esperti che non. In seguito, si ha un primo screening da parte degli individui meno qualificati, che consente di rimuovere le idee meno “suitable”. In questo modo, si riesce ad individuare un insieme più ridotto di idee, che dovrà essere

(14)

sottoposto al vaglio del team di esperti. Più nello specifico, le rimanenti idee sono divise in piccoli gruppi e riportate su più “panel”. A ciascun panel è assegnato un team ristretto di esperti, che deve affinare il gruppo originario di idee e scegliere le migliori cinque. Successivamente, procedendo tramite una scrematura di questo tipo, si arriva a stilare la classifica delle cinque migliori proposte, nell’ambito della quale verrà scelta la migliore.

Per quanto riguarda l’accuratezza, su qualsiasi orizzonte temporale, quest’ultima tende ad essere insoddisfacente. Così come insoddisfacente è anche la capacità di identificare i Turning Points.

Generalmente, tale metodo si utilizza in grandi organizzazioni, per favorire lo sviluppo di nuove idee sfruttando la “knowledge” di più soggetti con competenze differenziate.

Relativamente ai dati di partenza, è necessario disporre solamente dell’inquadramento del problema da risolvere, eventualmente supportato da dati di tipo quali e quantitativo.

Per quanto riguarda i costi ed il tempo di realizzo, un buon risultato può essere ottenuto con un esborso pari circa a mille dollari ed in poco più di due settimane.

Visionary Forecast

La tecnica del Visionary Forecast altro non è che un metodo che utilizza opinioni personali, “know how” e, quando possibile, fatti per prevedere ad analizzare differenti scenari sul futuro.

Il tratto distintivo è rappresentato dal “subjective guess-work”, ovvero l’attività di previsione ed immaginazione individuale. In linea generale, tali metodi non prevedono un approccio scientifico. L’accuratezza di tale metodo, mancando del tutto la componente analitica e scientifica, è molto scarsa, su qualsiasi orizzonte temporale. Così come molto scarsa, se non completamente assente, è la capacità di individuare in anticipo i Turning Points.

(15)

Generalmente, tale tecnica viene utilizzata per prevedere scenari di lungo periodo. Inoltre, essendo fortemente dipendente dalle capacità e dalle conoscenze del “forecaster”, tale metodo soffre di una grande mancanza di affidabilità oggettiva.

Per quanto riguarda i dati di partenza, questi ultimi sono rappresentati da un set di possibili scenari futuri preparati da un ristrettissimo pool di esperti, sulla base degli eventi passati.

Relativamente ai costi ed ai tempi di realizzo, si tratta di un metodo molto economico e veloce da realizzare, che richiede poco più di cento dollari ed una settimana.

Historical Analogy

Tale metodo altro non è che un’analisi comparata attraverso la storia. Il principale fine è quello di prevedere l’andamento futuro di una determinata variabile osservando e studiando quello di un fattore similare. Naturalmente, la principale difficoltà risiede proprio nell’individuazione di tale variabile, soprattutto se la stima è finalizzata a supportare il lancio di un nuovo prodotto.

Lo scopo principale di tale metodo è quello di individuare un trend di medio-lungo periodo. Per tale motivo, l’accuratezza della Historical Analogy tende ad essere piuttosto scarsa nel breve periodo, durante il quale l’andamento di una variabile può essere influenzato da una molteplicità di fattori, molti dei quali esogeni e non prevedibili, mentre tende a migliorare nel medio e nel lungo.

Data la sua natura, la capacità di individuare eventuali Turning points è piuttosto scarsa, poiché le condizioni che hanno determinato un cambiamento di trend nel passato potrebbero non valere più nel presente e viceversa.

L’applicabilità di tale metodo risulta particolarmente efficace in tutti quei casi in cui l’orizzonta le temporale a breve termine non è rilevante, mentre sono più importanti i patterns di medio e lungo periodo.

(16)

L’input di partenza è rappresentato da un insieme esteso di dati relativi alla variabile presa come benchmark, riferiti ad un intervallo temporale piuttosto ampio.

Per quanto riguarda i costi ed il tempo di realizzo, si tratta di un metodo che richiede un esborso monetario di poco più di mille dollari e circa un mese di tempo.

(17)

Serie storiche

Per serie storica si intende una tecnica statistica utilizzata quando l’organizzazione aziendale ha a disposizione, per un determinato prodotto o linea produttiva, un ammontare rilevante di dati e quando le relazioni ed i trend sono relativamente stabili.

Uno dei principi statistici base nella previsione di una determinata variabile, soprattutto quando si hanno a disposizione dati storici, consiste nel fatto che il “forecaster” dovrebbe utilizzare questi ultimi per determinare quello che prende il nome di “speedometer reading” dell’attuale tasso di crescita della variabile presa in considerazione, cioè la velocità a cui tale tasso sta aumentando o diminue ndo.

Riuscire a formulare previsioni accurate utilizzando dati grezzi non è così semplice come sembra, dal momento che, generalmente, le relazioni tra le variabili oggetto di esame non sono immediatame nte visibili. Per esempio, possono essere influenzate, sia positivamente che negativamente, da fattori occasionali. Per ottenere una stima il più possibile accurata, è necessario “ripulire” i dati storici, proprio per rimuovere tali fenomeni ed i loro effetti.

In linea generale, una serie storica altro non è che un insieme di dati storici cronologicamente ordinati. Per esempio, le sales di una determinata azienda per un determinato numero di anni segmentate mese per mese.

L’analisi tramite serie storiche è utilizzata per identificare e spiegare:

• Ogni variazioni sistematica riscontrata nella serie di dati analizzata e dovuta alla stagionalità (o “seasonality”).

• Patterns che si ripetono per due anni o più; • Trend di breve, medio e lungo periodo nei dati; • Tassi di crescita dei trend.

(18)

Le serie storiche si basano sull’assumption che i pattern esistenti si manifesteranno anche in futuro. Tuttavia, analisi empiriche hanno dimostrato che tale assunzione tende ad essere vera principalme nte per il breve periodo piuttosto che per il lungo. Pertanto, tale tecniche tendono ad essere più accurate nella previsione di eventi a breve termine rispetto a condizioni di medio e/o lungo periodo, a meno che i patterns esistenti sia particolarmente stabili.

Per le solite motivazioni, tali tecniche non sono in grado di prevedere, con un elevato grado di accuratezza, quando il tasso di crescita della variabile oggetto in esame subirà un cambiamento significativo. Per esempio, quando un periodo piuttosto fiacco di crescita delle Sales si trasformerà in un rapido crollo.

In dottrina, tali momenti prendono il nome di “Turning Points”. Nella maggior parte dei casi, essi rappresentano la diretta conseguenza di scelte strategiche da parte dei manager, anche se, naturalmente, possono derivare anche da cambiamenti esogeni nel panorama macroeconomico. Ai fini della stima, dovranno essere utilizzati strumenti diversi dalla pura analisi statistica per prevedere ed anticipare tali cambiamenti improvvisi.

Per quanto riguarda le serie storiche, i modelli e le tecniche più diffuse nella realtà operativa sono: • “Medie mobili”;

• “Exponential Smoothing”; • “Box-Jenkins”;

• “Proiezioni di trend”.

Medie mobili

Le medie mobili sono uno strumento particolarmente diffuso per l’analisi di serie storiche, soprattutto nell’analisi tecnica.

(19)

In linea generale, data una serie storica Yt, con t = {0, 1, 2, ..., T}, contenente i valori osservati di una

variabile Y dal tempo 1 al tempo T, siano: • m1: il numero dei periodi precedenti a t;

• m2: il numero dei periodi successivi a t;

• θi: il peso da attribuire all’i-esimo valore osservato;

si definisce media mobile al tempo t il valore:

mmt = 1 𝑘

𝜃

i

𝑦

t+i 𝑚2 𝑖= −𝑚1 in cui:

• k = m1 + m2 è il periodo (o ordine) della media mobile, ed equivalente al numero degli

addendi.

In linea generale, si possono avere tre tipologie di medie mobili:

• Semplice, se i pesi sono tutti uguali a θi a 1 (in tal caso, si tratta di una media aritmetica);

• Centrata, se m1 = m2;

• Simmetrica, se centrata e se θi-m = θi+m per ogni m compreso tra 1 e m1 + m2.

La media mobile semplice, anche chiamata Simple Moving Average (o SMA), altro non è che una media aritmetica di un insieme di dati storici riferiti ad un determinato intervallo temporale. Naturalmente, data la sua facilità di calcolo, rimane quella più usata dagli analisti. Tuttavia, tale tipo di media viene spesso criticata a causa del fatto che assegna la medesima importanza ad ogni singolo dato.

La media mobile ponderata, anche detta Weighted Moving Average (o WMA) è spesso utilizzata per ovviare al problema delle medie mobili semplici riguardo al peso da assegnare ai valori presi in considerazione. Il suo meccanismo di funzionamento è il seguente. Dati dieci periodi, il calcolo della

(20)

media mobile ponderata prevede che la chiusura del decimo giorno venga moltiplicata per 10, quella del nono giorno per nove, dell'ottavo giorno per otto e così via. In questo modo, è possibile dare maggior rilievo agli ultimi valori. Il totale verrà poi diviso per la somma dei multipli.

In ogni caso, tale media non riesce a fornire un’idea immediata di quello che sta accadendo sul mercato.

WMA = (C1 * 1 + C2 * 2 + ... Cn * n) / (1 + 2 + ... + n)

La media mobile esponenziale, anche detta Exponential Moving Average, (o EMA) viene generata da un sistema di calcolo molto più complesso, finalizzato a superare le carenze della media mobile semplice. In particolare, viene dato un peso differente ai vari prezzi, maggiore ai più recenti e minore a quelli più vecchi; motivo per cui viene definita media mobile ponderata esponenziale. Nonostante dia un'importanza minore ai prezzi passati, tale metodologia continua comunque ad includere tali valori, prendendo così in esame un numero più elevato di valori rispetto alla media mobile semplice.

Infine, è opportuno citare anche la cosiddetta media mobile adattiva, finalizzata a superare uno dei principali problemi riscontrati nell'uso della media mobile semplice, cioè la scelta del periodo da utilizzare. Per ovviare a tale problematica, Perry Kaufman ha ideato una media mobile che, utilizzando uno studio sulla volatilità presente nel mercato, adatta la sua velocità. I calcoli e la teoria su cui si basa questo tipo di media mobile non sono di facile apprendimento e si basano su concetti abbastanza avanzati sia di statistica che matematica.

È stato anche concepito un “efficiency ratio”, o rapporto di efficienza, che mette a confronto movimento dei prezzi e livello di volatilità. Quando il rapporto di efficienza è elevato, il movime nto è maggiore della volatilità, favorendo la media più veloce. D’altro canto, quando è basso, la volatilità è maggiore del movimento, il che favorisce una media mobile più lenta. Incorporando l'efficie nc y ratio si verifica un aggiustamento automatico della media mobile adattiva alla velocità più opportuna per il mercato corrente.

(21)

Per quanto riguarda sia l’accuratezza che la capacità di prevedere Turning Points, si tratta di uno strumento statistico scarsamente efficace. In particolare, per quanto l’accuratezza sia migliore nel breve che nel medio-lungo periodo, si tratta comunque di un livello piuttosto insoddisfacente. Le medie mobili risultano particolarmente indicate per controlli di produzione e/o inventario.

Per quanto riguarda i dati di partenza, nella maggior parte delle situazioni sono necessari almeno due anni di dati storici, soprattutto se sono presenti fenomeni di tipo stagionale. Naturalmente, tanto maggiore è la baseline di partenza, tanto più accurata sarà la stima.

Relativamente al costo ed al tempo di realizzo, si tratta di uno strumento praticamente cost free e di rapida implementazione. Medie mobili particolarmente complesse possono richiedere sino ad un giorno di tempo per la loro elaborazione.

Exponential Smoothing

La tecnica di Exponential Smoothing è simile alla media mobile, eccetto il fatto che attribuisce ai data-points più recenti un peso maggiore. In realtà, ciò che distingue le due tecniche di stima consiste nel fatto che l’Exponential Smoothing tiene conto del cosiddetto errore di previsione.

Più in particolare, la previsione è ottenuta come media ponderata di tutte le osservazioni disponib ili. I pesi della combinazione lineare sono scelti in modo da dare maggiore importanza alle osservazioni più recenti e minore importanza alle osservazioni più lontane nel tempo.

Il valore della variabile previsto in t+1 (data l’informazione conosciuta in T) è ottenuto dal valore previsto in t (data l’informazione conosciuta in t-1), corretto dell’errore di previsione commesso in t (detto anche sorpresa) pesato ad un fattore α (detto parametro di lisciamento).

Il parametro di lisciamento darà peso massimo alla sorpresa con valore pari ad uno e nullo con valore pari a zero. La nuova previsione può essere pensata come la media pesata tra l'ultima osservazio ne disponibile e la vecchia previsione. Il valore di α determina di quanto l'osservazione corrente

(22)

influenza il valore futuro. Quanto più prossimo a zero è il valore di α, tanto meno il valore corrente influenza la previsione (cioè la nuova previsione sarà molto simile alla vecchia) e viceversa (cioè per α tendente a uno la nuova previsione sarà molto vicina all'ultimo valore della serie).

Per quanto riguarda l’accuratezza, tale tecnica mostra una precisione molto elevata nel breve e brevissimo periodo. Tuttavia, per orizzonti temporali più lunghi, l’accuratezza diminuisce, potendo risultare molto scarsa per lunghi periodo di tempo.

Così come le medie mobili, anche l’Exponential Smoothing mostra una scarsa capacità di prevedere i Turning Points.

Per quanto riguarda le possibilità di utilizzo, l’Exponential Smoothing è particolarmente efficace per controlli di produzione ed inventario, forecast di margini di vendita ed analisi di dati finanziari.

I dati di partenza sono esattamente i soliti delle medie mobili. Naturalmente, continua a valere la regola per cui, maggiori sono i dati storici, più accurata è la stima.

Relativamente ai costi ed ai tempi di realizzo, si tratta di una tecnica di previsione poco costosa e facilmente implementabile, anche nell’arco di una giornata.

Box Jenkins

Il modello di Box Jenkins rappresenta una delle metodologie più accurate per analizzare una serie storica. In sintesi, si tratta dell’applicazione di modelli matematici a serie storiche per ricavarne i trend passati.

L’approccio di tale tecnica è a tre stadi:

• Individuazione e selezione del modello. Durante tale fase, si va ad analizzare la stazionarietà e la stagionalità delle serie storiche, andando ad individuare eventuali valori anomali. Nel caso in cui la serie storica oggetto di esame risulti particolarmente influenzata da fenomeni di stagionalità, si cercano soluzioni per renderla più stazionaria. Infine, tramite l’utilizzo dei

(23)

diagrammi delle funzioni di autocorrelazione e di autocorrelazione parziale delle serie storiche, viene stabilito se deve essere utilizzato il componente autoregressivo o mobile medio.

• Stima dei parametri usando differenti algoritmi di calcolo a seconda del modello scelto. I metodi più comuni utilizzano la stima della massima verosimiglianza o la stima dei minimi quadrati non lineari.

• Verifica del modello testando la conformità alle specifiche di un processo univariato fisso. Se la stima risulta inadeguata, è necessario tornare al primo step ed individuare un modello migliore.

Per quanto riguarda l’accuratezza, il modello di Box-Jenkins risulta particolarmente preciso su orizzonti temporali di breve periodo, compresi tra uno e tre mesi. D’altro canto, con l’allungars i dell’intervallo temporale, il grado si bontà dell’accuratezza diminuisce progressivamente. Inoltre, particolarmente scarsa risulta anche la capacità di prevedere con largo anticipo i Turning Points.

Generalmente, il modello di Box-Jenkins viene utilizzato per stime di produzione ed inventar io, nonché per analizzare cash-balances di aziende.

Per quanto riguarda i dati di input, tale metodologia richiede i soliti dati di partenza delle medie mobili. Anche in questo caso, tanto più è esteso l’intervallo temporale di riferimento, tanto miglior i saranno i risultati.

Relativamente ai costi ed al tempo di realizzo, si tratta di un modello poco costoso da implementa re, richiedendo un impiego minimo sia in termini di risorse che in termini di giorni.

Proiezioni di trend

La proiezione del trend è il più classico metodo di previsione aziendale, che ha ad oggetto il movimento delle variabili nel tempo. Questo metodo richiede una lunga serie di dati temporali.

(24)

In linea generale, il metodo di proiezione del trend si basa sul presupposto che i fattori responsabili dell’andamento passato delle variabili oggetto di esame continuino a svolgere il loro ruolo anche nel futuro.

Nel prevedere la domanda di un prodotto, il metodo di proiezione del trend viene applicato ai serie storiche tendenzialmente lunghe. Una società di vecchia data può ottenere tali dati dai suoi dipartimenti (come le vendite) e i libri contabili. D’altro canto, le nuove aziende possono ottenere tali dati dalle vecchie imprese che operano nello stesso settore.

Per quanto riguarda l’accuratezza, si tratta di un metodo piuttosto preciso su orizzonti temporali medio-brevi. D’altro canto, per orizzonti temporali leggermente più lunghi, il grado di accuratezza tende a decrescere. Inoltre, data la sua natura, tale metodo non risulta adatto a prevedere eventuali Turning Points.

La proiezione del trend risulta particolarmente indicata per prevedere la riuscita in termini di sales dell’immissione di un nuovo prodotto sul mercato.

Per quanto riguarda i dati di input, non esiste una regola fissa, date le molteplici varianti di tale modello. Tuttavia, in linea generale, si può considerare come necessari almeno cinque anni di dati storici.

Relativamente al costo ed ai tempi di realizzo, si tratta di un metodo tendenzialmente non molto costoso, anche se il costo può variare sensibilmente a seconda dell’applicazione.

(25)

Modelli causali

Nel caso in cui sia disponibile un grande ammontare di dati storici e sia possibile stabilire delle relazioni chiare tra le differenti variabili prese in considerazione, si può procedere alla costruzio ne dei cosiddetti modelli causali.

Un modello causale rappresenta la tecnica più sofisticata di forecast. Lo scopo principale è quello di rappresentare matematicamente la relazioni tra due o più variabili. Talvolta, tali modelli sono correla ti da analisi di mercato o dai risultati di un’analisi preliminare di serie storiche.

I modelli causali prendono in considerazione ogni aspetto noto sulle dinamiche tra variabili e, a seconda dei casi, può prendere in considerazione anche dati atipici, ovvero tutte quei dati che non presentano uno schema di comportamento regolare.

Naturalmente, a seconda della qualità e della completezza dei dati storici di partenza, potrebbe essere necessario proporre una o più assunzioni per costruire il modello. Per esempio, potrebbe essere necessario introdurre una stima sulla relazione tra due o più variabili. Naturalmente, in tal caso di dovrà monitorare tale relazione, per verificare che le assunzioni di partenza siano corrette.

I principali modelli causali sono: • “Modelli di regressione”; • “Modelli econometrici”;

• “Intention to Buy & Anticipations Surveys”; • “Modelli Input-Output”;

• “Indici di diffusione”;

(26)

L’analisi di regressione è uno strumento utilizzato per stimare l’effetto di una variazione di una variabile su un’altra variabile (regressione lineare con un singolo regressore) oppure su altre variabili (regressione lineare con regressori multipli).

Il modello di regressione con un singolo regressore ipotizza una relazione lineare tra le variabili X e Y osservate su una popolazione (finita o infinita), ovvero:

Yi = β0 + β1Xi + ui,

in cui:

• il pedice i = 1, …, n indica le osservazioni disponibili;

• Yi è la variabile dipendente (che deve essere una variabile quantitativa continua);

• Xi è la variabile indipendente;

• β0 + β1X è la retta di regressione della popolazione (o funzione di regressione della

popolazione);

• β0 è l’intercetta della retta di regressione;

• β1 è la pendenza della retta di regressione;

• ui è l’errore, ovvero la differenza tra il valore osservato Yi e il valore della funzione β0 + β1Xi.

La retta di regressione ha la funzione di stimare la variazione di Y indotta da una data variazione di X. In particolare, la pendenza di tale retta, misurata dal parametro β1, rappresenta la variazione media

di Y associata ad una variazione unitaria di X.

I valori effettivamente osservati e quelli predetti per la i–esima osservazione non sono quasi mai identici. La differenza tra tali valori prende il nome di errore (o disturbo) ed è rappresentata dal termine ui nell’equazione della retta di regressione. In particolare, il termine ui contiene tutti gli altri

fattori diversi da X che determinano il valore della variabile dipendente Y per una specifica osservazione i.

(27)

Nella realtà, i parametri β0 e β1 non sono noti. Per questo motivo è necessario utilizzare i dati per

ottenere una stima sia dell’intercetta che della pendenza della retta di regressione. Al riguardo, un metodo di stima diffuso è quello dei minimi quadrati ordinari (Ordinary Least Square, OLS). Lo stimatore OLS permette di individuare la retta di regressione che sia il più possibile vicina ai dati osservati. La vicinanza è misurata dalla somma dei quadrati degli errori che si commettono nel predire Y data X. In particolare, siano b0 e b1 stimatori di β0 e di β1. La retta di regressione basata su tali

stimatori è b0 + b1X, e quindi il valore di Yi stimato utilizzando tale retta è b0 + b1Xi. Perciò l’errore

associato alla stima della i–esima osservazione è dato da Yi – (b0 + b1Xi) = Yi – b0 – b1Xi. La somma

dei quadrati degli errori di predizione per tutte le n osservazioni è:

∑ (Yi – b0 – b1Xi)2 n

i=1

Gli stimatori dell’intercetta e della pendenza che minimizzano la somma dei quadrati degli errori sono detti stimatori dei minimi quadrati ordinari (OLS) di β0 e di β1, e sono dati da:

β̂1 =

∑ni=1(Xi - X̅)(Yi - Y̅ )

∑ni=1(Xi- X̅)

2

β̂0 = Y̅ - β̂1X̅

La retta di regressione degli OLS, i valori predetti Ŷi ed i residui û i sono definiti rispettivamente da:

β̂0 + β̂1X

i = β̂0 + β̂1Xi, i = 1, …, n ûi = Yi - Ŷi, i = 1, …, n

Naturalmente tale predizione non sarà perfetta (quindi ûi sarà diverso da zero), a causa degli altri

(28)

Il modello di regressione multipla include variabili addizionali come regressori e permette di stimare l’effetto su Yi della variazione in una variabile (X1i), tenendo costanti gli altri regressori (X2i, X3i, …).

Si supponga per il momento che esistano soltanto due variabili indipendenti, X1i e X2i. Nel modello

di regressione lineare multipla, la relazione media tra queste due variabili indipendenti e la variabile dipendente Y è data dalla funzione lineare

E(Yi│X1i = x1, X2i = x2) = β0 + β1x1 + β2x2

in cui E(Yi│X1i = x1, X2i = x2) rappresenta l’aspettativa condizionata di Yi date X1i = x1 e X2i = x2.

Tale equazione prende il nome di retta di regressione della popolazione o funzione di regressione della popolazione nel modello di regressione multipla. Il coefficiente β0 è l’intercetta, il coefficie nte

β1 è il coefficiente di X1i e il coefficiente β2 è il coefficiente di X2i.

Nel modello di regressione multipla il coefficiente β1 indica l’effetto su Y di una variazione unitar ia

in X1i, tenendo costante (o controllando) X2i.

Tale interpretazione deriva dal fatto che l’effetto atteso su Y di una variazione in X1 pari a ∆X1,

lasciando X2 costante, è la differenza tra il valore atteso di Y, quando le variabili indipendenti sono

uguali a X1 + ∆X1 e X2, e il valore atteso di Y, quando le variabili indipendenti sono uguali a X1 e

X2. In particolare, si supponga che la funzione di regressione sia pari a Y = β0 + β1X1 + β2X2 e che

X1 vari effettivamente di un ammontare pari a ∆X1, a parità di X2. In seguito a tale variazione, si

supponga che Y vari anch’esso di un certo ammontare, pari a ∆Y. Il nuovo valore di Y sarà quindi pari a:

Y + ∆Y = β0 + β1(X1 + ∆X1) + β2X2

A questo punto, sostituendo ad Y la sua equazione, otteniamo: β1 = ∆Y

(29)

Quindi il coefficiente β1 è l’effetto medio su Y di una variazione unitaria in X1, lasciando fisso X2;

talvolta è indicato come effetto parziale di X1 su Y, tenendo X2 fisso.

Per quanto riguarda l’intercetta β0, essa rappresenta il valore atteso di Yi quando X1i e X2i sono nulli.

Proprio come nel caso della regressione con un singolo regressore, la precedente relazione non vale con esattezza, dal momento che molti altri fattori influenzano la variabile dipendente. In particolare, raggruppando nell’errore ui tali fattori, è possibile riscrivere la precedente relazione come:

Y = β0 + β1X1i + β2X2i + ui, i = 1, …, n

in cui il pedice i indica l’i–esima delle n osservazioni nel campione.

La precedente relazione indica il modello di regressione multipla della popolazione quando ci sono due regressori, X1i e X2i.

Per quanto riguarda l’accuratezza, i modelli di regressione presentano una precisione particolarme nte elevata su archi temporali di breve e medio periodo. D’altro canto, essa tende a diminuire con l’allungarsi dell’intervallo temporale di riferimento. Ottima risulta anche la capacità di prevedere ed anticipare Turning Points.

I modelli di regressione tendono ad essere particolarmente efficaci per prevedere le vendite future di un determinato prodotto, così come la stima di margini di vendita attesi.

In linea generale, i modelli di regressione si basano su un ammontare piuttosto rilevante di dati storici riferiti ad un intervallo temporale esteso, tramite cui ottenere relazioni significative ed il più possibile stabili. Inoltre, è necessario prendere in considerazione un numero di osservazioni superiore rispetto a quello delle variabili indipendenti.

Per quanto riguarda il costo e la velocità di realizzo, si tratta di un metodo facilmente implementab ile con un budget minimo. Naturalmente, sia il tempo che il costo aumentano proporzionalmente alla difficoltà di stima delle relazioni tra le variabili prese in considerazione.

(30)

Modelli econometrici

L'econometria altro non è che l'uso di metodi matematici e statistici per produrre modelli atti a verificare la validità di una o più determinate ipotesi. Generalmente, i modelli econometrici trovano applicazione per testare ipotesi di politica economica, anche se possono essere utilizzati per stimare l’evoluzione futura di un determinato mercato e/o impresa.

In linea generale, un'analisi econometrica altro non è che un confronto tra un modello economico e l'evidenza empirica.

Un modello economico rappresenta un'affermazione sulle relazioni tra differenti variabili (economiche). Un noto esempio, solitamente utilizzato per illustrare il metodo dell'econometria, è quello della funzione dei consumi.

Tale modello afferma che i consumi C dipendano linearmente dal reddito nazionale Y, secondo la relazione:

C = c0 + c1Y

in cui c1 = δC / δY è chiamato propensione marginale al consumo.

Si può osservare che il modello contiene delle quantità (potenzialmente) osservabili, i consumi e il reddito, che prendono il nome di variabili, e altre non osservabili, i parametri c0 e c1. Una qualsias i

coppia di valori per i parametri definisce una struttura per il modello.

Generalmente, l'econometria è chiamata a rispondere ad una domanda: quali probabilità (o livelli di confidenza) sono associati a tali valori?

Più nello specifico, è compito dell'econometria valutare se la relazione C = c0 + c1Y rappresenti

correttamente il comportamento dei consumi al variare del reddito nazionale, o se non sia preferibile, ad esempio, una relazione di tipo quadratico, in base alla quale i consumi crescono con il reddito più "lentamente" rispetto al modello lineare.

(31)

Lo scopo principale dell'econometria consiste nel dare un contenuto empirico alla teoria economica, e sottoporre quest'ultima a test statistico.

L'econometria si fonda sui risultati della statistica classica. Tra questi, il più importante strumento statistico è la regressione lineare, nonché la stima del modello lineare con il metodo dei minimi quadrati. Applicazioni più sofisticate ricorrono ai metodi della massima verosimiglianza ed al metodo dei momenti.

D’altro canto, un crescente numero di ricercatori fa uso di strumenti e metodi propri della statistica bayesiana. Quest'ultimo approccio, caratterizzato da un'interpretazione soggettiva della probabilità, sembra piuttosto promettente nell'ambito dell'econometria applicata alla finanza, o econometria finanziaria.

Nelle applicazioni operative, gli studi di econometria possono essere divisi in due ampie categorie: analisi delle serie storiche e analisi su dati sezionali (o “cross section”). Recentemente, la maggio re disponibilità di dati ha reso possibile analisi basate su dati panel, che incorporano sia la dimens io ne temporale che quella sezionale.

Sebbene, storicamente, gli studi di econometria si siano sviluppati con l'obiettivo di studiare i modelli proposti dalla macroeconomia, in epoca più recente l'esigenza di fondare empiricame nte argomentazioni economiche ha portato ad un ampio sviluppo di tale disciplina.

Accanto agli studi di finanza, è possibile osservare la notevole crescita della micro-econometria, che ha portato a notevoli risultati nell'ambito dell'economia del lavoro e dello studio sulla regolamentazione dei mercati.

Inoltre, è opportuno ricordare l'applicazione di tecniche econometriche in settori che tradizionalme nte rientrano nella sfera del business. Un esempio è dato dagli studi sui modelli di regressione a variabile dipendente discreta, quali i modelli logit e probit, che trovano largo impiego nel marketing.

(32)

Per quanto riguarda l’accuratezza, la precisione di tali modelli è massima nel medio periodo, e risulta comunque ottimale nel lungo periodo. D’altro canto, essa tende a diminuire nel lungo periodo. Inoltre, i modelli econometrici risultano gli strumenti più indicati per prevedere i Turning Points.

Così come per le analisi di regressione lineare, le applicazioni più indicate consistono nella previsio ne di sales e margini futuri. Inoltre, anche i dati di partenza tendono ad essere gli stessi.

Infine, per quanto riguarda i costi, costruire un modello econometrico risulta piuttosto costoso, non riuscendo ad ottenere un risultato di buona qualità con un esborso inferiore ai cinquemila dollari. Inoltre, sono necessari almeno due mesi di tempo.

Intention to Buy & Anticipations Surveys

Tale metodologia racchiude al suo interno un insieme più o meno eterogeneo di tecniche di previsione.

In linea generale, le Intention to Buy & Anticipations Surveys possono essere suddivise in due principali macro-categorie. La prima è finalizzata alla determinazione, su un intervallo temporale definito, delle intenzioni di acquisto di un determinato paniere di beni da parte di un gruppo di consumatori. La seconda ha come principale scopo quello di derivare un indice che sia capace di misurare il sentimento del mercato, sia nel presente che nel futuro, verso uno o più prodotti e/o serviz i.

In ogni caso, è opportuno sottolineare che, nella realtà operativa, tale tecniche vengono utilizza te nella maggior parte dei casi per segnalare un’eventuale inversione di rotta di un determinato trend, piuttosto che per fare vere e proprie previsioni. Tuttavia, per loro natura, tali metodologie soffrono di un intrinseco margine di errore, che può andare a minare la capacità previsionale dei Turning Points. Per quanto riguarda l’accuratezza, la precisione di tali modelli è piuttosto mediocre, sia nel breve che nel medio periodo, diventando completamente inaffidabile su orizzonti temporali più lunghi. Inoltre,

(33)

come accennato in precedenza, la capacità di segnalare preventivamente i Turning Points è piuttosto marcata, anche se soggetta ad imperfezioni.

Così come per gli altri modelli causali, le applicazioni più indicate consistono nella previsione di sales e margini futuri. In questo caso, risulta particolarmente consigliata l’applicazione di tale tecnica per la stima delle sales future per classi di prodotti.

Per quanto riguarda i dati di partenza, è opportuno distinguere tra le due macro-categorie. Nel primo caso, trattandosi di un metodo più qualitativo che quantitativo, il focus maggiore consiste nella predisposizione di un questionario ad hoc da distribuire ai soggetti coinvolti nell’indagine. D’altro canto, nel secondo caso, per costruire un indice che sia in grado di produrre un risultato statisticame nte accurato, sono necessari molti anni di dati storici.

Infine, per quanto riguarda i costi, completare una survey risulta piuttosto costoso, richiedendo come cifre di partenza almeno cinquemila dollari. Inoltre, sono necessarie molte settimane di lavoro. Modelli Input-Output

Il modello input-output è stato introdotto dall'economista russo Wassily Leontief per analizzare le relazioni e gli scambi commerciali in termini di beni e/o servizi in un’economia, in un’industria o in un segmento di mercato.

L'analisi si basa sulla “tavola input-output” o “tavola delle interdipendenze settoriali” e offre una rappresentazione schematica delle relazioni derivanti dalla produzione e dalla circolazione (acquisti e vendite) di beni e/o servizi sia tra i vari settori in cui si articola un sistema economico sia con l'esterno (importazioni ed esportazioni). Tali tecniche possono essere usate per misurare l'impatto del cambiamento della domanda in qualunque industria sull'intera economia.

Il modello input-output considera un'economia di scambio (a livello nazionale o regionale) suddivisa in un determinato numero di settori produttivi (detti anche branche di attività economiche o industr ie)

(34)

individuati generalmente per tipologia di prodotto realizzato. Ciascun settore si pone sul mercato con un duplice ruolo. Da un lato, partecipa come acquirente dei beni e dei servizi degli altri settori e dei fattori che impiega nel proprio processo produttivo; dall’altro, come venditore della merce che produce.

In linea generale, i modelli di input-output si distinguono in due macro-categorie: aperti e chiusi.

Nel modello chiuso, introdotto da Leontief nel 1941, si descrivono i flussi di beni e servizi tra tutti i settori di un'economia in un dato arco di tempo. Non vi è alcuna distinzione tra settori di produzione e settori di consumo. Pertanto, i settori della produzione si scambiano beni e servizi tra di loro, per esempio l'agricoltura fornisce materie prime all'industria, ovvero l'industria consuma prodotti agricoli (i cosiddetti consumi intermedi) ed i consumatori forniscono risorse ai settori produttivi (che consumano lavoro) e spendono i redditi ricevuti come contropartita nel consumo dei beni e dei servizi prodotti (i cosiddetti consumi finali).

Nel 1951 Leontief introdusse un modello aperto, così detto perché interviene una domanda fina le esogena, non determinata dalle condizioni tecniche ed economiche di riproducibilità ma proveniente da settori non direttamente coinvolti nella produzione (amministrazioni pubbliche, percettori di rendite ecc.), e perché compare un valore aggiunto (un surplus rispetto a quanto necessario per la semplice riproduzione) che consente di distribuire redditi ai settori esogeni. Il valore aggiunto può essere semplicemente consumato, oppure investito per aumentare la produzione; gli investimenti, a loro volta, possono comportare o meno cambiamenti nella tecnologia.

Gli investimenti possono comportare semplicemente un aumento delle quantità impiegate nei processi produttivi, oppure un cambiamento delle tecnologie impiegate.

Naturalmente, sono intuibili le possibilità di impiegare questi modelli a fini di programmaz io ne economica. Infatti, essi consentono di studiare gli effetti che variazioni della composizione e del livello della domanda finale provocano sui livelli di produzione dei diversi settori e sull'occupazio ne

(35)

a livello sia settoriale che complessivo, nonché di confrontare tali grandezze con la potenzia lità produttiva del sistema economico.

Analisi di impatto, analisi dei moltiplicatori, individuazione di filiere di produzione e/o di settori verticalmente integrati dell'economia (regionale), costituiscono alcuni dei più fecondi sviluppi della concezione della tavola come modello economico.

Nell'analisi di impatto, tale modello si presta ad essere utilizzato per valutare l'effetto prodotto da manovre di politica economica che operano facendo variare direttamente le componenti della domanda finale (per esempio, un programma di investimenti pubblici) o per effettuare esercizi di simulazione a scopo previsionale (ad esempio, valutazione degli effetti sui mercati di esportazione derivanti da variazioni del tasso di cambio o dall'incremento/decremento delle presenze turistiche). Per quanto riguarda l’accuratezza, ciascuna delle varianti sin qui esposte non risulta applicabile nel brevissimo e breve periodo. D’altro canto, per orizzonti temporali più lunghi, la precisione aumenta sensibilmente. D’altro canto, la capacità di segnalare i Turning Points in anticipo risulta piuttosto scarsa.

Per quanto riguarda le applicazioni, come anticipato in precedenza, tali modelli si prestano ad una moltitudine molto variegata di utilizzi, spaziando dalle analisi previsionali di sales e margini sino alle stime empiriche in modelli economici. Naturalmente, si deve trattare in ogni caso di analisi a medio -lungo periodo.

Per quanto riguarda i dati di partenza, sono necessari almeno dieci o quindici anni di dati storici. In particolare, se l’applicazione di tali modelli è di tipo aziendale, come per esempio la stima di sales future, sono richieste informazioni molto dettagliate sul tipo di prodotto o servizio oggetto dell’indagine per ciascun anno su cui tale modello verrà applicato.

Data la complessità di costruzione, il costo per l’implementazione di tali metodologie è molto elevato, con cifre di partenza non inferiori ai cinquantamila dollari per almeno sei mesi di lavoro. In

(36)

particolare, alcune corporation che hanno deciso di ricorrere a tali modelli per le proprie analisi sono arrivate a spendere oltre centomila dollari, aspettandosi, naturalmente, benefici rilevanti per lunghi periodi di tempo.

Indici di diffusione

In linea generale, gli indici di diffusione sono utilizzati in statistica principalmente per analizzare una o più variabili (per esempio, la povertà) all’interno della società o di un suo sottogruppo. Naturalmente, il meccanismo di funzionamento è il medesimo, sia che si tratti di applicazio ni teoriche, sia che si tratti di analisi empiriche.

Ipotizzando che si abbia la necessità di stimare l’ampiezza della fascia di povertà all’interno della società, il primo step è quello di identificare la popolazione effettivamente povera all’interno del collettivo e, successivamente, la predisposizione di taluni indici capaci di sintetizzare e comunica re le informazioni a disposizione sul campione individuato.

Una misura da sempre utilizzata è rappresentata dalla frequenza relativa dei soggetti considerati poveri. Tale misura esprime l’incidenza (o diffusione) della povertà nella popolazione in esame.

In particolare, data una popolazione composta da n elementi, a ciascuno dei quali corrisponde un reddito, yj, j = 1, ..., n, e la soglia di povertà z, il numero di unità povere, cioè con reddito < z, verrà

individuato da q = q(y, z), in cui y altro non è che il vettore formato dagli n redditi. In tal caso, l’incidenza sarà data dal rapporto H = q / n.

Purtroppo, come è possibile osservare, tale indice non descrive adeguatamente il fenomeno in esame, dal momento che non indica quanto effettivamente siano poveri tutti gli individui individuati come poveri.

Nel campo del business, l’indice ha applicazione analoghe, prendendo in esame, per esempio, un insieme di indici.

(37)

Naturalmente, l’accuratezza di tale metodo risulta piuttosto scarsa sul breve e medio periodo, essendo invece completamente inadeguata sul lungo. D’altro canto, tale indice presenta una precisione piuttosto soddisfacente nell’individuare Turning Points.

Per quanto riguarda le applicazioni, generalmente tali indici sono utilizzati per stimare Sales, anche se l’applicazione più diffusa rimane negli studi teorici a carattere statistico.

Per quanto riguarda i dati di partenza, è consigliato avere dati storici il più possibile completi e dettagliati. Si può prendere come benchmark di riferimento quelli necessari per la Intention-to- Buy survey.

Infine, per quanto riguarda i costi, si tratta di un metodo poco costoso e realizzabile in poco più di un mese.

(38)

GE Oil and Gas

Introduzione

La seconda parte del presente elaborato è dedicata alla presentazione di un caso studio relativo all’applicazione di un modello di stima dei costi da parte del leader mondiale nel settore del petrolio e dell’energia, cioè GE Oil & Gas. Nei successivi paragrafi, verranno brevemente illustrati i processi interni di gestione e stima dei costi relativi ai Contractual Service Agreements, o CSA, cioè contratti di manutenzione a lungo termine di impianti di produzione di gas naturale e petrolio.

Storia: dagli anni Novanta ad oggi

Prima della fusione tra GE Oil & Gas e Baker Hughes, che ha portato alla creazione e quotazione sul mercato di “Baker Hughes, a GE company”, GE Oil and Gas è stata una divisione del colosso americano General Electric, operante in tutti i segmenti dell’industria petrolifera e del gas, compreso la perforazione, l’estrazione ed il trasporto di petrolio e gas liquefatto. Più in particolare, il core business di GE Oil and Gas è rappresentato dalla progettazione e realizzazione di sistemi per la perforazione subacquea, equipaggiamenti per le piattaforme galleggianti e di trivellazio ne, compressori, turbine e turbo-espansori, utilizzati sia per il trasporto di gas e/o petrolio, sia per la produzione di corrente elettrica.

General Electric è entrata per la prima volta nell’industria del petrolio e del gas nel 1994, con l’acquisizione dal gruppo “ENI” (Ente Nazionale Idrocarburi) di “Nuovo Pignone”, uno dei maggiori poli industriali nel settore petrolifero e petrolchimico. Tale acquisizione ha consentito a GE di rinforzare la propria posizione e moltiplicare il suo fatturato, diventando uno dei leader mondiali nella produzione e manutenzione di turbine a gas e a vapore, nonché compressori centrifughi e alternativi. Nel 2007, con l’obiettivo di espandere e rafforzare la propria posizione nel mercato del petrolio e del gas, GE ha finalizzato l’acquisizione di “VetcoGray” per 1,9 miliardi di dollari. Con una presenza in

(39)

oltre 30 paesi, VetcoGray era leader mondiale nella fornitura di equipaggiamenti per la perforazio ne e produzione di petrolio per siti sia on che off-shore, incluse applicazioni subacquee.

Nel 2008, GE ha proseguito la sua espansione con l’acquisizione di “Hydril Pressure Control”, fornitore di strumenti per il controllo della pressione utilizzati per l’estrazione di gas e petrolio. In particolare, si tratta di equipaggiamenti ad elevato contenuto tecnologico per applicazio ni sottomarine. Tra i principali prodotti, si annoverano i sistemi di Blowout Preventer (BOP), singole parti e ricambi.

Nel 2011 GE ha completato numerose altre acquisizioni. Tra le più importanti, si annovera:

• L’acquisizione della divisione “Well Support” da “John Wood Group PLC”, al fine di espandere il proprio portafoglio nel settore della perforazione. Tra i principali prodotti, si annoverano: pompe elettriche sommergibili (ESP), teste ed alberi di pozzo, nonché servizi di logging.

• L’acquisizione di “Wellstream PLC”, una compagnia britannica leader nella progettazione e realizzazione di montanti flessibili e prodotti per il trasporto subacqueo di petrolio e gas. • L’acquisizione di “Dresser Inc.”, compagnia specializzata nella consegna di compressori,

tecnologie per il trasporto, nonché sistemi e servizi di monitoraggio e misurazione. La gamma di prodotti include: valvole, attuatori, contatori, commutatori, regolatori e motori per la compressione alimentati a gas naturale.

Il 2012 è l’anno di svolta per GE Oil & Gas, la quale diviene a tutti gli effetti una sussidiaria di General Electric. Nello stesso anno, GE finalizza l’acquisizione di “PRESENS”, una compagnia norvegese leader nello sviluppo e progettazione di sensori per la misurazione della temperatura e della pressione. L’insieme di tali prodotti è attualmente gestito dal business GE specializzato in Digital Solutions.

Riferimenti

Documenti correlati

Con applicazione del prodotto in

Analizzando i costi medi per soggetto, si evidenza che tutte le voci di spesa risultano più alte per i soggetti che nel corso dell’anno sviluppano un evento

Come si vede qui sotto, abbiamo selezionato la variabile Length, abbiamo dichiarato che ogni campione è composto di 2 unità, e abbiamo chiesto di indicare se ci sono valori fuori

Un criterio estremamente semplice e nel contempo efficace per evidenziare il trend di una serie storica è il cosiddetto metodo delle medie mobili, basato sulla sostituzione di

Tuttavia la media aritmetica si può calcolare anche nel caso in cui la somma a numeratore non avesse un significato concreto, come avviene ad esempio per il carattere

In this paper, we prove the complete convergence and Marcinkiewicz-Zygmund strong law of large numbers for the partial sums of the moving average processes { P

misurazione della circonferenza addominale materna STIMA DEL PESO FETALE. Pschera H et al, Acta Gyn scand 1984 Dare FO, Int J Gynecol Obstet 1990

2 Segnaletica cantieristica di divieto, da parete, in 04.13.020.00 alluminio, di forma rettangolare, dimensione mm 1a 180x120, spessore mm 0,5, distanza lettura max 4. metri;