• Non ci sono risultati.

1.3   La simulazione Montecarlo

1.3.2 Alcuni aspetti fondamentali della simulazione Montecarlo

Gli aspetti fondamentali della metodologia relativa alla simulazione Montecarlo sono riportati qui di seguito e riguardano:

•   le assunzioni alla base del modello, dalle quali dipende la bontà o meno della simulazione. In particolare nella valutazione di un investimento si rende opportuno individuare le variabili che sono considerate fondamentali ai fini dell’esito del test e pertanto ai fini della valutazione.

Nell’esaminare un problema di decisione dell’investimento, occorre inoltre individuare il grado di dettaglio che l’analista può attendersi dal modello. Occorre dunque evidenziare sia le variabili che l’operatore può controllare, ossia i parametri, sia quelle che dipendono da fattori esogeni e che pertanto risultano non controllabili42.

Infine si devono prendere in considerazione variabili che sono effettivamente suscettibili di essere descritte in modo statistico, nonché scegliere funzioni che siano in grado sia di descrivere i trend delle stesse, sia di mettere in evidenza le loro correlazioni più significative ai fini dello studio.

Tali accorgimenti si rendono necessari al fine di configurare un modello che sia sufficientemente semplice per essere compreso e che risulti nella pratica effettivamente utilizzabile. Allo stesso tempo, occorre limitare le semplificazioni che possano indurre ad una prospettiva del problema eccessivamente riduttiva, portando di conseguenza a sottovalutare aspetti considerati invece importanti ai fini dell’analisi. Ciò può condurre a delle considerazioni errate che falsano le decisioni di investimento. Alla luce delle suddette considerazioni, si osservi come la definizione del modello rappresenti una fase critica della simulazione, dal momento che influenza marcatamente l’esito dei risultati dei test e pertanto delle relative decisioni d’investimento43;

                                                                                                                         

42  HALTON J. H., A Retrospective and Prospective Survey of the Monte Carlo Method, in Society for

Industrial and Applied Mathematics Review, 12, 1970, pp. 1-63.

43 NAWROCKI D. The Problems with Monte Carlo Simulation, in Journal of Financial Planning, 14,

•   l’attribuzione delle probabilità alle variabili di input, che consiste nell’individuare per esse una stima adeguata delle relative distribuzioni statistiche.

Per alcune categorie di eventi o fattori sono già disponibili serie storiche che vengono estrapolate dall’esperienza. Nell’ambito del settore economico, per esempio, sono spesso disponibili serie storiche aziendali e registrazioni di fenomeni o eventi passati, quali l’andamento dei prezzi, della domanda e via dicendo44.

Tale patrimonio informativo potrebbe pertanto risultare utile nell’ambito del processo decisionale inerente un nuovo investimento. In tale ipotesi risulterebbe essenziale implementare a tali dati, tecniche statistiche per realizzare un “best fit”45 delle serie storiche e degli andamenti di funzioni di distribuzione predefinite.

Un altro metodo è quello di applicare tecniche non parametriche, come quella del ricampionamento. Esso si basa sul meccanismo che prevede l’estrazione casuale, con reinserimento dei valori direttamente dalle serie di dati originali. Tale tecnica ha il pregio di consentire di individuare tutte le complesse correlazioni tra le variabili, senza dover identificare anticipatamente la funzione di distribuzione statistica più adeguata ai dati raccolti. Il limite di tale tecnica è invece rinvenibile nella variabilità del grado in cui i dati raccolti, che si riferiscono al passato, possano rappresentare gli eventi futuri.

Nell’ipotesi in cui non siano disponibili dati statistici o serie di dati, è possibile formulare un giudizio soggettivo, ovvero una valutazione soggettiva della probabilità46.

L’impiego della probabilità soggettiva è molto frequente in ambito economico e comprende anche la valutazione degli investimenti. Al fine di determinare

                                                                                                                         

44   VOSE D., Risk analysis: a quantitative guide to Monte Carlo simulation modeling, Amsterdam:

Elsevier 1996, p. 51

45 Il best fit in statistica è l’attribuzione che viene data ad una retta o più in generale ad una curva che

meglio approssima una distribuzione di punti, ovvero alla funzione che meglio approssima analiticamente la distribuzione. In www.treccani.it

tale elemento l’analista del rischio fissa i possibili valori che può assumere la variabile di input generando in tal modo una variabile causale discreta47. Per inquadrare le distribuzioni continue sono stati invece ideati diversi metodi, di cui il primo, proposto da Raiffa si basa sulla stima del valore che assume la variabile esaminata per alcuni quantili della distribuzione, quali ad esempio 1%, 25% 50%, 75% e 99%. Tale operazione viene svolta al fine di determinare la successiva curva di probabilità cumulata ottenuta interpolando i punti stimati48.

Un altro metodo proposto dal Kelliher consiste nel descrivere le variabili in esame attraverso un istogramma con le frequenze relative49.

Un metodo alternativo, alquanto semplice e spesso utilizzato, si basa sulla stima di tre valori per la variabile in oggetto:

una “stima pessimistica”, la quale rappresenta il peggior risultato, una ottimistica, che indica il miglior risultato possibile, ed infine una realistica, che è quella ritenuta la più probabile che si verifichi50;

•   gli algoritmi per la generazione di numeri causali, che rappresentano un aspetto fondamentale nella simulazione Montecarlo in quanto fondamentali per poter svolgere N esperimenti simulatori. A tal fine si rende difatti necessario determinare N combinazioni delle variabili di input, che risultino coerenti con le relative funzioni di probabilità ed eventuali correlazioni. Tali operazioni vengono svolte dai calcolatori dotati di appositi algoritmi, che si possono basare su tre tipologie di numeri:

•   numeri “veramente” casuali che sono originati da misure di eventi fisici intrinsecamente aleatori;

•   numeri pseudocasuali, ampiamente diffusi e consistenti in serie determinate direttamente dal calcolatore sulla base di uno specifico algoritmo;

                                                                                                                         

47  Una variabile casuale discreta è una funzione che attribuisce ad ogni esito dello spazio campione di

un esperimento casuale un determinato numero.

48  RAIFFA H., Applied statistical decision theory, 01/01/1974 in www.citelike.org    

49KELLIHER C., Using Monte Carlo Simulation to Improve Long-Term Investment Decisions,

Appraisal Journal, 68,1, 2000 pp. 44-57.

50METROPOLIS N., The beginning of the Monte Carlo method, Los Alamos Science, 15, 1987 pp.125-

•   numeri “quasi” casuali, generati da un algoritmo con lo scopo di costituire non una vera e propria sequenza casuale, ma una serie di numeri disposti in modo uniforme51.

In generale, i calcolatori sono muniti di una funzione predefinita, con la quale determinano numeri pseudo casuali che vengono contestualizzati in distribuzioni uniformi.

E’ possibile anche realizzare sequenze caratterizzate da distribuzioni non uniformi utilizzando per esempio il meccanismo relativo alla funzione di ripartizione inversa52;

•   correlazioni tra variabili di input; rappresentano un profilo molto importante dell’analisi, soprattutto quando si tratta di configurare il modello di simulazione, anche se inizialmente, per comodità, si assume che tutte le variabili siano indipendenti. Tuttavia, nei fatti, tale assunto si dimostra irrealistico. Ad esempio, nell’investimento volto a sostenere la realizzazione di un nuovo prodotto, è intuitiva la relazione tra la variabile domanda e la variabile prezzo del nuovo bene da mettere in produzione53.

Ciò nonostante, l’aspetto critico della correlazione riguarda il fatto di applicare al modello accorgimenti specifici non sempre agevoli, criticità che potrebbe essere superata attraverso l’adozione di adeguate semplificazioni, sempre cercando di non eccedere in tal senso, onde evitare risultati poco attendibili. Al fine di risolvere tale problematica, Hertz propone un metodo “soggettivo” noto come “campionamento condizionato”.

Nello specifico, tale metodo parte dalla considerazione della relazione tra due variabili, ritenute una “indipendente” e l’altra “dipendente”. Partendo da tale rapporto, Hertz propone di dividere in intervalli i possibili valori che può assumere la variabile indipendente e ad ognuno di essi associare, tramite sistemi basati sulla probabilità soggettiva, una distribuzione per la variabile dipendente54.

                                                                                                                          51  NAWROCKI D. op. cit. p. 94   52  HALTON J. H. op. cit. p. 50   53  ELISHAKOFF I. op. cit. p. 12   54  VOSE D., op. cit. p. 54  

Pertanto, nello svolgere le simulazioni Monte Carlo, a ciascuna iterazione viene prima prodotto un valore per la variabile indipendente, valore dal quale viene poi determinata una specifica distribuzione, necessaria a generare il valore della variabile dipendente.

Tale approccio viene utilizzato per ovviare ai metodi analitici che in merito all’ambito delle correlazioni tra variabili sono alquanto complessi da applicare55;

•   numero di iterazioni necessarie, realizzate con lo scopo di ottenere un determinato campione. La simulazione Monte Carlo non dà luogo ad una formulazione analitica, bensì genera un campione la cui frequenza consente di determinare una forma approssimativa della distribuzione di probabilità della variabile oggetto di studio.

Ne deriva come non sia possibile determinare con esattezza nemmeno i valori inerenti agli indicatori statistici utili ai fini dell’analisi, come ad esempio media e deviazione standard56.

Tuttavia è ampiamente dimostrato che aumentando il numero delle iterazioni viene costruito un campione più ampio e quindi caratterizzato da una maggiore precisione e puntualità. In definitiva, tale dinamica rappresenta l’effetto dell’applicazione del teorema del limite centrale57.

In altre parole, aumentando il numero delle simulazioni l’output converge verso valori che sarebbero “esatti” sotto il profilo analitico.

Infatti più elevato è N, inteso come numero di simulazioni, maggiore è il grado di precisione associato all’output ottenuto. In sostanza, basta aumentare il numero di simulazioni per ottenere un risultato più puntuale.

Grazie all’altissimo livello tecnologico degli attuali calcolatori, aumentare il numero di simulazioni non costituisce più un problema; il metodo Monte Carlo tende di conseguenza ad essere sempre più preciso e puntuale58.

                                                                                                                          55  JACKEL  P. op. cit. p. 78   56  BOYLE P., op. cit. p. 327.  

57 Il teorema del limite centrale sostiene che la somma, o la media, di un elevato numero di variabili

aleatorie indipendenti e dotate della stessa distribuzione, è approssimativamente normale, a prescindere dalla forma della distribuzione sottostante.

1.3.3 L’applicazione della simulazione Monte Carlo nella valutazione degli