• Non ci sono risultati.

Metodi Monte Carlo sequenziali per modelli a volatilità stocastica con distribuzioni a code spesse

N/A
N/A
Protected

Academic year: 2021

Condividi "Metodi Monte Carlo sequenziali per modelli a volatilità stocastica con distribuzioni a code spesse"

Copied!
93
0
0

Testo completo

(1)

Corso di Laurea magistrale (ordinamento ex

D.M. 270/2004)

in Economia e Finanza

Tesi di Laurea

Metodi Monte Carlo sequenziali

per modelli a volatilità stocastica

con distribuzioni a code spesse

Relatore

Ch. Prof. Roberto Casarin

Laureando

Denny Salmaso

Matricola 821161

Anno Accademico

2012 / 2013

(2)

Ai miei genitori, che mi hanno permesso di arrivare fin qui

(3)

Sommario

In questa tesi si stimano tre differenti modelli a volatilità stocastica con distri-buzioni a code spesse utilizzando i metodi Monte Carlo sequenziali per la stima congiunta di parametri e stati. I modelli stimati vengono applicati a dati reali riguardanti i metalli preziosi, rame e petrolio, con lo scopo di combinare le tre densità di previsione ottenute per ciascuna serie ed utilizzare tale combinazione a fini previsivi. Viene proposta inoltre un’applicazione in tema di portfolio com-position analizzando le differenze tra l’uso della combinazione di modelli diversi e del singolo modello migliore.

(4)
(5)

Introduzione 1

Struttura della tesi . . . 2

1 Il modello a volatilità stocastica 3 1.1 Modellare la volatilità . . . 3

1.2 Inferenza nei modelli state space . . . 5

1.2.1 Il Filtro di Hamilton . . . 7

1.2.2 Il Filtro di Kalman . . . 8

1.2.3 Metodi Monte Carlo sequenziali . . . 9

2 Modelli con distribuzioni a code spesse 19 2.1 Filtraggio congiunto di parametri e stato . . . 19

2.2 Il modello . . . 22

2.2.1 Errori t∼ N(0,1). . . 23

2.2.2 Errori t∼ t-Student(ν) . . . 26

2.2.3 Errori t∼ GEV(0,1,ξ) . . . 32

3 Stima della volatilità su dati reali 39 3.1 Metodologia applicata . . . 39

3.2 Dati utilizzati e risultati . . . 41

3.2.1 Platino . . . 41 3.2.2 Oro . . . 43 3.2.3 Argento . . . 45 3.2.4 Rame . . . 47 3.2.5 Petrolio . . . 49 3.2.6 Riepilogo risultati . . . 51

3.3 Volatilità stocastica e selezione di portafoglio . . . 51

Conclusioni 61

(6)

A Grafici e stime numeriche 63

B Codici utilizzati 71

(7)

1.1 Schema di ricampionamento . . . 14

2.1 Istogramma serie simulata normale . . . 23

2.2 Livelli serie simulata normale . . . 24

2.3 Parametri serie simulata normale . . . 25

2.4 Log-volatilità serie simultata normale . . . 25

2.5 RMSE serie simultata normale . . . 26

2.6 Istogramma serie simultata t-Student . . . 28

2.7 Livelli serie simultata t-Student . . . 28

2.8 Parametri serie simulata t-Student . . . 30

2.9 Log-volatilità serie simultata t-Student . . . 31

2.10 RMSE serie simultata t-Student . . . 31

2.11 Istogramma serie simultata GEV . . . 33

2.12 Livelli serie simultata GEV . . . 33

2.13 Parametri serie simulata GEV . . . 35

2.14 Log-volatilità serie simultata GEV . . . 35

2.15 RMSE serie simultata GEV . . . 36

3.1 RMSPE platino, prezzi spot . . . 41

3.2 Volatilità platino, prezzi spot . . . 42

3.3 RMSPE platino, prezzi futures . . . 42

3.4 Volatilità platino, prezzi futures . . . 42

3.5 RMSPE oro, prezzi spot . . . 43

3.6 Volatilità oro, prezzi spot . . . 44

3.7 RMSPE oro, prezzi futures . . . 44

3.8 Volatilità oro, prezzi futures . . . 44

3.9 RMSPE argento, prezzi spot . . . 45

3.10 Volatilità argento, prezzi spot . . . 46

3.11 RMSPE argento, prezzi futures . . . 46

3.12 Volatilità argento, prezzi futures . . . 46 vii

(8)

3.13 RMSPE rame, prezzi spot . . . 47

3.14 Volatilità rame, prezzi spot . . . 48

3.15 RMSPE rame, prezzi futures . . . 48

3.16 Volatilità rame, prezzi futures . . . 48

3.17 RMSPE petrolio, prezzi spot . . . 49

3.18 Volatilità petrolio, prezzi spot . . . 50

3.19 RMSPE petrolio, prezzi futures . . . 50

3.20 Volatilità petrolio, prezzi futures . . . 50

3.21 Selezione su serie futures oro combinata . . . 54

3.22 Selezione su serie futures oro GEV . . . 54

3.23 Selezione su serie futures petrolio combinata . . . 55

3.24 Selezione su serie futures petrolio GEV . . . 55

3.25 Densità previsiva, serie futures oro combinata . . . 56

3.26 Densità previsiva, serie futures oro GEV . . . 56

3.27 Densità previsiva, serie futures petrolio combinata . . . 57

3.28 Densità previsiva, serie futures petrolio GEV . . . 57

A.1 Grafici delle serie storiche, rendimenti spot . . . 64

A.2 Istogrammi delle serie storiche, rendimenti spot . . . 64

A.3 Grafici delle serie storiche, rendimenti futures . . . 65

A.4 Istogrammi delle serie storiche, rendimenti futures . . . 65

A.5 Grafico del discount rate . . . 66

A.6 Prezzo teorico T-Bill . . . 66

(9)

2.1 Stime numeriche dei modelli simulati . . . 36

3.1 Selezione di portafoglio su oro e petrolio, serie futures combinata . 58 3.2 Selezione di portafoglio su oro e petrolio, serie futures GEV . . . . 58

A.1 Statistiche descrittive delle serie spot . . . 63

A.2 Statistiche descrittive delle serie futures . . . 67

A.3 Stime dei parametri delle serie spot . . . 68

A.4 Stime dei parametri delle serie futures . . . 69

(10)
(11)

1 Sequential Importance Sampling (SIS). . . 12

2 Sequential Importance Resampling (SIR) . . . 14

3 Auxiliary Particle Filter (APF) . . . 16

1 Filtro di Liu e West per la stima di parametri e stati (LWF) . . . 22

1 Algoritmo per la simulazione del modello gaussiano . . . 71

2 Algoritmo per la simulazione del modello t-Student . . . 71

3 Algoritmo per la simulazione del modello GEV . . . 72

4 Filtro LW per la stima del modello GEV . . . 72

(12)
(13)

L’uso della volatilità nelle strategie ed analisi finanziarie riveste un ruolo cru-ciale. Tuttavia ampio è il dibattito su come questa vada considerata e se sia o meno un indicatore che possa essere utilizzato come misura di rischio. Grazie alle ricerche di Bollerslev (1987) ed Engle (1982), si è passati da una forma di volati-lità costante ad una dinamica. I modelli a volativolati-lità stocastica si propongono di modellare la variabilità del fenomeno studiato tramite un processo casuale non osservabile con una propria componente di errore.

Una rappresentazione possibile per questo tipo di modelli è quella state space, in cui un’equazione descrive l’evoluzione della variabile che si può osservare (equa-zione di misura(equa-zione) e un’altra descrive l’andamento della variabile non osserva-bile. La rappresentazione state space è naturale poichè il modello è generalmente definito in questa forma ed è altresì utile a fini econometrici in quanto diversi metodi di inferenza utilizzano questa rappresentazione. In questo tipo di specifi-cazione e per i modelli non lineari trova naturale applispecifi-cazione una metodologia di stima fondata sui metodi Monte Carlo sequenziali.

Il lavoro sviluppato in questa sede di pone l’obiettivo si verificare se l’assun-zione di normalità dei rendimenti di determinate attività finanziarie sia effettiva-mente la migliore ipotesi possibile o possa essere modificata al fine di migliorare eventuali strategie finanziarie di investimento. A tal fine, verranno stimati tre differenti modelli a volatilità stocastica che includono distribuzioni a code spesse e verranno utilizzati in previsione. Come bontà di previsione si utilizza il RMSPE che verrà utilizzato per determinare il modello migliore.

Poichè i modelli forniscono in ogni caso informazioni aggiuntive sia sulla vola-tilità latente che sui rendimenti futuri attesi, non verrà considerato solamente il modello migliore bensì verrà implementato un modo per combinare le stime con finalità previsive. Si propone quindi un metodo per combinare le densità di pre-visione fornite dai modelli in modo da ottenere una distribuzione che tenga conto di tutte le informazioni disponibili. Per concludere si verifica l’utilità del metodo

(14)

presentato sul piano economico attraverso un esercizio di selezione di portafoglio. Per condurre l’analisi fin qui esposta si è scelto di basarsi sui mercati dei metalli preziosi ed energetici in cui la elevata volatilità e la sua dinamica sono caratteristiche proprie degli assets scambiati. In particolar modo si sono analiz-zate le serie storiche dei prezzi sia spot che future di platino, oro, argento, rame e petrolio. La frequenza è giornaliera ed il periodo di analisi va da fine gennaio 2010 a dicembre 2013, per un totale di 1000 osservazioni per serie.

Struttura della tesi

Questa tesi è articolata nel seguente modo:

Il primo capitolo fornisce una rapida rassegna della letteratura in tema di modelli state space e metodi Monte Carlo sequenziali.

Il secondo capitolopresenta la metodologia di stima dei tre modelli utilizzati in questa tesi e verranno forniti i risultati riguardanti l’applicazione dei modelli a dati simulati.

Il terzo capitolo mostra i risultati dell’applicazione a dati reali e propone un’applicazione in tema di selezione di portafoglio.

L’appendice A contiene ulteriori dati e grafici che completano il lavoro presentato.

L’appendice B riporta i codici degli algoritmi Matlab utilizzati in questa tesi.

(15)

Il modello a volatilità stocastica

1.1

Modellare la volatilità

L’analisi dei rendimenti delle attività finanziarie ha più volte confermato che queste serie storiche presentano il fenomeno del volatility clustering, come affer-mato da Mandelbrot e Fama, a periodi di alta volatilità tenderanno a seguire periodi con volatilità altrettanto alta e viceversa nel caso in cui si osservi una variabilità moderata.

Grazie ai contributi di Bollerslev (1987) ed Engle (1982), in letteratura si iniziò ad utilizzare una particolare classe di modelli che riesce a catturare determinate caratteristiche delle serie dei rendimenti, come le code più spesse rispetto a quelle di una normale standard ed il volatility clustering. Si ipotizzò quindi la seguente dinamica per i rendimenti

rt = σtt (1.1)

in cui la serie rt è definita tramite una serie di variabili i.i.d. distribuite come

una normale standard, t, e dalla volatilità σt. Da questo modello è chiaro che la

specificazione della dinamica per la volatilità abbia un ruolo importante in questa rappresentazione. Una prima dinamica utilizzata per σt è quella di un processo

autoregressivo di ordine p sui valori passati di rt al quadrato:

αt2 = α0 + α1rt−12 + · · · + αprt−p2

Questo modello prende il nome di ARCH di ordine p (AutoRegressive Con-ditional Heteroskedacity) poiché la varianza condizionale dei rendimenti, data questa specificazione, risulta variabile nel tempo e non più costante

V ar[rt|Dt] = V ar[σtt|Dt] = E[σt2|Dt]E[2t|Dt] = E[σ2t|Dt]

(16)

dato che la distribuzione di tha varianza unitaria, e Dtindica tutta

l’informa-zione disponibile al tempo t. Tuttavia sono necessarie alcune assunzioni riguardo i parametri di tale processo affinché la varianza sia positiva e si può verificare che le condizioni sufficienti sono

α0 > 0 αk≥ 0 k = 1, 2, . . . , k

con almeno un termine αk strettamente maggiore di zero perché si produca

eteroschedasticità nella serie. Uno dei principali problemi dei modelli ARCH con-siste nel fatto che il numero di parametri da stimare potrebbe essere molto elevato a causa della persistenza nella volatilità.

Una soluzione a questo problema è stata raggiunta generalizzando il modello ARCH seguendo le orme dei processi ARMA, dando vita ai cosiddetti modelli GARCH (Generalized ARCH). Essi assumono la stessa dinamica per i rendimenti, ma aggiungono un’ altra componente alla dinamica per la volatilità

α2t = α0+ α1r2t−1+ · · · + αpr2t−p+ β1σt−12 + · · · + βqσ2t−q

ed anche in questo caso è necessario imporre determinate condizioni sui para-metri affinché si verifichi eteroschedasticità ed σ2 sia positiva

α0 > 0 αk, βj ≥ 0 k = 1, 2, . . . , p j = 1, 2, . . . , q

Come avviene anche per i processi AR ed MA infine, anche il processo GARCH(p,q) può essere scritto come un processo ARCH(p) di ordine infinito, se le soluzioni del polinomio in β sono tutte esterne al cerchio unitario.1 Il vantaggio di

que-sti modelli consiste nel fatto che il più delle volte la que-stima di un GARCH (1,1) porta ad un modello accettabile dal punto di vista statistico ed utilizzabile a fini previsionali.

Uno sviluppo di tali modelli ha introdotto una dinamica aleatoria della vo-latilità. La volatilità stocastica è un processo latente di tipo autoregressivo e

1Se l’ equazione caratteristica

1 − β1z − β2z2− · · · − βqzq = 0

presenta soluzioni zi che sono tutte in modulo maggiori dell’ unità, allora il modello

GARCH(p,q) può essere scritto come:

α2t = α∗0+

X

i=1

(17)

non osservabile. La classe più semplice di modelli a volatilità stocastica usa la specificazione

rt= exp (ht/2)t (1.2)

ht= β0+ β1ht−1+ ηt (1.3)

t ⊥ ηt t, ηt∼ N (0, 1) (1.4)

che prende il nome di modello di Taylor (1986) (vedi anche Taylor (1994)) ed è la specificazione di riferimento che si userà nel corso di questa tesi.2 In

questo caso, rt rappresenta i log-rendimenti e conseguentemente ht rappresenta

la log-volatilità, come si può osservare dalla seguente:

V ar[rt|Dt, ht] = E[eht|Dt, ht] = eht (1.5)

E’ da notare che, se nei modelli ARCH e GARCH sono necessarie ulteriori ipotesi sui parametri per permettere che il modello sia stabile, in questo caso basta imporre che il coefficiente β1 sia in modulo strettamente minore di uno per

garantire la stazionarietà dei rendimenti, in quanto questa deriva esclusivamente dalla stazionarietà della log-volatilità ht.

E’ stato dimostrato in letteratura che tale specificazione generalmente funzio-na meglio dei modelli GARCH e dà risultati maggiormente soddisfacenti, tutta-via la sua diffusione è stata inizialmente frenata dalle complessità che derivano in sede di inferenza per tali modelli. In letteratura sono stati sviluppati nume-rosi strumenti per la stima del processo latente e dei parametri ignoti, utiliz-zando essenzialmente una rappresentazione state space del processo osservabile (log-rendimento) e del processo latente (log-volatilità) detto anche variabile di stato.

Nella sezione successiva si riprendono quindi i passi essenziali affrontati in letteratura su questo argomento.

1.2

Inferenza nei modelli

state space

Diversi problemi che riguardano l’analisi di un sistema dinamico richiedono la stima di un processo latente a partire da misurazioni effettuate sul sistema,

(18)

caratterizzate dal fatto che esse sono in qualche modo soggette ad un errore di misurazione (disturbo).

L’analisi bayesiana trova in questi problemi una naturale collocazione, in quan-to il teorema di Bayes funziona particolarmente bene con la rappresentazione state space ed in particolare con la stima di variabili non osservabili. Nella rap-presentazione state space si definiscono un’equazione di misurazione e una di stato:

yt = ft(xt, t) (1.6)

xt = gt(xt−1, ηt) (1.7)

dove la prima relazione definisce l’evoluzione del sistema, la seconda la dinamica degli stati latenti ed t, ηt sono i disturbi che possono essere anche non normali e

correlati. Le funzioni definite da ft e gt possono essere di qualsiasi tipo.

In questa rappresentazione gli stati dipendono esclusivamente dal valore as-sunto dalla variabile stessa al momento immediatamente precedente a quello cor-rente: si dice che il sistema è di tipo markoviano di primo ordine. Questo implica tuttavia che se al tempo t lo stato xt è noto, questo non fornisce nessuna ulteriore

informazione né sugli stati né sulle misurazioni future. Il sistema definito dalle equazioni (1.5) e (1.6) può essere rivisto in termini di distribuzioni condizionali (Lopes and Tsay (2011)):

yt|xt ∼ p(yt|xt) (1.8)

xt|xt−1 ∼ p(xt|xt−1) (1.9)

con le leggi di probabilità note e determinate dalle assunzioni sui termini di disturbo. Se definiamo x1:t = {x1, x2, . . . , xt} e similarmente per y1:t, il problema

di inferenza si riconduce alla stima della distribuzione di x1:t|y1:t, che prende il

nome di distribuzione a posteriori, o posterior distribution. Abbiamo pertanto: p(x1:t|y1:t) = p(x1:t, y1:t) p(y1:t) (1.10) p(x1:t, y1:t) = p(x1:t)p(y1:t|x1:t) (1.11) p(y1:t) = Z p(x1:t, y1:t)dx1:t (1.12)

(19)

dove, secondo le proprietà delle probabilità condizionali p(x1:t) = p(x0) t Y k=1 p(xk|xk−1) (1.13) p(y1:t|x1:t) = t Y k=1 p(yk|xk) (1.14) p(x0) ∼ P (·)

con p(·) che indica una generica distribuzione di probabilità. Se il modello è lineare e gaussiano, anche la probabilità a posteriori sarà gaussiana ed una volta generato il valore di partenza da x0 = P (·) si potrà facilmente calcolarne la forma

analitica tramite il Filtro di Kalman, di cui si tratterà brevemente nella prossima sezione.

Rilassando le ipotesi di normalità e linearità, le precedenti distribuzioni gene-ralmente non sono più note in forma chiusa e si crea la necessità di implementare metodi numerici diversi dal Filtro di Kalman. Una delle poche eccezioni è data dai sistemi non lineari a stati discreti, con numero finito di stati: in questo caso si applica il filtro di Hamilton.

Questi strumenti generalmente prendono il nome di filtri particellari, o particle filters, poiché il problema di inferenza di una variabile latente da una serie di variabili di misurazione prende il nome di filtraggio stocastico. Generalmente si fa rifermento a due grandi classi di strumenti numerici:

• metodi che fanno perno sulle Catene di Markov e sulle loro distribuzioni di equilibrio, ovvero i metodi Markov Chain Monte Carlo, MCMC ;

• metodi che utilizzando prevalentemente l’importance sampling e l’integra-zione Monte Carlo in maniera sequenziale, ovvero metodi Sequential Monte Carlo (SMC), detti anche appunto filtri particellari.

In questa tesi si farà riferimento ai metodi SMC, mentre per i metodi MCMC si rinvia a Robert and Casella (2004).

1.2.1

Il Filtro di Hamilton

Se si assume che le equazioni definite in (1.8) e (1.9) siano

yt|xt ∼ ft(yt|xt) (1.15)

(20)

con i, j ∈ (1, 2, . . . , k) e k < ∞, allora ft(yt|xt) definisce la densità di misura che

può essere anche non normale mentre P (xt = i|xt−1 = j) rappresenta invece la

matrice di transizione di una catena di Markov a tempo discreto. Lo strumento ottimale per l’inferenza su questo tipo di sistemi è il filtro di Hamilton (Hamilton (1994)), che è dato dalle seguenti equazioni:

p(xt|y1:t−1) = k X j=1 k X i=1 δi(xt)P (xt|xt−1 = j)p(xt−1 = j|y1:t−1) (1.17)

per la fase di predizione, dove δx è una massa di Dirac in x ed utilizzando le

equazioni di Chapman e Kolmogorov3 otteniamo:

p(xt|y1:t) = Pk i=1δi(xt)p(xt|y1:t−1)p(yt|xt) Pk j=1p(xt = j|y1:t−1)p(yt|xt= j) (1.18) per la fase di aggiornamento. Nessuna assunzione in particolare è fatta per p(xt|xt−1)

e p(yt|xt), l’unico requisito è che siano note (si veda Arulampalam et al. (2002),

p.175-176).

1.2.2

Il Filtro di Kalman

Se le funzioni gt(·) e ft(·) nelle equazioni (1.6) e (1.7) sono note e lineari ed

disturbi t e ηt sono estratti da distribuzioni gaussiane, anche la posterior sarà

gaussiana e quindi completamente definita da una media e da una matrice di covarianza. Quello che fa il filtro di Kalman è calcolare ricorsivamente media e matrice di covarianza della probabilità a posteriori delle variabili di stato. Le formule (1.5) e (1.6) che descrivono il sistema possono essere riviste come

xt= Ftxt−1+ ηt (1.19)

yt = Htxt+ t (1.20)

con Ft e Ht matrici note che definiscono il sistema lineare ed i disturbi t e ηt

caratterizzati da matrici di covarianza rispettivamente Rt e Qt. Il procedimento

per il calcolo della probabilità a posteriori vieni quindi spezzato in due passi, il

3Se la densità p(x

t−1|y1:t−1) è disponibile al tempo t − 1, la fase di predizione utilizza

p(xt, y1:t−1

Z

p(xt|xt−1)p(xt−1|y1:t−1dxt−1

per determinare la densità degli stati al tempo t, e tale relazione è chiamata equazione di Chapman-Kolmogorov

(21)

primo chiamato fase di predizione ed il secondo fase di aggiornamento. Nel primo step troviamo la probabilità condizionale ad y1:t−1, nel secondo passo

modifichia-mo tale probabilità fino ad includere nel condizionamento l’osservazione yt. Se

consideriamo il caso in cui i disturbi siano non correlati, si ha che

p(xt|y1:t−1) ∼ N (mt|t−1 , Pt|t−1) (1.21)

dove

mt|t−1 = Ftmt−1|t−1 (1.22)

Pt|t−1= Qt−1+ FtPt−1|t−1Ft0 (1.23)

per la fase di predizione, mentre per la fase di aggiornamento

p(xt|y1:t) ∼ N (mt|t , Pt|t) (1.24)

dove

mt|t = mt|t−1+ Kt(yt− Htmt|t−1 (1.25)

Pt|t = Pt|t−1− KtHtPt|t−1 (1.26)

dove Kt e St prendono il nome rispettivamente di guadagno di Kalman e

covarianza del termine di innovazione (yt− Htmt|t−1) e sono definite da

Kt= Pt|t−1Ht0S −1

t (1.27)

St = HtPt|t−1Ht0+ Rt (1.28)

Queste ricorsioni forniscono il filtro bayesiano ottimo se le condizioni di nor-malità e gaussianità sussistono, ovvero non esiste metodo che produca risultati migliori sotto queste ipotesi. Partendo da un valore generato da una prior scelta opportunamente, l’algoritmo di Kalman permette di ottenere una stima ricorsiva ottima degli stati.

Tuttavia tali condizioni sono particolarmente restrittive e non realistiche, so-pratutto per quanto riguarda le serie storiche finanziarie, in cui difficilmente le ipotesi di linearità e normalità sono soddisfatte.

1.2.3

Metodi Monte Carlo sequenziali

Strumenti diversi sono necessari se ad esempio l’equazione di misurazione o degli stati non sono più lineari o le assunzioni di normalità non sussistono più. Si è dovuto ricorrere quindi a metodi approssimati, in quanto le soluzioni del problema

(22)

non sono più disponibili analiticamente. In letteratura sono stati proposti diversi metodi sequenziali in caso di sistema non lineare :

• Filtro di Kalman esteso che prevede un’approssimazione lineare del sistema e quindi l’applicazione del filtro di Kalman al sistema linearizzato;

• filtri particellari di diverso tipo che possono essere applicati direttamente al sistema non lineare.

dove i secondi forniscono un’approssimazione della distribuzione a posteriori tra-mite una distribuzione di probabilità discreta, dato che media e matrice di cova-rianza non sono più sufficienti per descrivere completamente la posterior.

I filtri particellari sono una classe di metodi Monte Carlo che campionano in modo sequenziale da una serie di distribuzioni di probabilità di dimensione sempre maggiore. Come si trova in Doucet and Johansen (2008), i metodi SMC partono dal seguente contesto generale

πt(x1:t) =

γt(x1:t)

Zt

(1.29) in cui π(·) e γ(·) indicano una generica densità di probabilità e Zt una costante

di normalizzazione, definita come Zt=

Z

γt(x1:t) dx1:t (1.30)

che può essere ignota. Tali metodi forniscono quindi una stima sequenziale di π(x1) e Z1 al tempo t = 1, e cosi via fino al tempo n. Nel caso del filtraggio

stocastico, abbiamo γt(x1:t) = p(x1:t, y1:t), Zt = p(y1:t) in modo che la densità

target, πt(x1:t), sia esattamente p(x1:t|y1:t).

Tipicamente il problema principale consiste nel fatto che non si riesce a cam-pionare direttamente da πt(x1:t)a causa dell’elevata dimensione del vettore x1:tdi

variabili da simulare ed anche se ciò fosse possibile, i costi computazionali di tale operazione sarebbero molto elevati. E’ prassi quindi utilizzare una densità cono-sciuta da cui sia semplice campionare e che approssimi la densità iniziale da cui si vuole ottenere un campione: questa operazione è nota come importance sam-pling. Se definiamo come q(x1:t) la nostra densità da cui è possibile campionare

(23)

(proposal density), le equazioni (1.9) e (1.10) diventano πt(x1:t) = qt(x1:t)ωt(x1:t) Zt (1.31) Zt= Z qt(x1:t)ωt(x1:t) dx1:t (1.32)

in cui i pesi ωt sono i pesi non normalizzati definiti dal rapporto

ωti(x1:t) =

γt(x1:t)

qt(x1:t)

(1.33) che vengono detti pesi di importanza. E’ chiaro quindi che la proposal gioca un ruolo fondamentale nell’approssimazione: seguendo sempre Doucet and Johansen (2008), la densità ottimale da scegliere per minimizzare la varianza dei pesi sul piano teorico dovrebbe essere esattamente πt(x1:t) ma non essendo possibile ciò

la scelta deve cadere in una distribuzione che meglio approssimi questa. Una volta estratto il campione e valutati i pesi, la distribuzione target è approssimata secondo ˜ πt(x1:t) = N X i=1 e ωtxi 1:t(xi) (1.34) ˜ Zt= 1 N N X i=1 ωt(xi1:t) (1.35) ˜ ωt = ωt(xi1:n) PN j=1ωt(x j 1:t) (1.36) in cui N è il numero massimo di particelle utilizzate ad ogni singolo istante temporale e δx(·) indica una delta di Dirac calcolata nel punto x. Scegliendo

adeguatamente la funzione di importanza, si riesce a rendere sequenziale questo algoritmo e ad ottenere una stima degli stati per ogni nuova misurazione yt. In

particolare se tale funzione è esattamente uguale a

qt(x1:t) = qt−1(x1:t−1)qt(xt|x1:t−1) (1.37) = q1(x1) t Y k=2 qk(xk|x1:k−1) (1.38)

si può dimostrare che è possibile ottenere le particelle Xi campionando x1 da

(24)

i relativi pesi ricorsivamente secondo ωt(x1:t) = ω1(x1) T Y j=2 αj(x1:j) (1.39) αj(x1:j) = γj(x1:j) γj−1(x1:j−1)qj(xj|x1:j−1) (1.40)

con αt(x1:t) che viene anche chiamata incremental importance weight

func-tion. Una rappresentazione in pseudocodice dell’algoritmo Sequential Importance Sampling è data in Alg. 1.

Algoritmo 1 Sequential Importance Sampling (SIS)

1. t=1; 2. for i = 1 → N do 3. Campiona X1i da q1(x1); 4. Calcola i pesi ω1(xi1)e W1i; 5. end for; 6. t ≥ 2 , t → T ; 7. for i = 1 → N do 8. Campiona Xti da qt(xi t|X1:t−1i ); 9. Calcola i pesi ωt(Xi t) = ωt−1(X1:t−1i )αt(X1:ti ); 10. end for 11. return (xi T , WTi)

Questo algoritmo (si veda Kitagawa (1996)) è ampiamente diffuso grazie alla sua semplicità di implementazione ma il suo utilizzo può portare a degli svantaggi quali in primis il problema di degenerazione delle particelle: dopo alcuni passi, la maggior parte dei pesi ωt avrà valori prossimi allo zero e la densità a posteriori

diventerà quindi degenere in un unico o pochi punti. In altre parole gran parte dei costi computazionali saranno spesi per aggiornare delle particelle il cui peso è trascurabile e l’algoritmo diventa di fatto inutilizzabile.

Una delle idee introdotte per oltrepassare questo problema è quella di ricam-pionare ad ogni passo le particelle, ovvero estrarre dei nuovi stati dalla distribuzio-ne (discreta) a posteriori sulla base dei pesi correnti: in questo modo le particelle con peso prossimo allo zero non verranno ricampionate ed il nuovo vettore degli stati sarà ricostituito solo dalle particelle con peso più grande, in quanto maggiore sarà la probabilità di queste di essere estratte. Questo passo prende il nome di re-sampling ma è necessario stabilire quando implementare il ricampionamento visto

(25)

che questo potrebbe risultare superfluo e quindi aggiungere costi computazionali non necessari.

Una prima soluzione introdotta da Liu and Chen (1998) è quella di ricam-pionare ogni volta che il numero effettivo di particelle utilizzate Neff (quindi con

peso diverso da zero) scende sotto una soglia predeterminata, ovvero

Neff ≤ NT (1.41) Neff = Ns 1 + V ar(ˆωi t) (1.42) dove NTè un qualche valore (numero di particelle significative minimo) al di sotto

del quale ha luogo il ricampionamento e ˆωi

ksono i pesi reali che non possono essere

calcolati analiticamente ma al loro posto si utilizza una stima pari a d Neff = 1 PNs i=1(ω i t)2 (1.43) dove ωi

t sono i pesi normalizzati ottenuti dall’algoritmo, Neff indica il numero

effettivo di particelle utilizzate mentre Nssono le particelle totali del campione. Si

ha il problema di degenerazione quando il numero effettivo di particelle utilizzate è di molto inferiore al numero di particelle totali del campione (si veda anche Arulampalam et al. (2002)).

Esistono diversi metodi per implementare di fatto il resampling quali ad esem-pio il ricamesem-pionamento sistematico o residuale.4 Il metodo utilizzato nella stima

del modello di questa tesi è quello multinomiale, che consiste nell’estrarre Ns

par-ticelle da una distribuzione multinomiale utilizzando i pesi ˆωt come parametro

di tale distribuzione. Applicando questo metodo all’ Alg. 1 otteniamo un nuo-vo algoritmo che prende il nome di adaptive sequential importance resampling (ASIR) se il ricampionamento è effettuato quando il numero di particelle scende sotto una determinata soglia, o semplicemente sequential importance resampling (SIR) se invece il ricampionamento è effettuato a prescindere in ogni passo. La rappresentazione in pseudo-codice in questo secondo caso è data in Alg. 2 mentre la Figura 1.1 rappresenta graficamente l’idea del ricampionamento.

4Si vedano Kitagawa (1996), Doucet and Johansen (2008) o Hol et al. (2006) per un

(26)

Figura 1.1: Uno schema di come funziona un generico algoritmo con ricampionamento. Le particelle che hanno una bassa likelihood non vengono portate al passo successivo e sono quindi eliminate. Fonte: Chen (2003)

Algoritmo 2 Sequential Importance Resampling (SIR)

1. t=1; 2. for i = 1 → Ns do 3. Campiona X1i da q1(x1); 4. Calcola i pesi ω1(xi 1)e W1i; 5. Ricampiona (ωi1, Xi 1) → (ωi1, X i 1); 6. end for; 7. t ≥ 2 , t → T ; 8. for i = 1 → Ns do 9. Campiona Xti da qt(xit|X i 1:t−1) e quindi X1:ti → (X i 1:t, Xti); 10. Calcola i pesi ωt(Xti) = ωt−1(X1:ti )αt(X1:ti ); 11. Ricampiona (ωit, Xi t) → (ωit, X i t); 12. end for 13. return (xi T , WTi)

Se da una parte ciò riduce il problema della degenerazione della distribuzione a posteriori, l’algoritmo SIR porta ad una sostanziale uniformità delle particelle selezionate, poichè quelle con peso maggiore saranno duplicate più volte. Questo problema di impoverimento del campione (sample impoverishment) è stato ana-lizzato in letteratura e può essere ovviato usando sia le tecniche MCMC sia un algoritmo che è noto sotto il nome di resample-move.

(27)

Riassumendo, tra i due algoritmi fin qui presentati il secondo è da preferire al primo in quanto grazie al ricampionamento riesce a stimare meglio la distribu-zione a posteriori evitando la degeneradistribu-zione. Oltre al ricampionamento, un’altro punto chiave risiede nella scelta della giusta funzione di importanza, che se fatto-rizzata secondo la (1.37) permette quindi la stima sequenziale degli stati latenti. Tuttavia questa non è la funzione di importanza ottimale per il filtro5 che nella

maggiorparte dei casi è difficile da trattare analiticamente.

E’ prassi utilizzare come approssimazione della funzione di importanza attua-le l’equazione di evoluzione degli stati, poichè è un’idea conveniente sul piano computazionale e semplice da implementare. In questo caso avremo che

qt(xt|x1:t−1) = p(xt|xt−1) (1.44)

poichè assumendo che xt sia un processo markoviano al primo ordine la densità

di transizione risulta dipendente solamente da xt−1 e si possono escludere tutti i

precedenti valori dal condizionamento. Le equazioni (1.39) e (1.40) possono essere viste alternativamente come

ωt(x1:t) ∝ ωt−1(x1:t−1)

p(yt|xt)p(xt|xt−1)

q(xt|xt−1)

(1.45) e sostituendo la funzione di importanza come definita dalla (1.44) i pesi diventano valutabili semplicemente come

ωt(x1:t) ∝ ωt−1(x1:t−1)p(yt|xt) (1.46)

e quindi l’algoritmo può valutare semplicemente sia i pesi ad ogni iterazione che campionare dalla funzione di importanza.

Un ulteriore sviluppo dell’algoritmo SIR è dovuto a Pitt and Shephard (1999) secondo cui la misurazione al tempo t è utilizzata per implementare il ricampio-namento in modo da determinare quali particelle effettivamente vengono portate al passo successivo. Per fare ciò, si introduce una variabile ausiliaria k che rappre-senta l’indice della particella all’istante temporale immediatamente precedente. Si campionano i = 1, 2, . . . , Ns coppie {xit, ki} da una funzione di importanza scelta

come

qt(xt, k|y1:t) ∝ p(y1:t|µkt)p(xt|xkt−1)ω k

t−1(xt−1) (1.47) 5In termini di minimizzazione della varianza dei pesi, o alternativamente seguendo le

equa-zioni (1.42) e (1.43), di massimizzazione del numero di particelle effettive. L’uso della funzione ottimale è possibile se gli stati appartengono ad un set finito o se la distribuzione a posteriori è gaussiana. Si veda al riguardo Arulampalam et al. (2002), p.179.

(28)

dove µk

t è una qualche funzione delle particelle ottenute al tempo t come ad

esempio la media. Possiamo definire meglio la funzione di importanza descritta sopra come qt(xt, k|y1:t) ∝ qt(k|y1:t)qt(xt|k, y1:t) (1.48) qt(xt|k, y1:t) = p(xt|xkt−1) (1.49) da cui qt(k|y1:t) ∝ p(y1:t|µkt)ω k t−1(xt−1) (1.50) e la coppia di particelle {xi

t, ki} selezionate partendo da questa proposal avrà pesi

che saranno valutati tramite

ωt(xt) =

p(yt|xkt)

p(yt|µkt)

(1.51) e le particelle che approssimeranno la densità a posteriori saranno semplicemente ottenute omettendo l’indice k dalle coppie di particelle estratte. L’algoritmo 3 riassume i passi descritti fino ad ora.

Algoritmo 3 Auxiliary Particle Filter (APF)

1. t=1

2. for i = 1 → Ns do

3. Campiona X1i dalla distribuzione a priori; 4. end for; 5. t ≥ 2 , t → T ; 6. for i = 1 → Ns do 7. Valuta µit = E[xit|xt−1]; 8. Calcola i pesi ωt(xi t) = p(yt|µit); 9. Calcola Wti;

10. Ricampiona Ns volte da {i} con probabilità Wti e chiama tale indice {k}:

11. xk

t = p(xt|xkt−1);

12. ωetk= p(yt|xkt

p(yt|µkt);

13. Calcola i pesi normalizzati Wftk;

14. Ricampiona i = {1, 2, . . . , Ns} particelle xit con probabilità pari a fWti;

15. end for

16. return (xi

T ,WfTi)

Nulla fino a qui è stato detto al riguardo dei parametri che potrebbero essere presenti in un modello a volatilità stocastica. Esistono alcuni strumenti che

(29)

ol-tre agli stati riescono, attraverso specifiche assunzioni riguardo tali parametri, a fornire una stima sul loro valore congiuntamente al valore degli stati.

Poichè questo algoritmo è quello utilizzato per la stima dei modelli di questa tesi, esso verrà presentato brevemente nel capitolo successivo per poi passare alla descrizione specifica delle tre configurazioni considerate in questa sede.

(30)
(31)

Modelli con distribuzioni a code

spesse

2.1

Filtraggio congiunto di parametri e stato

Riprendendo le equazioni (1.2) e successive che definiscono il modello a volati-lità stocastica analizzato in questa sede, si può notare come sia necessario stimare il valore del vettore βi, i = {1, 2} di parametri ignoti. Una soluzione consiste

nel-l’aggiungere al vettore degli stati quello dei parametri e procedere alla stima: al tempo t avremo quindi un campione formato da una coppia di stati e parametri, {xi

t, θti} con i relativi pesi {ωti} che rappresentano la distribuzione a posteriori di

p(xi

t, θti|Dt), con Dt che indica tutta l’informazione disponibile fino al tempo t. Il

pedice relativo al vettore di parametri non sta ad indicare la variabilità rispetto al tempo, bensì che esso è relativo all’istante temporale t. Se volessimo generare campioni al tempo t+1 (avendo ottenuto la nuova informazione yt+1), applicando

le proprietà della probabilità condizionata ed il teorema di Bayes troviamo p(xt, θ|Dt) ∝ p(yt+1|xt+1, θ)p(xt+1, θ|Dt)

∝ p(yt+1|xt+1, θ)p(xt+1|θ, Dt)p(θ|Dt) (2.1)

da cui emerge chiaramente che è fondamentale in questo caso conoscere la densità di p(θ|Dt). Se i parametri fossero noti allora tale densità sarebbe degenere e non

avrebbe più alcun senso lasciare θ nel condizionamento delle densità indicate sopra, permettendo così di applicare i normali metodi di filtraggio stocastico.

In letteratura troviamo due strade che affrontano il problema di come trattare l’evoluzione dei parametri. Inizialmente Gordon (1993) propose una dinamica per gli stati che contava anche su di un disturbo, al fine di ridurre il problema della

(32)

degenerazione delle particelle e questa idea è stata trasferita anche nel metodo di stima dei parametri. Si parte così stabilendo una densità di evoluzione dei parametri, ad esempio:

θt= θt−1+ ζt (2.2)

ζt ∼ N (0, Wt) (2.3)

da cui

θt ∼ N (θt − 1, σ2ζ) (2.4)

con una matrice di covarianza Wt definita a priori. Questo tipo di evoluzione

risulta particolarmente utile poichè riesce a generare ad ogni istante temporale un nuovo set di parametri ma ha il grosso svantaggio di considerare come variabili nel tempo parametri che invece nel modello vero sono fissati e costanti e ciò produce una sorta di perdita di informazioni, producendo una risultato di stima scarso.

Partendo da questa base, West (1993) sviluppò un metodo per una stima della densità dei parametri ignoti richiesta dalla (2.1) tramite una mistura di normali. Avendo disponibile una campione rappresentativo della densità a posteriori di p(θ|Dt), indichiamo con ¯θt la media a posteriori valutata su tale campione mentre

Vt indica la relativa matrice di covarianza empirica del campione. La densità è

quindi approssimata dalla seguente mistura di normali multivariate: p(θ|Dt) ≈ ω (j) t N X j=1 N (θ|m(j)t , h2Vt) (2.5)

con h2 usato come parametro per regolare la matrice di covarianza, che dovrebbe

essere scelto in modo da concentrare i singoli componenti della mistura intorno alle loro medie m(j)

t per un numero elevato N di iterazioni. I parametri di location

sono invece definiti in modo da tenere conto sia del valore dei nuovi parametri estratti da questa evoluzione sia della loro media, in modo da ottenere una densità che non è troppo dispersa rispetto alla densità reale. Si definisce così

m(j)t = αθt(j)+ (1 − α)¯θt (2.6)

dove α = √1 − h2 ha il ruolo di settare la giusta varianza e la giusta location

della mistura, evitando così una distribuzione troppo diffusa.

(33)

in letteratura è stato proposto da Liu and West (2001), noto altresì come filtro di Liu e West. L’intuizione dei due autori sta essenzialmente nel combinare le idee di West (1993) con una variabile attraverso la quale è possibile calibrare contemporaneamente i parametri della mistura kernel e quindi procedere alla stima utilizzando questa evoluzione artificiale per i parametri, includendoli nel vettore degli stati. Seguendo sempre Liu and West (2001) abbiamo

p(θ|Dt) ≈ ω (j) t Ns X j=1 N (θ|m(j)t , h2Vt) (2.7) α = √1 − h2 (2.8) h2 = 1 − α2 (2.9) nella maggior parte dei casi, come suggerito anche da Lopes and Polson (2010), conviene utilizzare un valore di α che sia uguale o maggiore a 0.98.

Una volta che si è definita la dinamica, il filtro di Liu e West procede quindi con la stima del vettore aumentato utilizzando l’APF di Pitt and Shephard (1999).

A tal proposito, richiamando l’eq. (1.47), nel caso di un modello a volatilità stocastica in letteratura si suggerì di approssimare p(yt|xt−1)con p(yt|µt), dove µt

indica solitamente la media delle particelle al tempo t. Ciò avviene principalmente perchè la densità p(yt|xt−1)non è di norma disponibile. Nel modello di questa tesi

si avrà quindi: µit = E[xit|xit−1, mti] = mi0+ mi1xit−1 (2.10) p(yt|µit, m i t) ∝ N (yt; 0, em i 0+mi1xit−1) (2.11) p(yt|xit, θ i t) ∝ N (yt; 0, ex i t) (2.12)

dove l’assunzione di distribuzione normale per le distribuzioni elencate sopra di-pende essenzialmente dalla specificazione del modello adottata (in questo caso i disturbi sono gaussiani).

Tornando al problema iniziale della stima congiunta di parametri e stati, uti-lizzando la dinamica indicata nella (2.5) e implementando il filtro di Liu e West, i passi da compiere sono riassunti nell’alg. 1.

Un altro metodo che consente la stima congiunta di parametri e stati è stato ideato da Carvalho et al. (2010) e Lopes et al. (2010) ed è noto come particle learning. In breve, questo filtro unisce un algoritmo di tipo resample propagate con il mixture Kalman Filter (MKF) di Chen e Liu, riuscendo ad ottenere stime migliori rispetto a quelle ottenute utilizzando l’algoritmo 1.

(34)

Presentati gli strumenti con cui si opererà in questa sede, nella sezione suc-cessiva si presentano quindi i modelli analizzati.

Algoritmo 1 Filtro di Liu e West per la stima di parametri e stati (LWF)

1. t=0

2. {xi0 , θ0i , fW0i}

3. for t = 1 → T do

4. for i = 1 → Ns do

5. Calcola le stime puntuali del campione disponibile {xit, θti, ωti}:

6. µit+1 = E[x1|xit, θti];

7. mit = αθit+ (1 − α)¯θt;

8. Calcola i pesi tramite:

9. gt+1i ∝wetip(yt+1|µit+1, mit);

10. Campiona un nuovo indice k = {1, 2, . . . , Ns} con probabilità gt+1i ; 11. Campiona un nuovo vettore di parametri θkt+1 tramite:

12. θk

t+1 ∼ N (mkt+1, h2Vt+1);

13. Campiona un nuovo vettore di stati xkt+1 dall’eq. di evoluzione degli stati: 14. xkt+1 ∼ p(xkt+1|xk

t, θkt)

15. Valuta i corrispondenti pesi: 16. ω˜kt+1∝ p(yt+1|xkt+1,θkt+1)

p(yt+1|µkt+1,mkt+1);

17. Calcola i pesi normalizzati fWt+1k ;

18. end for;

19. end for;

20. return {xkT , θkT , WfTk}

2.2

Il modello

Richiamando la specificazione introdotta da Taylor nelle equazioni (1.2) -(1.4), l’idea è quella di andare a modificare la distribuzione degli errori nell’equa-zione dei rendimenti rendendo possibile che la distribunell’equa-zione di questi ultimi non sia più solamente normale bensì ammetta anche delle code con peso maggiore (e quindi con valori estremi più frequenti).

Nello specifico andremo prima a considerare un modello con errori di tipo gaussiano ed in seguito modificheremo tale assunzione introducendo degli errori distribuiti come una t di Student e come una GEV.

(35)

2.2.1

Errori 

t

∼ N(0,1)

Facendo riferimento ai modelli state space e riprendendo il modello di Taylor, modificando la notazione possiamo scrivere

yt= ext/2+ t (2.13)

xt= β0+ β1xt−1+ ηt (2.14)

t ⊥ ηt t, ηt∼ N (0, 1) (2.15)

o, alternativamente possiamo considerare la specificazione in termini di distribu-zioni, ovvero

p(yt|xt, θt) ∼ N (0, extσ2) (2.16)

p(xt|xt−1, θt) ∼ N (β0+ β1xt−1, ση2) (2.17)

in cui θt è il vettore di parametri da stimare {β0, β1}. Per stimare gli stati

unita-mente al vettore θt (dove il pedice non indica che il vettore è variabile nel tempo

bensì che si riferisce a quel determinato istante temporale) si è usato il filtro di Liu-West come spiegato nell’algoritmo 1.

In particolare si sono generate 1000 osservazioni yt da un modello a volatilità

stocastica così come specificato dalle equazioni (2.13) - (2.15). La serie storica ottenuta ed il suo istogramma sono presentati nelle figure 2.1 e 2.2 nella pagina seguente. In particolare, si è scelto di simulare impostando arbitrariamente come

Figura 2.1: Istogramma della serie storica generata tramite il modello SV con errori gaussiani

(36)

Figura 2.2: Grafico dei livelli generati tramite il modello SV con errori gaussiani. Il grafico riporta anche media e deviazione standard empiriche calcolate su tutto il campione simulato.

parametri θt = {β0, β1} = {0.45, 0.8} ed una varianza del termine di disturbo

degli stati pari a σ2

η = 1. Le prior distribution utilizzate per la stima dei parametri

nell’equazione degli stati sono le seguenti:

β0 ∼ U (−1.5, 1.5) (2.18)

β1 ∼ U (−0.98, 0.98) (2.19)

escludendo in questo modo che β1 potesse assumere valori |β1| ≥ 1 per garantire

che il processo degli stati rimanga stazionario. Gli stati x0 sono stati inizializzati

tramite una diffuse prior, visto che xt ∈ R:

x0 ∼ N (0, 10) (2.20)

La varianza dei log-rendimenti è pari esattamente a ext (ovvero alla log-volatilità)

poichè il temine di disturbo ha media zero e varianza unitaria: il filtro di Liu-West è stato applicato alla serie storica grezza, cioè senza trasformazioni. Nella figura 2.3 e successive si riportano i risultati del filtraggio per parametri, log-volatilità e Root Mean Square Error relativo agli stati.

(37)

Figura 2.3: Valore dei parametri stimati dal modello al variare del tempo. La linea rossa indica il parametro teorico mentre quella blu il valore stimato dal filtro.

Figura 2.4: Grafico della log-volatilità stimata tramite il modello a errori gaussiani. Le bande tratteggiate indicano i quantili 0.975 e 0.025, mentre la linea rossa è la log-volatilità simulata.

(38)

Figura 2.5: Andamento del RMSE della log-volatilità, xt.

Nel complesso il modello normale funziona abbastanza bene, riuscendo a sti-mare parametri e volatilità senza grosse distorsioni. La serie simulata presenta una varianza empirica pari a 22.20. Nella sezione successiva si utilizza quindi una distribuzione t-Student per i disturbi, introducendo la possibilità di oscillazioni nella serie dei rendimenti maggiormente estreme.

2.2.2

Errori 

t

∼ t-Student(ν)

Se si cambia la distribuzione del termine di errore, mantenendo fissa l’ipotesi di normalità per l’equazione degli stati, la nuova densità dei log-rendimenti non sarà più gaussiana. L’idea è quella di rappresentare le equazione (2.13) in modo che possa essere interpretata, in termini di distribuzioni, come:

p(yt|xt, θt) ∼ tν(0, extσ2) (2.21)

dove

t ∼ tν(0, σ2) (2.22)

σ2 = ν

(39)

Poichè la t-Student standard ha media pari a zero ma varianza definita dai gradi di libertà ν, il modello è stato rivisto utilizzando la distribuzione t in termini di parametri di scala e location, in modo da poter includere ν nel vettore di parametri da stimare senza intaccare di conseguenza la varianza.1

Il modello utilizzato è definito quindi tramite: yt = ext/2 r ν − 2 ν t (2.24) xt= β0+ β1xt−1+ ηt (2.25) t ⊥ ηt t ∼ tν(µ, σ2) , ηt ∼ N (0, 1) (2.26)

dove µ = 0 è il parametro di location e σ = 1 è il parametro di scala, ottenendo

in questo modo una varianza corretta per yt pari alla log-volatilità:

V ar[y|x, θ, ν] = Eh(ex/2 r ν − 2 ν ) 2|x, θ, νi (2.27) = E h exν − 2 ν σ 2 |x, θ, ν i (2.28) = exν − 2 ν ν ν − 2σ 2  (2.29) = ex (2.30)

Si sono generate da questa specificazione T = 1000 osservazioni e si è poi applicato il filtro di Liu e West sulla serie così ottenuta. Nelle due figure 2.6 e 2.7 si mostrano i risultati della simulazione.

1In realtà si potrebbe usare un’altro metodo per rendere i rendimenti distribuiti come una

tν ∼ (0, 1), utilizzando una mistura di normali ed introducendo un ulteriore parametro da

(40)

Figura 2.6: Istogramma della serie storica generata tramite il modello SV-t

Figura 2.7: Grafico dei livelli della serie generata tramite il modello SV-t. Il grafico riporta anche media e deviazione standard empiriche calcolate su tutto il campione simulato.

(41)

con-giuntamente al vettore β = {β0, β1}. Si è deciso quindi di inizializzare il parametro

dei gradi di libertà, ν, con una distribuzione uniforme su (3,40) estremi compre-si. La scelta di un limite inferiore pari a 3 garantisce l’esistenza di una varianza finita, mentre si nota che p(y|ν) non cambia molto per valori di ν > 40 e per-ciò escludendo questo range di valori non limita in alcun modo il funzionamento generale del modello (Jacquier et al. (2004)) .

Per la prima fase di resampling e successiva prediction, ν è stato ricampionato sempre con il metodo multinomiale e propagato poi con la densità normale definita da Liu e West. Si è implementato un metodo di calcolo dei pesi leggermente differente, utilizzando il seguente schema:

ωβ,t ∝ tν˜t(yt; 0, Sµt) (2.31) ˜ νt = ανti+ (1 − α)¯νt (2.32) Sµt = p(V ar[yt|E[xt], θt, ˜νt]) (2.33) = e(β0,t+β1,txt−1)/2r ˜νt− 2 ˜ νt (2.34) per i pesi relativi al vettore β,

ων,t ∝ tνt(yt; 0, Sµt¯ ) (2.35) Sµt¯ = e( ¯β0,t+ ¯β1,tx¯t−1)/2 r νt− 2 νt (2.36) ¯ xt−1 = E[xit−1] (2.37) ¯ βt = E[βti] (2.38)

per i pesi relativi al parametro ν. In questo modo i pesi utilizzati per il ricam-pionamento dei gradi di libertà sono stati valutati utilizzando le stime puntuali sia di xi

t, sia di βti in modo che l’unica variabile che influenzasse il valore del peso

fosse ν.

Similarmente, i pesi per il ricampionamento finale, dopo che gli stati ed i parametri sono stati propagati, sono stati definiti come:

˜ ωβ,t ∝ tν˜t(yt; 0, Sxt) tν˜t(yt; 0, Sµt) (2.39) Sxt = ext/2 r ˜νt− 2 ˜ νt (2.40)

(42)

leggermente: ˜ ων,t ∝ tν˜t(yt; 0, S¯xt) tν˜t(yt; 0, Sµt¯ ) (2.41) Sxt¯ = ex¯t/2 r νt− 2 νt (2.42) (2.43) per i pesi finali del parametro relativo ai gradi di libertà. Per evitare infine che l’algoritmo campionasse valori di ν ≤ 2 nello step di propagazione, è stato inserito anche un ciclo if ad ogni iterazione che sostituisse tali valori imponendoli uguali a 3. Sempre a fini di stabilità complessiva della stima, è stata aggiunta una quantità infinitesimale alle equazioni (2.31), (2.39) e (2.41) per evitare che fossero uguali a zero.

I risultati del filtraggio sui dati simulati sono riassunti nelle figure 2.8, 2.9 ed 2.10.

Figura 2.8: Valore dei parametri stimati dal modello al variare del tempo. La linea rossa indica il parametro teorico mentre quella blu il valore stimato dal filtro.

(43)

Figura 2.9: Grafico della log-volatilità stimata tramite il modello SV-t. Le bande trat-teggiate indicano i quantili al 97.5 e allo 0.025, mentre la linea rossa è la log-volatilità simulata.

Figura 2.10: Andamento del RMSE della log-volatilità, xt per il modello SV-t.

(44)

seguono una distribuzione Generalized Extreme Value (GEV).

2.2.3

Errori 

t

∼ GEV(0,1,ξ)

Per permettere ai rendimenti di assumere valori ancora più estremi si sono modellati i disturbi con una distribuzione GEV. Come accade per la t-Student, questa distribuzione è caratterizzata da un parametro ξ ∈ R che determina la forma della distribuzione e che deve essere stimato a partire dai dati.

La distribuzione GEV in realtà ha una funzione di densità di probabilità che degenerain tre distinti tipi di distribuzione a seconda del valore assunto da ξ, con tre distinte definizioni di media e varianza per ogni distribuzione. Ciò ha posto il problema di rendere la varianza di yt esattamente uguale ad ext e la media pari

a zero.

A tal fine, il modello di partenza di Taylor è stato modificato nella seguente forma: yt= ext/2 s 1 1 ξ2(Γ2− Γ21) t (2.44) xt = β0+ β1xt−1+ ηt (2.45) t⊥ ηt t∼ GEV(µ, σ, ξ) , ηt ∼ N (0, 1) (2.46)

dove Γk = Γ(1 − kξ), µ = 0 è il parametro di location mentre σ = 1 definisce

il parametro di scala. Per la distribuzione GEV vale la seguente definizione di varianza:

V ar[] = σ2 1

ξ2(Γ2− Γ 2

1) (2.47)

dove σ2 indica il parametro di scala unitario per convenzione e conseguentemente

la varianza di yt diventa: V ar[y|x, θ, ξ] = Eh(ex/2 s 1 1 ξ2(Γ2− Γ21) )2|x, θ, ξi (2.48) = Ehex 1 1 ξ2(Γ2− Γ21) σ2|x, θ, ξi (2.49) = ex 1 1 ξ2(Γ2− Γ21) σ2 1 ξ2(Γ2− Γ 2 1) (2.50) = ex (2.51)

(45)

stata tolta poi la media empirica per rendere i rendimenti a media zero. Il vettore β è stato scelto come nelle precedenti simulazioni, ovvero β = 0.45, 0.8. E’ stato poi applicato il filtro di Liu e West con un numero di particelle n = 10000. I risultati della serie simulata vengono indicati nelle figure 2.12 e 2.11.

Figura 2.11: Istogramma delle osservazioni generate tramite il modello SV-GEV

Figura 2.12: Grafico dei livelli della serie generata tramite il modello SV-GEV. Il gra-fico riporta anche media e deviazione standard empiriche calcolate su tutto il campione simulato.

(46)

Per la stima del parametro relativo alla forma della distribuzione, si è ini-zializzata la stima assumendo una distribuzione a priori uniforme sull’intervallo (-1,0.45). Questo al fine di evitare che la media e varianza della distribuzione determinata dal parametro ξ diventassero infinite e quindi poco utili sul piano pratico. I primi due momenti sono quindi così definiti, in termini di una generica variabile x ∼ GEV (µ, σ, ξ): E[x] =          µ + σΓ(1−ξ)−1ξ se ξ 6= 0, ξ < 1 µ + σγ se ξ = 0 ∞ se ξ ≥ 1 V ar[x] =          σ2 1 ξ2(Γ2− Γ21) se ξ 6= 0, ξ < 1 2 σ2 π2 6 se ξ = 0 ∞ se ξ ≥ 1 2

dove γ indica la costante di Eulero e Γk = Γ(1 − kξ). Nell’algoritmo utilizzato

si è ridotta la probabilità che ξ assumesse valori maggiori di 0.5 introducendo anche un ciclo if ad ogni iterazione che sostituisse i valori pari a 0.5 rendendoli uguali a 0.45. Per il calcolo dei pesi e la stima dei parametri si è utilizzata la stessa metodologia già usata per il modello SV-t, inizializzando i parametri con le prior definite in (2.18) e (2.19) e valutandoli con le equazioni (2.31) e (2.42), leggermente modificate rispetto a quelle di Liu e West ed adattate per la stima di ξ. Il parametro di shrinkage, α, è pari a 0.98. I risultati del filtraggio sono presentati nelle figure successive.

(47)

Figura 2.13: Valore dei parametri stimati dal modello al variare del tempo. La linea rossa indica il parametro teorico mentre quella blu il valore stimato dal filtro.

Figura 2.14: Grafico della log-volatilità stimata tramite il modello SV-GEV. Le bande tratteggiate indicano i quantili al 97.5 e allo 0.025, mentre la linea rossa è la log-volatilità simulata.

(48)

Figura 2.15: Andamento del RMSE della log-volatilità, xt per il modello SV-GEV.

Il RMSE è leggermente superiore a quello ottenuto con i modelli normale (1) e t-Student (1.4). Prima di passare alle applicazioni a dati reali, nella tabella sotto si riassumono le principali caratteristiche dei modelli stimati utilizzando le serie generate.

Tabella 2.1: Tabella riassuntiva dei principali parametri utilizzati e stimati per i tre modelli presentati in questo capitolo.

SV-N SV-t SV-GEV True T 1000 1000 1000 -n 10000 10000 10000 -αLW 0.999 0.990 0.980 -Var(y) 22.197 49.279 26.107 -RMSE 1.041 1.388 1.603 -β0 0.624 0.615 0.835 0.450 β1 0.648 0.585 0.610 0.800 ν - 14.919 - 12 ξ - - 0.103 0.100

Gli stati, così come usato per il modello SV-t, gli stati sono stati inizializzati utilizzando come prior la stessa definita nell’equazione (2.20) per il modello SV con errori gaussiani.

(49)

Nel capitolo successivo si tratta l’applicazione a dati reali, con finalità di combinare i risultati dei modelli per ottenere una stima previsionale basata su differenti output e non utilizzando solamente il modello migliore: in questo modo si sfrutta tutta l’informazione disponibile e derivante dalle diverse specificazioni.

(50)
(51)

Stima della volatilità su dati reali

3.1

Metodologia applicata

I tre modelli presentati nel capitolo precedente verranno ora utilizzati al fine di stimare la volatilità dei rendimenti su commodities del settore energetico e dei metalli. In questi mercati la gestione della volatilità è fondamentale sopratutto per finalità di copertura (Morales and Andreosso-O’Callaghan (2012)). Sono state reperite da Bloomberg le serie storiche dei prezzi spot e futures di platino, oro, argento, rame e petrolio per un periodo che va da gennaio 2010 a dicembre 2013 con frequenza giornaliera.

Si sono calcolati quindi i rendimenti logaritmici di ogni serie, sui quali si sono applicati i tre algoritmi. Una volta stimati parametri e vettore degli stati, tramite questi si è ricostruita sequenzialmente nel tempo la serie storica dei rendimenti. In altre parole, al prediction step al tempo t di ogni algoritmo non solo si ottengono le particelle relative ad xt (propagando xt−1) ma anche la previsione

one-step-ahead di yt, utilizzando le particelle di xt ottenute tramite le equazioni (2.13),

(2.24) e (2.44). In questo modo non otteniamo solamente una stima puntuale per la previsione di yt ma anche una stima della densità previsiva di yt+11.

L’idea è quella di combinare tramite opportuni pesi i tre output di stima, in modo da avere un vettore degli stati (e delle osservazioni one-step-ahead) composto dalle stime combinate dei tre algoritmi: potrebbe sembrare un contro senso combinare previsioni ottenute con il modello migliore con altre che hanno un RMSE maggiore. Tuttavia, si è dimostrato che utilizzando dei pesi appropriati

1Il procedimento vale anche per la combinazione dei tre modelli, ottenendo la distribuzione

empirica della combinazione. Questa sarà utile a fini di allocazione di portafoglio, come spiegato nella sezione 3.3.

(52)

il RMSE della stima combinata è inferiore a quello delle singole previsioni (Wallis (2011)). A tal fine, si è deciso di definire come criterio della bontà di stima il Root Mean Square Prediction Error, ovvero l’errore quadratico medio tra il rendimento previsto e quello reale, in modo che il modello con un RMSPE minore avesse un peso maggiore nella determinazione degli stati. Non è stato possibile utilizzare come criterio per definire i pesi il RMSPE degli stati a causa della loro non osservabilità. Il valore al tempo t della previsione fcomp è quindi definito come

media ponderata delle tre previsioni f1, f2, f3:

fcomp = f1w1+ f2w2+ f3(1 − w1− w2) (3.1)

con i pesi w inversamente proporzionali al RMSPE dei rendimenti, definito come: RM SP Ek,t = v u u t 1 τ τ −1 X t=0 (ˆyk,t− yt)2 (3.2)

dove k = {1, 2, 3} indica rispettivamente il modello normale, t-Student e GEV. τ è considerato pari a 20 in modo da ottenere un RMSPE medio delle ultime 20 osservazioni ed ˆyk,t indica la previsione di yt dal modello k al tempo t − 1. I pesi

wk,t sono definiti secondo la seguente equazione:

wk,t = RM SP Ek,t−1 P3 j=1RM SP E −1 j,t (3.3) I motivi dell’uso anche della serie dei prezzi futures dei metalli preziosi sono molteplici. In tali contratti la volatilità gioca un ruolo fondamentale sul valore, andando ad impattare direttamente sulle decisioni di investimento. L’alta volatili-tà inoltre è caratteristica intrinseca dei mercati delle commodities ed è necessario coglierne la dinamica nel miglior modo possibile sopratutto se si attua una stra-tegia di copertura. Inoltre è noto che il prezzo future esprime anche le aspettative sul futuro prezzo spot, che potrà essere sovra o sottostimato in base al grado di correlazione del future con il mercato (Hull (2010)).

La theory of storage conferma inoltre che le aspettative di mercato sul futuro prezzo spot si manifestano gradualmente nei prezzi a termine in base anche al livello di scorte di quel bene (Fama and French (1988)). Nel caso del petrolio ed in particolar modo della sua volatilità, essi sono noti per avere grossi impatti a livello macroeconomico.

(53)

poi presentare successivamente i risultati ottenuti su questi dati.

3.2

Dati utilizzati e risultati

3.2.1

Platino

Le serie analizzate in questa sede per quanto riguarda il platino sono quelle relative al prezzo spot in dollari americani per oncia troy (pari a circa 31 grammi) quotato al NYMEX e il prezzo futures a 3 mesi per oncia troy su un sottostante di 50 once troy scambiate nello stesso mercato.

I risultati sono stati ottenuti utilizzando un numero di particelle n = 10000 e procedendo alla costruzione del vettore di stato come spiegato nella sezione precedente. Il grafico successivo evidenzia il RMSPE e l’andamento della volatilità composta dalle stime dei tre modelli.

Figura 3.1: Grafico del RMSPE dei prezzi spot del platino. Rappresenta la media empirica delle ultime 20 osservazioni.

(54)

Figura 3.2: Grafico della volatilità composta dei prezzi spot del platino.

Figura 3.3: Grafico del RMSPE dei prezzi futures del platino. Rappresenta la media empirica delle ultime 20 osservazioni.

(55)

In entrambe le applicazioni si può notare come il modello che abbia funzionato meglio sia quello normale. Questo può essere in parte dovuto al fatto che la se-rie non presenta variazioni particolarmente anomale rendendo non strettamente necessario l’utilizzo di distribuzioni maggiormente diffuse anche se in alcuni fran-genti il RMSPE minore non è quello derivante dal modello normale. Ad esempio per le osservazioni 420 fino a 450 circa della serie futures del platino il modello t-Student risulta migliore di quello gaussiano (Fig. 3.3). Inoltre si può notare come la log-volatilità dei prezzi futures sia leggermente maggiore rispetto a quella dei prezzi spot. Nelle figure 3.2 e 3.4 si nota come la stima combinata della volatilità riesca a tenere conto dei picchi negativi e positivi delle serie storiche, registrando una volatilità nettamente superiore alla media. I risultati numerici di stima per quanto riguarda i parametri per questa serie e per tutte le altre, sono riepilogati nelle tabelle A.3 e A.4 in Appendice A.

3.2.2

Oro

Il prezzo spot dell’oro è quotato al NYMEX esattamente come quello del platino, ovvero in dollari americani per oncia troy, mentre il contratto futures è scritto su un sottostante di 100 once troy ed è valutato in dollari americani per oncia. L’oro è noto per essere influenzato sopratutto da fattori macroeconomici, poichè è anche considerato come riserva ultima di valore in caso di periodi tur-bolenti. Perciò anche in questo caso la stima della volatilità potrebbe aiutare ad implementare strategie di hedging più accurate che prendano in considerazione l’utilizzo di questa commodity.

(56)

Figura 3.6: Grafico della volatilità composta dei prezzi spot dell’oro.

Figura 3.7: Grafico del RMSPE dei prezzi futures dell’oro.

(57)

In questo caso il modello GEV ottiene un RMSPE minore degli altri due mo-delli, che comunque non si allontanano troppo da quel livello. I picchi di alta variabilità si concentrano prevalentemente intorno ad agosto 2011 e gli ultimi 6 mesi del 2013. Nel primo caso possiamo osservare come ci sia stato il declassamen-to del debideclassamen-to USA da parte di Standard & Poor’s, mentre nell’ultimo semestre del 2013 troviamo il fallimento del municipio di Detroit (luglio, il più grande fallimen-to di una città nella sfallimen-toria degli States), il Government shutdown (1-17 otfallimen-tobre) e le importanti manovre monetarie della FED (fine 2013), per citare alcuni eventi rilevanti che potrebbero aver impattato sul prezzo dell’oro.

3.2.3

Argento

Come per gli altri due metalli preziosi, anche le serie dei prezzi dell’argento sono in USD/oncia, ma il contratto a 3 mesi generico negoziato al NYMEX è scritto su un sottostante di 5000 once e quotato in USD/oncia. L’argento è consi-derato al pari dell’oro una riserva di valore e per questo maggiormente utilizzato a fini di copertura: il grafico dei rendimenti dell’argento è molto simile a quello dell’oro nel periodo considerato, a conferma della correlazione esistente tra questi due metalli. Quasi la metà della domanda di argento è di tipo industriale, seguita da quella relativa alla gioielleria, sebbene la quota relativa agli investimenti sia comunque rilevante.

I risultati di stima sono presentati nelle figure sottostanti.

(58)

Figura 3.10: Grafico della volatilità composta dei prezzi spot dell’argento.

Figura 3.11: Grafico del RMSPE dei prezzi futures dell’argento.

(59)

Come nel caso dell’oro, anche qui il modello GEV sembra cogliere al meglio la volatilità sia dei prezzi spot che di quelli a termine come si nota nelle figure 3.9 e 3.11. I rendimenti rispetto all’oro e al platino sono molto più variabili: i periodi di maggior instabilità riguardano gli stessi istanti che si notano nelle serie dell’oro, rafforzando l’idea che questi due metalli siano strettamente collegati. Come trovato da Hammoudeh et al. (2010) infatti, l’argento sembra avere un rendimento migliore dell’oro quando il suo prezzo aumenta mentre subisce perdite maggiori in fasi di mercato negative. In generale i movimenti registrati per questi due metalli sembrano andare nello stesso verso.

3.2.4

Rame

Il rame è un metallo essenzialmente industriale ampiamente utilizzato nella produzione e distribuzione dell’energia elettrica, nonché nella produzione di cir-cuiti stampati e componenti elettronici. I dati provengono dal London Mercantile Exchange ed il prezzo è espresso in dollari per tonnellata. Il contratto futures a 3 mesi è scritto invece su 25 tonnellate con una quotazione sempre in dollari per tonnellata. Attualmente Cina ed India sono i due paesi con la maggior domanda di rame, a causa anche della fase di espansione che stanno attraversando.

(60)

Figura 3.14: Grafico della volatilità composta dei prezzi spot del rame.

Figura 3.15: Grafico del RMSPE dei prezzi futures del rame.

(61)

A differenza dei tre metalli preziosi analizzati prima, il rame non è detenuto a fini speculativi bensì per finalità di consumo o copertura tramite i contratti a termine.Come trovato da Ng and Pirrong (1994), la dinamica del suo prezzo sembra essere correlata con i livelli di scorte, con la volatilità del prezzo spot che varia proporzionalmente alle quantità registrate. Anche per il prezzo future accade lo stesso, ma in maniera meno accentuata rispetto al prezzo spot, confermando le ipotesi della theory of storage.

3.2.5

Petrolio

Storicamente il petrolio fu considerato una semplice materia prima al pari delle altre, ma in seguito alle crisi del ’71 e ’79 venne considerato come bene speciale, i cui movimenti di prezzo dipendessero da fattori completamente diversi rispetto alle altre materie prime. Diversi modelli sono stati proposti per spiegare il prezzo del petrolio, considerando variabili diverse quali l’esauribilità delle riserve, la rigidità di domanda e offerta e la stabilità geopolitica solo per citarne alcuni.

Oggi il petrolio viene negoziato principalmente tramite i mercati futures ed il suo ruolo permea quasi ogni strato del sistema economico mondiale. L’analisi sulla sua volatilità è stata condotta utilizzando i dati del prezzo spot e future quotati al NYMEX in dollari americani per barile. Il future è scritto su un sottostante di 1000 barili ed è quotato in dollari per barile.

(62)

Figura 3.18: Grafico della volatilità composta dei prezzi spot del petrolio.

Figura 3.19: Grafico del RMSPE dei prezzi futures del petrolio.

(63)

Anche in questa serie il modello più preciso sembra essere quello con errori GEV, forse perchè sono molto più frequenti i rendimenti elevati (nell’ordine del 5%) rispetto alle altre serie storiche ed in linea di massima la serie del petrolio sembra essere molto più volatile di quella dei metalli analizzati sopra.

3.2.6

Riepilogo risultati

Nell’analisi di queste serie si nota come il modello migliore in termini di RMSE sia diverso per ogni serie e tempo. Ad esempio, nelle figure 3.1 e 3.3 il modello che funziona meglio è quello gaussiano, mentre per le serie di rame e petrolio il modello GEV ottiene il RMSE più basso. (fig. 3.17 e 3.13).

Il modello migliore inoltre rimane generalmente lo stesso per tutto il periodo considerato, salvo alcuni istanti in cui tale modello funziona peggio rispetto ad almeno uno degli altri due (si vedano ad esempio le osservazioni 830 e 860 della fig. 3.7). Nella serie spot dell’argento il modello migliore si alterna di frequente, sopratutto in corrispondenza dei picchi di volatilità dove è il modello con errori t-Student a ottenere il RMSE minore (fig. 3.9).

Se si confrontano i grafici della volatilità e RMSE dei rendimenti spot con quelli futures si può notare come la volatilità stimata sia molto simile. Il modello migliore tuttavia cambia dalla serie spot a quella futures, come accade ad esempio nella serie dell’oro: il modello normale funziona bene per i prezzi spot ma non per quelli futures, in cui il modello GEV ha un RMSE minore degli altri due (fig. 3.5 e 3.7).

Tuttavia quasi in tutte le serie la combinazione delle tre stime ha un RMSE più basso di ogni singolo modello, salvo alcuni casi in cui questo è molto simile a quello ottenuto dal modello GEV (fig.3.15 e 3.17).

Per valutare se effettivamente la combinazione dei tre modelli sia maggiormen-te utile sul piano pratico rispetto al solo modello migliore, si presenta un modello per la selezione di portafoglio che si fonda sulle previsioni di questi tre modelli. Si valuterà l’utilità attesa dell’investitore che utilizza il modello combinato ed il singolo modello migliore, al fine di evidenziare le differenze dei due approcci.

3.3

Volatilità stocastica e selezione di portafoglio

Applicando il metodo di stima proposto nel precedente capitolo, si ottiene una previsione puntuale della variabile di interesse y. In questo modo si può calcolarne il root mean square prediction error confrontando la previsione con il vero valore registrato. Se questo procedimento viene effettuato non solo con

Riferimenti

Documenti correlati

(ar.ols = AR, cioè autoregressivi, con stima ols, cioè ordinary least squares, minimi quadrati, dei coe¢ cienti del modello; il metodo di stima più ragionevole per serie qualsiasi,

Nel confronto tra due metodi di previsione delle serie storiche, un …t migliore (residui più piccoli, relativamente ai dati noti) garantisce una miglior previsione2.

Giving up generality in practice means narrowing the focus of a design tool to a well-defined domain and tailoring the tool’s development paradigm, models, lan- guage, and components

[r]

Nel percorso formativo della durata di 20 ore è stato previsto l’uso del film come nuovo strumento di autoriflessione nella e per la formazione dei

Il complesso è composto da due “parallelepipedi” quasi paralleli tra di loro, in seguito, il secondo intervento è stato quello si traslare in due direzioni i diversi piani dei

 Nel mese di luglio 2010 Cisita propone due attività formative nell’area della comunicazione e dell’informatica avanzata. Gli ar- gomenti trattati saranno: «Stru- menti per

Questo risultato ci rassicura in quanto sappiamo dalla geometria euclidea che il luogo di punti tali che il rapporto delle loro distanze da due punti fissati ` e costante ` e