• Non ci sono risultati.

1 Il modello di Cox, Ingersoll e Ross (CIR)(1985) 3

N/A
N/A
Protected

Academic year: 2021

Condividi "1 Il modello di Cox, Ingersoll e Ross (CIR)(1985) 3"

Copied!
27
0
0

Testo completo

(1)

Indice

1 Il modello di Cox, Ingersoll e Ross (CIR)(1985) 3

1.1 Dai processi di Bessel... . . . 4

1.2 ...al modello CIR . . . . 5

1.2.1 Introduzione . . . . 5

1.2.2 Il modello . . . . 6

2 La stima dei parametri 9 2.1 Generalit`a . . . . 10

2.2 Metodo di regressione lineare . . . . 10

3 Stimatori di massima verosimiglianza e di martingala 15 3.1 Introduzione . . . . 16

3.2 Osservazioni continue . . . . 16

3.3 Osservazioni discrete . . . . 19

3.4 Funzioni martingala di stima . . . . 21

4 Metodo dei momenti generalizzati 25

1

(2)

2 INDICE

(3)

Capitolo 1

Il modello di Cox, Ingersoll e Ross (CIR)(1985)

Contenuto

1.1 Dai processi di Bessel... . . . 4

1.2 ...al modello CIR . . . . 5

1.2.1 Introduzione . . . . 5

1.2.2 Il modello . . . . 6

3

(4)

4 CAPITOLO 1. IL MODELLO DI COX, INGERSOLL E ROSS (CIR)(1985)

1.1 Dai processi di Bessel...

Consideriamo ν random walk indipendenti

X

n+1

(a) = X

n

(a) +

εξ

n+1

(a) a = 1, ..., ν

con ξ

k

(a) numeri di Bernoulli indipendenti ognuno a media nulla.

Definiamo ora la variabile

Y

n

= X

n2

(1) + ... + X

n2

(ν)

Osserviamo che

Y

n+1

= X

n+12

(1) + ... + X

n+12

(ν) = X

ν

a=1

(X

n2

(a) + ε + 2

εX

n

(a)ξ

n+1

(a))

= Y

n

+ νε + 2 ε

X

ν a=1

X

n

(a)ξ

n+1

(a)

e pertanto

E(e

iωYn+1

| I

n

) = e

iω(Yn+νε)

Y

ν a=1

cos(2ω

εX

n

(a))

Poich`e

Y

ν a=1

cos(2ω

εX

n

(a)) → Y

ν a=1

(1 − 2ω

2

εX

n2

(a)) → exp[−2ω

2

εY

n

]

nel limite continuo si ha

E ¡

e

iωY (t+ε)

| I(t) ¢

= e

iω(Y (t)+νε)

e

−ω2εY (t)

(5)

1.2. ...AL MODELLO CIR 5 e quindi l’equazione di Langevin del numero aleatorio Y(t) `e

dY

t

= νdt + 2 p Y

t

dW

t

Se invece di ν Random-Walk avessimo preso processi del tipo

X

n+1

(a) = (1 − e

−βε

)X

n

(a) +

εξ

n+1

(a) a = 1, ..., ν

allora, procedendo in modo analogo, dopo aver eliminato gli infinitesimi di ordine superiore nel limite per ² → 0, e trattando ν come un numero reale anzich`e intero, possiamo ottenere:

dY

t

= (ν − 2βY

t

)dt + 2 p Y

t

dW

t

ovvero il modello di Feller, o di Cox, Ingersoll e Ross che ci apprestiamo ad introdurre.

1.2 ...al modello CIR

1.2.1 Introduzione

Ci si potrebbe innanzitutto chiedere perch`e scegliere proprio il modello CIR.

In primo luogo `e un modello abbastanza semplice da implementare, caratteristica que- sta molto importante per le applicazioni finanziarie che ha fatto s`ı che detto modello venisse adottato in pi`u di una occasione; faccio riferimento ad esempio ai lavori di De Felice-Moriconi (vedi [?]), C. Pacati (1998), Torosantucci e Uboldi (2001), A. Pelliccia (2001). Scegliendo il modello CIR abbiamo dunque modo di confrontare i nostri risultati con numerosi altri, testando l’efficacia dei metodi di calibratura adottati.

Un limite del modello CIR `e che esso `e un modello unifattoriale, ovvero utilizza una unica

variabile per descrivere l’intera yield curve; questa assunzione implica che tutti i tassi di

(6)

6 CAPITOLO 1. IL MODELLO DI COX, INGERSOLL E ROSS (CIR)(1985)

interesse si muovano nella stessa direzione in ogni breve intervallo di tempo. In altre parole i modelli a singolo fattore comportano una perfetta correlazione tra i movimenti dei tassi a differenti maturities

1

; ci`o comunque non implica che i ritorni per ogni maturity varino ogni volta della stessa quantit`a , n`e che la term structure debba avere sempre la stessa forma.

Altra peculiarit`a del modello CIR `e l’implementazione della mean-reversion, caratteristica empiricamente osservata nell’andamento dei tassi d’interesse. In pratica con ci`o si intende quell’andamento oscillante secondo cui ad una grande crescita segua pi`u probabilmente un decremento di valore, ed il vice versa. All’aumentare di t la mean-reversion costringe il modello a fluttuare intorno al valore di γ (si veda 1.1) che viene appunto chiamato tasso medio di lungo periodo.

Infine la volatilit`a di questo modello dipende dalla radice quadrata di r

t

; `e possibile di- mostrare che ci`o implica (si veda in proposito [?]), sotto la condizione che 2αγ/ρ

2

> 1, che r

t

assuma solo valori positivi; questa `e decisamente un’altra caratteristica dei tassi di interesse, ed `e dunque bene che tale modello sia in grado di riprodurla. Entriamo adesso nei dettagli matematici.

.

1.2.2 Il modello

Si ipotizza dunque che r(t) segua un processo diffusivo del tipo mean-reverting:

dr(t) = α[γ − r(t)]dt + ρ p

r(t)dW (t), α, γ, ρ > 0 (1.1)

con W

t

un moto browniano standard, e la condizione: 2αγ/ρ

2

> 1.

Tale processo, come abbiamo accennato poco fa, ha per ogni valore iniziale assegnato x

0

una unica soluzione debole (si veda [?], p221), caratterizzata dalla sua media e varianza:

1

La maturity `e la data di scadenza di un titolo.

(7)

1.2. ...AL MODELLO CIR 7

E

t

[r(t)] = r(s)e

−α(t−s)

+ γ(1 − e

−α(t−s)

), s = t

0

(1.2) V AR

t

[r(t)] = r(s) σ

2

α (e

−α(t−s)

− e

−2α(t−s)

) + γ σ

2

(1 − e

−α(t−s)

)

2

, t ≥ s.

Mentre la probabilit`a di transizione `e :

p(r(t) = r | r(s) = x) = 2aχ

2pdf

(2ar, 2ν, 2abx)

essendo:

a = 2 α σ

2

1 1 − e

−α(t−s)

b = e

−α(t−s)

e χ

2pdf

(2ar, 2ν, 2abx) `e la densit`a di probabilit`a della distribuzione chi-quadro non centrata.

E’ possibile dimostrare poi che, nel caso del modello CIR, il prezzo di uno zero-coupon bond

2

con maturity T assume la forma:

P (t, T ) = A(t, T ) exp(−B(t, T )r(t)), dove:

A(t, T ) =

· 2h exp{(α + h)(T − t)/2}

2h + (α + h)(exp{(T − t)h} − 1)

¸

2αγ/ρ2

B(t, T ) = 2(exp{(T − t)h} − 1) 2h + (α + h)(exp{(T − t)h} − 1)

h =

α

2

+ 2σ

2

2

Uno zero-coupon Bond, come dice la parola, `e una obbligazione che rimborsa il capitale impegnato

con un unico saldo a scadenza, senza pagamento di cedole intermedie.

(8)

8 CAPITOLO 1. IL MODELLO DI COX, INGERSOLL E ROSS (CIR)(1985)

(9)

Capitolo 2

La stima dei parametri

Contenuto

2.1 Generalit` a . . . . 10 2.2 Metodo di regressione lineare . . . . 10

9

(10)

10 CAPITOLO 2. LA STIMA DEI PARAMETRI

2.1 Generalit` a

L’ultimo passo del processo di definizione di un modello consiste nella stima dei parametri.

Una volta che i fattori chiave sono stati individuati e che la loro dinamica `e stata specificata, i parametri del modello devono essere stimati a partire da un insieme di dati rappresentativi di ci`o che si intende modellizzare.

Molti studi finanziari esaminano serie storiche molto lunghe, anche fino a 10 anni. Da un punto di vista teorico tale scelta `e giustificata dalla necessit`a di avere a disposizione un gran numero di dati, ma d’altro canto ci`o pu`o rappresentare un grosso problema; infatti se un modello `e calibrato su un periodo di 10 anni, ad esempio, i parametri risultanti descriveranno una media dei differenti mercati che si sono susseguiti in quel lungo lasso di tempo. Al contrario generalmente si necessita di un modello in grado di descrivere solo il mercato attuale, e non una media. Pertanto `e necessario limitare l’analisi ad un periodo pi`u breve. Altra cosa a cui fare attenzione `e l’omogeneit`a dei dati; ad esempio periodi comprendenti periodi di crisi come il crash finanziario dell’Ottobre 1987 o del 1929 sono da evitare, in quanto questi eventi imprevedibili finirebbero per falsare le varie statistiche.

2.2 Metodo di regressione lineare

Esaminiamo una prima procedura con la quale `e possibile ottenere la stima dei parametri α, γ e σ del modello CIR

1

. Tale metodo `e stato utilizzato per la prima volta da Fischer e Zechner [1984], e da Barone e Cesari [1986]; De Felice e Moriconi infine, nel 1987, lo hanno applicato al mercato italiano dei Bot.

Analizziamo la procedura in dettaglio:

Il tasso a breve, punto di partenza dell’analisi, `e una grandezza puramente teorica; infatti

1

Lo stesso metodo pu`o facilmente essere adattato per la stima dei parametri del modello di Vasicek;

per un confronto diretto dei risultati si rimanda alla sezione successiva.

(11)

2.2. METODO DI REGRESSIONE LINEARE 11

esso `e definito (come si `e visto) come il limite per T→ 0 del tasso di interesse spot.

Poich`e il valore dei tassi di interesse varia in funzione della scadenza del contratto a cui si riferiscono, in realt`a sar`a l’operatore a stabilire l’unit`a di tempo. De Felice e Moriconi ad esempio impostano la loro analisi utilizzando per r(t) i rendimenti a scadenza dei Bot a 3 mesi. Questa scelta equivale a fissare un passo minimo finito di discretizzazione temporale, e tutti i risultati ottenuti saranno validi entro un margine di imprecisione corrispondente ad un intervallo di tempo in questo caso trimestrale.

Qualunque sia la scelta della scala temporale, essendo i valori della variabile r(t) disponibili a intervalli di tempo finiti, si deve operare su un equivalente discreto della:

dr(t) = α[γ − r(t)]dt + σ p

r(t)dZ(t), (2.1)

α, γ, ρ > 0 , r ≥ 0.

Facciamo prima un esempio; si pu`o dimostrare che un’equazione differenziale stocastica del tipo

dy(t) = [ay(t) + b]dt + cdZ(t), a, b ∈ R , c ∈ R

+

(2.2)

ha come equivalente, nell’approssimazione di Eulero, l’equazione:

y

t

= β

0

+ β

1

y

t−1

+ ε

t

essendo:

β

0

= b e

a

− 1

a , β

1

= e

a

e {ε

t

} un processo stocastico di errore a media nulla, con varianza:

(12)

12 CAPITOLO 2. LA STIMA DEI PARAMETRI

var(ε

t

) = Ω

2

= c

2

e

2a

− 1 2a

Nel modello di Cox, Ingersoll e Ross che qui interessa applicare, il tasso a breve segue un andamento simile a quello di 2.2, con la differenza che il coefficente di diffusione risulta non costante, ma piuttosto del tipo ρ p

r(t).

Per definirne un equivalente discreto quindi, consideriamo questa trasformazione y(t)= p r(t).

Per il lemma di Ito

2

risulta:

dy = 1 2

·µ

aγ − σ

2

4

¶ 1 y − ay

¸

dt + σ

2 dZ (2.3)

sviluppando

1y

in serie di Taylor intorno alla media ¯y, con approssimazione del primo ordine, si ha:

dy =

½

1 2

·µ

αγ − σ

2

4

¶ 1

¯ y

2

+ a

¸ y +

µ

aγ − σ

2

4

¶ 1

¯ y

¾

dt + σ

2

2 dZ(t) che `e della forma:

dy(t) = [ay(t) + b]dt + cdZ(t), a, b ∈ R, c ∈ R

+

Pertanto `e possibile assumere come equivalente discreto della 2.1 l’equazione

r

t

= β

0

+ β

1

r

t−1

+ ε

t

(2.4)

2

Per alcuni chiarimenti sulle regole di calcolo relative agli integrali stocastici e al Lemma di Ito si

rimanda all’appendice D.

(13)

2.2. METODO DI REGRESSIONE LINEARE 13 I parametri α, γ, ρ

2

sono dati da:

σ

2

= 8Ω

2

log β

1

β

12

− 1

a = −2 log β

1

β

0

log β

1

r(β

1

− 1)

γ = 1 a

µ

r β

0

log β

1

1

− 1) + ρ

2

4

dove abbiamo chiamato:

var(ε

t

) = Ω

2

, r = 1

N X

N

t=1

r

t

Pertanto effettuando una regressione lineare sulla 2.4 si ottiene una stima di β

0

e β

1

, da cui si ricavano tutti e tre i parametri α, γ e σdel CIR.

Il metodo di De Felice e Moriconi prevede la linearizzazione di una equazione differenziale.

Questa procedura presuppone una assunzione piuttosto forte, dato che approssimare al

primo ordine intorno alla media l’equazione 2.3 ha senso solamente se facciamo l’ipotesi

che la dinamica seguita dai tassi di interesse sia di equilibrio.

(14)

14 CAPITOLO 2. LA STIMA DEI PARAMETRI

(15)

Capitolo 3

Stimatori di massima verosimiglianza e di martingala

Contenuto

3.1 Introduzione . . . . 16

3.2 Osservazioni continue . . . . 16

3.3 Osservazioni discrete . . . . 19

3.4 Funzioni martingala di stima . . . . 21

15

(16)

16CAPITOLO 3. STIMATORI DI MASSIMA VEROSIMIGLIANZA E DI MARTINGALA

3.1 Introduzione

Consideriamo una generica classe di processi diffusivi di questo tipo:

dX

t

= b(t, X

t

; θ)dt + σ(t, X

t

; θ)dW

t

(3.1)

con b(·, ·; θ) e σ(·, ·; θ) funzioni da R

+

× R → R , limitandoci per semplicit`a al caso unidimensionale. Ci proponiamo di costruire dei buoni estimatori di θ, ed esaminare le loro propriet`a.

Innanzitutto si deve distinguere in base al tipo di osservazioni che possiamo compiere, ovvero se esse siano continue o effettuate a tempi discreti. Inizieremo con le osservazioni continue, richiamando la teoria della massima verosimiglianza; successivamente tratteremo di processi osservabili solo a tempi discreti, e non necessariamente equispaziati. Infine proporremo il metodo basato su funzioni di stima di martingala, sulla falsariga del lavoro di Bibby e Sorensen (vedi [?]).

3.2 Osservazioni continue

Supponiamo che il parametro θ debba essere stimato sulla base di osservazioni continue di X e per cominciare concentriamoci sul caso in cui il processo presenti un drift lineare in questo parametro:

dX

t

= θb(X

t

)dt + σ(X

t

)dW

t

, X

0

= x

0

(3.2)

con b(..,..,θ) e σ funzioni sufficientemente regolari, ed il processo X

t

`e osservato nell’inter-

vallo temporale [0,T]. Il processo X

t

`e ambientato nello spazio canonico C(R, R

+

), dove

definiamo una filtrazione z

t

.

(17)

3.2. OSSERVAZIONI CONTINUE 17

Andiamo adesso ad introdurre il rapporto di verosimiglianza; indichiamo con P

θ,t

:= P

θ

| z

t

la restrizione a z

t

della probabilit`a legata al processo X

t

. Tale rapporto ha questa forma:

L

θ,θt 1

= dP

θ,t

dP

θ1,t

ed `e una P − martingala (si veda Rogers-Williams, 4.17 )

1

.

Lyptser-Shiryaev (si veda [?]) mostrano che il rapporto di verosimiglianza in T dove la seconda ipotesi `e θ

1

= 0, pu`o essere scritto in questo modo:

L

θ,0T

≡ L

T

(θ) = exp

·Z

T

0

θb(X

s

)

σ

2

(X

s

) dX

s

1 2

Z

T

0

θ

2

b

2

(X

s

) σ

2

(X

s

) ds

¸

Semplifichiamo ulteriormente considerando un termine diffusivo costante, diciamo pure σ ≡ 1.

Inoltre prendiamo il logaritmo di questa funzione (log-likelihood function)

ln L

T

(θ) = Z

T

0

θb(X

s

)dX

s

1 2

Z

T

0

θ

2

b

2

(X

s

)ds (3.3)

Massimizzando la precedente rispetto a θ, otteniamo il cosiddetto stimatore di massima verosimiglianza (MLE) ˆ θ

T

, basato su osservazioni continue di X nell’intervallo t≤0≤T.

La derivata rispetto a θ della funzione logaritmica di verosimiglianza si chiama funzione punteggio:

1

Una martingala `e un processo stocastico caratterizzato dalla propriet`a che per ogni t il valore atteso all’istante t+1 `e il valore assunto dal processo X

t

all’istante precedente, cio`e:

E(X(t + 1) = X(t).

Tale propriet`a `e appunto detta propriet`a di martingala.

(18)

18CAPITOLO 3. STIMATORI DI MASSIMA VEROSIMIGLIANZA E DI MARTINGALA

∂θ (ln L

T

(θ)) = L

0T

(θ) L

T

(θ) , che nel caso della 3.3 ha la forma:

∂θ (ln L

T

(θ)) = Z

T

0

b(X

s

)dX

s

− θ Z

T

0

b

2

(X

s

)dX

s

Risolvendo

∂θ

(ln L

T

(θ)) = 0, otteniamo l’MLE

θ ˆ

T

= R

T

0

b(X

S

)dX

s

R

T

0

b

2

(X

S

)ds

e quindi, sostituendo tramite la 3.2, otteniamo:

θ ˆ

T

= θ

0

+ R

T

0

b(X

S

)dW

s

R

T

0

b

2

(X

S

)ds (3.4)

dove con θ

0

indichiamo il valore reale del parametro.

A questo punto conviene prendere come stimatore di θ

0

il bias, definito in questo modo:

b

θˆT

0

) = E

θ0

θ

T

− θ

0

)

dove E

θ0

rappresenta il valore di aspettazione rispetto alla probabilit`a P

0

. Attraverso la 3.4 abbiamo:

E

θ0

θ

T

) = θ

0

+ E

θ0

"R

T

0

b(X

S

)dW

s

R

T

0

b

2

(X

S

)ds

#

Si osservi che se anche il drift fosse costante b(X

t

) = b allora E

θ0

θ ˆ

T

= θ

0

, cio`e in nostro

stimatore sarebbe privo di bias, infatti:

(19)

3.3. OSSERVAZIONI DISCRETE 19

E

θ

bW

T

b

2

T = 1

bT E

θ

W

T

= 0

In tutti gli altri casi lo stimatore ha un bias, e sotto alcune condizioni di regolarit`a vale la seguente uguaglianza:

b

θˆT

0

) = d

0

E

θ0

µZ

T

0

b

2

(X

T

)dt

−1

si veda sempre [?].

Si potrebbe inoltre dimostrare l’efficienza

2

e la normalit`a asintotica del nostro estimatore MLE.

3.3 Osservazioni discrete

Per la stima di θ tramite osservazioni discrete dobbiamo distinguere due casi, ovvero se le densit`a di probabilit`a di transizione di X siano conosciute esplicitamente oppure siano sconosciute o troppo complicate per essere maneggiate direttamente.

Se le densit`a di transizione sono note, come ad esempio nel processo di Ornstein-Uhlembeck, possiamo tranquillamente scegliere come stimatore quello di massima verosimiglianza ˆ θ

n

, che massimizza la funzione:

L

n

(θ) = Y

n i=1

p(t

i−1

, X

ti−1

, t

i

, X

i

; θ)

2

Il Test di Kramer-Rao fornisce un limite inferiore per la varianza di uno stimatore.

Si definisce efficiente lo stimatore che, tra tutti quelli possibili per una determinata grandezza, possiede la minima varianza.

Inoltre si dimostra che il metodo della massima verosimiglianza produce stimatori efficienti.

(20)

20CAPITOLO 3. STIMATORI DI MASSIMA VEROSIMIGLIANZA E DI MARTINGALA o il suo logaritmo:

l

n

(θ) = ln L

n

(θ) = X

n

i=1

log(p(t

i−1

, X

ti−1

, t

i

, X

i

; θ))

Nel caso di osservazioni temporalmente equispaziate si pu`o dimostrare che ˆ θ

n

`e consistente ed ha distribuzione normale sempre nel limite di n→ ∞.

Sfortunatamente di solito le densit`a di probabilit`a di transizione risultano incognite o non semplici da maneggiare numericamente. In questi casi si cerca di ottenere uno stimatore approssimando il logaritmo della funzione di verosimiglianza per θ, come ottenuta nel caso di osservazioni continue.

Per definire questa funzione il coefficiente di diffusione σ(t, x; θ) = σ(t, x) deve essere noto.

Sotto alcune condizioni di regolarit`a ([?]) la funzione di log-verosimiglianza per θ basata su osservazioni continue di X in [0,T

n

] pu`o essere scritta in termini di integrali stocastici:

l

tcn

(θ) = Z

tn

0

b(s, X

s

; θ)

T

(σ(s, X

s

)σ(s, X

s

)

T

)

−1

dX

s

(3.5)

1 2

Z

tn

0

b(s, X

s

; θ)

T

(σ(s, X

s

)σ(s, X

s

)

T

)

−1

b(s, X

s

; θ)ds (3.6)

ed usando l’usuale approssimazione discreta degli integrali arriviamo a questa forma ap- prossimata, basata su osservazioni discrete di X:

˜l

n

(θ) = X

n

i=1

b(t

i−1

, X

ti−1

; θ)

T

σ

i−1

(X

ti

− X

ti−1

) − (3.7)

1 2

X b(t

i−1

, X

ti−1

; θ)

T

σ

i−1

b(t

i−1

, X

ti−1

; θ)(t

i

− t

i−1

) (3.8)

dove con σ

i−1

si intende:

σ

i−1

≡ (σ(t

i−1

, X

ti−1

)σ(t

i−1

, X

ti−1

)

T

)

−1

(21)

3.4. FUNZIONI MARTINGALA DI STIMA 21

Possiamo dire comunque che i metodi di stima per osservazioni discrete ricavati dalla teoria delle osservazioni continue tendono ad avere un notevole bias, a meno che le osservazioni non vengano effettuate a intervalli temporali molto ravvicinati.

3.4 Funzioni martingala di stima

Consideriamo ancora una volta un processo diffusivo unidimensionale definito dal differen- ziale di Ito:

dX

t

= b(X

t

; θ)dt + σ(X

t

; θ)dW

t

dove sia X

0

= x

0

e t ≥ 0. Supponiamo inoltre al solito che b e σ rispettino le usuali condizioni atte a garantire una soluzione unica per tutti i θ in un sottoinsieme aperto di R, che le funzioni b e σ siano entrambe due volte differenziabili e continue in entrambi gli argomenti, e σ sia assunta positiva.

Stavolta, a differenza di 3.1, considereremo solo processi omogenei rispetto al tempo;

inoltre supponiamo di effettuare osservazioni discrete a intervalli equispaziati, diciamo

∆, 2∆, ..., n∆. Il nostro obiettivo ovviamente `e sempre quello di stimare il parametro θ da osservazioni discrete X

, X

2∆

, ..., X

n∆

di {X

t

} .

Partiamo ancora una volta dalla funzione logaritmica continua di verosimiglianza l

t

(θ), che nel caso unidimensionale e tempo-omogeneo, con σ indipendente da θ, pu`o essere scritta in questo modo:

l

t

(θ) = Z

T

0

b(X

s

θ)

σ

2

(X

s

) dX

s

1 2

Z

T

0

b

2

(X

s

θ)

σ

2

(X

s

) ds

(22)

22CAPITOLO 3. STIMATORI DI MASSIMA VEROSIMIGLIANZA E DI MARTINGALA

Sostituendo il precedente integrale con delle somme, e differenziando rispetto a θ, otteniamo la funzione punteggio approssimata:

˜l

n

(θ) = X

n

i=1

˙b(X

(i−1)∆

; θ)

σ

2

(X

(i−1)∆

) (X

i∆

− X

(i−1)∆

) − ∆ X b(X

(i−1)∆

; θ)˙b(X

(i−1)∆

; θ)

σ

2

(X

(i−1)∆

) (3.9)

e nel caso anche σ dipenda da θ, utilizzeremo la stessa funzione:

˜l

n

(θ) = X

n

i=1

˙b(X

(i−1)∆

; θ)

σ

2

(X

(i−1)∆

; θ) (X

i∆

− X

(i−1)∆

) − ∆ X b(X

(i−1)∆

; θ)˙b(X

(i−1)∆

; θ)

σ

2

(X

(i−1)∆

; θ) (3.10) dove i punti indicano la derivazione rispetto al tempo.

Per evitare l’insorgere di un problema di inconsistenza dello stimatore, l’idea `e quella di modificare la funzione discreta di punteggio 3.9 in modo da ottenere una P

θ

−martingala a media zero rispetto alla filtrazione z

i

. Questa martingala sar`a appunto il nostro stimatore, di cui si possono dimostrare la consistenza e normalit`a asintotiche.

Modifichiamo dunque la funzione 3.9 sottraendoci il seguente compensatore:

X

n i=1

E

θ

(˜l(θ)−l

i−1

(θ) | z

i−1

) = X

n

i=1

˙b(X

(i−1)∆

; θ)

σ

2

(X

(i−1)∆

; θ) [(F (X

(i−1)∆

; θ)−X

(i−1)∆

)−∆b(X

(i−1)∆

; θ)], dove

F (X

(i−1)∆

; θ) ≡ E

θ

(X

| X

(i−1)∆

)

Si ottiene dunque una funzione di stima martingala a media zero della forma:

G ˜

n

(θ) = X

n

i=1

˙b(X

(i−1)∆

; θ)

σ

2

(X

(i−1)∆

; θ) (X

(i)∆

− F (X

(i−1)∆

; θ). (3.11)

(23)

3.4. FUNZIONI MARTINGALA DI STIMA 23

Il passo ulteriore `e quello di considerare una classe pi`u generale di martingale a media zero del tipo di 3.11, e scegliere quella ottima, cio`e quella con la minima varianza asintotica.

Per maggiori dettagli si rimanda a [?] . Nel caso del modello di Cox, Ingersoll e Ross:

dX

t

= (a + bX

t

)dt + σ p

|X

t

|dW

t

, a > 0, b < 0, X

0

= x

0

.

si ottengono le seguenti espressioni per gli stimatori dei parametri:

ˆa

n

= ˆb

n

1 − e

ˆbn

ne

ˆbn

P

n

i=1 Xi∆

X(i−1)∆

P

n

i=1 1 X(i−1)∆

, (3.12)

ˆb

n

= 1

∆ log

"

n P

n

i=1 Xi∆

X(i−1)∆

P

r

i∆

P

1

X(i−1)∆

n

2

P

n

i=1

X

(i−1)∆

P

1

X(i−1)∆

#

, (3.13)

ˆ σ

n

=

P

n

i=1

{X

i∆

1b

[(ˆa

n

+ ˆb

n

X

(i−1)∆

)e

ˆbn

− ˆa

n

]}

2X 1

(i−1)∆

P

n

i=1

n

an+2ˆbnX(i−1)∆)eˆbn∆−2(ˆan+ˆbnX(i−1)∆)eˆbn∆an

2X(i−1)∆ˆb2n

o (3.14)

(24)

24CAPITOLO 3. STIMATORI DI MASSIMA VEROSIMIGLIANZA E DI MARTINGALA

(25)

Capitolo 4

Metodo dei momenti generalizzati

Questo metodo, proposto nel 1982 da Hansen, permette di ottenere la calibratura di una numerosa variet`a di modelli unifattoriali e multifattoriali; l’apparato matematico si basa sull’osservazione che la dinamica per il tasso a breve di molti modelli stocastici pu`o essere riassunta nella seguente generale equazione differenziale:

dr = (α + βr)dt + σr

γ

dZ

Imponendo di volta in volta opportune restrizioni sui parametri, si ottengono le stime dei vari modelli.

L’idea alla base di questo metodo di calibratura (di cui forniremo solo semplici cenni ) consiste nello stimare i parametri del modello a tempo continuo utilizzando un equivalente discreto

r

t+1

− r

t

= α + βr

t

+ ε

t+1

, (4.1)

E[ε

t+1

] = 0, E[ε

2t+1

] = σ

2

r

t

Questo modello discreto ha il vantaggio di permettere alla varianza, cos`ı come accade effettivamente in quello continuo, di dipendere direttamente dal livello dei tassi di interesse.

25

(26)

26 CAPITOLO 4. METODO DEI MOMENTI GENERALIZZATI

Si pu`o stimare che nel caso le variazioni di r

t

siano misurate a brevi intervalli di tempo, l’entit`a dell’errore di approssimazione introdotto dalla discretizzazione `e del secondo ordine.

Si procede utilizzando le 4.1 come vincoli di un sistema di equazioni nel modo seguente:

Sia ϑ il vettore dei parametri, con elementi α, β, σ

2

e γ; posto ε

t+1

= r

t+1

− r

t

− α − βr

t

, sia f

t

(ϑ)

f

t

(ϑ) =

 

 

 

 

ε

t+1

ε

t+1

r

t

ε

2t+1

− σ

2

r

t

2t+1

− σ

2

r

t

)r

t

 

 

 

 

(4.2)

Posto che le 4.1 siano vere, risulta ovviamente che E[f

t

(ϑ)] = 0.

Il punto fondamentale del metodo dei momenti consiste nel sostituire E[f

t

(ϑ)] con la sua controparte g

T

(ϑ) ottenuta usando le T osservazioni:

g

T

(ϑ) = 1 T

X

T t=1

f

t

(ϑ), (4.3)

e poi scegliere stime dei parametri in modo da minimizzare la forma quadratica

J

T

(ϑ) = g

0T

(ϑ)W

T

(ϑ)g

T

(ϑ), (4.4)

dove W

T

(ϑ) `e una matrice simmetrica definita positiva. Si dimostra poi che minimizza- re J

T

(ϑ) rispetto a ϑ `e come risolvere il sistema omogeneo di equazioni (condizioni di ortogonalit`a)

D

0

(ϑ)W

T

(ϑ)g

T

(ϑ) = 0 (4.5)

dove D(ϑ) `e la matrice iacobiana di g

T

(ϑ) rispetto a ϑ.

(27)

27 Hansen (1982) mostra che scegliere W

T

(ϑ) = S

−1

(ϑ), dove

S(ϑ) = E[f

t

(ϑ)f

t0

(ϑ)], (4.6)

permette di ottenere lo stimatore di ϑ con la pi`u piccola matrice asintotica di covarianza.

Definendo S

0

(θ) lo stimatore associato, tale matrice di covarianza ha la forma:

1

T (D

00

(θ)S

0−1

(θ)D

0

(θ))

−1

dove D

0

(θ) `e lo Jacobiano calcolato nei parametri stimati.

Tale matrice viene utilizzata per stimare la significativit`a dei singoli parametri.

Purtroppo questo metodo piuttosto semplice da implementare `e libero da bias solo per

campioni estremamente lunghi e dunque si `e deciso di non utilizzarlo.

Riferimenti

Documenti correlati

 La crescita della popolazione, che stimolò la domanda aggregata e, di conseguenza, la divisione del lavoro e lo sviluppo di tecnologie a elevati costi fissi.  Il commercio, che

 Quanto la domanda aggregata è bassa (bassa densità di popolazione) le tecnologie sono caratterizzate da bassi costi fissi ma da alti costi variabili (lavoro).  Quando la

Ci si chiede quante volte sta il doppio del risultato parziale, prima trascritto, nel numero formato dalle cifre del resto e del gruppo abbassato senza tenere conto

[r]

Come vedi non è sempre facile trovare la radice quadrata di un numero (anche se si può fare una stima del risultato).. Con la calcolatrice è possibile ottenere un numero che

ESERCIZIO 1. A) Generare una matrice Q, simmetrica e definita positiva, di dimensione 2 o possibilmente anche più alta (eventualmente seguire il suggerimento posto al fondo degli

La presente dichiarazione deve essere corredate da fotocopia, non autenticata, di documento di identità in corso di validità, del sottoscrittore.In caso di ATI

numero più piccolo di quello che hai trovato: invece di 6 scriverai 5. Ti sarai accorto che stai iniziando a fare gli stessi passi con i quali hai iniziato.A questo punto,