• Non ci sono risultati.

UNIVERSIT `A DEGLI STUDI DI FERRARA FACOLT `A DI SCIENZE MATEMATICHE, FISICHE E NATURALI

N/A
N/A
Protected

Academic year: 2021

Condividi "UNIVERSIT `A DEGLI STUDI DI FERRARA FACOLT `A DI SCIENZE MATEMATICHE, FISICHE E NATURALI"

Copied!
75
0
0

Testo completo

(1)

UNIVERSIT ` A DEGLI STUDI DI FERRARA

FACOLT `A DI SCIENZE MATEMATICHE, FISICHE E NATURALI

Corso di Laurea Triennale in Matematica Indirizzo Modelli Matematici per l’Economia

TEORIA SPETTRALE DI

SERIE TEMPORALI STAZIONARIE

Relatore:

Chiar.mo Prof.

Josef Eschgf ¨aller

Laureanda:

Eleonora Loss

Anno Accademico 2009-2010

(2)
(3)

Indice

1. Preliminari e notazioni 3

2. Serie temporali stazionaria 8

3. La misura spettrale 18

4. Spazi vettoriali con un prodotto scalare 31 5. Approssimazione in uno spazio di Banach 38

6. Operatori lineari continui 44

7. Spazi di Hilbert 45

8. Il teorema di Fr´echet-Riesz 52

9. Il rapporto di Rayleigh 56

10. Sistemi ortonormali completi 58

11. Ortogonalizzazione 64

12. Predizione lineare 66

13. Matrici di Toeplitz 68

Bibliografia 74

(4)
(5)

1. Preliminari e notazioni

Situazione 1.1.In tutta la tesi(Ω, A, p) sia uno spazio di probabilit `a finito e in genere sottinteso.

Per le dimostrazioni degli enunciati in questo capitolo rimandiamo ai corsi di analisi e di calcolo delle probabilit `a.

Per applicazioni X: Ω −→ Ωuseremo, per B ⊂ Ω, la notazione (X ∈ B) := {ω ∈ Ω | X (ω) ∈ B} = X1(B)

e, nel casoΩ = R,

(X ≤ a) := {ω ∈ Ω | X (ω) ≤ a}

come d’uso nel calcolo delle probabilit `a.

Definizione 1.2. Un’applicazione X : Ω −→ R si dice misurabile, se

`e A-Borel(R)-misurabile; similmente un’applicazione X : Ω −→ C si dice misurabile, se `eA-Borel(C)-misurabile.

Identificheremo in maniera naturale le applicazioni X : Ω −→ R con le applicazioni X : Ω −→ C con X (ω) ⊂ R; per esse i due concetti di misurabilt `a evidentemente coincidono.

Definizione 1.3. Una variabile aleatoria reale `e un’applicazione mi- surabile X : Ω −→ R, una variabile aleatoria complessa `e un’applica- zione misurabile X: Ω −→ C.

Nel senso della def. 1.2 le variabili aleatorie reali sono identificate con le variabili aleatorie complesse a valori reali.

Definizione 1.4.Per l’integrale (quando esiste) di una funzione f ris- petto a una misura µ su un insieme A utilizziamo la notazione

Z

A

f(a) dµ (a)

Definizione 1.5.Per k >0 siano LkR:= LkR(Ω, A, p) :=



X : Ω −→ R | X misurabile e Z

|X (ω)|kdp(ω) < ∞



Lk:= Lk(Ω, A, p) :=



X: Ω −→ C | X misurabile e Z

|X (ω)|kdp(ω) < ∞

 In genere ci limiteremo ai casi k= 1, 2.

Si osservi che X ∈ Lk ⇐⇒ Xk ∈ L1. Utilizzando la disuguaglianza di H¨older si dimostra (nella nostra ipotesi che p sia una misura di probabilit `a) cheL2⊂ L1.

Definizione 1.6. (Ω,B) sia uno spazio misurabile ed X : Ω −→ Ω un’applicazioneA-B- misurabile. Per B ∈ B poniamo allora

p[X] (B) := p (X ∈ B)

(6)

Si dimostra facilmente che p[X] `e una misura di probabilit `a su B.

Teorema 1.7 (formula astratta di trasformazione).(Ω,B) sia uno spazio misurabile e X : Ω −→ Ω un’applicazioneA-B-misurabile. Sia data una funzione misurabile g: Ω −→ C e sia k > 0. Allora:

(1) g◦ X ∈ Lk(Ω, A, p) ⇐⇒ g ∈ Lk(Ω,B, p[X]).

(2) g◦ X ∈ Lk(Ω, A, p) =⇒ R

g(X (ω)) dp (ω) =R

g(ω) dp[X] (ω).

Definizione 1.8.Sia X ∈ L1. Allora M X :=

Z

X(ω) dp (ω) si chiama la media di X.

Osservazione 1.9.Siano X, Y ∈ L2. Allora X+ Y, XY, XY ∈ L1. In particolare si ha|X|2 ∈ L1.

E chiaro che ci`o implica anche che` (X − M X) (Y − M Y ) ∈ L1 e|X − M X|2 ∈ L1.

Definizione 1.10.Siano X, Y ∈ L2. Allora

cov (X, Y ) := M (X − M X) (Y − M Y ) si chiama la covarianza di X ed Y .

Si osservi checov (X, Y ) = cov (Y, X).

Definizione 1.11.Sia X∈ L2.

σ2(X) := cov (X, X) = M |X − M X|2 si chiama la varianza di X.

La deviazione standard σ(X) `e definita come la radice quadrata (≥ 0) della varianza.

Lemma 1.12. Siano X, Y ∈ L2

Alloracov (X, Y ) = M XY − M X · M Y . Dimostrazione. Infatti

cov (X, Y ) = M (X − M X) (Y − M Y ) = M (X − M X) Y − M Y

= M XY − X · M Y − M X · Y + M X · M Y

= M XY − M X · M Y − M X · M Y + M X · M Y

= M XY − M X · M Y perch´e naturalmente M Y = M Y .

Corollario 1.13. Sia X ∈ L2. Allora σ2(X) = M |X|2− |M X|2.

(7)

Proposizione 1.14.

(1) Siano X1, ..., Xr, Y1, ..., Yr∈ L2ed α1, ..., αr, β1, ..., βr ∈ C. Allora cov

r

P

j=1

αjXj,

r

P

k=1

βkYk

!

=

r

P

j=1 r

P

k=1

αjβkcov (Xj, Yk) (2) Siano X, Y ∈ L2. Allora

σ2(X + Y ) = σ2(X) + σ2(Y ) + 2 Re cov (X, Y ).

Dimostrazione. (1) Tralasciando i limiti di sommazione abbiamo cov (α1X1+ ... + αrXr, β1Y1+ ... + βrYr)

= MX

j

X

k

αjXjβkYk−X

j

αjM Xj

X

k

βkM Yk

=X

j

X

k

αjβk M XjYk− M XjM Yk

=X

j

X

k

αjβkcov (Xj, Yk)

(2)

σ2(X + Y ) = cov (X + Y, X + Y )

= cov (X, X) + cov (X, Y ) + cov (Y, X) + cov (Y, Y )

= σ2(X) + cov (X, Y ) + cov (Y, X) + σ2(Y )

Macov (X, Y ) + cov (Y, X) = cov (X, Y ) + cov (X, Y ) = 2 Re cov (X, Y ).

Definizione 1.15.Le variabili aleatorie complesse X ed Y si dicono indipendenti, se per ogni A, B∈ Borel (C) vale

p(X ∈ A, Y ∈ B) = p (X ∈ A) · p (X ∈ B)

Proposizione 1.16. Le variabili aleatorie complesse X ed Y siano in- dipendenti.

Alloracov (X, Y ) = 0 e quindi σ2(X + Y ) = σ2(X) + σ2(Y ).

Definizione 1.17.Due variabili aleatorie complesse X ed Y si dicono identicamente distribuitese per ogni A∈ Borel (C) vale

p(X ∈ A) = p (Y ∈ A).

La stessa definizione si applica a pi `u di due variabili aleatorie.

Proposizione 1.18. X ed Y siano variabili aleatorie complesse. Allora sono equivalenti:

(1) X ed Y sono identicamente distribuite.

(2) p(Re X ≤ a, Im X ≤ b) = p (Re Y ≤ a, Im Y ≤ b) per ogni a, b ∈ R.

Dimostrazione. L’enunciato discende dal fatto che Borel(C) = σ-algebra ({(−∞, a] × (−∞, b] | a, b ∈ R})

Proposizione 1.19. X ed Y siano variabili aleatorie complesse iden- ticamente distribuite. Allora:

(8)

(1) Se X ∈ L1, allora anche Y ∈ L1 e si ha M X = M Y . (2) Se X ∈ L2, allora anche Y ∈ L2 e si ha σ2(X) = σ2(Y ).

Dimostrazione. Ci`o segue dalla definizione dell’integrale.

Definizione 1.20. La distribuzione di probabilit `a di una variabile aleatoria reale X `e la funzione

t

p(X ≤ t) : R −→ [0, 1].

Proposizione 1.21. X ed Y siano due variabili aleatorie reali. Allora sono equivalenti:

(1) X ed Y sono identicamente distribuite.

(2) X ed Y possiedono la stessa distribuzione di probabilit `a .

Dimostrazione. Si ottiene come caso speiale della prop. 1.18 oppure dal fatto che Borel(R) = σ-algebra ({(−∞, a] | a ∈ R}).

Proposizione 1.22. X ed Y siano variabili aleatorie reali. Allora sono equivalenti:

(1) X ed Y sono indipendenti.

(2) p(X ≤ a, Y ≤ b) = p (X ≤ a) p (Y ≤ b) per ogni a, b ∈ R.

Dimostrazione. Ci`o segue di nuovo da Borel(R) = σ-algebra ({(−∞, a] | a ∈ R}).

Osservazione 1.23. X sia una variabile aleatoria reale. Allora:

(1) Se X ∈ L1, allora M X = Z

R

t dp[X] (t).

(2) Se X ∈ L1e µ:= M X, allora σ2(X) = Z

R

(t − µ)2dp[X] (t).

Dimostrazione. Ci`o segue direttamente dal teorema 1.7.

Definizione 1.24.Una serie temporale (unodimensionale) `e una suc- cessione

n∈Z

Xndi variabili aleatorie complesse.

Una serie temporale

n

Xn si dice reale, se Xn `e reale per ogni n.

Con una leggero abuso di notazione scriveremo talvolta

n

Xn ∈ Lkse Xn∈ Lkper ogni n.

Definizione 1.25.Un rumore bianco `e una serie temporale

n

Bncon le seguenti propriet `a :

(1) Bn∈ L2 per ogni n.

(2) M Bn= 0 per ogni n.

(3) La varianza σ2(Bn) =: σ2non dipende da n.

(4) σ2 >0.

(5) cov (Bn, Bm) = 0 per n 6= m.

(9)

Diremo allora che

n

Bn `e un RB σ2.

Osservazione 1.26.

n

Bnsia una serie temporale per la quale siano soddisfatte le seguenti condizioni:

(1) Bn∈ L2 per ogni n.

(2) Le variabili aleatorie Bnsono identicamente distribuite.

(3) La loro media comune `e uguale a zero.

(4) La loro varianza comune `e maggiore di zero.

(5) Le variabili aleatorie Bnsono indipendenti a due a due.

Allora

n

Bn `e un RB σ2.

Dimostrazione. Affinch´e la serie temporale

n

Bnsia unRB σ2 de- vono valere le condizioni della def. 1.25:

(1) Per ipotesi.

(2) Per ipotesi. Che la media non dipende da n segue dalla prop.

1.19.

(3) La prop. 1.19 implica anche che la varianza non dipende da n.

(4) Per ipotesi.

(5) Dalla condizione (5) e per la prop. 1.16 segue che cov (Bn, Bm) = 0 per n 6= m.

Definizione 1.27.SuL2possiamo introdurre un semiprodotto scalare con

kX, Y k :=

Z

X(ω) Y (ω)dp (ω) = M XY

che possiede tutte le propriet `a di un prodotto scalare (complesso) tran- ne chekX, Xk = 0 non implica X = 0.

Identificando due variabili aleatorie X ed Y se p(X = Y ) = 1, otte- niamo uno spazio di Hilbert L2. Quando necessario, la classe di equi- valenza di X in L2viene denotata con X, in L2. Cfr. Weidmann, pag.

25.

Osservazione 1.28. Con la notazione della def. 1.27 per X, Y ∈ L2 abbiamo

M X = kX,

ω

1k

cov (X, Y ) = kX − M X, Y − M Y k kXk2 = σ2(X) + |M X|2

Qui la seminormakXk := pkX, Xk = q

M|X|2 `e definita rispetto al semiprodotto scalare, per cui la terza equazione segue dal cor. 1.13.

(10)

2. Serie temporali stazionarie

Situazione 2.1.Sia data una serie temporale

n

Xn∈ L2. Definizione 2.2.La serie temporale

n

Xnsi dice

(1) strettamente stazionaria, se per ogni k ∈ N + 1 e per ogni m ed ognit1, ..., tk∈ Z le variabili aleatorie k-dimensionali

(Xt1, ..., Xtk) e (Xt1+m, ..., Xtk+m) sono identicamente distribuite, cio`e sep (Xt1+m ≤ a1, ..., Xtk+m≤ ak) = p (Xt1 ≤ a1, ..., Xtk≤ ak) per ognia1, ..., ak∈ R;

(2) stazionaria, seµ := M Xt non dipende dat e cov (Xt+m, Xt) per ognim ∈ Z fissato non dipende da t.

In particolare quindi σX2 := cov (Xt, Xt) = σ2(Xt) non dipende dat.

Osservazione 2.3.Se

n

Xn`e strettamente stazionaria, allora `e anche stazionaria.

Osservazione 2.4.Le seguenti condizioni sono equivalenti:

(1) Per ognim ∈ Z fissato cov (Xt+m, Xt) non dipende da t.

(2) Per ognim, t, s ∈ Z vale cov (Xt+m, Xs+m) = cov (Xt, Xs).

Dimostrazione.(1) =⇒ (2):

cov (Xt+m, Xs+m) = cov Xs+(t−s)+m, Xs+m

= cov Xs+(t−s), Xs

= cov (Xt, Xs)

(2) =⇒ (1) : cov (Xt+m, Xt) = cov (Xm, X0) non dipende da t.

Definizione 2.5.La serie temporale

n

Xnsia stazionaria. Allora pos- siamo definire una funzioneγ : Z −→ C ponendo

γ (m) := cov (Xm, X0)

Per ipotesi alloraγ (m) = cov (Xt+m, Xt) per ogni m, t ∈ Z.

γ si chiama la funzione di autocovarianza di

n

Xn.

Siaµ := M X0 (uguale aM Xtper ognit). Allora diciamo che

n Xn `e unaSTS (µ, γ).

Osservazione 2.6.

n

Xnsia unaSTS (µ, γ). Usando la notazione della def. 1.27 per ognim, t ∈ Z abbiamo

γ (m) = kXm− µ, X0− µk = kXt+m− µ, Xt− µk Osservazione 2.7.

n

Xnsia unaSTS (µ, γ). Per ogni t, s ∈ Z allora cov (Xt, Xs) = γ (t − s)

Dimostrazione. Per l’oss. 2.4 abbiamo

(11)

cov (Xt, Xs) = cov (Xt−s, X0) = γ (t − s) Osservazione 2.8.

n

Xnsia unaSTS (µ, γ). Allora γ (0) = σ2(Xt) per ognit ∈ Z. In particolare γ (0) `e reale e ≥ 0.

Definizione 2.9.

n

Xnsia unaSTS (µ, γ) con γ (0) > 0.

Allora la funzione

m

γ (m) /γ (0) : Z −→ C si chiama la funzione di autocorrelazionedi

n

Xn. Osservazione 2.10.

n

Xnsia unaSTS (µ, γ). Allora per ogni t1, ..., tk, m ∈ Z si ha

γ (m) = MXt1+mXt1+ ... + Xtk+mXtk

k

Proposizione 2.11.

n

Xnsia unaSTS (µ, γ).

Alloraγ (−m) = γ (m) per ogni m ∈ Z.

Se la serie temporale

n

Xn `e reale, abbiamo quindiγ (−m) = γ (m) per ognim ∈ Z.

Dimostrazione. Usando l’oss. 2.6 abbiamo

γ (−m) = kXm− µ, X0− µk = kX0− µ, Xm− µk

= kXm− µ, X0− µk = γ (m)

Esempio 2.12.

n

Xnsia unRB σ2

. Allora

n

Xn `e una STS (0, γ) con

γ (m) =

(0 perm 6= 0 σ2 perm = 0

La funzione di autocorrelazione `e quindi data da ρ (m) =

(0 perm 6= 0 1 perm = 0 Dimostrazione. Per ipotesi

n

Xn `e un RB σ2

, quindiM Xn= 0 per ognin. Per m 6= 0 inoltre cov (Xt+m, Xt) = 0 per ogni t.

Infinecov (Xt, Xt) = σ2.

Definizione 2.13. Siaq ∈ N + 1.

n

Xn si dice una serie temporale a media mobiledi ordine q, se esistono un rumore bianco B =

n

Bn e coefficienti costantiθ1, ..., θq ∈ C con θq 6= 0 tali che

Xt= Bt+ θ1Bt−1+ .. + θqBt−q

(12)

pert ∈ Z. Diciamo allora che

n

Bn `e una serie temporale di tipo MM (θ1, ..., θq, B). Come nella def. 2.2 denotiamo con σB2 la varianza del rumore bianco.

Nella terminologia inglese una tale serie temporale si dice di tipo moving average (MA).

Proposizione 2.14.

n

Xn sia di tipoMM (θ1, ..., θq, B). Allora

n

Xn `e unaSTS (0, γ) con

γ (m) =







σ2B· θm+ θm+1θ1+ ... + θqθq−m

 per0 ≤ m ≤ q

0 perm > q

γ (−m) perm < 0

dove abbiamo postoθ0 := 1.

Dimostrazione. (1) `E immediato cheXn∈ L2 eM Xn= 0 per ogni n.

(2) Ponendo θj := 0 per j /∈ {0, 1, ..., q} e sommando da −∞ a ∞, abbiamo

cov (Xt+m, Xt) = cov

X

j

θjBt+m−j,X

k

θkBt−k

= σB2 X

j

X

k

θjθkδm−j,−k = σB2 X

j

θjθj−m

= σB2 X

j

θj+mθj

Questa somma non dipende da t e quindi la serie temporale

n

Xn `e stazionaria.

(3) Perm ≥ 0 otteniamo σB2 θmθ0+ θm+1θ1+ ... + θm+qθq Questa somma si annulla perm > q.

Perm < 0 usiamo la prop. 2.11.

Corollario 2.15.

n

Xnsia di tipoMM (θ1, ..., θq, B). Allora la varianza comune delle variabili aleatorieXn `e data da

σ2X = γ (0) =

1 + |θ1|2+ ... + |θq|2 σ2B Corollario 2.16.

n

Xnsia di tipoMM (θ, B) con θ ∈ R. Allora

γ (m) =





1 + θ2

σ2B perm = 0 θ · σ2B perm = ±1

0 altrimenti

Nota 2.17.

n

Xn sia di tipo MM (θ, B) con θ ∈ R. Assumiamo di co- noscere (in genere approssimativamente mediante considerazioni em-

(13)

piriche)γ (0) =: γ0 eγ (1) =: γ1. Vogliamo calcolare i parametriθ e σ2B, entrambi6= 0 per definizione.

Poniamoρ1 := ρ (1) = γ1

γ0 6= 0.

Dal cor. 2.16 abbiamo

σB2(1 + θ2) = γ0 σB2θ = γ1

Ci`o implica θ

1 + θ2 = γ1

γ0 = ρ1, per cui ρ1θ2− θ + ρ1

cosicch´e θ = 1 ±p

1 − 4ρ211 Inoltreσ2B= γ1

θ e siccome 1 + θ2

θ = 1

ρ1 implica 1 θ = 1

ρ1

− θ, otteniamo

σB2 = γ1 1 ρ1

−1 ±p

1 − 4ρ211

!

= γ1 ρ1

1 ±p

1 − 4ρ21 2

!

e quindi

σB2 = γ01 ±p

1 − 4ρ21 2

Possiamo perci`o distinguere i seguenti casi:

(1) Se|ρ1| > 1

2, il problema non ha soluzione (perch´e abbiamo postu- lato cheθ ∈ R).

(2) Perρ1 = 1

2 otteniamoθ = 1 e σB2 = γ0 2. (3) Perρ1 = −1

2 otteniamoθ = −1 e σ2B= γ0 2 . (4) Se|ρ1| < 1

2 otteniamo due soluzioni distinte.

Cfr. Neusser, pag 18-19.

Definizione 2.18.La serie temporale

n

Xn si dice autoregressiva di ordine1, se sono soddisfatte le seguenti condizioni:

(1)

n

Xn `e stazionaria.

(2) Esistonoa ∈ C \ 0 e un rumore bianco B tali che Xt− aXt−1= Bt

(14)

per ognit ∈ Z

(3)cov (Xt, Bs) = 0 per t, s ∈ Z con s > t (indipendenza dal futuro).

Diremo allora che

n

Xn `e di tipo AR (a, B).

Osservazione 2.19.

n

Xnsia di tipo AR (a, B).

Allora0 < |a| < 1 e γ(0) = σ2B 1 − |a|2 . Dimostrazione. Per ipotesia 6= 0.

Abbiamo in particolareX1 = aX0+ B1e inoltre cov (X0, B1) = 0 per la condizione (3) nella def. 2.18.

Dalla sesquilinearit `a della covarianza (cfr. oss. 1.28) otteniamo γ (0) = cov(X1, X1) = cov(aX0+ B1, aX0+ B1)

= aa cov(X0, X0) + cov(B1, B1)

= |a|2γ (0) + σ2B e quindi

1 − |a|2

γ (0) = σ2B.

Siccomeσ2X > 0, ci`o implica 1 − |a|26= 0, per cui γ (0) = σB2 1 − |a|2. Per`oγ (0) deve essere reale e ≥ 0 e ci`o implica |a| < 1.

Osservazione 2.20.

n

Xnsia di tipoAR (a, B).

AlloraM Xn= 0 per ogni n .

Dimostrazione. Per la stazionariet `aµ := M Xnnon dipende dan.

Per ipotesiX1= aX0+ B1 conM B1 = 0, per cui µ = M X1= aM X0 = aµ

Per`oa 6= 1 per l’oss. 2.19 e ci`o implica µ = 0.

Osservazione 2.21.SianoB un rumore bianco e a ∈ C con 0 < |a| < 1.

Non sappiamo ancora se esiste una serie temporale di tipo AR (a, B).

Assumiamo per`o che

n

Xnsia di tipoAR (a, B).

Allora per ognit ∈ Z per ogni n ∈ N si ha Xt= anXt−n+

n−1P

k=0

akBt−k (∗) Perci`o

kXt

n−1P

k=0

akBt−kk = |a|nkXt−nk = |a|nσX

perch´eM Xt−n= 0 per l’oss. 2.20.

Siccome|a| < 1 per l’oss. 2.19, ci`o implica che XtL=2 P k=0

akBt−k.

(15)

Nel prossimo teorema dimostreremo che in questo modo otteniamo veramente una serie temporale di tipoAR (a, B).

Dimostrazione. Dobbiamo solo dimostrare la relazione (*). Essa si ottiene applicando ripetutamente la ricorrenza al punto (2) della def.

2.18:

Xt= aXt−1+ Bt

= a (aXt−2+ Bt−1) + Bt= a2Xt−2+ aBt−1+ Bt

= a2(aXt−3+ Bt−2) + aBt−1+ Bt= a3Xt−3+ a2Bt−2+ aBt−1+ Bt

ecc.

Teorema 2.22. SianoB un rumore bianco ed a ∈ C con 0 < |a| < 1.

Allora la serie temporale

t

Xtdefinita daXt:=

P k=0

akBt−k `e ben definita ed `e (inL2) l’unica serie temporale di tipoAR (a, B).

Perm ∈ N si ha γ (m) = σB2 am 1 − |a|2.

Dimostrazione. In questa dimostrazione lavoriamo in L2, senza di- stinguere esplicitamente tra una funzione X ∈ L2 e la sua classe (X, in L2).

(1) L’unicit `a deriva dall’oss. 2.21.

(2) `E chiaro che pert fissato la serie

n

Pn k=0

akBt−k `e sempre una serie di Cauchy inL2, per cui il limiteXt `e un ben definito elemento di L2.

(3) Dimostriamo la relazione di ricorrenza per ognit:

Xt− aXt−1 = lim

n→∞

 n P

k=0

akBt−k− an−1P

k=0

akBt−k−1



= Bt

(4) Sianot, s ∈ Z con s > t. Allora per la continuit `a del prodotto scalare

cov (Xt, Bs) = cov

 P

k=0

akBt−k, Bs



= P k=0

akcov (Bt−k, Bs) = 0 perch´es > t − k per ogni k ∈ N.

(5) Rimane da dimostrare la stazionariet `a della serie temporale

t

Xt. Utilizzando ad esempio la prima equazione nell’oss. 1.28 `e chiaro che M Xt= 0 per ogni t. Siano t ∈ Z e m ∈ N. Allora

(16)

cov (Xt+m, Xt) = cov

 X k=0

akBt+m−k, X j=0

ajBt−j

= σB2 X k=0

X j=0

δt+m−k,t−jakaj

= σB2 X j=0

aj+maj = σ2Bam X j=0

|a|2j = σ2B am 1 − |a|2 Quindicov (Xt+m, Xt) non dipende da t.

Nota 2.23.Costruiamo ora una funzione in R per impostare la visua- lizzazione dei grafici che faremo negli esempi successivi.

Fileps = function (file,larg,alt)

postscript(file,width=larg/2.54,height=alt/2.54, horizontal=FALSE,onefile=FALSE,paper=’special’)

Impostagrafica = function (x1,x2,y1,y2,cornice=1,rxy=40, assi=FALSE,marg=rep(0,4),file=NA,larg=9,alt=4, par=c(bg=’yellow’))

{if (!is.na(file)) Fileps(file=file,larg=larg,alt=alt) par(mai=marg,lwd=1.2,cex=0.4); par(par)

plot(c(x1,x2),c(y1,y2),type=’n’,xlab=’t’,ylab=’’,asp=rxy, axes=assi,frame.plot=as.logical(cornice))}

Nota 2.24.Le tre seguenti funzioni generano rispettivamente una se- rie temporale autoregressiva, un rumore bianco con deviazione stan- derd uguale a 1 e una serie temporale a media mobile

autoregressiva1 = function (t1,t2,a,B,N=t1) sapply(t1:t2,function (t) ruffini(B[(t-N):t],a))

biancounif = function (n,ds=1) {B=runif(n); ds*(B-mean(B))/sd(B)}

mediamobile = function (t1,t2,theta,B) {q=length(theta); theta=c(1,theta)

X=sapply(t1:t2,function (t) sum(B[t:(t-q)]*theta))}

Esempio 2.25.Con le istruzioni

n=100

B=biancounif(n,ds=0.1) X=mediamobile(3,n,c(0.5,0.3),B) t1=8; Y=autoregressiva1(t1,n,0.7,B)

Impostagrafica(3,n,-0.3,0.3,file=’0223-1.ps’) lines(3:n,X)

dev.off()

Impostagrafica(3,n,-0.3,0.3,file=’0223-2.ps’) lines(t1:n,Y)

dev.off()

otteniamo ad esempio le figure

(17)

Queste serie temporali sono molto simili. Ci`o non `e un caso:

La prima corrisponde a una serie temporale

t

Xtin cui Xt= Bt+ 0.5Bt−1+ 0.3Bt−2

la seconda `e una serie temporale

t

Ytin cui Yt= Bt+ 0.7Bt−1+ 0.72Bt−2+ 0.73Bt−3+ ...

dove si usa la stessa realizzazione dello stesso rumore biancoB, come approssimazione della sommatoria infinita eY :=

P k=0

0.7kBt−k.

n

Yn `e infatti di tipo MM 0.7, 0.72, ..., B

, mentre una serie tempora- le di tipoAR (a, B) pu`o essere detta di tipo MM (∞, B), come vedremo.

Con le stesse istruzioni per un’altra realizzazione di B otteniamo le figure (di nuovo molto simili)

(18)

Nota 2.26.

n

Xnsia di tipoAR (a, B).

Per calcolare la funzione di autocovarianza di

n

Xn non abbiamo bisogno della rappresentazione esplicita data nel teorema 2.22. Infatti dall’oss. 2.19 sappiamo che0 < |a| < 1 e che γ (0) = σB2

1 − |a|2, mentre daXm = aXm−1+ Bm nel casom > 0 otteniamo

γ (m) = cov (Xt+m, Xt) = σB2 am

1 − |a|2 = aσ2B am−1

1 − |a|2 = aγ (m − 1) Da questa relazione otteniamo direttamente la formula per γ (m) del teorema 2.22. Le equazioni

γ (1) = aγ (0) γ (0) = σB2

1 − |a|2

sono dette equazioni di Yule-Walker della serie temporale data.

Esse mostrano che le autocovarianzeγ (0) e γ (1) da sole determinano i parametria e σB2 tramite

a = γ (1) γ (0) = ρ1

σB2 = γ (0)

1 − |ρ1|2

Definizione 2.27.Siap ∈ N + 1. La serie temporale

n

Xnsi dice au- toregressiva di ordine p, se sono soddisfatte le seguenti condizioni:

(1)

n

Xn `e stazionaria.

(2) Esistonoa1, ..., ap ∈ C con ap6= 0 e un rumore bianco B tali che Xt= a1Xt−1+ ... + apXt−p+ Bt

per ognit ∈ Z.

(3) cov (Xt, Bs) = 0 per t, s ∈ Z con s > t.

Diremo allora che

n

Xn `e di tipo AR (a1, ..., ap, B).

Definizione 2.28.Sianop, q ∈ N + 1 ed a1, ..., ap, θ1, ..., θq∈ C con ap 6= 0, θq6= 0. La serie temporale

n

Xnsi dice di tipo

ARMM (a1, ..., ap; θ1, ..., θq; B), se sono soddisfatte le seguenti condizio- ni:

(1)

n

Xn `e stazionaria.

(2) Xt= a1Xt−1+ ... + apXt−p+ Bt+ θ1Bt−1+ ... + θqBt−q

per ognit ∈ Z

(3) cov (Xt, Bs) = 0 per t, s ∈ Z con s > t.

Definizione 2.29.

n

Xn si chiama un cammino casuale (in inglese random walk), se sono soddisfatte le seguenti condizioni:

(19)

(1)Xt= 0 per t < 0.

(2) Esiste un rumore bianco B tale che X0 = B0 e

Xt= Xt−1+ Bt per ogni t ∈ N + 1.

Diremo allora che

n

Xn `e il cammino casuale generato dal rumore biancoB.

Osservazione 2.30.

n

Xnsia il cammino casuale generato dal rumo- re biancoB. Allora:

(1)Xt= Pt

k=0

Bk pert ≥ 0.

(2)M Xt= 0 per ogni t ∈ Z.

(3)cov (Xt, Bs) = 0 per 0 ≤ t < s.

(4)cov (Xt+m, Xt) = (t + 1) σ2Bpert, m ∈ N.

Dall’ultima relazione vediamo in particolare che un cammino casuale non `e stazionario.

Dimostrazione.

(1) Chiaro.

(2) Immediato da (1).

(3) Sia0 ≤ t < s. Allora cov (Xt, Bs) = cov

 t P

k=0

Bk, Bs



= Pt

k=0

cov (Bk, Bs) = 0.

(4) Abbiamo in primo luogo

cov (Xt, Xt) = cov

 Xt k=0

Bk, Xt j=0

Bj

 = Xt k=0

Xt j=0

cov (Bk, Bj)

= Xt k=0

cov(Bk, Bk) = (t + 1) σB2

Perm > 0 abbiamo inoltre cov(Xt+m, Xt) = cov(Xt+

t+mX

k=t+1

Bk, Xt)

= cov(Xt, Xt) +

t+mX

k=t+1

cov(Bk, Xt)(3)= cov(Xt, Xt)

(20)

3. La misura spettrale

Definizione 3.1.Una funzioneϕ : Z −→ C si dice positivamente semi- definita, se per ognir ∈ N + 1, ogni λ1, ..., λr ∈ C ed ogni n1, ..., nr ∈ Z si ha

r

X

j=1 r

X

k=1

λjλkϕ (nj − nk) ≥ 0 (∗)

Chiediamo quindi in particolare che questa somma sia reale.

Se ogni volta che(λ1, ..., λr) 6= 0 la somma in (*) `e > 0, la funzione ϕ si dice positivamente definita.

Lemma 3.2. Sianoa, b ∈ C tali che a + b ∈ R, a − b ∈ iR.

Alloraa = b.

Dimostrazione. Per ipotesi abbiamoIm (a + b) = 0 e Re (a − b) = 0, quindiIm (a) = − Im (b) e Re (a) = Re (b), e vediamo che a = b.

Proposizione 3.3. La funzioneϕ : Z −→ C sia positivamente semide- finita. Allora:

(1) ϕ (0) ≥ 0.

(2) ϕ (−m) = ϕ (m) per ognim ∈ Z.

(3) |ϕ (m)| ≤ ϕ (0) per ognim ∈ Z.

Dimostrazione. Seguiamo Kreiss/Neuhaus, pag 48-49.

(1) Ponendo r = 1, λ1 = 1 e n1 = 0 in (*) dalla def. 3.1 otteniamo ϕ (0) ≥ 0.

(2) Perr = 2, n1= m, n2 = 0 la (*) nella def. 3.1 diventa λ1λ1ϕ (0) + λ1λ2ϕ (m) + λ2λ1ϕ (−m) + λ2λ2ϕ (0)

ovvero

1|2+ |λ2|2 ϕ (0) + λ1λ2ϕ (m) + λ1λ2ϕ (−m) ≥ 0

Ponendoλ1:= λ2 := 1 si ha 2ϕ (0) + ϕ (m) + ϕ (−m) ≥ 0. Siccome ϕ (0)

`e reale anche ϕ (m) + ϕ (−m) deve essere reale.

Ponendoλ1 := 1, λ2 := i si ottiene 2ϕ (0) − i (ϕ (m) − ϕ (−m)) ≥ 0, quindiϕ (m) − ϕ (−m) ∈ iR.

Dal lemma 3.2 otteniamoϕ (−m) = ϕ (m).

(3) Utilizzando il punto (2) abbiamo quindi

1|2+ |λ2|2 ϕ (0) + 2 Re λ1λ2ϕ (m) ≥ 0

(31) Consideriamo prima il casoϕ (0) = 0. In questa ipotesi Re λ1λ2ϕ (m) ≥ 0 per ogni λ1, λ2 ∈ C.

Perλ1= 1, λ2= −ϕ (m) otteniamo − Re |ϕ (m) |2 ≥ 0 e quindi ϕ (m) = 0.

(32) Siaϕ (0) 6= 0. Ponendo a := ϕ (0) , b := ϕ (m) abbiamo

(21)

1|2+ |λ2|2 a + 2 Re λ1λ2b ≥ 0 per ogni λ1, λ2 ∈ C.

Per ipotesia 6= 0 e quindi a > 0 per il punto (1), cosicch´e anche

1|2+ |λ2|2+ 2 Reλ1λ2b

a ≥ 0 per ogni λ1, λ2∈ C.

Ponendoλ1 := 1, λ2 := −b/a abbiamo perci`o 1 + |b/a|2a − 2 Re bb

aa ≥ 0

ovvero1 + |b/a|2− 2|b/a|2 ≥ 0 e quindi 1 ≥ |b/a|2 e questo implica|b| ≤ a.

Osservazione 3.4.La funzioneϕ : Z −→ R sia tale che ϕ (m) = ϕ (−m) per ogni m ∈ Z. Se per ogni r ∈ N + 1,

ognia1, ..., ar∈ R ed ogni n1, ..., nr∈ Z si ha

r

X

j=1 r

X

k=1

ajakϕ (nj − nk) ≥ 0

alloraϕ `e positivamente semidefinita nel senso della def. 3.1, se consi- deriamoϕ come funzione Z −→ C.

Dimostrazione. Sianoλ1, ..., λr ∈ C ed n1, ..., nr∈ Z conλk= ak+ ibk, e con ak, bk∈ R. Allora

(aj+ ibj) (ak− ibk) = ajak+ bjbk+ i (bjak− ajbk)

Perci`o l’ipotesi di simmetria implica che (tralasciando i limiti di som- mazione)

X

j

X

k

bjakϕ (nj − nk) =X

j

X

k

bjakϕ (nk− nj)

=X

j

X

k

ajbkϕ (nj− nk)

e vediamo che ci siamo ricondotti al caso reale.

Osservazione 3.5.SianoX, Y ∈ L2 eda, b ∈ C.

Alloracov (X + a, Y + b) = cov (X, Y ).

Dimostrazione. Ci`o `e immediato dalla def. 1.10.

Proposizione 3.6. La funzione di autocovarianza di una serie tempo- rale stazionaria `e positivamente semidefinita.

Dimostrazione.

n

Xnsia unaSTS (µ, γ).

(22)

Sianoλ1, ..., λr∈ C ed n1, ..., nr∈ Z. Allora

r

X

j=1 r

X

k=1

λjλkγ (nj − nk) =

r

X

j=1 r

X

k=1

λjλkcov Xnj, Xnk



= cov

 X

j

λjXnj,X

k

λkXnk

= σ2

 X

j

λjXnj

≥ 0

Teorema 3.7.ϕ : Z −→ C sia una funzione positivamente semidefinita. Allora esiste una serie temporale stazionaria

n

Yn

la cui funzione di autocovarianza coincide conϕ.

Seϕ `e reale, anche la serie temporale

n

Ynpu`o essere scelta reale.

Dimostrazione. Ci`o `e una conseguenza non difficile del teorema di esistenza di Kolmogorov. Una dimostrazione si trova ad esempio in Brockwell/Davis, pag. 27.

Definizione 3.8.Siaϕ : Z −→ C un’applicazione. Una misura spett- raleperϕ `e una misura finita ν su Borel ((−π, π]) tale per ogni m ∈ Z si abbia

ϕ (m) = Z

(−π,π]

eimtdν (t)

Nel seguito dimostreremo che la funzioneϕ possiede una misura spett- rale se e solo se `e positivamente semidefinita.

Proposizione 3.9. Se una funzioneϕ : Z −→ C possiede una misura spettrale, alloraϕ `e positivamente semidefinita.

Dimostrazione. Siano λ1, ..., λr ∈ C e n1, ..., nr ∈ Z. Tralasciando di nuovo i limiti di sommazione abbiamo

X

j

X

k

λjλkϕ (nj− nk) =X

j

X

k

λjλk

Z

(−π,π]

ei(nj−nk)tdν (t)

= Z

(−π,π]

X

j

X

k

λjλkei(nj−nk)tdν (t)

= Z

(−π,π]

 X

j

λjeinjtX

k

λkeinkt

dν (t)

= Z

(−π,π]

|X

k

λkeinkt|2dν (t) ≥ 0

(23)

Proposizione 3.10. Se una funzioneϕ : Z −→ C possiede una misura spettrale, questa `e univocamente determinata.

Dimostrazione. Sianoν1, ν2 due misure spettrali perϕ.

SiccomeBorel ((−π, π]) = σ-algebra ({(a, b] | −π < a ≤ b ≤ π}), `e suf- ficiente dimostrare cheν1((a, b]) = ν2((a, b]).

(1) Sia quindi−π < a < b ≤ π.

E evidente che la funzione caratteristica` χ(a,b] pu`o essere approssi- mata da una successione monotona decrescente

n

fndi funzioni conti- nue (che possiamo scegliere lineari a tratti)fn : [−π, π] −→ [0, 1] e tali chef (−π) = f (π). Per il teorema di Levi sulla convergenza monotona abbiamo allora

νk((a, b]) = Z

(−π,π]

χ(a,b]k(x) = lim

n→∞

Z

(−π,π]

fn(x) dνk(x) perk = 1, 2.

(2) `E quindi sufficiente dimostrare che Z

(−π,π]

f (x) dν1(x) = Z

(−π,π]

f (x) dν2(x)

per ogni funzione continuafn: [−π, π] −→ [0, 1] con f (−π) = f (π).

Per per il teorema di approssimazione di Weierstrass ogni tale fun- zione pu`o essere approssimata uniformemente tramite polinomi trigo- nometrici della forma

t

PN m=−N

ameimte quindi `e sufficiente dimostrare che

Z

(−π,π]

eimt1(t) = Z

(−π,π]

eimt2(t)

per ognim ∈ Z. Ma per ipotesi i due integrali sono uguali a ϕ (m).

Definizione 3.11.Per uno spazio topologigoX denotiamo con M(X) l’insieme delle misure finite suBorel(X).

Cb(X, R) sia, come d’uso, l’insieme delle funzioni reali continue e limitate definite suX.

Definizione 3.12.SiaX uno spazio topologico. Un insieme N ⊂ M(X) si dice concentrato sui compatti (in inglese tight), se per ogni

ε > 0 esiste un sottoinsieme compatto K ⊂ X tale che ν (X \ K) < ε per ogniν ∈ N .

N si dice limitato, se l’insieme {ν (X) | ν ∈ N } `e limitato.

Definizione 3.13.X sia uno spazio topologico, θ ∈ M(X) e

n

νn una successione di elementi diM(X). Diciamo che la successione

n

νncon- verge debolmente aθ e scriviamo

n

νn deb

−→ θ, se per ogni f ∈ Cb(X, R) si ha

n

Z

f (X) dνn(X) −→

Z

f (X) dθ (X)

(24)

Definizione 3.14.SiaX uno spazio topologico. Un insieme N ⊂ M(X) si dice relativamente sequenzialmente compatto, se per ogni successio- ne

n

νn di elementi di N esistono una sottosuccessione

k

νnk e un elementoθ ∈ M(X) tali che

k

νnk−→ θ.deb

Teorema 3.15 (teorema di Prokhorov). X sia uno spazio metrico completo edN ⊂ M(X). Allora sono equivalenti:

(1)N `e relativamente sequenzialmente compatto.

(2)N `e concentrato sui compatti e limitato.

Dimostrazione. La dimostrazione di questo teorema `e molto compli- cata e si trova ad esempio in Elstrodt, pagg. 392-398, e Billingsley, pagg. 57-64.

Lemma 3.16. Sianog : Z −→ C una funzione ed n ∈ N + 1. Allora

n−1

X

k=−(n−1)

(n − |k|) g (k) =

n

X

j=1 n

X

k=1

g (j − k)

Dimostrazione. Questa formula si trova in Kreiss/Neuhaus, pag. 364. La dimostriamo per induzione sun.

n = 1: Sia a sinistra che a destra abbiamo soltanto g (0).

n −→ n + 1:

n

X

k=−n

(n + 1 − |k|) g (k) =

n

X

k=−n

g (k) +

n

X

k=−n

(n − |k|) g (k)

=

n

X

k=−n

g (k) +

n−1

X

k=−(n−1)

(n − |k|) g (k)

ind=

n

X

k=−n

g (k) +

n

X

j=1 n

X

k=1

g (j − k)

=

n

X

k=−n

g (k) +

n+1

X

j=1 n

X

k=1

g (j − k)

n

X

k=1

g (n + 1 − k)

=

n

X

k=−n

g (k) +

n+1

X

j=1 n+1

X

k=1

g (j − k)

n

X

k=1

g (n + 1 − k) −

n+1

X

j=1

g (j − n − 1)

Per`o

n

P

k=1

g (n + 1 − k) +

n+1

P

j=1

g (j − n − 1) =

n

P

k=−n

g (k).

(25)

Lemma 3.17.ϕ : Z −→ C sia una funzione positivamente semidefinita.

Per ognin ∈ N + 1 definiamo una funzione fn: [−π, π] −→ C tramite fn(t) := 1

n−1

X

k=−(n−1)

 1 −|k|

n



ϕ (k) e−ikt Per ognin ∈ N + 1 e per ogni t ∈ [−π, π] allora:

(1) fn(t) = 1 2πn

n

X

j=1 n

X

k=1

ϕ (j − k) e−ijteikt. (2) fn(t) `e reale e ≥ 0.

(3) fn∈ Cb([−π, π], R).

(4) Per ognim ∈ Z tale che n > |m| vale Z π

−π

fn(t) eimtdt =



1 −|m|

n

 ϕ (m) (5)

Z π

−π

fn(t) dt = ϕ (0).

Dimostrazione. (1) Ci`o segue dal lemma 3.16.

(2) Ci`o segue dal punto (1), usando l’ipotesi chef sia positivamente semidefinita.

(3) Chiaro.

(4) Z π

−π

fn(t) eimtdt = 1 2π

n−1

X

k=−(n−1)

 1 −|k|

n

 ϕ (k)

Z π

−π

ei(m−k)dt

= 1 2π



1 −|m|

n



ϕ (m) 2π =



1 −|m|

n

 ϕ (m) perch´e, come noto,

Z π

−π

ei(m−k)tdt =

(2π perm = k 0 altrimenti

(5) Caso particolare del punto (4) perm = 0.

Teorema 3.18 (teorema di Herglotz). Una funzioneϕ : Z −→ C possiede una misura spettrale se e solo se `e positivamente semidefinita.

Dimostrazione. (1) Seϕ possiede una misura spettrale allora `e posi- tivamente semidefinita per la prop. 3.9.

(2) Sia viceversaϕ positivamente semidefinita.

Per B ∈ Borel ([−π, π]) ed n ∈ N + 1 sia νn(B) :=

Z

B

fn(t) dt, dove l’integrale `e calcolato nel senso di Lebesgue.

Per il punto (5) del lemma 3.17νn∈ M ([−π, π]); per la stessa ragio- ne l’insiemeN := {νn| n ∈ N + 1} `e limitato.

Siccome[−π, π] `e compatto, N `e inoltre sicuramente concentrato sui

(26)

compatti. Per il teorema 3.15 esistono una sottosuccessione

k

νnk e un elementoθ ∈ M([−π, π]) tali che

k

νnk

−→ θ.deb

Siam ∈ Z. Siccome

k

nk−→ ∞, dal punto (4) del lemma 3.17 vedia- mo che lim

k→∞

Z π

−π

fnk(t) eimtdt = ϕ (m).

Per la formula di trasformazione degli integrali nota dall’analisi per`o

Z π

−π

fn(t) eimtdt = Z

[−π,π]

eimtnt

cosicch´e, tenendo conto del punto (3) del lemma 3.17 e della def. 3.13, ϕ (m) = lim

k→∞

Z π

−π

fnk(t) eimtnk(t) = lim

k→∞

Z

[−π,π]

eimtnk(t)

= Z π

−π

eimtdθ (t) = Z

(−π,π]

eimtdθ (t) + e−iπmθ ({−π})

= Z

(−π,π]

eimtdν (t)

se perB ∈ Borel ((−π, π]) poniamo ν (B) :=

(θ (B) seπ /∈ B

θ (B) + θ ({−π}) seπ ∈ B ν `e allora una misura spettrale per ϕ.

Abbiamo seguito Kreiss/Neuhaus, pagg. 49-51. Un’altra dimostra- zione si trova in Katznelson, pagg. 38-39. La dimostrazione in Brock- well/Davis, pagg. 117-119, `e molto simile alla nostra.

L’analogo del teorema di Herglotz per processi stocastici a tempo continuo `e il teorema di Wiener-Khintchin, al quale il teorema di Her- glotz pu`o essere ricondotto; cfr. Priestley, pagg. 218-224.

Corollario 3.19. Per una funzioneϕ : Z −→ C sono equivalenti:

(1) ϕ `e la funzione di autocovarianza di una serie temporale stazio- naria.

(2) ϕ `e positivamente semidefinita.

(3) ϕ possiede una misura spettrale.

Definizione 3.20.La misura spettrale di una serie temporale stazio- naria `e la misura spettrale della sua funzione di autocovarianza.

Questa definizione `e giustificata in virt `u del corollario 3.19.

Definizione 3.21.Una serie temporale

n

Xnsi dice armonica, se esi- stono numeriω1, ..., ωN ∈ (0, π], variabili aleatorie reali

A1, ..., AN, B1, ..., BN tali che siano soddisfatte le seguenti condizioni:

(1) Xt=

N

P

k=1

(Akcos ωkt + Bksin ωkt) per ogni t ∈ Z.

(27)

(2) Ak, Bk∈ L2per ognik.

(3) M Ak= M Bk= 0 per ogni k.

(4) cov (Ak, Bk) = 0 per ogni k.

(5) cov (Aj, Ak) = cov (Bj, Bk) = 0 per j 6= k.

(6) σ2(Ak) = σ (Bk) =: σ2kper ognik.

Diremo allora che

n

Xn `e una STA ω1, ..., ωN, σ12, ..., σN2 Proposizione 3.22.

n

Xnsia unaSTA ω1, ..., ωN, σ12, ..., σ2N.

Allora

n

Xn `e unaSTS (0, γ) con γ (m) =

N

P

k=1

σk2cos ωkm per ognim ∈ Z.

Dimostrazione. (1) `E chiaro cheXt∈ L2 (cfr. oss. 1.9).

(2) `E immediato anche cheM Xt= 0 per ogni t ∈ Z.

(3) Sianot, m ∈ Z. Con la notazione della def. 3.21 abbiamo Xt+m =

N

X

k=1

(Akcos ωk(t + m) + Bksin ωk(t + m))

=

N

X

k=1

Ak(cos ωkt cos ωkm − sin ωkt sin ωkm) +

+

N

X

k=1

Bk(sin ωkt cos ωkm + sin ωkm cos ωkt)

Xt=

N

X

k=1

Akcos ωkt +

N

X

k=1

Bksin ωkt

cosicch´e dalla prop 1.14 e dalle condizioni di ortogonalit `a della def. 3.21 otteniamo

cov (Xt+m, Xt) =

N

X

k=1

σ2k cos2ωkt cos ωkm − sin ωkt sin ωkm cos ωkt

+

N

X

k=1

σk2 sin2ωkt cos ωkm + sin ωkm cos ωkt sin ωkt

=

N

X

k=1

σ2kcos ωkm cos2ωkt + sin2ωkt

=

N

X

k=1

σ2kcos ωkm (4) Ci`o mostra la stazionariet `a di

n

Xne in particolara che la funzione di autocovarianza si calcola come nell’enunciato.

(28)

Proposizione 3.23.

n

Xnsia unaSTA ω1, ..., ωN, σ21, ..., σ2N. Allora la misura spettrale di

n

Xn `e data da ν (B) :=

N

P

k=1

λkσk2 con

λk:=

χBk) + χB(−ωk)

2 per0 < ωk< π

χB(π) perωk= π

Dimostrazione. Ci`o segue facilmente dalla prop. 3.22 tenendo conto della relazione

cosωkm = ekm+ e−iωkm 2

Lemma 3.24 (teorema della convergenza maggiorata).(Ω, B, µ) sia uno spazio di misura e g, f, f1, f2, ... : Ω −→ C funzioni misurabili tali che siano soddisfatte le seguenti condizioni:

(1)

n

fn−→ f quasi dappertutto rispetto a µ.

(2)g ∈ L1(µ).

(3)|fn| ≤ |g| quasi dappertutto rispetto a µ.

Allora:

(A) lim

n→∞

Z

|fn(x) − f (x) |dµ (x) = 0.

(B) lim

n→∞

Z

fn(x) dx = Z

f (x) dx.

Dimostrazione. Corsi di analisi. Si noti che (B) segue da (A) per la disuguaglianza

Z

h (x) dx

≤ Z

|h (x)| dx valida per ogni funzione µ- integrabile h.

Osservazione 3.25. Per A ⊂ Z sia µ := |A|, quindi µ (A) = ∞ se A non `e finito. Alloraµ `e una misura su P (Z) che verr `a detta misura di conteggio. Perf ∈ CZ si haf ∈ L1(µ) ⇐⇒ P

n=−∞|f (n) | < ∞ e in tal caso

Z

f (k) dµ (k) =

X

n=−∞

f (n).

Cfr. Elstrodt, 139.

Lemma 3.26 (Kronecker). Sia

n

cn∈ Z tale che P

n=−∞

|cn| < ∞.

Allora lim

n→∞

1 n

n

X

k=−n

|kck| = 0.

Riferimenti

Documenti correlati

Dopo di che definireremo le somme di potenze, il discriminante e la Bezoutiante, strumenti utili che ci porteranno al Criterio di Sylvester, cuore della Tesi, il quale ci dice che

I minori di ordine k di QA sono combinazioni lineari dei minori di ordine k di A, quindi se questi ultimi sono tutti nulli, ogni minore di ordine k di QA ` e nullo.. Poich` e i

Una caratteristica importante per le strategie di terapia `e che le cellule staminali sia normali che tumorali dispongono di meccanismi di protezione pi ` u efficaci delle

L’argomento di questa tesi sono due classi di funzioni binarie aven- ti valori nell’intervallo unitario, i legami stocastici e le t-norme, nate originariamente nell’ambito della

Nel capitolo 14, invece, vengono introdotte le matrici (non negative) irriducibili e alcune propriet `a che le caratterizzano: una matrice non negativa `e irriducibile se e solo

Grazie al lemma di Farkas, si pu`o dimostrare, sotto opportune ipo- tesi, che se un punto `e soluzione di un problema di programmazione in generale non lineare, allora in tale

Uno spazio topologico in cui ogni punto possiede una base numerabile degli intorni `e detto soddisfare il primo assioma di numerabilit `a.. Utilizzeremo la notazione A 1 per

Ci`o che si dimostrer `a in questo capitolo `e che viceversa 2 rappresentazioni di dimensione finita che hanno la stessa traccia sono equivalenti.. Dunque i caratteri sono le