• Non ci sono risultati.

0.1 Il teorema limite centrale

N/A
N/A
Protected

Academic year: 2021

Condividi "0.1 Il teorema limite centrale"

Copied!
6
0
0

Testo completo

(1)

0.1 Il teorema limite centrale

Teorema 0.1. (Teorema limite centrale). Sia (Xi)i∈N una successione di varia- bili aleatorie i.i.d. che ammettono momento secondo finito, con media µ e con varianza σ2non nulla. Allora, indicando con Znla variabile aleatoria

Zn:=

√n

σ (Xn− µ) , (0.1)

e con Z una variabile aleatoriaN(0, 1), si ha

n→+∞lim P(Zn≤ x) = P(Z ≤ x) , ∀x ∈ R . (0.2) Di conseguenza, Zn→ Z in legge.

Dimostreremo il teorema sotto l’ipotesi aggiuntiva che le variabili aleatorie Xi

ammettano momento terzo finito. Iniziamo con alcuni lemmi ausiliari.

Lemma 0.2. Denotiamo conCb3l’insieme delle funzioni da R in R le cui prime tre derivate esistono e sono funzioni continue e limitate su R. Sia (Zn)n≥1una successione di variabili aleatorie, e Z una variabile aleatoria la cui funzione di ripartizione FZ `e continua. Supponiamo che per ogni g ∈Cb3si abbia che

n→+∞lim E[g(Zn)] = E[g(Z)]. (0.3) Allora

n→+∞lim FZn(x) = FZ(x) , ∀x ∈ R .

Dimostrazione. Fissiamo arbitrariamente x ∈ R. Per ogni k ≥ 1, `e possibile costruire due funzioni gke ˜gkinCb3tali che, come mostrato in Figura 0.1,

1(−∞,x−1k](z) ≤ ˜gk(z) ≤ 1(−∞,x](z) ≤ gk(z) ≤ 1(−∞,x+1k](z) , ∀z ∈ R . Ad esempio, si pu`o scegliere gk(z) = f[x,x+1

k](z) e ˜gk(z) = f[x−1

k,x](z), dove

f[a,b](z) :=





1 se z ≤ a



1 −(z−a)3

(b−a)3

(b−z)3

(b−a)3 se a ≤ z ≤ b

0 se z ≥ b

.

Per definizione di funzione di ripartizione, per ogni variabile aleatoria W FW(x) = P(W ≤ x) = E(1{W ≤x}) = E(1(−∞,x](W )) .

(2)

!

"

0 1

x−1

k x x + 1

k

˜

gk gk

Figura 0.1 Una rappresentazione grafica delle funzioni gke ˜gk, che approssimano dall’alto e dal basso la funzione indicatrice 1(−∞,x](·).

Di conseguenza, per monotonia del valor medio, FW x−1k = Eh

1(−∞,x−1k](W )

i≤ E[ ˜gk(W )] ≤ E1(−∞,x](W )

= FW(x) ≤ E[gk(W )] ≤ Eh

1(−∞,x+1k](W ) i

= FW x+1k , in particolare

FW x−1k ≤ E[ ˜gk(W )] ≤ FW(x) ≤ E[gk(W )] ≤ FW x+1k .

Usiamo ora queste disuguaglianze, per W = Zne W = Z, insieme con l’ipotesi (0.3) per g = gk, ottenendo che per ogni k ∈ N fissato

lim sup

n→+∞

FZn(x) ≤ lim

n→+∞E[gk(Zn)] = E[gk(Z)] ≤ FZ x+1k , lim inf

n→+∞FZn(x) ≥ lim

n→+∞E[ ˜gk(Zn)] = E[ ˜gk(Z)] ≥ FZ x−1k , quindi

FZ x−1k ≤ lim inf

n→+∞FZn(x) ≤ lim sup

n→+∞

FZn(x) ≤ FZ x+1

k . (0.4) Essendo FZ continua,

k→+∞lim FZ x−1k = lim

k→+∞FZ x+1k = FZ(x) , pertanto prendendo il limite k → +∞ in (0.4) troviamo

lim inf

n→+∞FZn(x) = lim sup

n→+∞

FZn(x) = FZ(x) , ∀x ∈ R ,

(3)

che conclude la dimostrazione. ut Veniamo dunque a un lemma cruciale.

Lemma 0.3. Siano V,Y, Z tre variabili aleatorie indipendenti, tali che Y, Z am- mettono momento terzo finito, e inoltreE(Y ) = E(Z), E(Y2) = E(Z2). Allora per ogni g∈Cb3, ponendo C:= supx∈R|g000(x)|, vale la disuguaglianza

|E[g(V +Y )] − E[g(V + Z)]| ≤C

6E(|Y |3) + E(|Z|3) .

Dimostrazione. La formula di Taylor per funzioni di classeC3con resto integrale ci d`a, per ogni x, h ∈ R

g(x + h) = g(x) + g0(x)h +1

2g00(x)h2+ R2(x, h), dove

R2(x, h) =1 2

Z x+h x

(x + h − t)2g000(t) dt . In particolare

|R2(x, h)| ≤C

6|h|3. (0.5)

Si ricava facilmente che

g(x + h) − g(x + k) = g0(x)[h − k] +1

2g00(x)[h2− k2] + R2(x, h) − R2(x, k). (0.6) Ponendo x = V, h = Y, k = Z e prendendo il valor medio, otteniamo

E[g(V +Y )] − E[g(V + Z)] = E[g0(V )(Y − Z)] + 1

2E[g00(V )(Y2− Z2)]

+ E[R2(V,Y ) − R2(V, Z)].

Essendo V,Y, Z indipendenti e E(Y ) = E(Z), E(Y2) = E(Z2), si ha che E[g0(V )(Y − Z)] = E[g0(V )] E[(Y − Z)] = 0 , E[g00(V )(Y2− Z2)] = E[g00(V )] E[(Y2− Z2)] = 0 ,

avendo usato il fatto che g0 e g00 sono funzioni limitate, dunque g0(V ) e g00(V ) ammettono valor medio finito. Ricordando (0.5), otteniamo

E[g(V +Y )]− E[g(V + Z)]

=

E[R2(V,Y ) − R2(V, Z)]

≤ E[|R2(V,Y )|] + E[|R2(V, Z)|] ≤ C

6 E(|Y |3) + E(|Z|3) ,

ossia la tesi. ut

(4)

Il seguente risultato rappresenta il “cuore” della dimostrazione.

Proposizione 0.4. Siano Y1,Y2, . . . ,Yn variabili aleatorie i.i.d. che ammettono momento terzo finito, tali che E(Y1) = 0, E(Y12) = 1. Analogamente, siano W1,W2, . . . ,Wnvariabili aleatorie i.i.d. che ammettono momento terzo finito, ta- li cheE(W1) = 0, E(W12) = 1. Allora, ponendo C := supx∈R|g000(x)|, per ogni g∈Cb3si ha

E



g Y1+ · · · +Yn

√n



− E



g W1+ · · · +Wn

√n



≤C 6

E(|Y1|3) + E(|W1|3)

√n .

Dimostrazione. Sia Y := (Y1,Y2, . . . ,Yn) e W := (W1,W2, . . . ,Wn). Il risultato da di- mostrare dipende solo dalle distribuzioni individuali di Y e W , ma non dalla distri- buzione congiunta di (Y,W ). Non `e perci`o restrittivo assumere che Y e W siano indipendenti, cio`e che tutte le variabili aleatorie Y1,Y2, . . . ,Yn,W1,W2, . . . ,Wnsiano indipendenti. L’idea chiave consiste nello scrivere la seguente somma telescopica:

E



g Y1+ · · · +Yn

√n



− E



g W1+ · · · +Wn

√n



=

n−1

k=0

 E



g Y1+ · · · +Yk+Yk+1+Wk+2+ · · · +Wn

√n



− E



g Y1+ · · · +Yk+Wk+1+Wk+2+ · · · +Wn

√n



=

n−1 k=0

 E

 g



Vk+Yk+1

√n



− E

 g



Vk+Wk+1

√n



,

dove abbiamo posto

Vk := Y1+ · · · +Yk+Wk+2+ · · · +Wn

√n .

Per il Lemma 0.3

E

 g



Vk+Yk+1

√n



− E

 g



Vk+Wk+1

√n



≤C 6

E(|Y1|3) + E(|W1|3) n√

n ,

pertanto

(5)

E



g Y1+ · · · +Yn

√n



− E



g W1+ · · · +Wn

√n



n−1

k=0

E

 g



Vk+Yk+1

√n



− E

 g



Vk+Wk+1

√n



≤ nC 6

E(|Y1|3) + E(|W1|3) n√

n = C

6

E(|Y1|3) + E(|W1|3)

√n ,

che `e quanto volevamo dimostrare. ut

Osservazione 0.5.Dalla proposizione precedente segue il fatto, assolutamente non banale e non intuitivo, che

n→+∞lim

 E



g Y1+ · · · +Yn

√n



− E



g W1+ · · · +Wn

√n



= 0 (0.7) indipendentementedalle distribuzioni delle Yie delle Wi(purch´e soddisfino le ipotesi

della Proposizione 0.4). ut

Possiamo finalmente completare la dimostrazione (con l’ipotesi aggiuntiva che le variabili Xiammettano momento terzo finito). Si noti che le variabili normali non so- no ancora apparse nella dimostrazione. Le introduciamo ora: sia (Wi)i∈Nuna succes- sione di variabili aleatorie i.i.d. con Wi∼ N(0, 1). Dato che le variabili normali sono stabili per combinazioni lineari affini e somma di variabili aleatorie indipendenti, si

ha W1+ · · · +Wn

√n ∼ N(0, 1), ∀n ∈ N , quindi, se Z ∼ N(0, 1) e g ∈Cb3,

E



g W1+ · · · +Wn

√n



= E[g(Z)] . (0.8)

Usando le notazioni nell’enunciato del Teorema 0.1, poniamo ora Yi := Xi− µ

σ , ∀i ∈ N . Osserviamo inoltre che, per verifica diretta,

Zn =Y1+ . . . +Yn

√n , ∀n ∈ N , (0.9)

E immediato verificare che E(Y` i) = 0, E(Yi2) = 1, pertanto sono soddisfatte le ipotesi della Proposizione 0.4. Possiamo dunque applicare la relazione (0.7), che grazie a (0.8) e (0.9) si scrive come

n→+∞lim E [g (Zn)] = E[g(Z)] , ∀g ∈Cb3.

(6)

Non resta che applicare il Lemma 0.2, e il Teorema 0.1 `e dimostrato.

Osservazione 0.6.Una lettura attenta della dimostrazione appena completata rivela che l’ipotesi che le variabili aleatorie Xi siano indipendenti `e stata usata pi`u volte, mentre quella che siano identicamente distribuite non `e mai stata usata pienamente e pu`o essere notevolmente indebolita: ad esempio, tutto funziona se

E(Xi) e E(Xi2) non dipendono da i ∈ N , sup

i∈N

E(|Xi|3) < +∞ .

Questa osservazione amplia il raggio di validit`a del teorema limite centrale e raffor- za dunque il valore di universalit`a della distribuzione normale, come distribuzione approssimata della somma di variabili aleatorie indipendenti, non necessariamente

con la stessa distribuzione. ut

Riferimenti

Documenti correlati

Con un campione di n = 100 la forma della distribuzione delle medie è praticamente normale con un valore medio di 0.7502. La cosa importante è che, per campioni

Si osservi che la deviazione standard delle medie è 1/N volte più piccolo della deviazione standard delle singole misure; questo implica che le medie

Si osservi che la deviazione standard delle medie è 1/N volte più piccolo della deviazione standard delle singole misure; questo implica che le medie campionarie si

Se X ` e una variabile aleatoria continua, la probabilit` a che X assuma un certo valore x fissato ` e in generale zero, quindi non ha senso definire una distribuzione di probabilit`

La misura di una qualunque grandezza fisica (temperatura, concentrazione di una farmaco,..) pu` o essere vista come la somma del valore esatto della grandezza e

E’ un teorema di convergenza della binomiale alla gaussiana, che si a¢ anca al teorema degli eventi rari.. Qui, per vedere la convergenza, bisogna standardizzare la binomiale S n (Z n

Quindi le funzioni di una variabile hanno grafico in R 2 (e nella II parte di questo corso abbiamo imparato a trovare il grafico di tali funzioni), le funzioni di due variabili

[r]