• Non ci sono risultati.

Le variabili X1

N/A
N/A
Protected

Academic year: 2021

Condividi "Le variabili X1"

Copied!
4
0
0

Testo completo

(1)

Probabilit`a e Statistica (LT in Matematica) Prof. P. Dai Pra, seconda prova parziale 14/03/2008.

Cognome: Nome:

Matricola: Firma:

Tema A

ESERCIZIO 1. Siano X1, . . . , Xn, T variabili casuali scalari indipendenti. Le variabili X1, . . . , Xn hanno la stessa distribuzione, con E(Xi) = µ e Var(Xi) = σ2 < ∞, mentre la variabile T prende valori in {1, . . . , n}.

a) Si spieghi perch´e, per i, j ∈ {1, . . . , n}, le variabili casuali Xi e 1{T ≥j} sono indipen- denti.

Si introduca la variabile S definita da S :=

n

X

i=1

Xi1{i≤T }. b) Si mostri che E(S) = µ E(T ).

c) Si mostri che Cov(S, Xj) = σ2P (T ≥ j), per ogni j ∈ {1, . . . , n}.

Soluzione.

a) Dato che Xie T sono indipendenti, per un risultato visto a lezione anche f (X) e g(Y ) sono indipendenti, qualunque siano le funzioni (misurabili) f e g. Dato che 1{T ≥j}= 1[j,∞)(T ), la conclusione segue prendendo f = funzione identica e g = 1[j,∞)(·).

b) Dato che |S| ≤ Pn

i=1|Xi| e le variabili Xi ammettono valor medio, segue che anche S ammette valor medio, e per linearit`a e indipendenza

E(S) =

n

X

i=1

E(Xi1{i≤T }) =

n

X

i=1

E(Xi)P (T ≥ i) = µ

n

X

i=1

P (T ≥ i) = µ E(T ) . c) Dato che |S| ≤ Pn

i=1|Xi| e le variabili Xi sono per ipotesi in L2, segue che anche S ∈ L2, per cui Cov(S, Xj) `e ben definita. Per linearit`a e indipendenza si ha che

E(SXj) =

n

X

i=1

E(XiXj1{i≤T }) =

n

X

i=1

E(XiXj)P (T ≥ i)

=X

i6=j

µ2P (T ≥ i) + E(Xj2)P (T ≥ j) . D’altro canto, E(S)E(Xj) = µ2E(T ) = µ2Pn

i=1P (T ≥ i), da cui

Cov(S, Xj) = E(SXj)−E(S)E(Xj) = E(Xj2)P (T ≥ j)−µ2P (T ≥ j) = σ2P (T ≥ j) .

1

(2)

ESERCIZIO 2. Siano X ∼ Γ(α, λ) e Y ∼ Γ(β, λ) variabili casuali indipendenti. Defi- niamo Z := X + Y e U := X+YX . Mostrare che Z e U sono variabili casuali indipendenti, e determinarne la densit`a.

Soluzione. Per l’indipendenza di X e Y fX,Y(x, y) = λα+β

Γ(α)Γ(β)xα−1yβ−1e−λ(x+y)1(0,∞)×(0,∞)(x, y) .

Introduciamo l’applicazione T : (0, ∞) × (0, ∞) → (0, ∞) × (0, 1) definita da T (x, y) :=

(x + y,x+yx ), cosicch´e (Z, U ) = T (X, Y ). L’applicazione T `e differenziabile e invertibile, con inversa T−1(z, u) = (uz, z(1 − u)) differenziabile. La matrice jacobiana di T−1 vale

D(T−1)(z, u) =u 1 − u z −z



=⇒ |D(T−1)(z, u)| = z . Di conseguenza la densit`a congiunta di (Z, U ) vale

fZ,U(z, u) = |D(T−1)(z, u)| fX,Y(T−1(z, u))

= λα+β

Γ(α)Γ(β) z · uα−1zα−1(1 − u)β−1xβ−1e−λz1(0,∞)(z) 1(0,1)(u)

=

 λα+β

Γ(α + β) zα+β−1e−λz1(0,∞)(z)  Γ(α + β)

Γ(α)Γ(β)uα−1(1 − u)β−11(0,1)(u)

 . Il fatto che fZ,U(z, u) si scriva come prodotto di due funzioni di z e di u rispettivamente mostra che Z e U sono indipendenti. Dato che il primo termine tra parentesi `e la densit`a di una Γ(α + β, λ), il suo integrale vale 1 e di conseguenza la densit`a marginale di U `e data da

fU(u) = Γ(α + β)

Γ(α)Γ(β)uα−1(1 − u)β−11(0,1)(u) . Un analogo ragionamento conduce a

fZ(z) = λα+β

Γ(α + β)zα+β−1e−λz1(0,∞)(z) , da cui Z ∼ Γ(α + β, λ) (fatto gi`a noto).

2

(3)

ESERCIZIO 3. Sia (Xn)n≥1 una successione di variabili casuali i.i.d. con distribuzione P o(2). Sia Yn il numero di zeri nella n-pla (X1, X2, . . . , Xn). Con l’ausilio del Teorema del Limite Centrale determinare:

a) la probabilit`a (approssimata) che Y100 sia maggiore o uguale a 15;

b) una successione (an)n≥1 tale che

n→+∞lim P (Yn≤ an) = 0.05.

Soluzione.

a) Introducendo le variabili Wi := 1{Xi=0}, possiamo scrivere Y100 = P100

i=1Wi. Si noti che le variabili {Wi}i≥1 sono i.i.d. con distribuzione Be(e−2):

P (Wi = 1) = P (Xi = 0) = e−220

0! = e−2.

Di conseguenza E(Wi) = e−2 e V ar(Wi) = e−2(1 − e−2). Posto W100 := Y100100 il TLC (con l’approssimazione di continuit`a) d`a

P (Y100 ≥ 15) = P (Y100 ≥ 14.5) = P (W100 ≥ 0.145)

= P W100− e−2 pe−2(1 − e−2)

√100 ≥ 0.145 − e−2 pe−2(1 − e−2)

√100

!

≈ P (Z ≥ 0.28) ,

dove Z ∼ N (0, 1). Di conseguenza, usando le tavole della distribuzione normale, P (Y100≥ 15) ≈ P (Z ≥ 0.28) = 1 − Φ(0.28) = 1 − 0.61 = 0.39 .

b) Per il TLC

P (Yn ≤ an) = P

Wn ≤ an n



= P Wn− e−2 pe−2(1 − e−2)

√n ≤

an

n − e−2 pe−2(1 − e−2)

√n

!

= P Z ≤

an

n − e−2 pe−2(1 − e−2)

√n

!

+ o(1) = Φ

an

n − e−2 pe−2(1 − e−2)

√n

!

+ o(1) ,

dove Z ∼ N (0, 1) e o(1) indica una quantit`a che tende a zero per n → ∞. Da ci`o si vede che `e sufficiente scegliere (an)n nel modo seguente:

an

n − e−2 pe−2(1 − e−2)

√n = Φ−1(0.05) =⇒ an = e−2n + Φ−1(0.05)p

e−2(1 − e−2) .√ n

(Dalle tavole della distribuzione normale si ricava che Φ−1(0.05) ≈ −1.645.)

3

(4)

ESERCIZIO 4. Sia X1, X2, . . . una successione di variabili casuali scalari i.i.d. con di- stribuzione uniforme nell’intervallo (0, 1), definite su uno spazio di probabilit`a (Ω, A, P ).

Introduciamo per k ∈ IN l’evento Ak definiti da Ak =



Xk ≤ 1 3



e introduciamo la variabile casuale T : Ω → IN ∪ {+∞} definita per ω ∈ Ω da T (ω) := inf



k ≥ 1 : Xk(ω) ≤ 1 3

 .

a) Per ogni fissato n ∈ IN, si esprima l’evento {T = n} in termini degli eventi {Ak}k∈IN.

b) Si determini la densit`a discreta pT(n) di T , mostrando che P

n∈IN pT(n) = 1.

Introduciamo la variabile Y := XT, cio`e Y (ω) := XT (ω)(ω).

c)* Si determini la funzione di ripartizione FY(x) di Y . (Sugg.: si calcoli innanzitutto P (Y ≤ x, T = n) per n ∈ IN.)

Soluzione.

a) {T = n} = Ac1∩ . . . ∩ Acn−1∩ An

b) P (T = n) = P (Ac1)n−1· P (A1) = 13(23)n−1, cio`e T ∼ Ge(13).

c) Si ha

P (Y ≤ x, T = n) = P (Ac1∩ . . . ∩ Acn−1∩ An∩ {Xn≤ x}) . Dato che An∩ {Xn ≤ x} = {Xn≤ min(x,13)}, si ha

P (Y ≤ x, T = n) = 2 3

n−1

· P



X1 ≤ min

 x,1

3



, da cui, sommando su n ∈ IN, si ottiene

P (Y ≤ x) = X

n∈IN

P (Y ≤ x, T = n) = 3 P



X1 ≤ min

 x,1

3



=





0 x ≤ 0 3x 0 ≤ x ≤ 13 1 x ≥ 1

.

Dunque Y `e distribuita uniformemente nell’intervallo (0,13).

4

Riferimenti

Documenti correlati

Trasformazioni di variabili casuali

[r]

Come sappiamo, in una data prova non si può conoscere quale valore assumerà la nostra variabile casuale; ma se conosciamo tutti i possibili valori che la nostra variabile

(c) Si mostri che nel limite n → ∞ la distribuzione congiunta delle variabili X e Y converge verso il prodotto delle

Osservazione 3.5 Nel caso in cui E `e un insieme finito o numerabile, segue dalla Proposi- zione 3.4 che la coppia (E, µ X ) `e uno spazio di probabilit`a discreto. Va tuttavia

Quanto visto nel caso discreto nella Proposizione 3.60 riguardo alla funzione di ripartizione del massimo e del minimo di variabili casuali indipendenti continua a valere per

Per tale punto si tracci la tangente alla circonferenza di centro (0, 0) e raggio 1, e sia L la lunghezza del segmento i cui estremi sono i punti d’intersezione di tale tangente con

una successione di variabili casuali scalari i.i.d... Sia (X n ) n≥1 una successione di variabili