• Non ci sono risultati.

Il VaR: Value at Risk

X, Y ∈ Aρ implica αX + (1 − α)Y ∈ Aρ per α ∈ [0, 1]

Se X, Y ∈ Aρ allora ρ(X) ≤ 0 e ρ(Y ) ≤ 0. Preso α ∈ [0, 1], per la

propriet`a di positiva omogeneit`a e per la propriet`a di monotonia, abbiamo che αX + (1 − α)Y ∈ H. Siccome ρ(X) ≤ 0 e ρ(Y ) ≤ 0 allora

ρ(αX + (1 − α)Y ) ≤ ρ(αX) + ρ((1 − α)Y ) =

= αρ(X) + (1 − α)ρ(Y ) ≤ 0

3.2

Il VaR: Value at Risk

Nella misura del rischio di un portafoglio si richiede di investigare le carat- teristiche della distribuzione di probabilit`a della sua perdita. Molte misure di rischio comunemente impiegate non sono coerenti. Tra queste la pi`u utilizzata nei mercati finanziari `e rappresentata dal VaR, (Value at Risk ), che risponde alla domanda:

qual `e il livello di denaro tale che la perdita del portafoglio su un orizzonte temporale prefissato sia superiore ad esso con probabilit`a pari a p?

Questo livello `e denotato come V aRp, che `e definito come segue:

P(L > V aRp) = p Ponendo l’orizzonte di tempo giornaliero abbiamo

V aRp(t + 1) = inf{l ∈ R : P(L(t + 1) > l) ≤ p} = inf{l ∈ R : F

L(l) ≥ 1 − p}

dove L(t + h) = −(V (t + h) − V (t)) e V (t) = f (t, Z(t)), con Z(t) := (Z1(t), · · · , ZN(t)) che rappresentano i fattori di rischio, f : R × RN → R `e

una funzione che rappresenta il mapping del rischio e FL(·) `e la funzione di

probabilit`a della perdita di portafoglio. Il VaR ha quindi una duplice interpre- tazione: `e sia quel livello di denaro tale che la perdita del portafoglio `e superiore ad esso con probabilit`a pari a p, sia quel livello di denaro che limita dall’alto la perdita del portafoglio che pu`o avvenire con probabilit`a 1 − p. Perci`o abbiamo

V aRp(t + 1) = F−1 L (1 − p)

che `e un quantile della distribuzione di perdita. Il VaR non `e una misura di rischio coerente, infatti vale il seguente risultato, per la cui dimostrazione si rimanda a [7]:

Teorema 3.2.1. Se lo spazio di probabilit`a (Ω, F, P) `e puramente non atomico, ovvero P assegna ai punti probabilit`a nulla, allora non esiste alcuna misura di rischio coerente a valori reali definita su L0(Ω, F, P).

Quindi il VaR non pu`o essere una misura di rischio coerente, essendo a valori reali. Poich´e `e un quantile, soddisfa l’omogeneit`a positiva, l’invarianza per traslazione e la monotonia, ma non soddisfa la propriet`a di subadditiv- it`a. Tale propriet`a per`o `e molto importante, perch´e, come gi`a descritto nel- l’Osservazione 3.1.7, si fonda sul concetto di diversificazione: sommando due rischi, il rischio diminuisce, perci`o il rischio di un portafoglio `e minore o uguale della somma dei rischi che lo compongono. Possiamo verificare che il VaR non soddisfa la propriet`a di subadditivit`a con un esempio. Consideriamo due de- faultable bonds A e B. Ciascun emittente pu`o fallire con probabilit`a p = 0.04 realizzando una perdita pari a 100, la perdita `e invece pari a 0 se non si verifica il fallimento. Si nota facilmente che

V aR0.05(A) = V aR0.05(B) = V aR0.05(A) + V aR0.05(B) = 0,

la perdita del portafoglio A + B `e: 1. 0 con probabilit`a (0.96)2= 0.9216,

2. 200 con probabilit`a (0.04)2= 0.0016,

3. 100 con probabilit`a 1 − 0.9216 − 0.0016 = 0.0768. Di conseguenza

V aR0.05(A + B) = 100 > V aR0.05(A) + V aR0.05(B) = 0.

Notiamo che il VaR rappresenta il migliore dei mondi possibili, in termini di perdita del portafoglio, tra gli stati del mondo pi`u negativi che avvengono con probabilit`a pari a p. Considerando r(t + 1), il rendimento uniperiodale del portafoglio V (t), abbiamo

L(t + 1) = −V (t)(r(t + 1) − 1)

possiamo quindi scrivere

P[−V (t)(r(t + 1) − 1) > V aRp(t + 1)] = p

e se definiamo il V aR relativo al rendimento del portafoglio V aRp

r(t + 1) = V aRp(t+1)

V (t) , concludiamo che

P[r(t + 1) − 1 < −V aRpr(t + 1)] = p.

Il V aR pu`o essere definito anche relativamente al rendimento logaritmico:

L(t + 1) = −(V (t + 1) − V (t)) ≈ −V (t)R(t + 1) = −V (t) logV (t + 1) V (t) . V aRpR(t + 1) per il rendimento logaritmico `e definito come segue

P[R(t + 1) < −V aRpR(t + 1)] = p. Allora, possiamo scrivere

3.2. IL VAR: VALUE AT RISK 37 e quindi la relazione tra i due V aR

V aRpr(t + 1) = 1 − e−V aR

p R(t+1),

quindi possiamo passare da V aRpR(t + 1) a V aRp

r(t + 1) e viceversa, ed

entrambe le misure possono essere convertite in termini monetari moltiplicando per il valore del portafoglio V (t).

La valutazione del V aR su un orizzonte di h giorni pu`o essere semplifica- ta considerando i rendimenti logaritmici come variabili casuali indipendenti e identicamente distribuiti: R(t + 1)∼ (µ, σd 2) allora R(t + 1; t + h) = h X u=1 R(t + u)∼ (hµ, hσd 2).

La distribuzione Normale N (µ, σ2) `e un caso particolare di distribuzione

indipendente e identicamnete distribuita. Prendendo in esame un rendimento logaritmico distribuito come una Normale, possiamo scrivere

R(t + 1; t + h) =

h

X

u=1

R(t + u) = µ(t + 1; t + h) + σ(t + 1; t + h)z(t + 1; t + h)

dove z(t+1; t+h) `e una variabile casuale Normale standardizzata. Assumen- do µ(t + s) = 0, per s ≥ 0 e che i rendimenti abbiano autocorrelazioni nulle, la varianza del rendimento cumulato su h giorni condizionata dall’informazione disponibile in t (Ft) `e σ2(t + 1; t + h) = E[( h X u=1 R(t + u))2|F t] = h X u=1 E[σ2(t + u)|F t],

se in aggiunta ipotizziamo una varianza dei rendimenti costante, allora σ2(t+

Capitolo

4

Legge dei grandi numeri e

Teorema centrale del limite

In questo capitolo vengono presentate due tipi fondamentali di distribuzioni nella teoria delle attese sublineari, note come distribuzione massimale e dis- tribuzione G-Normale, che nella teoria classica corrisponde alla distribuzione normale. Sempre nella teoria delle attese sublineari vengono dimostrati due im- portanti teoremi: la legge dei grandi numeri(LGN) e il teorema centrale del limite(TCL). Da questi due teoremi seguono due fondamentali conseguenze: si pu`o notare che il limite nella LGN `e una distribuzione massimale; invece, una variabile casuale i.i.d. a media zero converger`a in legge a una distribuzione G- Normale N (0, [σ2, ¯σ2]). Una variabile casuale X in uno spazio di attesa sublin-

eare `e detta N (0, [σ2, ¯σ2])-distribuita se per ogni variabile casuale Y i.i.d. rispet-

to a X e per ogni a, b ∈ R abbiamo aX + bY ∼√a2+ b2X, dove ¯σ2 = E[X2]

e σ2= −E[−X2]. Di conseguenza la distribuzione G-Normale diventa normale

nel caso in cui ¯σ2= σ2.

4.1

Distribuzione massimale e distribuzione G-

Normale

Definiamo un tipico esempio di distribuzione, che `e conosciuta come il peggior caso di misura di rischio.

Definizione 4.1.1 (Distribuzione massimale). Un vettore d-dimensionale

η = (η1, · · · , ηd) definito su uno spazio di attesa sublineare (Ω, H, E) `e detto

avere distribuzione massimale se esiste un insieme Γ ⊂ Rd chiuso, convesso e

limitato t.c.

E[ϕ(η)] = max

y∈Γϕ(y) ∀ϕ ∈ Cl.Lip(R d)

Osservazione 4.1.2. Γ fornisce i gradi di incertezza di η. `E facile verificare che questo vettore casuale η ha distribuzione massimale e soddisfa,

aη + b¯η= (a + b)η per a, b ≥ 0d 39

dove η `e una copia indipendente di η. Vedremo in seguito che questa relazione caratterizza una distribuzione massimale.

Osservazione 4.1.3. Quando d = 1 abbiamo Γ = [µ, ¯µ] dove ¯µ = E[η] e µ = −E[−η]. La distribuzione di η `e quindi

Fη[ϕ] = E[ϕ(η)] = sup

µ≤y≤¯µϕ(y) per ϕ ∈ Cl.Lip(R).

Richiamiamo ora una caratterizzazione ben nota delle variabili aleatorie normali centrate: X= N (0, Σ) se e solo sed

aX + b ¯X =d pa2+ b2X per a, b ≥ 0 (4.1)

dove ¯X `e una copia indipendente di X. La matrice di covarianza Σ `e definita

come Σ = E[XXT].

Definizione 4.1.4 (Distribuzione G-normale). Un vettore casuale d-dimensionale

X = (X1, · · · , Xd)T definito su uno spazio di attesa sublineare (Ω, H, E) `e detto

avere distribuzione G-Normale se

aX + b ¯X =d pa2+ b2X per a, b ≥ 0

dove ¯X `e una copia indipendente di X.

Osservazione 4.1.5. Notando che E[X + ¯X] = 2E[X] e E[X + ¯X] =√2E[X] allora abbiamo E[X] = 0. Allo stesso modo si pu`o provare che E[−X] = 0. Cos`ı,

X non ha incertezza sulla media.

Proposizione 4.1.6. Dato X un vettore con distribuzione G-Normale. Allora per ogni A ∈ Rm×d, anche AX ha distribuzione G-Normale. In particolare, per

ogni a ∈ Rd, ha, Xi `e una variabile aleatoria con distribuzione G-Normale, ma

il viceversa non `e vero.

Dim. Dato X ∈ Rd , A ∈ Rm×d e a, b ∈ R , sfruttando le propriet`a delle

matrici abbiamo

aAX + bA ¯X = A(aX) + A(b ¯X) = A(aX + b ¯X)= A(d pa2+ b2X)

=pa2+ b2(AX)

Denotiamo con S(d) la collezione delle matrici simmetriche d×d. Dato X con distribuzione G-Normale e η un vettore casuale d-dimensionale con distribuzione massimale su (Ω, H, E). La seguente funzione `e importante per caratterizzare le loro distribuzioni:

G(p, A) := E[1

2hAX, Xi + hp, ηi], (p, A) ∈ R

d× S(d). (4.2)

`

E facile verificare che G `e una funzione monotona sublineare in A ∈ S(d) nel senso seguente: per ogni p, ¯p ∈ Rd e A, ¯A ∈ S(d),

   G(p + ¯p, A + ¯A) ≤ G(p, A) + G(¯p, ¯A), G(λp, λA) = λG(p, A), ∀λ ≥ 0; G(p, A) ≥ G(p, ¯A), se A ≥ ¯A. (4.3)

4.1. DISTRIBUZIONE MASSIMALE E DISTRIBUZIONE G-NORMALE 41

dove per A ≥ ¯A intendiamo A − ¯A ≥ 0e cio`e

h(A − ¯A)y, yi ≥ 0 ∀y ∈ Rd

X

i,j

(aij− ¯aij)yiyj ≥ 0.

Dim. La prima disuguaglianza si ottiene sfruttando le propriet`a di linearit`a del prodotto scalare e la propriet`a di subadditivit`a delle attese sublineari.

G(p + ¯p, A + ¯A) = E[1

2h(A + ¯A)X, Xi + hp + ¯p, ηi] = E[1

2hAX, Xi + 1

2h ¯AX, Xi + hp, ηi + h¯p, ηi] = E[1 2hAX, Xi + hp, ηi + 1 2h ¯AX, Xi + h¯p, ηi] ≤ E[1 2hAX, Xi + hp, ηi] + E[ 1 2h ¯AX, Xi + h¯p, ηi] = G(p, A) + G(¯p, ¯A)

La seconda uguaglianza si ottiene utilizzando la propriet`a di positiva omo- geneit`a delle attese sublineari.

G(λp, λA) = E[1

2hλAX, Xi + hλp, ηi] = E[λ · 1

2hAX, Xi + λhp, ηi] = = λE[1

2hAX, Xi + hp, ηi] = λG(p, A)

Per l’ultima disuguaglianza sfruttiamo la propriet`a di monotonia delle attese sublineari. Se A ≥ ¯A, allora h(A − ¯A)X, Xi ≥ 0

G(p, A) = E[1

2hAX, Xi + hp, ηi] ≥ E[ 1

2h ¯AX, Xi + hp, ηi] = G(p, ¯A). ¤ Chiaramente G `e anche una funzione continua. Dal Teorema 2.2.1 esiste un sottoinsieme chiuso e limitato Γ ⊂ R × Rd×dtale che

G(p, A) = sup

(q,Q)∈Γ

[1

2tr[AQQ

T] + hp, qi] per (p, A) ∈ Rd× S(d). (4.4)

Abbiamo quindi il seguente risultato, che verr`a provato nella prossima sezione. Proposizione 4.1.7. Sia G : Rd×S(d) → R una funzione continua e sublineare,

monotona, nel senso della (4.3) in A ∈ S(d), allora esiste un vettore casuale d- dimensionale X distribuito G-Normale e una distribuzione massimale η su uno spazio di attesa sublineare (Ω, H, E) che soddisfa la (4.2) e

(aX + b ¯X, a2η + b2η)= (d pa2+ b2X, (a2+ b2)η) per a, b ≥ 0 (4.5)

Definizione 4.1.8. La coppia (X, η) soddisfacente la (4.5) `e detta G-distribuita. Osservazione 4.1.9. Se la coppia (X, η) soddisfa la (4.5), allora

aX + b ¯X =d pa2+ b2X, aη + b¯η= (a + b)η per a, b ≥ 0d

Quindi X `e G-Normale e η ha distribuzione massimale.

La coppia (X, η) `e caratterizzata dalla seguente equazione alle derivate parziali (EDP) di tipo parabolico, chiamata G-equazione definita su [0, ∞) × Rd× Rd:

∂tu − G(Dyu, Dx2u) = 0, (4.6)

con condizioni di Cauchy u|t=0= ϕ, dove G : Rd× S(d) → R `e definita dalla

(4.2) e D2u = (∂2 xi,xju)

d

i,j=1, Du = (∂xiu)di=1

Proposizione 4.1.10. Per la coppia (X, η), soddisfacente la (4.5) e per una funzione ϕ ∈ Cl.Lip(Rd× Rd), definiamo

u(t, x, y) := E[ϕ(x +√tX, y + tη)], (t, x, y) ∈ [0, ∞) × Rd× Rd.

Allora, si ha

u(t + s, x, y) = E[u(t, x +√sX, y + sη)] s ≥ 0 (4.7) Valgono inoltre le stime: per ogni T > 0, esistono delle costanti C, k > 0 tale che, per ogni t, s ∈ [0, T ] e x, ¯x, y, ¯y ∈ Rd,

|u(t, x, y) − u(t, ¯x, ¯y)| ≤ C(1 + |x|k+ |y|k+ |¯x|k+ |¯y|k)(|x − ¯x| + |y − ¯y|) (4.8)

e

|u(t, x, y) − u(t + s, x, y)| ≤ C(1 + |x|k+ |y|k)(s + |s|1

2) (4.9)

Inoltre, u `e l’unica soluzione viscosa, continua nel senso della (4.8) e della (4.9) della EDP (4.6).

Dim. Dato che

u(t, x, y) − u(t, ¯x, ¯y) = E[ϕ(x +√tX, y + tη)] − E[ϕ(¯x +√tX, ¯y + tη)] ≤ E[ϕ(x +√tX, y + tη) − ϕ(¯x +√tX, ¯y + tη) ≤ E[C1(1 + |X|k+ |η|k+ |x|k+ |y|k+ |¯x|k+ |¯y|k)]

× (|x − ¯x| + |y − ¯y|)

≤ C(1 + |x|k+ |y|k+ |¯x|k+ |¯y|k)(|x − ¯x| + |y − ¯y|)

abbiamo la (4.8).

Sia ( ¯X, ¯η) una copia indipendente di (X, η). Dalla (4.5) abbiamo u(t + s, x, y) = E[ϕ(x +√t + sX, y + (t + s)η)]

= E[ϕ(x +√sX +√t ¯X, y + sη + tη)]

= E[E[ϕ(x +√sex +√t ¯X, y + sey + t¯η)](ex,ey)=(X,η)]

4.1. DISTRIBUZIONE MASSIMALE E DISTRIBUZIONE G-NORMALE 43

e cos`ı otteniamo la (4.7). Da questa e dalla (4.8) segue che

u(t + s, x, y) − u(t, x, y) = E[u(t, x +√sX, y + sη) − u(t, x, y)] ≤ E[C1(1 + |x|k+ |y|k+ |X|k+ |η|k)(

s|X| + s|η|)],

e cos`ı otteniamo la (4.9).

Ora per un fissato (t, x, y) ∈ (0, ∞) × Rd× Rd, sia ψ ∈ C2,3

b ([0, ∞) × Rd× Rd)

tale che ψ ≥ u e ψ(t, x, y) = u(t, x, y). Dalla (4.7) e grazie allo sviluppo di Taylor, segue che, per δ ∈ (0, t),

0 ≤ E[ψ(t − δ, x +√δX, y + δη) − ψ(t, x, y)] ≤ ¯C(δ32 + δ2) − ∂tψ(t, x, y)δ + E[hDxψ(t, x, y), Xi δ + hDyψ(t, x, y), ηiδ + 1 2hD 2 xψ(t, x, y)X, Xiδ]

≤ −∂tψ(t, x, y)δ + E[hDyψ(t, x, y), ηi +

1 2hD 2 xψ(t, x, y)X, Xi]δ + ¯C(δ 3 2 + δ2) = −∂tψ(t, x, y)δ + δG(Dyψ, D2xψ)(t, x, y) + ¯C(δ 3 2 + δ2),

da cui si deduce facilmente che

[∂tψ − G(Dyψ, D2xψ)](t, x, y) ≤ 0

Cos`ı u `e una sottosoluzione viscosa di (4.6); nello stesso modo si pu`o provare che u `e una supersoluzione viscosa di (4.6).

Corollario 4.1.11. Se (X, η) e ( ¯X, ¯η) soddisfano entrambe la (4.5) con la

stessa G, cio`e

G(p, A) := E[1

2hAX, Xi+hp, ηi] = E[ 1

2hA ¯X, ¯Xi+hp, ¯ηi] per (p, A) ∈ R

d× S(d) ,

allora (X, η)= ( ¯d X, ¯η). In particolare, X= −X.d Dim.

Per ogni ϕ ∈ Cl.Lip(Rd× Rd) poniamo

u(t, x, y) := E[ϕ(x +√tX, y + tη)],

¯

u(t, x, y) := E[ϕ(x +√t ¯X, y + t¯η)], (t, x, y) ∈ [0, ∞) × Rd× Rd.

Dalla proposizione (4.1.10) sia u che ¯u sono soluzioni viscose della G-equazione

(4.6) con le condizioni Cauchy u|t=0 = ¯u|t=0 = ϕ. Segue dall’unicit`a della

soluzione viscosa che u ≡ ¯u. In particolare,

E[ϕ(X, η)] = E[ϕ( ¯X, ¯η)]

Cos`ı (X, η)= ( ¯d X, ¯η).

Corollario 4.1.12. Data la coppia (X, η) soddisfacente la (4.5). Per ogni

ψ ∈ Cl.Lip(Rd) definiamo

Allora v `e l’unica soluzione viscosa della seguente EDP parabolica:

∂tv − G(Dxv, Dx2v) = 0, v|t=0= ϕ. (4.11)

Inoltre abbiamo v(t, x + y) ≡ u(t, x, y), dove u `e la soluzione della EDP (4.6) con condizioni iniziali u(t, x, y)|t=0= ψ(x + y).

Esempio 4.1.13. Sia X con distribuzione G-Normale, e la sua distribuzione `e caratterizzata da

u(t, x) = E[ϕ(x +√tX)], ϕ ∈ Cl.Lip(Rd).

In particolare, E[ϕ(X)] = u(1, 0) dove u `e la soluzione della seguente EDP definita su [0, ∞) × Rd:

∂tu − G(D2u) = 0, u|t=0= ϕ, (4.12)

dove G = GX(A) : S(d) → Rd `e definita da

G(A) :=1

2E[hAX, Xi], A ∈ S(d). Dim. Fissato (t, x) ∈ (0, ∞) × Rd, presa ψ ∈ C2,3

b ([0, ∞) × Rd) t.c. ψ ≥ u e

ψ(t, x) = u(t, x) e siccome u(t + s, x) = E[u(x +√sX)] dallo sviluppo di Taylor,

abbiamo per δ ∈ (0, t) 0 ≤ E[ψ(t − δ, x +√δX) − ψ(t, x)] ≤ C(δ32 + δ2) − ∂tψ(t, x) · δ + E[hDxψ(t, x), Xi δ +1 2hD 2 xψ(t, x)X, Xiδ] ≤ −∂tψ(t, x)δ + δG(Dxψ)(t, x) + ¯C(δ 3 2 + δ2) (4.13) E quindi, [∂tψ − G(D2xψ)](t, x) ≤ 0

u `e cio`e sottosoluzione viscosa della (4.12). Analogamente si pu`o dimostrare che u `e anche soprasoluzione viscosa, e di conseguenza u `e soluzione viscosa della

(4.12). L’equazione (4.12) `e detta G-equazione del calore. `E facile verificare che G `e una funzione sublineare definita su S(d). Dal Teorema 2.2.1 esiste un sottoinsieme chiuso,convesso e limitato Θ ⊂ S(d) tale che

1

2E[hAX, Xi] = G(A) = 1

2Q∈Θsuptr[AQ], A ∈ S(d). (4.14)

Dato che G(A) `e monotona, segue che

Θ ⊂ S+(d) = {θ ∈ S(d) : θ ≥ 0} = {BBT : B ∈ Rd×d},

dove Rd×d `e l’insieme di tutte le matrici d × d. Se Θ `e un singoletto: Θ =

{Q}, allora X `e distribuita come una densit`a normale di media 0 e matrice

di covarianza Q. In generale, Θ caratterizza l’incertezza di covarianza di X. Denotiamo X= N ({0} × Θ).d

Quando d = 1, abbiamo X = N ({0} × [σd 2, ¯σ2]), dove ¯σ2 = E[X2] e σ2 =

−E[−X2]. La corrispondente G-equazione del calore `e

∂tu −1

2(¯σ

2(∂2

xxu)+− σ2(∂xx2 u)−) = 0 u|t=0= ϕ.

4.1. DISTRIBUZIONE MASSIMALE E DISTRIBUZIONE G-NORMALE 45

Nelle seguenti due situazioni il calcolo di E[ϕ(X)] `e molto facile:

• Per ogni funzione convessa ϕ abbiamo,

E[ϕ(X)] = 1 Z −∞ ϕ(¯σy) exp(−y 2 2 )dy. (4.15)

Infatti, per ogni fissato t ≥ 0, `e facile verificare che la funzione u(t, x) := E[ϕ(x +√tX)] `e convessa in x:

u(t, αx + (1 − α)y) =E[ϕ(αx + (1 − α)y +√tX)]

≤ αE[ϕ(x +√tX)] + (1 − α)E[ϕ(x +√tX)]

= αu(t, x) + (1 − α)u(t, x). Segue che (∂2

xxu)−≡ 0 e cos`ı la precedente G-equazione del calore diventa

∂tu = σ¯ 2

2

2

xx, u|t=0= ϕ.

• Per ogni funzione concava ϕ, abbiamo

E[ϕ(X)] = 1 Z −∞ ϕ(σy) exp(−y2 2 )dy. (4.16) In particolare,

E[X] = E[−X] = 0, E[X2] = ¯σ2, −E[−X2] = σ2

e

E[X4] = 3¯σ4 (4.17)

−E[−X4] = 3σ4. (4.18)

Dim.

Per dimostrare la (4.17) viene utilizzata la (4.15), mentre per la (4.18) la (4.16); viene dimostrata esclusivamente la (4.17), in quanto i calcoli per la (4.18) sono analoghi.

E[X4] = 1 Z +∞ −∞σy)4exp(−y 2 2)dy =1 Z +∞ −∞ ¯ σ4y4exp(−y 2 2 )dy = σ¯ 4 Z +∞ −∞ y4exp(−y 2 2 )dy = σ¯ 4 Z +∞ −∞ y3· (y exp(−y 2 2 ))dy =√−¯σ4 Z +∞ −∞ y3 d dy(− exp(− y2 2 ))dy =√−¯σ4 2π[y 3(− exp(−y2 2 ))] +∞ −∞− Z +∞ −∞ 3y2· (− exp(−y2 2))dy =σ4 Z +∞ −∞ y2(− exp(−y2 2 ))dy =σ4 Z +∞ −∞ y(−y exp(−y2 2 ))dy =σ4 Z +∞ −∞ d dy(−y exp(− y2 2 ))dy =σ4 2π[y(− exp(− y2 2 ))] +∞ −∞− Z +∞ −∞ (− exp(−y2 2))dy =σ4 Z +∞ −∞ exp(−y2 2 )dy =σ4 2π· = 3¯σ4

Esempio 4.1.14. Sia η con distribuzione massimale. La sua distribuzione `e caratterizzata dalla seguente EDP parabolica definita su [0, ∞) × Rd:

∂tu − g(Du) = 0, u|t=0= ϕ, (4.19)

dove g = gη(p) : Rd→ R `e definita da,

gη(p) := E[hp, ηi], p ∈ Rd.

Fissato (t, y) ∈ (0, ∞) × Rd, presa ψ ∈ C2,3

b ([0, ∞) × Rd) t.c. ψ ≥ u e ψ(t, y) =

u(t, y) e siccome u(t + s, y) = E[u(t, y + sη)] dallo sviluppo di Taylor, abbiamo

per δ ∈ (0, t)

0 ≤ E[ψ(t − δ, y + δη) − ψ(t, y)]

≤ ¯C(δ2) − ∂

tψ(t, y) · δ + E[hDyψ(t, y), ηiδ]

4.2. ESISTENZA DI VARIABILI CASUALI G-DISTRIBUITE 47

Documenti correlati