X, Y ∈ Aρ implica αX + (1 − α)Y ∈ Aρ per α ∈ [0, 1]
Se X, Y ∈ Aρ allora ρ(X) ≤ 0 e ρ(Y ) ≤ 0. Preso α ∈ [0, 1], per la
propriet`a di positiva omogeneit`a e per la propriet`a di monotonia, abbiamo che αX + (1 − α)Y ∈ H. Siccome ρ(X) ≤ 0 e ρ(Y ) ≤ 0 allora
ρ(αX + (1 − α)Y ) ≤ ρ(αX) + ρ((1 − α)Y ) =
= αρ(X) + (1 − α)ρ(Y ) ≤ 0
3.2
Il VaR: Value at Risk
Nella misura del rischio di un portafoglio si richiede di investigare le carat- teristiche della distribuzione di probabilit`a della sua perdita. Molte misure di rischio comunemente impiegate non sono coerenti. Tra queste la pi`u utilizzata nei mercati finanziari `e rappresentata dal VaR, (Value at Risk ), che risponde alla domanda:
qual `e il livello di denaro tale che la perdita del portafoglio su un orizzonte temporale prefissato sia superiore ad esso con probabilit`a pari a p?
Questo livello `e denotato come V aRp, che `e definito come segue:
P(L > V aRp) = p Ponendo l’orizzonte di tempo giornaliero abbiamo
V aRp(t + 1) = inf{l ∈ R : P(L(t + 1) > l) ≤ p} = inf{l ∈ R : F
L(l) ≥ 1 − p}
dove L(t + h) = −(V (t + h) − V (t)) e V (t) = f (t, Z(t)), con Z(t) := (Z1(t), · · · , ZN(t)) che rappresentano i fattori di rischio, f : R × RN → R `e
una funzione che rappresenta il mapping del rischio e FL(·) `e la funzione di
probabilit`a della perdita di portafoglio. Il VaR ha quindi una duplice interpre- tazione: `e sia quel livello di denaro tale che la perdita del portafoglio `e superiore ad esso con probabilit`a pari a p, sia quel livello di denaro che limita dall’alto la perdita del portafoglio che pu`o avvenire con probabilit`a 1 − p. Perci`o abbiamo
V aRp(t + 1) = F−1 L (1 − p)
che `e un quantile della distribuzione di perdita. Il VaR non `e una misura di rischio coerente, infatti vale il seguente risultato, per la cui dimostrazione si rimanda a [7]:
Teorema 3.2.1. Se lo spazio di probabilit`a (Ω, F, P) `e puramente non atomico, ovvero P assegna ai punti probabilit`a nulla, allora non esiste alcuna misura di rischio coerente a valori reali definita su L0(Ω, F, P).
Quindi il VaR non pu`o essere una misura di rischio coerente, essendo a valori reali. Poich´e `e un quantile, soddisfa l’omogeneit`a positiva, l’invarianza per traslazione e la monotonia, ma non soddisfa la propriet`a di subadditiv- it`a. Tale propriet`a per`o `e molto importante, perch´e, come gi`a descritto nel- l’Osservazione 3.1.7, si fonda sul concetto di diversificazione: sommando due rischi, il rischio diminuisce, perci`o il rischio di un portafoglio `e minore o uguale della somma dei rischi che lo compongono. Possiamo verificare che il VaR non soddisfa la propriet`a di subadditivit`a con un esempio. Consideriamo due de- faultable bonds A e B. Ciascun emittente pu`o fallire con probabilit`a p = 0.04 realizzando una perdita pari a 100, la perdita `e invece pari a 0 se non si verifica il fallimento. Si nota facilmente che
V aR0.05(A) = V aR0.05(B) = V aR0.05(A) + V aR0.05(B) = 0,
la perdita del portafoglio A + B `e: 1. 0 con probabilit`a (0.96)2= 0.9216,
2. 200 con probabilit`a (0.04)2= 0.0016,
3. 100 con probabilit`a 1 − 0.9216 − 0.0016 = 0.0768. Di conseguenza
V aR0.05(A + B) = 100 > V aR0.05(A) + V aR0.05(B) = 0.
Notiamo che il VaR rappresenta il migliore dei mondi possibili, in termini di perdita del portafoglio, tra gli stati del mondo pi`u negativi che avvengono con probabilit`a pari a p. Considerando r(t + 1), il rendimento uniperiodale del portafoglio V (t), abbiamo
L(t + 1) = −V (t)(r(t + 1) − 1)
possiamo quindi scrivere
P[−V (t)(r(t + 1) − 1) > V aRp(t + 1)] = p
e se definiamo il V aR relativo al rendimento del portafoglio V aRp
r(t + 1) = V aRp(t+1)
V (t) , concludiamo che
P[r(t + 1) − 1 < −V aRpr(t + 1)] = p.
Il V aR pu`o essere definito anche relativamente al rendimento logaritmico:
L(t + 1) = −(V (t + 1) − V (t)) ≈ −V (t)R(t + 1) = −V (t) logV (t + 1) V (t) . V aRpR(t + 1) per il rendimento logaritmico `e definito come segue
P[R(t + 1) < −V aRpR(t + 1)] = p. Allora, possiamo scrivere
3.2. IL VAR: VALUE AT RISK 37 e quindi la relazione tra i due V aR
V aRpr(t + 1) = 1 − e−V aR
p R(t+1),
quindi possiamo passare da V aRpR(t + 1) a V aRp
r(t + 1) e viceversa, ed
entrambe le misure possono essere convertite in termini monetari moltiplicando per il valore del portafoglio V (t).
La valutazione del V aR su un orizzonte di h giorni pu`o essere semplifica- ta considerando i rendimenti logaritmici come variabili casuali indipendenti e identicamente distribuiti: R(t + 1)∼ (µ, σd 2) allora R(t + 1; t + h) = h X u=1 R(t + u)∼ (hµ, hσd 2).
La distribuzione Normale N (µ, σ2) `e un caso particolare di distribuzione
indipendente e identicamnete distribuita. Prendendo in esame un rendimento logaritmico distribuito come una Normale, possiamo scrivere
R(t + 1; t + h) =
h
X
u=1
R(t + u) = µ(t + 1; t + h) + σ(t + 1; t + h)z(t + 1; t + h)
dove z(t+1; t+h) `e una variabile casuale Normale standardizzata. Assumen- do µ(t + s) = 0, per s ≥ 0 e che i rendimenti abbiano autocorrelazioni nulle, la varianza del rendimento cumulato su h giorni condizionata dall’informazione disponibile in t (Ft) `e σ2(t + 1; t + h) = E[( h X u=1 R(t + u))2|F t] = h X u=1 E[σ2(t + u)|F t],
se in aggiunta ipotizziamo una varianza dei rendimenti costante, allora σ2(t+
Capitolo
4
Legge dei grandi numeri e
Teorema centrale del limite
In questo capitolo vengono presentate due tipi fondamentali di distribuzioni nella teoria delle attese sublineari, note come distribuzione massimale e dis- tribuzione G-Normale, che nella teoria classica corrisponde alla distribuzione normale. Sempre nella teoria delle attese sublineari vengono dimostrati due im- portanti teoremi: la legge dei grandi numeri(LGN) e il teorema centrale del limite(TCL). Da questi due teoremi seguono due fondamentali conseguenze: si pu`o notare che il limite nella LGN `e una distribuzione massimale; invece, una variabile casuale i.i.d. a media zero converger`a in legge a una distribuzione G- Normale N (0, [σ2, ¯σ2]). Una variabile casuale X in uno spazio di attesa sublin-eare `e detta N (0, [σ2, ¯σ2])-distribuita se per ogni variabile casuale Y i.i.d. rispet-
to a X e per ogni a, b ∈ R abbiamo aX + bY ∼√a2+ b2X, dove ¯σ2 = E[X2]
e σ2= −E[−X2]. Di conseguenza la distribuzione G-Normale diventa normale
nel caso in cui ¯σ2= σ2.
4.1
Distribuzione massimale e distribuzione G-
Normale
Definiamo un tipico esempio di distribuzione, che `e conosciuta come il peggior caso di misura di rischio.
Definizione 4.1.1 (Distribuzione massimale). Un vettore d-dimensionale
η = (η1, · · · , ηd) definito su uno spazio di attesa sublineare (Ω, H, E) `e detto
avere distribuzione massimale se esiste un insieme Γ ⊂ Rd chiuso, convesso e
limitato t.c.
E[ϕ(η)] = max
y∈Γϕ(y) ∀ϕ ∈ Cl.Lip(R d)
Osservazione 4.1.2. Γ fornisce i gradi di incertezza di η. `E facile verificare che questo vettore casuale η ha distribuzione massimale e soddisfa,
aη + b¯η= (a + b)η per a, b ≥ 0d 39
dove η `e una copia indipendente di η. Vedremo in seguito che questa relazione caratterizza una distribuzione massimale.
Osservazione 4.1.3. Quando d = 1 abbiamo Γ = [µ, ¯µ] dove ¯µ = E[η] e µ = −E[−η]. La distribuzione di η `e quindi
Fη[ϕ] = E[ϕ(η)] = sup
µ≤y≤¯µϕ(y) per ϕ ∈ Cl.Lip(R).
Richiamiamo ora una caratterizzazione ben nota delle variabili aleatorie normali centrate: X= N (0, Σ) se e solo sed
aX + b ¯X =d pa2+ b2X per a, b ≥ 0 (4.1)
dove ¯X `e una copia indipendente di X. La matrice di covarianza Σ `e definita
come Σ = E[XXT].
Definizione 4.1.4 (Distribuzione G-normale). Un vettore casuale d-dimensionale
X = (X1, · · · , Xd)T definito su uno spazio di attesa sublineare (Ω, H, E) `e detto
avere distribuzione G-Normale se
aX + b ¯X =d pa2+ b2X per a, b ≥ 0
dove ¯X `e una copia indipendente di X.
Osservazione 4.1.5. Notando che E[X + ¯X] = 2E[X] e E[X + ¯X] =√2E[X] allora abbiamo E[X] = 0. Allo stesso modo si pu`o provare che E[−X] = 0. Cos`ı,
X non ha incertezza sulla media.
Proposizione 4.1.6. Dato X un vettore con distribuzione G-Normale. Allora per ogni A ∈ Rm×d, anche AX ha distribuzione G-Normale. In particolare, per
ogni a ∈ Rd, ha, Xi `e una variabile aleatoria con distribuzione G-Normale, ma
il viceversa non `e vero.
Dim. Dato X ∈ Rd , A ∈ Rm×d e a, b ∈ R , sfruttando le propriet`a delle
matrici abbiamo
aAX + bA ¯X = A(aX) + A(b ¯X) = A(aX + b ¯X)= A(d pa2+ b2X)
=pa2+ b2(AX)
Denotiamo con S(d) la collezione delle matrici simmetriche d×d. Dato X con distribuzione G-Normale e η un vettore casuale d-dimensionale con distribuzione massimale su (Ω, H, E). La seguente funzione `e importante per caratterizzare le loro distribuzioni:
G(p, A) := E[1
2hAX, Xi + hp, ηi], (p, A) ∈ R
d× S(d). (4.2)
`
E facile verificare che G `e una funzione monotona sublineare in A ∈ S(d) nel senso seguente: per ogni p, ¯p ∈ Rd e A, ¯A ∈ S(d),
G(p + ¯p, A + ¯A) ≤ G(p, A) + G(¯p, ¯A), G(λp, λA) = λG(p, A), ∀λ ≥ 0; G(p, A) ≥ G(p, ¯A), se A ≥ ¯A. (4.3)
4.1. DISTRIBUZIONE MASSIMALE E DISTRIBUZIONE G-NORMALE 41
dove per A ≥ ¯A intendiamo A − ¯A ≥ 0e cio`e
h(A − ¯A)y, yi ≥ 0 ∀y ∈ Rd
X
i,j
(aij− ¯aij)yiyj ≥ 0.
Dim. La prima disuguaglianza si ottiene sfruttando le propriet`a di linearit`a del prodotto scalare e la propriet`a di subadditivit`a delle attese sublineari.
G(p + ¯p, A + ¯A) = E[1
2h(A + ¯A)X, Xi + hp + ¯p, ηi] = E[1
2hAX, Xi + 1
2h ¯AX, Xi + hp, ηi + h¯p, ηi] = E[1 2hAX, Xi + hp, ηi + 1 2h ¯AX, Xi + h¯p, ηi] ≤ E[1 2hAX, Xi + hp, ηi] + E[ 1 2h ¯AX, Xi + h¯p, ηi] = G(p, A) + G(¯p, ¯A)
La seconda uguaglianza si ottiene utilizzando la propriet`a di positiva omo- geneit`a delle attese sublineari.
G(λp, λA) = E[1
2hλAX, Xi + hλp, ηi] = E[λ · 1
2hAX, Xi + λhp, ηi] = = λE[1
2hAX, Xi + hp, ηi] = λG(p, A)
Per l’ultima disuguaglianza sfruttiamo la propriet`a di monotonia delle attese sublineari. Se A ≥ ¯A, allora h(A − ¯A)X, Xi ≥ 0
G(p, A) = E[1
2hAX, Xi + hp, ηi] ≥ E[ 1
2h ¯AX, Xi + hp, ηi] = G(p, ¯A). ¤ Chiaramente G `e anche una funzione continua. Dal Teorema 2.2.1 esiste un sottoinsieme chiuso e limitato Γ ⊂ R × Rd×dtale che
G(p, A) = sup
(q,Q)∈Γ
[1
2tr[AQQ
T] + hp, qi] per (p, A) ∈ Rd× S(d). (4.4)
Abbiamo quindi il seguente risultato, che verr`a provato nella prossima sezione. Proposizione 4.1.7. Sia G : Rd×S(d) → R una funzione continua e sublineare,
monotona, nel senso della (4.3) in A ∈ S(d), allora esiste un vettore casuale d- dimensionale X distribuito G-Normale e una distribuzione massimale η su uno spazio di attesa sublineare (Ω, H, E) che soddisfa la (4.2) e
(aX + b ¯X, a2η + b2η)= (d pa2+ b2X, (a2+ b2)η) per a, b ≥ 0 (4.5)
Definizione 4.1.8. La coppia (X, η) soddisfacente la (4.5) `e detta G-distribuita. Osservazione 4.1.9. Se la coppia (X, η) soddisfa la (4.5), allora
aX + b ¯X =d pa2+ b2X, aη + b¯η= (a + b)η per a, b ≥ 0d
Quindi X `e G-Normale e η ha distribuzione massimale.
La coppia (X, η) `e caratterizzata dalla seguente equazione alle derivate parziali (EDP) di tipo parabolico, chiamata G-equazione definita su [0, ∞) × Rd× Rd:
∂tu − G(Dyu, Dx2u) = 0, (4.6)
con condizioni di Cauchy u|t=0= ϕ, dove G : Rd× S(d) → R `e definita dalla
(4.2) e D2u = (∂2 xi,xju)
d
i,j=1, Du = (∂xiu)di=1
Proposizione 4.1.10. Per la coppia (X, η), soddisfacente la (4.5) e per una funzione ϕ ∈ Cl.Lip(Rd× Rd), definiamo
u(t, x, y) := E[ϕ(x +√tX, y + tη)], (t, x, y) ∈ [0, ∞) × Rd× Rd.
Allora, si ha
u(t + s, x, y) = E[u(t, x +√sX, y + sη)] s ≥ 0 (4.7) Valgono inoltre le stime: per ogni T > 0, esistono delle costanti C, k > 0 tale che, per ogni t, s ∈ [0, T ] e x, ¯x, y, ¯y ∈ Rd,
|u(t, x, y) − u(t, ¯x, ¯y)| ≤ C(1 + |x|k+ |y|k+ |¯x|k+ |¯y|k)(|x − ¯x| + |y − ¯y|) (4.8)
e
|u(t, x, y) − u(t + s, x, y)| ≤ C(1 + |x|k+ |y|k)(s + |s|1
2) (4.9)
Inoltre, u `e l’unica soluzione viscosa, continua nel senso della (4.8) e della (4.9) della EDP (4.6).
Dim. Dato che
u(t, x, y) − u(t, ¯x, ¯y) = E[ϕ(x +√tX, y + tη)] − E[ϕ(¯x +√tX, ¯y + tη)] ≤ E[ϕ(x +√tX, y + tη) − ϕ(¯x +√tX, ¯y + tη) ≤ E[C1(1 + |X|k+ |η|k+ |x|k+ |y|k+ |¯x|k+ |¯y|k)]
× (|x − ¯x| + |y − ¯y|)
≤ C(1 + |x|k+ |y|k+ |¯x|k+ |¯y|k)(|x − ¯x| + |y − ¯y|)
abbiamo la (4.8).
Sia ( ¯X, ¯η) una copia indipendente di (X, η). Dalla (4.5) abbiamo u(t + s, x, y) = E[ϕ(x +√t + sX, y + (t + s)η)]
= E[ϕ(x +√sX +√t ¯X, y + sη + tη)]
= E[E[ϕ(x +√sex +√t ¯X, y + sey + t¯η)](ex,ey)=(X,η)]
4.1. DISTRIBUZIONE MASSIMALE E DISTRIBUZIONE G-NORMALE 43
e cos`ı otteniamo la (4.7). Da questa e dalla (4.8) segue che
u(t + s, x, y) − u(t, x, y) = E[u(t, x +√sX, y + sη) − u(t, x, y)] ≤ E[C1(1 + |x|k+ |y|k+ |X|k+ |η|k)(
√
s|X| + s|η|)],
e cos`ı otteniamo la (4.9).
Ora per un fissato (t, x, y) ∈ (0, ∞) × Rd× Rd, sia ψ ∈ C2,3
b ([0, ∞) × Rd× Rd)
tale che ψ ≥ u e ψ(t, x, y) = u(t, x, y). Dalla (4.7) e grazie allo sviluppo di Taylor, segue che, per δ ∈ (0, t),
0 ≤ E[ψ(t − δ, x +√δX, y + δη) − ψ(t, x, y)] ≤ ¯C(δ32 + δ2) − ∂tψ(t, x, y)δ + E[hDxψ(t, x, y), Xi √ δ + hDyψ(t, x, y), ηiδ + 1 2hD 2 xψ(t, x, y)X, Xiδ]
≤ −∂tψ(t, x, y)δ + E[hDyψ(t, x, y), ηi +
1 2hD 2 xψ(t, x, y)X, Xi]δ + ¯C(δ 3 2 + δ2) = −∂tψ(t, x, y)δ + δG(Dyψ, D2xψ)(t, x, y) + ¯C(δ 3 2 + δ2),
da cui si deduce facilmente che
[∂tψ − G(Dyψ, D2xψ)](t, x, y) ≤ 0
Cos`ı u `e una sottosoluzione viscosa di (4.6); nello stesso modo si pu`o provare che u `e una supersoluzione viscosa di (4.6).
Corollario 4.1.11. Se (X, η) e ( ¯X, ¯η) soddisfano entrambe la (4.5) con la
stessa G, cio`e
G(p, A) := E[1
2hAX, Xi+hp, ηi] = E[ 1
2hA ¯X, ¯Xi+hp, ¯ηi] per (p, A) ∈ R
d× S(d) ,
allora (X, η)= ( ¯d X, ¯η). In particolare, X= −X.d Dim.
Per ogni ϕ ∈ Cl.Lip(Rd× Rd) poniamo
u(t, x, y) := E[ϕ(x +√tX, y + tη)],
¯
u(t, x, y) := E[ϕ(x +√t ¯X, y + t¯η)], (t, x, y) ∈ [0, ∞) × Rd× Rd.
Dalla proposizione (4.1.10) sia u che ¯u sono soluzioni viscose della G-equazione
(4.6) con le condizioni Cauchy u|t=0 = ¯u|t=0 = ϕ. Segue dall’unicit`a della
soluzione viscosa che u ≡ ¯u. In particolare,
E[ϕ(X, η)] = E[ϕ( ¯X, ¯η)]
Cos`ı (X, η)= ( ¯d X, ¯η).
Corollario 4.1.12. Data la coppia (X, η) soddisfacente la (4.5). Per ogni
ψ ∈ Cl.Lip(Rd) definiamo
Allora v `e l’unica soluzione viscosa della seguente EDP parabolica:
∂tv − G(Dxv, Dx2v) = 0, v|t=0= ϕ. (4.11)
Inoltre abbiamo v(t, x + y) ≡ u(t, x, y), dove u `e la soluzione della EDP (4.6) con condizioni iniziali u(t, x, y)|t=0= ψ(x + y).
Esempio 4.1.13. Sia X con distribuzione G-Normale, e la sua distribuzione `e caratterizzata da
u(t, x) = E[ϕ(x +√tX)], ϕ ∈ Cl.Lip(Rd).
In particolare, E[ϕ(X)] = u(1, 0) dove u `e la soluzione della seguente EDP definita su [0, ∞) × Rd:
∂tu − G(D2u) = 0, u|t=0= ϕ, (4.12)
dove G = GX(A) : S(d) → Rd `e definita da
G(A) :=1
2E[hAX, Xi], A ∈ S(d). Dim. Fissato (t, x) ∈ (0, ∞) × Rd, presa ψ ∈ C2,3
b ([0, ∞) × Rd) t.c. ψ ≥ u e
ψ(t, x) = u(t, x) e siccome u(t + s, x) = E[u(x +√sX)] dallo sviluppo di Taylor,
abbiamo per δ ∈ (0, t) 0 ≤ E[ψ(t − δ, x +√δX) − ψ(t, x)] ≤ C(δ32 + δ2) − ∂tψ(t, x) · δ + E[hDxψ(t, x), Xi √ δ +1 2hD 2 xψ(t, x)X, Xiδ] ≤ −∂tψ(t, x)δ + δG(Dxψ)(t, x) + ¯C(δ 3 2 + δ2) (4.13) E quindi, [∂tψ − G(D2xψ)](t, x) ≤ 0
u `e cio`e sottosoluzione viscosa della (4.12). Analogamente si pu`o dimostrare che u `e anche soprasoluzione viscosa, e di conseguenza u `e soluzione viscosa della
(4.12). L’equazione (4.12) `e detta G-equazione del calore. `E facile verificare che G `e una funzione sublineare definita su S(d). Dal Teorema 2.2.1 esiste un sottoinsieme chiuso,convesso e limitato Θ ⊂ S(d) tale che
1
2E[hAX, Xi] = G(A) = 1
2Q∈Θsuptr[AQ], A ∈ S(d). (4.14)
Dato che G(A) `e monotona, segue che
Θ ⊂ S+(d) = {θ ∈ S(d) : θ ≥ 0} = {BBT : B ∈ Rd×d},
dove Rd×d `e l’insieme di tutte le matrici d × d. Se Θ `e un singoletto: Θ =
{Q}, allora X `e distribuita come una densit`a normale di media 0 e matrice
di covarianza Q. In generale, Θ caratterizza l’incertezza di covarianza di X. Denotiamo X= N ({0} × Θ).d
Quando d = 1, abbiamo X = N ({0} × [σd 2, ¯σ2]), dove ¯σ2 = E[X2] e σ2 =
−E[−X2]. La corrispondente G-equazione del calore `e
∂tu −1
2(¯σ
2(∂2
xxu)+− σ2(∂xx2 u)−) = 0 u|t=0= ϕ.
4.1. DISTRIBUZIONE MASSIMALE E DISTRIBUZIONE G-NORMALE 45
Nelle seguenti due situazioni il calcolo di E[ϕ(X)] `e molto facile:
• Per ogni funzione convessa ϕ abbiamo,
E[ϕ(X)] = √1 2π Z ∞ −∞ ϕ(¯σy) exp(−y 2 2 )dy. (4.15)
Infatti, per ogni fissato t ≥ 0, `e facile verificare che la funzione u(t, x) := E[ϕ(x +√tX)] `e convessa in x:
u(t, αx + (1 − α)y) =E[ϕ(αx + (1 − α)y +√tX)]
≤ αE[ϕ(x +√tX)] + (1 − α)E[ϕ(x +√tX)]
= αu(t, x) + (1 − α)u(t, x). Segue che (∂2
xxu)−≡ 0 e cos`ı la precedente G-equazione del calore diventa
∂tu = σ¯ 2
2 ∂
2
xx, u|t=0= ϕ.
• Per ogni funzione concava ϕ, abbiamo
E[ϕ(X)] = √1 2π Z ∞ −∞ ϕ(σy) exp(−y2 2 )dy. (4.16) In particolare,
E[X] = E[−X] = 0, E[X2] = ¯σ2, −E[−X2] = σ2
e
E[X4] = 3¯σ4 (4.17)
−E[−X4] = 3σ4. (4.18)
Dim.
Per dimostrare la (4.17) viene utilizzata la (4.15), mentre per la (4.18) la (4.16); viene dimostrata esclusivamente la (4.17), in quanto i calcoli per la (4.18) sono analoghi.
E[X4] = √1 2π Z +∞ −∞ (¯σy)4exp(−y 2 2)dy =√1 2π Z +∞ −∞ ¯ σ4y4exp(−y 2 2 )dy = σ¯ 4 √ 2π Z +∞ −∞ y4exp(−y 2 2 )dy = σ¯ 4 √ 2π Z +∞ −∞ y3· (y exp(−y 2 2 ))dy =√−¯σ4 2π Z +∞ −∞ y3 d dy(− exp(− y2 2 ))dy =√−¯σ4 2π[y 3(− exp(−y2 2 ))] +∞ −∞− Z +∞ −∞ 3y2· (− exp(−y2 2))dy =√3¯σ4 2π Z +∞ −∞ y2(− exp(−y2 2 ))dy =√3¯σ4 2π Z +∞ −∞ y(−y exp(−y2 2 ))dy =√3¯σ4 2π Z +∞ −∞ d dy(−y exp(− y2 2 ))dy =√3¯σ4 2π[y(− exp(− y2 2 ))] +∞ −∞− Z +∞ −∞ (− exp(−y2 2))dy =√3¯σ4 2π Z +∞ −∞ exp(−y2 2 )dy =√3¯σ4 2π· √ 2π = 3¯σ4
Esempio 4.1.14. Sia η con distribuzione massimale. La sua distribuzione `e caratterizzata dalla seguente EDP parabolica definita su [0, ∞) × Rd:
∂tu − g(Du) = 0, u|t=0= ϕ, (4.19)
dove g = gη(p) : Rd→ R `e definita da,
gη(p) := E[hp, ηi], p ∈ Rd.
Fissato (t, y) ∈ (0, ∞) × Rd, presa ψ ∈ C2,3
b ([0, ∞) × Rd) t.c. ψ ≥ u e ψ(t, y) =
u(t, y) e siccome u(t + s, y) = E[u(t, y + sη)] dallo sviluppo di Taylor, abbiamo
per δ ∈ (0, t)
0 ≤ E[ψ(t − δ, y + δη) − ψ(t, y)]
≤ ¯C(δ2) − ∂
tψ(t, y) · δ + E[hDyψ(t, y), ηiδ]
4.2. ESISTENZA DI VARIABILI CASUALI G-DISTRIBUITE 47