Méthode de Monte-Carlo
Théorème
On note D = [0, 1]d ⊂ Rd que l’on munit de la mesure de Lebesgue. Soient f ∈ L1(D) et (Yn)n≥1 une suite de variables aléatoires indépendantes et identiquement distribuées définies de loi uniforme sur D définies sur l’espace probabilisé (Ω, A, P). On pose pour tout n ∈ N, Xn= f ◦ Yn et Xn = n1 Pni=1Xi. Alors
(i) la suite (Xn)n≥1 converge P-presque sûrement vers I =RDf (x)dx ; (ii) si de plus f ∈ L∞(D) alors pour tout 0 < ε ≤ kf k
2 2
kf k∞ on a
P(|Xn− I| > ε) ≤ 2 exp −nε2 4 kf k22
!
.
Démonstration :
(i) Les variables aléatoires Yn sont indépendantes, les Xn le sont donc aussi. De plus les Xn sont de même loi et par le théorème de transfert et l’hyptohèse que f ∈ L1(D), elles admettent une moyenne. On va donc pouvoir appliquer la loi forte des grands nombres à la suite (Xn)n. Calculons l’espérance de X1, par le théorème du transfert et puisque les Yn sont de loi uniformes sur [0, 1]d
E(X1) =
Z
Rd
f (x)dPYn
=
Z
Rd
f (x)1[0,1]d(x)dx = I.
Donc d’après la loi forte des grands nombres on a : Xn −→p.s.
n→+∞I
(ii) • Remarquons que puisque f ∈ L∞(D) on a f ∈ L2(D) et X1 ∈ L2(Ω).
• Première majoration de P(Xn− I > ε) : posons pour tout n ∈ N, en = Xn− I et soient ε > 0 et α > 0 on a alors :
P(en> ε) = P(eαen > eαε) ≤
M arkov
E(eαen) eαε .
1
Et,
E(eαen) = E
"
exp α n
n
X
i=1
Xi − I
!#
= E
"
exp α n
n
X
i=1
(Xi− I)
!#
= E
" n Y
i=1
exp
α
nXi− I
#
=
n
Y
i=1
E
exp
α
nXi− I
= E
exp
α
nXi− I
n
.
Or, une étude rapide la fonction t 7→ e−t(1 + t + t2) montre que pour tout |t| ≤ 1 on a :
et≤ 1 + t + t2 (1)
. De plus pour presque tout x ∈ D on a par inégalité triangulaire :
|f (x) − I| ≤ |f (x)| +
Z
D
f (x)dx
≤ 2 kf k∞. Ainsi on peut appliquer (1) dès que α ≤ 2kf kn
∞, on obtient alors : E(eαen) ≤
"
E 1 + α
n(X1− I) +α2
n2(X1− I)2
!#n
≤
"
1 + α2
n2V(X1)
#n
≤
"
1 + α2
n2E(X12)
#n
≤
"
1 + α2 n2 kf k22
#n
≤ exp α2 n kf k22
!
.
Car ln(1 + t) ≤ t dès que t est positif. On obtient alors pour tout α ≤ 2kf kn
∞
P(en> ε) ≤ exp(−αε) exp α2 n kf k22
!
= exp
"
α αkf k22 n − ε
!#
.
• Optimisation de α : On cherche α0 minimisant α
αkf kn22 − ε
, c’est-à-dire α0 = εn
2kf k22. On a alors
α0 ≤ n
2 kf k∞ ⇐⇒ ε ≤ kf k22 kf k∞ Donc pour tout 0 < ε ≤ kf kkf k22
∞,
P(en> ε) ≤ exp
"
εn 2 kf k22
ε 2 − ε
#
≤ exp −ε2n 4 kf k22
!
.
2
• De même on montre que pour tout 0 < ε ≤ kf kkf k22
∞ : P(−en< −ε) ≤ exp −ε2n
4 kf k22
!
.
Ainsi on obtient bien que pour tout 0 < ε ≤ kf kkf k22
∞ :
P(|Xn− I| > ε) ≤ exp −ε2n 4 kf k22
!
.
Bonus (Intervalle de confiance)
On suppose f ∈ L2(D), par la loi forte des grands nombres :
∆2 := 1 n
n
X
i=1
(Xi− Xn)2 −→p.s.
n→+∞V(X1).
Donc d’après le théorème central limite et le lemme de Slutsky :
√n
∆n(Xn− I) −→L
n→+∞Z ∼ N (0, 1).
Dès lors dès que n est assez grand :
P
"
Xn− 1.96∆n
√n ≤ I ≤ Xn+ 1.96∆n
√n
#
= 0.95
3