Cours 8 : Théorèmes limites et convergences de processus
I. Différents types de convergence
Soit $(X_n)$ une suite de variables aléatoires.
Le but du paragraphe est de décrire différents types de limites que cette suite pourrait avoir.
Convergence presque sûre (Almost Everywhere)
\[X_n \xrightarrow[n \to +∞]{ae / ps} X\]ssi
\(\lbrace 𝜔; \lim_n X_n(𝜔) = X(𝜔) \rbrace\) est de probabilité 1.
Convergence en probabilité
\[X_n \xrightarrow[n \to +∞]{proba} X\]ssi
\[∀𝜀>0, \lim\limits_{n⟶+∞} P(\vert X_n - X \vert > 𝜀) = 0\]Convergence en loi
Si les variables sont discrètes :
\[X_n \xrightarrow[n \to +∞]{loi} X\]ssi
\[∀a, \lim\limits_{n⟶+∞} P(X_n = a) = P(X = a)\]Convergence $L^p$
\[X_n \xrightarrow[n \to +∞]{L^p} X\]ssi
\[\lim\limits_{n⟶+∞} E(\vert X_n - X \vert^p) = 0\] digraph {
rankdir=TB;
ps[label="Convergence ps"];
lp[label="Convergence L^p"];
proba[label="Convergence en proba"];
loi[label="Convergence en loi"];
ps -> proba;
lp -> proba;
proba -> loi;
}
NB : les réciproques ne sont pas vraies, sauf à rajouter des hypothèse plus ou moins fortes.
II. Inégalités
Inégalité de Markov
Soit $X$ une v.a $≥0$ telle que $E(X)<+∞$
Alors :
\[∀a, P(X>a) ≤ \frac{E(X)}{a}\]Dém :
\[E(X) = \sum_b b P(X = b) \\ = \sum_{b≤a} b P(X=b) + \sum_{b>a} b P(X = b)\]et
\[\sum_{b>a} b P(X=b) > a \sum_{b>a} P(X=b)\]donc
\[E(X)> a P(X>a)\]Inégalité de Bienaymé-Tchebychev
Soit $X$ une v.a qui a une variance.
Alors
\[∀𝜀>0, P(\vert X - E(X) \vert > 𝜀) ≤ \frac{Var(X)}{𝜀^2}\]Dém :
On applique Markov à $X- E(X)$.
III. Les grands théorèmes limites
Loi faible des grands nombres
Soit $\lbrace X_n \rbrace$ une suite de variables indépendantes admettant une variance et un espérance tq
- $\left(\frac 1 n \sum_1^n E(X_i)\right)_n$ est convergente de limite $m$
- $\left(\frac{1}{n^2} \sum_1^n Var(X_i)\right)_n$ est convergente de limite $0$
Alors $\left(\frac 1 n \sum_1^n X_i\right)_n$ converge en probabilité vers $m$.
Soit $𝜀>0$.
Considérons
\[\left(P\left(\left\vert \frac 1 n \sum_1^n X_i - m \right\vert > 𝜀\right)\right)_n\] \[\left\vert \frac 1 n \sum_1^n X_i - m \right\vert ≤ \underbrace{\left\vert \frac 1 n \sum_1^n X_i - \frac 1 n \sum_1^n E(X_i) \right\vert}_{ = \frac 1 n \sum_1^n X_i - E(X_i)} + \left\vert \frac 1 n \sum_1^n E(X_i) - m \right\vert\] \[P\left(\left\vert \frac 1 n \sum_1^n X_i - E(X_i)\right\vert > 𝜀/2 \right) ≤ \frac{\frac{1}{n^2}\sum_1^n Var(X_i)}{(𝜀/2)^2}\]$∃N; ∀n≥N$
\[\left\vert \frac 1 n \sum_1^n E(X_i) - m\right\vert ≤ 𝜀/2\]Donc si $n≥N$ : on conclut.
NB :
- Loi forte : convergence presque sûre.
-
Th de Bernoulli : les $X_i$ sont des va de Bernoulli indépendantes de paramètre $p$.
- $E(X_i) = p$
- $V(X_i) = p(1-p)$
$\frac 1 n \sum_1^n X_i$ converge en proba vers $p$
Théorème central limite
Loi à densité : $X$ à valeurs dans $ℝ$.
$X$ à densité $f$ :
- $f≥0$
- $\int_ℝ f = 1$
- Fonction de répartition de $X$ :
- \[F_X(x) = P(X ≤ x) = \int_{-∞}^x f(t) dt\]
- Espérance de $X$ :
- \[E(X) = \int_{-∞}^{+∞} t f(t) dt\]
- Loi centrée :
-
ssi $\int_ℝ t f(t) dt = 0$
- Loi réduite :
-
ssi $\int_ℝ t^2 f(t) dt = 1$
Ex :
-
loi normale :
- $f(t) = \frac{\exp(-t^2/2)}{\sqrt{2𝜋}}$
Th : Central Limite :
$\lbrace X_i \rbrace_{i∈ℕ}$ indépendantes et équidistribuées tq $m=E(X_i)$ , $𝜎^2 = Var(X_i)$
$\frac{1}{n}\sum_i X_i$ converge en loi vers $N(m, 𝜎^2)$ : loi normale d’espérance $m$ et de variance $𝜎^2$ :
\[f(t) = \frac{\exp(-(\frac{t-m}{𝜎})^2/2)}{𝜎\sqrt{2 𝜋}}\]
Leave a comment