Cours 8 : Théorèmes limites et convergences de processus

I. Différents types de convergence

Soit $(X_n)$ une suite de variables aléatoires.

Le but du paragraphe est de décrire différents types de limites que cette suite pourrait avoir.

Convergence presque sûre (Almost Everywhere)

X_n \xrightarrow[n \to +∞]{ae / ps} X

ssi

\lbrace 𝜔; \lim_n X_n(𝜔) = X(𝜔) \rbrace est de probabilité 1.

Convergence en probabilité

X_n \xrightarrow[n \to +∞]{proba} X

ssi

∀𝜀>0, \lim\limits_{n⟶+∞} P(\vert X_n - X \vert > 𝜀) = 0

Convergence en loi

Si les variables sont discrètes :

X_n \xrightarrow[n \to +∞]{loi} X

ssi

∀a, \lim\limits_{n⟶+∞} P(X_n = a) = P(X = a)

Convergence $L^p$

X_n \xrightarrow[n \to +∞]{L^p} X

ssi

\lim\limits_{n⟶+∞} E(\vert X_n - X \vert^p) = 0

  digraph {
    rankdir=TB;
    ps[label="Convergence ps"];
    lp[label="Convergence L^p"];
    proba[label="Convergence en proba"];
    loi[label="Convergence en loi"];
    ps -> proba;
    lp -> proba;
    proba -> loi;
  }

NB : les réciproques ne sont pas vraies, sauf à rajouter des hypothèse plus ou moins fortes.

II. Inégalités

Inégalité de Markov

Soit $X$ une v.a $≥0$ telle que $E(X)<+∞$

Alors :

∀a, P(X>a) ≤ \frac{E(X)}{a}

Dém :

E(X) = \sum_b b P(X = b) \\ = \sum_{b≤a} b P(X=b) + \sum_{b>a} b P(X = b)

et

\sum_{b>a} b P(X=b) > a \sum_{b>a} P(X=b)

donc

E(X)> a P(X>a)

Inégalité de Bienaymé-Tchebychev

Soit $X$ une v.a qui a une variance.

Alors

∀𝜀>0, P(\vert X - E(X) \vert > 𝜀) ≤ \frac{Var(X)}{𝜀^2}

Dém :

On applique Markov à $X- E(X)$.

III. Les grands théorèmes limites

Loi faible des grands nombres

Soit $\lbrace X_n \rbrace$ une suite de variables indépendantes admettant une variance et un espérance tq

  • $\left(\frac 1 n \sum_1^n E(X_i)\right)_n$ est convergente de limite $m$
  • $\left(\frac{1}{n^2} \sum_1^n Var(X_i)\right)_n$ est convergente de limite $0$

Alors $\left(\frac 1 n \sum_1^n X_i\right)_n$ converge en probabilité vers $m$.

Soit $𝜀>0$.

Considérons

\left(P\left(\left\vert \frac 1 n \sum_1^n X_i - m \right\vert > 𝜀\right)\right)_n
\left\vert \frac 1 n \sum_1^n X_i - m \right\vert ≤ \underbrace{\left\vert \frac 1 n \sum_1^n X_i - \frac 1 n \sum_1^n E(X_i) \right\vert}_{ = \frac 1 n \sum_1^n X_i - E(X_i)} + \left\vert \frac 1 n \sum_1^n E(X_i) - m \right\vert
P\left(\left\vert \frac 1 n \sum_1^n X_i - E(X_i)\right\vert > 𝜀/2 \right) ≤ \frac{\frac{1}{n^2}\sum_1^n Var(X_i)}{(𝜀/2)^2}

$∃N; ∀n≥N$

\left\vert \frac 1 n \sum_1^n E(X_i) - m\right\vert ≤ 𝜀/2

Donc si $n≥N$ : on conclut.

NB :

  • Loi forte : convergence presque sûre.
  • Th de Bernoulli : les $X_i$ sont des va de Bernoulli indépendantes de paramètre $p$.

    • $E(X_i) = p$
    • $V(X_i) = p(1-p)$
    \begin{cases} \frac 1 n \sum_1^n E(X_i) = p \\ \frac{1}{n^2} \sum_1^n Var(X_i) = \frac{p(1-p)}{n} ⟶ 0 \\ \end{cases}

    $\frac 1 n \sum_1^n X_i$ converge en proba vers $p$

Théorème central limite

Loi à densité : $X$ à valeurs dans $ℝ$.

$X$ à densité $f$ :

  • $f≥0$
  • $\int_ℝ f = 1$
P(a ≤ X ≤ b) = \int_a^b f(t) dt
Fonction de répartition de $X$ :
F_X(x) = P(X ≤ x) = \int_{-∞}^x f(t) dt
Espérance de $X$ :
E(X) = \int_{-∞}^{+∞} t f(t) dt
Loi centrée :

ssi $\int_ℝ t f(t) dt = 0$

Loi réduite :

ssi $\int_ℝ t^2 f(t) dt = 1$

Ex :

  • loi normale :

    • $f(t) = \frac{\exp(-t^2/2)}{\sqrt{2𝜋}}$

Th : Central Limite :

$\lbrace X_i \rbrace_{i∈ℕ}$ indépendantes et équidistribuées tq $m=E(X_i)$ , $𝜎^2 = Var(X_i)$

$\frac{1}{n}\sum_i X_i$ converge en loi vers $N(m, 𝜎^2)$ : loi normale d’espérance $m$ et de variance $𝜎^2$ :

f(t) = \frac{\exp(-(\frac{t-m}{𝜎})^2/2)}{𝜎\sqrt{2 𝜋}}

Leave a comment