Probabilités : Loi hypergéométrique

Version PDF

Exercice

On considère une urne contenant N boules avec une proportion p de boules noires et une proportion q = 1−p de boules blanches. On effectue n tirages sans remise supposés indépendants, et on appelle X la variable aléatoire qui compte le nombre de boules noires tirées à l’issue de ces n tirages.

  1. Calculer pour k \in ⟦ 0, n ⟧, P(X = k).

  2. Vérifier que la loi obtenue est bien une loi de probabilité.

  3. Calculer l’espérance et la variance de X.

  1. Soit k \in ⟦ 0, n ⟧. Les éléments de P(X = k) sont obtenus de la manière suivante : sur les n boules tirées de l’urne (\binom{N}{n} possibilités), k sont noires (\binom{Np}{k} possibilités), et n-k sont blanches (Nq \choose n-k possibilités).    En notant \mathcal{N} {\overset{\small{\text{déf}}}{=}}\{n_i\}_{i \in ⟦ 1, Np ⟧} (resp. \mathcal{B}{\overset{\small{\text{déf}}}{=}}\{b_j\}_{j \in ⟦ 1, Nq ⟧}) l’ensemble des boules noires (resp. blanches): la donnée d’un \omega \in P(X = k) correspond donc à celle d’un élément de \mathcal{P}_k(\mathcal{N}) \times\mathcal{P}_{n-k}(\mathcal{B}) \subset \bigcup\limits_{m=0}^n \mathcal{P}_m(\mathcal{N}) \times\mathcal{P}_{n-m}(\mathcal{B}) \cong \mathcal{P}_n(\mathcal{N} \cup \mathcal{B}), et réciproquement. Donc P(X = k) = \dfrac{\binom{Np}{k} \binom{Nq}{n-k}}{\binom{N}{n}}

  2. \begin{align*} \sum\limits_{k \geq 0} P(X=k) \, &= \, \sum\limits_{k = 0}^N P(X=k) \\ \, &= \, \dfrac{1}{\binom{N}{n}} \sum\limits_{k = 0}^N \binom{Np}{k} \binom{Nq}{n-k} \\ \, &= \, 1 && \text{(considérer le coefficient de} Y^n \text{ dans } (Y + 1)^N = (Y + 1)^{Np} (Y + 1)^{Nq} ) \end{align*}
    1. Calcul de \operatorname{E}(X) :  
      • Méthode 1 : \begin{align*} \operatorname{E}(X) \, &= \, \sum\limits_{k = 0}^n k P(X=k) \\ \, &= \, \dfrac{1}{\binom{N}{n}} \sum\limits_{k = 1}^N k \binom{Np}{k} \binom{Nq}{n-k} \\ \, &= \, \dfrac{1}{\binom{N}{n}} \sum\limits_{k = 1}^N Np \binom{Np-1}{k-1} \binom{Nq}{n-k} \\ \, &= \, \dfrac{Np}{\binom{N}{n}} \sum\limits_{k = 0}^{N-1} \binom{Np-1}{k} \binom{Nq}{n-1-k} \\ \, &= \, \dfrac{Np \binom{N-1}{n-1}}{\binom{N}{n}} && \text{(de même que précédemment)} \\ \, &= \, np \end{align*}
    • Méthode 2 : Pour tout k \in ⟦ 1, Np ⟧, en notant A_k l’événement “on a tiré la boule noire n_k” : X = \sum\limits_{k=1}^{Np} \mathbf{1}_{A_k} Les indicatrices \mathbf{1}_{A_k} (k \in ⟦ 1, Np ⟧) suivent toutes la même loi, puisque les boules noires jouent toutes le même rôle. Donc : \operatorname{E}(X) = Np \cdot P(A_1) De plus : \begin{align*} P(A_1^{\rm c}) \, &= \, \dfrac{\binom{N-1}{n}}{\binom{N}{n}} && \text{(probabilité de tirer } n \text{ boules dans } \mathcal{B} \cup \mathcal{N}\backslash\{n_1\} \\ & && \text{sachant qu'on en a tiré } n \text{ dans } \mathcal{B} \cup \mathcal{N}) \\ \, &= \, \frac{N-n}{N}\end{align*} Donc P(A_1) =\dfrac{n}{N}, et : \operatorname{E}(X) = np
    1. Calcul de \operatorname{Var}(X) :
    • Méthode 1 : \begin{align*} \operatorname{Var}(X) \, &= \, \operatorname{E}(X(X-1)) + \operatorname{E}(X) - \operatorname{E}(X)^2 \\ \, &= \, \dfrac{1}{\binom{N}{n}} \sum\limits_{k = 2}^N k(k-1) \binom{Np}{k} \binom{Nq}{n-k} + np(1-np) \\ \, &= \, \dfrac{Np}{\binom{N}{n}} \sum\limits_{k = 2}^N k \binom{Np-1}{k-1} \binom{Nq}{n-k} + np(1-np)\\ \, &= \, \dfrac{Np(Np-1)}{\binom{N}{n}} \sum\limits_{k = 2}^N \binom{Np-2}{k-2} \binom{Nq}{n-k} + np(1-np)\\ \, &= \, \dfrac{Np(Np-1)}{\binom{N}{n}} \sum\limits_{k = 0}^{N-2} \binom{Np-2}{k} \binom{Nq}{n-2-k} + np(1-np)\\ \, &= \, \dfrac{Np(Np-1) \binom{N-2}{n-2}}{\binom{N}{n}} + np(1-np)\\ \, &= \, \dfrac{Np(Np-1) n(n-1)}{N(N-1)} + np(1-np)\\ \, &= \, \dfrac{p(Np-1) n(n-1)}{(N-1)} + np(1-np)\\ \, &= \, \dfrac{p(Np-1) n(n-1) + np(1-np)(N-1)}{(N-1)}\\ \, &= \, \dfrac{np((Np-1)(n-1) + (1-np)(N-1))}{(N-1)}\\ \, &= \, \dfrac{np((Npn- Np - n + 1 + N-1 -np(N-1))}{(N-1)}\\ \, &= \, \dfrac{np(-Np + N-n + np))}{(N-1)}\\ \, &= \, \dfrac{np(N-n)q}{(N-1)}\\ \, &= \, \dfrac{npq(N-n)}{(N-1)}\\\end{align*}

    • Méthode 2 : Avec les mêmes notations que précédemment, pour tout k \in ⟦ 1, Np ⟧ : \operatorname{Var}(\mathbf{1}_{A_k}) = \operatorname{E}\big(\underbrace{\mathbf{1}_{A_k}^2}_{= \mathbf{1}_{A_k}}\big) - \operatorname{E}(\mathbf{1}_{A_k})^2 = \frac{n}{N}\Big(1 - \frac{n}{N}\Big) = \frac{n(N-n)}{N^2} Et pour tout l \in ⟦ 1, Np ⟧ \backslash\{k\} : \operatorname{Cov}(\mathbf{1}_{A_k}, \mathbf{1}_{A_l}) = \operatorname{E}\big(\underbrace{\mathbf{1}_{A_k} \cdot \mathbf{1}_{A_l}}_{= \mathbf{1}_{A_k \cap A_l}}\big) - \operatorname{E}(\mathbf{1}_{A_k})\operatorname{E}(\mathbf{1}_{A_l}) = P(A_k \cap A_l) - \frac{n^2}{N^2} Or : \begin{align*} P(A_k \cap A_l) \, &= \, P(A_k \mid A_l) P(A_l) \\ \, &= \, P(A_k \mid A_l) \frac{n}{N} \\ \, &= \, \frac{n-1}{N-1} \frac{n}{N} \\\end{align*} Donc \operatorname{Cov}(\mathbf{1}_{A_k}, \mathbf{1}_{A_l}) = \frac{n}{N}\Big(\frac{n-1}{N-1} - \frac{n}{N}\Big) = \frac{n}{N} \frac{N(n-1)-n(N-1)}{N(N-1)} = -\frac{n(N-n)}{N^2(N-1)}

    Donc \begin{align*} \operatorname{Var}(X) &= \sum\limits_{k = 1}^{Np} \operatorname{Var}(\mathbf{1}_{A_k}) + \sum\limits_{1 \leq k, l \leq Np} \operatorname{Cov}(\mathbf{1}_{A_k}, \mathbf{1}_{A_l}) \\ &= Np \frac{n(N-n)}{N^2} - Np(Np-1) \frac{n(N-n)}{N^2(N-1)} \\ & = \frac{np(N-n)}{N} - \frac{p(Np-1)n(N-n)}{N(N-1)} \\ &= \frac{np((N-n)(N-1) - (Np-1)(N-n))}{N(N-1)} \\ &= \frac{np(N-n)Nq}{N(N-1)} \\ &= \frac{npq(N-n)}{(N-1)}\end{align*}

Leave a comment