Probabilités : Loi hypergéométrique

Version PDF

Exercice

On considère une urne contenant \(N\) boules avec une proportion \(p\) de boules noires et une proportion \(q = 1−p\) de boules blanches. On effectue \(n\) tirages sans remise supposés indépendants, et on appelle \(X\) la variable aléatoire qui compte le nombre de boules noires tirées à l’issue de ces \(n\) tirages.

  1. Calculer pour \(k \in ⟦ 0, n ⟧, P(X = k)\).

  2. Vérifier que la loi obtenue est bien une loi de probabilité.

  3. Calculer l’espérance et la variance de \(X\).

  1. Soit \(k \in ⟦ 0, n ⟧\). Les éléments de \(P(X = k)\) sont obtenus de la manière suivante : sur les \(n\) boules tirées de l’urne (\(\binom{N}{n}\) possibilités), \(k\) sont noires (\(\binom{Np}{k}\) possibilités), et \(n-k\) sont blanches (\(Nq \choose n-k\) possibilités).    En notant \(\mathcal{N} {\overset{\small{\text{déf}}}{=}}\{n_i\}_{i \in ⟦ 1, Np ⟧}\) (resp. \(\mathcal{B}{\overset{\small{\text{déf}}}{=}}\{b_j\}_{j \in ⟦ 1, Nq ⟧}\)) l’ensemble des boules noires (resp. blanches): la donnée d’un \(\omega \in P(X = k)\) correspond donc à celle d’un élément de \(\mathcal{P}_k(\mathcal{N}) \times\mathcal{P}_{n-k}(\mathcal{B}) \subset \bigcup\limits_{m=0}^n \mathcal{P}_m(\mathcal{N}) \times\mathcal{P}_{n-m}(\mathcal{B}) \cong \mathcal{P}_n(\mathcal{N} \cup \mathcal{B})\), et réciproquement. Donc \(P(X = k) = \dfrac{\binom{Np}{k} \binom{Nq}{n-k}}{\binom{N}{n}}\)

  2. \[\begin{align*} \sum\limits_{k \geq 0} P(X=k) \, &= \, \sum\limits_{k = 0}^N P(X=k) \\ \, &= \, \dfrac{1}{\binom{N}{n}} \sum\limits_{k = 0}^N \binom{Np}{k} \binom{Nq}{n-k} \\ \, &= \, 1 && \text{(considérer le coefficient de} Y^n \text{ dans } (Y + 1)^N = (Y + 1)^{Np} (Y + 1)^{Nq} ) \end{align*}\]
    1. Calcul de \(\operatorname{E}(X)\) :  
      • Méthode 1 : \(\begin{align*} \operatorname{E}(X) \, &= \, \sum\limits_{k = 0}^n k P(X=k) \\ \, &= \, \dfrac{1}{\binom{N}{n}} \sum\limits_{k = 1}^N k \binom{Np}{k} \binom{Nq}{n-k} \\ \, &= \, \dfrac{1}{\binom{N}{n}} \sum\limits_{k = 1}^N Np \binom{Np-1}{k-1} \binom{Nq}{n-k} \\ \, &= \, \dfrac{Np}{\binom{N}{n}} \sum\limits_{k = 0}^{N-1} \binom{Np-1}{k} \binom{Nq}{n-1-k} \\ \, &= \, \dfrac{Np \binom{N-1}{n-1}}{\binom{N}{n}} && \text{(de même que précédemment)} \\ \, &= \, np \end{align*}\)
    • Méthode 2 : Pour tout \(k \in ⟦ 1, Np ⟧\), en notant \(A_k\) l’événement “on a tiré la boule noire \(n_k\)” : \(X = \sum\limits_{k=1}^{Np} \mathbf{1}_{A_k}\) Les indicatrices \(\mathbf{1}_{A_k}\) (\(k \in ⟦ 1, Np ⟧\)) suivent toutes la même loi, puisque les boules noires jouent toutes le même rôle. Donc : \(\operatorname{E}(X) = Np \cdot P(A_1)\) De plus : \(\begin{align*} P(A_1^{\rm c}) \, &= \, \dfrac{\binom{N-1}{n}}{\binom{N}{n}} && \text{(probabilité de tirer } n \text{ boules dans } \mathcal{B} \cup \mathcal{N}\backslash\{n_1\} \\ & && \text{sachant qu'on en a tiré } n \text{ dans } \mathcal{B} \cup \mathcal{N}) \\ \, &= \, \frac{N-n}{N}\end{align*}\) Donc \(P(A_1) =\dfrac{n}{N}\), et : \(\operatorname{E}(X) = np\)
    1. Calcul de \(\operatorname{Var}(X)\) :
    • Méthode 1 : \(\begin{align*} \operatorname{Var}(X) \, &= \, \operatorname{E}(X(X-1)) + \operatorname{E}(X) - \operatorname{E}(X)^2 \\ \, &= \, \dfrac{1}{\binom{N}{n}} \sum\limits_{k = 2}^N k(k-1) \binom{Np}{k} \binom{Nq}{n-k} + np(1-np) \\ \, &= \, \dfrac{Np}{\binom{N}{n}} \sum\limits_{k = 2}^N k \binom{Np-1}{k-1} \binom{Nq}{n-k} + np(1-np)\\ \, &= \, \dfrac{Np(Np-1)}{\binom{N}{n}} \sum\limits_{k = 2}^N \binom{Np-2}{k-2} \binom{Nq}{n-k} + np(1-np)\\ \, &= \, \dfrac{Np(Np-1)}{\binom{N}{n}} \sum\limits_{k = 0}^{N-2} \binom{Np-2}{k} \binom{Nq}{n-2-k} + np(1-np)\\ \, &= \, \dfrac{Np(Np-1) \binom{N-2}{n-2}}{\binom{N}{n}} + np(1-np)\\ \, &= \, \dfrac{Np(Np-1) n(n-1)}{N(N-1)} + np(1-np)\\ \, &= \, \dfrac{p(Np-1) n(n-1)}{(N-1)} + np(1-np)\\ \, &= \, \dfrac{p(Np-1) n(n-1) + np(1-np)(N-1)}{(N-1)}\\ \, &= \, \dfrac{np((Np-1)(n-1) + (1-np)(N-1))}{(N-1)}\\ \, &= \, \dfrac{np((Npn- Np - n + 1 + N-1 -np(N-1))}{(N-1)}\\ \, &= \, \dfrac{np(-Np + N-n + np))}{(N-1)}\\ \, &= \, \dfrac{np(N-n)q}{(N-1)}\\ \, &= \, \dfrac{npq(N-n)}{(N-1)}\\\end{align*}\)

    • Méthode 2 : Avec les mêmes notations que précédemment, pour tout \(k \in ⟦ 1, Np ⟧\) : \(\operatorname{Var}(\mathbf{1}_{A_k}) = \operatorname{E}\big(\underbrace{\mathbf{1}_{A_k}^2}_{= \mathbf{1}_{A_k}}\big) - \operatorname{E}(\mathbf{1}_{A_k})^2 = \frac{n}{N}\Big(1 - \frac{n}{N}\Big) = \frac{n(N-n)}{N^2}\) Et pour tout \(l \in ⟦ 1, Np ⟧ \backslash\{k\}\) : \(\operatorname{Cov}(\mathbf{1}_{A_k}, \mathbf{1}_{A_l}) = \operatorname{E}\big(\underbrace{\mathbf{1}_{A_k} \cdot \mathbf{1}_{A_l}}_{= \mathbf{1}_{A_k \cap A_l}}\big) - \operatorname{E}(\mathbf{1}_{A_k})\operatorname{E}(\mathbf{1}_{A_l}) = P(A_k \cap A_l) - \frac{n^2}{N^2}\) Or : \(\begin{align*} P(A_k \cap A_l) \, &= \, P(A_k \mid A_l) P(A_l) \\ \, &= \, P(A_k \mid A_l) \frac{n}{N} \\ \, &= \, \frac{n-1}{N-1} \frac{n}{N} \\\end{align*}\) Donc \(\operatorname{Cov}(\mathbf{1}_{A_k}, \mathbf{1}_{A_l}) = \frac{n}{N}\Big(\frac{n-1}{N-1} - \frac{n}{N}\Big) = \frac{n}{N} \frac{N(n-1)-n(N-1)}{N(N-1)} = -\frac{n(N-n)}{N^2(N-1)}\)

    Donc \(\begin{align*} \operatorname{Var}(X) &= \sum\limits_{k = 1}^{Np} \operatorname{Var}(\mathbf{1}_{A_k}) + \sum\limits_{1 \leq k, l \leq Np} \operatorname{Cov}(\mathbf{1}_{A_k}, \mathbf{1}_{A_l}) \\ &= Np \frac{n(N-n)}{N^2} - Np(Np-1) \frac{n(N-n)}{N^2(N-1)} \\ & = \frac{np(N-n)}{N} - \frac{p(Np-1)n(N-n)}{N(N-1)} \\ &= \frac{np((N-n)(N-1) - (Np-1)(N-n))}{N(N-1)} \\ &= \frac{np(N-n)Nq}{N(N-1)} \\ &= \frac{npq(N-n)}{(N-1)}\end{align*}\)

Leave a comment