Cours 9 : Statistiques

Statistiques : Aperçu

Quelle loi choisir pour modéliser

  • un phénomène probabiliste ?
  • un phénomène qu’on ne peut modéliser de manière exhaustive ?

Phénomène ⟶ Modélisé par une v.a

  • Problème : Loi de la v.a ?

NB : En général, le type de loi, avec leurs paramètres, est connu :

Exs :

  • Sondage Oui/Non : une loi binomiale : B(n,p)
  • Temps de vie de matériel en industrie : loi de Poisson 𝒫(𝜆)
  • Loi normale : notes à un examen N(𝜎,m)

  • Type de la loi : propre au problème étudié
  • Paramètre de la loi : ex : 𝜆 pour 𝒫(𝜆)

⟶ On fait une observation du phénomène, pour estimer une valeur du paramètre.

Échantillon :

Valeurs prises par des copies indépendantes de la v.a utilisée pour modéliser le phénomène :

X1,,Xnvaleurs prises(x1,,xn)

Empirique Théorique
(x1,,xn) (X1,,Xn)

Ex :

Sondage : on essaye d’évaluer le pourcentage de votes pour le candidat A, nombre de votes pour le candidat B.

Indicateurs :

mesures qui nous donnent des informations sur les valeurs empiriques/théoriques.

Ex : pour une loi uniforme :

  • Moyenne : 1n1nxi
  • Variance : 1n1n(xi1njxj)2

médiane, écart-type, …

Outils

  1. Loi des grands nombres : Xi indépendantes et identiquement distribuées (iid), E(Xi)=m :

    1n1nXim
    • convergence en proba (loi faible)
    • convergence presque sûre (loi forte)
  2. Théorème centrale limite :

    1n1nXim𝜎/nloiN(0,1)
    • Loi normale : P(Xx)=12𝜋xexp(t2/2)dt

Test de 𝜒2 : convergence de la variance

Méthodes pour essayer d’estimer les choses

  1. Maximum de vraisemblance

  2. Estimation bayesienne

  3. Test d’hypothèse

  4. Intervalle de confiance

Maximum de vraisemblance

(X1,,Xn) iid de loi dépendant d’un paramètre 𝜃.

(x1,,xn) valeurs de l’échantillon.

f(𝜃)=P𝜃(X1=x1,,Xn=xn)=1nP𝜃(Xi=xi)

On cherche à maximiser f(𝜃). On va obtenir comme valeur 𝜃0 qui maximise la probabilité d’avoir obtenu ces valeurs de l’échantillon ⟶ calcul différentiel.

(En fait, on passe au logarithme)

Ex :

Bernoulli de paramètre p.

P(X1=x1,,Xn=xn)=px1++xn(1p)nx1xn=ps(1p)ns

s=ixi

On cherche à maximiser

g(p)=slnp+(ns)ln(1p) g(p)=spns1p=snpp(1p) g(p)=0p=sn=1nixi

Le paramètre qui maximise f est la moyenne des paramètres.

Estimation bayesienne

X1,,Xn : non observables.

Ce qui est observable : Y1,,Yn, où Yi=fi(X1,,Xn)

Connu : P(Yi|X1,,Xn)

on “inverse le système” :

P(Yi=y)=x1,,xnP(Yi=y|X1=x1,,Xn=xn)P(X1=x1,,Xn=xn)

NB :

  • dans le meilleur des cas : le système est linéaire.
  • beaucoup utilisé en apprentissage statistique

Test d’hypothèse

Hypothèse : faites sur le paramètre 𝜃 d’une loi : deux hypothèses :

  • H0:𝜃=p0
  • H1:𝜃p0𝜃>p0𝜃<p0

On évalue la proba de l’échantillon pour l’hypothèse : si elle est trop petite (dépend d’un niveau de confiance), on rejette l’hypothèse.

NB :

  • Trouver un compromis entre le niveau de confiance (précision) et l’efficacité du test
  • si le niveau de confiance est trop grand : on rejette à coup sûr, car on n’a qu’un échantillon (on manque d’information).
  • La plupart du temps, le niveau de confiance = 95%

⟶ Si le test infirme avec une bonne proba : on peut rejeter l’hypothèse avec cette proba

⟶ Si le test confirme avec une bonne proba : on ne peut rien dire !

Attention aux confirmations de biais !

Ex :

p-valeur : valeur extrémale qui maximise la probabilité de rejet du test d’hypothèse.

Intervalle de confiance

Ex :

Rappel sur l’inégalité de Bienaymé-Tchebychev.

P(|XE(X)|>𝜀)𝜎2𝜀2

𝜀>0,

(X1,,Xn) Xi iid

P(|1n1nXiE(Xi)m|>𝜀)𝜎2n𝜀2

On veut minimiser 𝜎2n𝜀2.

On suppose qu’on s’est donné 1𝛼 un niveau de confiance (le plus souvent 0,95) et qu’on peut garantir que

𝜎2n𝜀2𝛼

(choix de n pour profiter du th. central limite, propriété de 𝜎)

NB : on ne connaît pas m, donc a fortiori pas 𝜎.

alors

1n1nXi𝜀E(Xi)1n1nXi+𝜀

avec probabilité 1𝛼

L’inégalité au-dessus définit l’intervalle de fluctuation

[1n1nXi𝜀,1n1nXi+𝜀]

L’échantillon (x1,,xn) définit un intervalle

[1n1nxi𝜀,1n1nxi+𝜀]

dans lequel est la moyenne avec probabilité 1𝛼.

NB : avec 𝜀=1n, le majorant 𝜎2n𝜀2 ne dépend plus de n.

Leave a comment