Grande Encyclopédie Larousse 1971-1976Éd. 1971-1976
E

estimation (suite)

On appelle estimateur la formule utilisée pour effectuer une estimation ponctuelle : cette formule se présente généralement comme une fonction des observations de l’échantillon. Cette fonction, appelée quelquefois statistique, est elle-même une variable aléatoire qui dépend de l’échantillon. Ainsi, par exemple,

moyenne arithmétique de n observations d’un échantillon provenant d’une population quelconque, est un estimateur de la moyenne m de cette population. De plus, si la loi de distribution de la variable X dans cette population est normale, d’écart type σ ou, pratiquement, une loi quelconque, n étant grand, on pourra associer à cette estimation un intervalle de confiance, par exemple :

σ étant l’écart type connu de la loi normale, ou lui-même estimé par

si n n’est pas trop petit.

Dans une distribution normale, la moyenne, la médiane et le mode étant confondus, on peut songer à utiliser ces mêmes valeurs calculées sur l’échantillon pour estimer le paramètre m de la loi normale

En présence de diverses solutions possibles, le problème de choix conduit à rechercher quelles sont les propriétés que l’on doit demander à un estimateur. Un estimateur est correct ou convergent s’il converge en probabilité vers le paramètre à estimer, lorsque l’effectif n de l’échantillon augmente indéfiniment, c’est-à-dire si la probabilité d’un écart
t – θ | < є,
si petit que soit є, tend vers l’unité lorsque n augmente indéfiniment. C’est le cas d’un estimateur dont l’espérance mathématique tend vers la vraie valeur du paramètre θ et dont la variance tend vers zéro lorsque n augmente indéfiniment, par exemple la moyenne arithmétique qui est telle que

Un estimateur est sans biais ou sans distorsion si son espérance mathématique est égale au paramètre inconnu quel que soit l’effectif de l’échantillon. Si l’estimateur t est biaisé et si le biais E (t) – θ tend vers zéro lorsque n augmente indéfiniment, l’estimateur est dit « asymptotiquement sans biais ».

Un estimateur à la fois convergent et sans biais est dit « absolument correct ». Ainsi, la variance estimée

est un estimateur convergent de la variance σ2, mais n’est pas un estimateur sans biais, son espérance mathématique étant

cela conduit à utiliser l’estimateur

tel que E (s2) = σ2. L’efficacité relative de deux estimateurs sans biais se caractérise généralement par le rapport de leurs variances : un estimateur est d’autant plus efficace que sa variance est plus petite. En fait, l’erreur commise sur une estimation dépend à la fois de sa variance et de son biais : il en résulte que, dans certaines techniques d’échantillonnage, on peut être conduit à préférer un estimateur biaisé à un estimateur sans biais, lorsque la variance du premier est plus faible que celle du second.


Méthodes d’estimation

De nombreuses méthodes ont été proposées pour estimer, à partir d’un échantillon, les paramètres d’une loi de forme spécifiée, considérée comme pouvant représenter la distribution de la variable observée dans la population dont provient l’échantillon.


Méthode des moments

Elle consiste simplement à égaler les premiers moments empiriques (moyenne, variance, etc.) de la distribution observée aux moments de même ordre de la distribution théorique que l’on se propose d’ajuster aux observations. Elle est d’un emploi immédiat lorsque les moments de cette loi théorique s’expriment simplement en fonction des paramètres inconnus, par exemple dans le cas de la loi normale.


Méthode du maximum de vraisemblance

Soit x1, x2 ... xn, n observations indépendantes d’une variable aléatoire X dont la distribution dans la population satisfait à une loi f (xθ) de forme spécifiée, dépendant d’un paramètre θ et caractérisée par une probabilité (variable discrète) ou une densité de probabilité (variable continue). La vraisemblance de l’échantillon, relativement à une valeur particulière θ du paramètre, est la probabilité
L(x1 ... xnθ) = f (x1) . f (x2) ... f(xn)
d’obtenir l’échantillon observé si la valeur du paramètre est θ. Sir Ronald Aylmer Fisher (1890-1962) a proposé de prendre comme estimation de θ la valeur qui rend maximale la fonction de vraisemblance
L (x1 ... xnθ),
c’est-à-dire la racine de l’équation

ou, ce qui revient au même, la racine de l’équation

Cette méthode se généralise au cas d’une loi dépendant de plusieurs paramètres.


Méthode des moindres carrés

Elle a été proposée, en 1809, par Carl Gauss* comme étant la méthode optimale pour estimer la vraie valeur m d’une grandeur mesurée plusieurs fois : x1, x2 ... xn, en utilisant un même appareil, avec des erreurs aléatoires indépendantes : cette valeur m est définie par le minimum de Σ (xi – m)2, soit


Méthode du minimum de χ2

Utilisée par sir Ronald Aylmer Fisher dans ses études de génétique, elle a pour principe la recherche de la valeur du paramètre θ qui rend minimale une mesure globale des écarts entre les effectifs observés ni des valeurs xi et les effectifs théoriques npi correspondant au modèle envisagé, soit :

(avec Σ ni = n, Σ pi = 1), les probabilités pi étant des fonctions de forme spécifiée du paramètre inconnu θ. La valeur cherchée est solution de l’équation

Cette condition conduit en général à des calculs compliqués : une approximation de la solution pourra être obtenue en utilisant

dont le dénominateur ne dépend pas de θ.


Méthode de Bayes

Son emploi suppose connue a priori la loi de distribution du paramètre θ ; celui-ci est alors estimé par la valeur qui rend maximale la probabilité a posteriori définie par le théorème de Thomas Bayes (1702-1761) pour l’ensemble des valeurs possibles des probabilités a priori.

E. M.

➙ Contrôle statistique / Distribution / Test.

 R. A. Fisher, Statistical Methods for Research Workers (Londres, 1925 ; 12e éd., 1954). / J. Neyman, Lectures and Conferences on Mathematical Statistics and Probabitity (Washington, 1950). / C. Fourgeaud et A. Fuchs, Statistique (Dunod, 1967).