next up previous contents
suivant: Exemple d'information perceptive pour monter: Positionnement de notre démarche précédent: Éléments de calcul de   Table des matières


Calcul d'un estimateur $ \hat{\epsilon}$ par la méthode du maximum de vraisemblance

On considère un réel $ \epsilon \in ]0,1[$ ainsi que la variable aléatoire discrète X, définie par la loi suivante:

$\displaystyle \forall k \in \mathbb{N}^{*} P(X=k) = \epsilon (1 - \epsilon)^{k-1}$    

Et P(X=0) = 0 On considère à présent un n-échantillon $ x_{1},x_{2},...,x_{n}$ issu de n observations de X. En supposant que ces observations sont indépendantes, la fonction $ L(x_{1},x_{2},...,x_{n}\vert\epsilon)$ vaut:

$\displaystyle L(x_{1},x_{2},...,x_{n}\vert\epsilon) = \prod_{k=1}^{n}P(X=x_{k})$    

En prenant le logarithme népérien de L, pour simplifier les calculs, on obtient:

$\displaystyle \ln L = \sum_{k=1}{n}(\ln\epsilon + x_{k}\ln(1-\epsilon))$    

Nous cherchons le maximum de L suivant la variable $ \epsilon $, lorsque $ x_{1},x_{2},...,x_{n}$ sont fixés. Il vient:

$\displaystyle \frac{\partial \ln L}{\partial \epsilon} = \frac{n}{\epsilon} -
 \frac{\sum_{k=1}^{n}x_{k}}{1 - \epsilon}$    

Pour $ \epsilon \in ]0,1[$, cette dérivée s'annule pour:

$\displaystyle \epsilon = \frac{1}{\frac{\sum_{k=1}^{n}x_{k}}{n} + 1}$    

On vérifie que cette valeur correspond bien à un maximum. Pour cela, il faut regarder la dérivée seconde:

$\displaystyle \frac{\partial^{2}\ln L}{\partial \epsilon^{2}} = - \frac{n}{\epsilon^{2}} -
 \frac{\sum_{k=1}^{n}x_{k}}{(1 - \epsilon)^{2}} < 0$    

On obtient donc un estimateur $ \hat{\epsilon}$. Éléments relatifs à la partie II, chapitre 2
next up previous contents
suivant: Exemple d'information perceptive pour monter: Positionnement de notre démarche précédent: Éléments de calcul de   Table des matières
2002-03-01