next up previous contents
suivant: Calcul d'un estimateur par monter: Positionnement de notre démarche précédent: Valeur des paramètres internes   Table des matières


Éléments de calcul de probabilité

On considère un réel $ \epsilon \in ]0,1[$ ainsi que la variable aléatoire discrète X, définie par la loi suivante:

$\displaystyle \forall k \in \mathbb{N}^{*} P(X=k) = \epsilon (1 - \epsilon)^{k-1}$    

Et P(X=0) = 0 Il s'agit bien d'une loi de probabilité sur $ \mathbb{N}$ car $ \sum_{k=0}^{\infty}P(X=k)$ existe et vaut 1.
L'espérance E[X] se calcule comme suit:

$\displaystyle E[X] = \sum_{k=0}^{\infty}kP(X=k-1) = \sum_{k=0}^{\infty}(k+1)(1-\epsilon)^{k}$    

Or, la somme $ \sum_{k=0}^{\infty}(k+1)r^{k}$ , pour $ r \in [0,1[$, est une somme classique et vaut $ 1/(1-r)^{2}$. D'où:

$\displaystyle E[X] = 1/{\epsilon}$    

D'autre part, la variance Var[X] est donnée par l'expression suivante:

$\displaystyle Var[X] = E[X^{2}] - (E[X])^{2}$    

Nous calculons $ E[X^{2}]$:

$\displaystyle E[X^{2}] = \sum_{k=0}^{\infty}(k+1)^{2}\epsilon(1 - \epsilon)^{k}$    

Nous utilisons à nouveau le résultat de la somme classique suivante: $ \sum_{k=0}^{\infty}(k+1)(k+2)r^{k}$ qui vaut $ 2/(1-r)^{3}$. En décomposant $ E[X^{2}]$ pour faire apparaître cette somme, on obtient:

$\displaystyle E[X^{2}] = (2-\epsilon)/\epsilon^{2}$    

On en déduit l'expression de Var[X]:

$\displaystyle Var[X] = (1 - \epsilon) / \epsilon^{2}$    


next up previous contents
suivant: Calcul d'un estimateur par monter: Positionnement de notre démarche précédent: Valeur des paramètres internes   Table des matières
2002-03-01