next up previous contents
suivant: Conclusion monter: Expérimentations autour du problème précédent: Découverte des sources d'erreur   Table des matières


Relation entre $ H_{1}$ et $ \epsilon _{2}$

Figure: Graphes associés à la sous-section 1.4.6
\includegraphics[]{fig/mesure_entropie.eps}
Légende:
``HEP'' Graphe de la relation entre $ \epsilon _{2}$ (abscisses) et $ H_{1}$ (ordonnées), suivant différentes amplitudes d'un même type de bruit de mesure. L'échelle logaritmique est appliquée pour les abscisses.
``DG'' Données issues de $ \theta$ bruitées avec un bruit gaussien, d'amplitude $ \sigma $.
``DVA'' Données issues de $ \theta$ possédant un taux de valeurs aberrantes $ \tau_{VA}$.
``EA'' L'état du système peut être choisi aléatoirement, avec une fréquence d'apparition $ \tau_{EA}$.
Commentaires: Les points des graphes (a), (b) et (c) sont obtenus en fixant une amplitude de bruit de mesure et en récupérant les valeurs de $ H_{1}$ et de $ \epsilon _{2}$ associées. L'évolution de $ H_{1}$ est traitée dans la sous-section 1.4.4, alors que l'étude de $ \epsilon _{2}$ est donnée dans la sous-section 1.4.5. Les droites sont obtenues en utilisant le critère des moindres carrés, par l'algorithme de Levenberg-Marquardt. Elles modélisent un lien fonction, pour lequel $ H_{1}$ peut s'exprimer en fonction de $ \epsilon _{2}$: $ H_{1}$ = a.log( $ \epsilon _{2}$)+b. Dans ce cadre, on trouve, pour les types de bruit DG, DVA et EA, les valeurs suivantes de a et b: a=0.023, b=0.54; a=0.028, b=0.58; a=0.082, b=1.17.

Dans la sous-section 1.4.4, nous avons montré que $ H_{1}$ pouvait mesurer la qualité du contexte d'apprentissage. Puis, dans la sous-section 1.4.5, nous avons établi que le contexte d'apprentissage pouvait être modélisé, suivant le modèle établi dans la sous-section 1.3.11, introduisant ainsi trois paramètres: p, $ \epsilon_{1}$ et $ \epsilon _{2}$. Nous avons relié la valeur de $ \epsilon _{2}$ avec l'amplitude du bruit de mesure appliqué aux entrées du système. À présent, et pour clore notre étude sur l'influence du contexte sur le résultat de l'apprentissage, il nous faut montrer la relation qui existe entre la mesure $ H_{1}$ et $ \epsilon _{2}$. Les graphes (a), (b) et (c) de la figure 1.12 dévoilent l'existence d'un tel lien, suivant les trois catégories de bruit de mesure. Il apparaît clairement que ce lien est ``grossièrement'' fonctionnel et bijectif. Cela signifie que, si on connaît la catégorie de bruit de mesure appliquée au système, on peut théoriquement utiliser $ H_{1}$, déterminé avant l'expérience d'apprentissage, pour donner une prédiction approximative sur la valeur de $ \epsilon _{2}$, donc sur le comportement global des durées de viabilité de la seconde source d'erreurs, entretenue entre autres par l'amplitude du bruit de mesure. Nous pouvons même préciser un modèle correct de cette relation: les droites tracées sur les graphes (a), (b) et (c), dont les abscisses sont logarithmiques, montrent une relation du type: $ H_{1}$ = a.log( $ \epsilon _{2}$)+b . Nous remarquons que les valeurs de a et de b sont très proches pour les graphes (a) et (b) (voir les commantaires au bas de la figure 1.12). Cela signifie qu'un même lien fonctionnel existe entre $ H_{1}$ et $ \epsilon _{2}$, pour des bruits gaussien sur $ \theta$ et un taux de valeurs aberrantes de $ \theta$.
L'utilisation de $ H_{1}$ permet de calculer, dans une certaine mesure, la valeur de $ \epsilon _{2}$, donc de prédire, avant l'apprentissage, la répartition des durées de viabilité dues à la source d'erreurs $ E_{2}$, obtenues après apprentissage.
next up previous contents
suivant: Conclusion monter: Expérimentations autour du problème précédent: Découverte des sources d'erreur   Table des matières
2002-03-01