next up previous contents
suivant: 3 Première approche: Information monter: 1 Introduction précédent: 1 Avant-propos   Table des matières


2 Démarche d'obtention d'informations utilisables dans un processus de décision déterministe

Comme nous l'avons évoqué au début du chapitre 1, le traitement mécanique des informations par une machine de Turing pose un a priori fort sur l'exactitude de celles-ci. Avant tout, le terme ``exactitude'' doit être explicité.
L'évolution d'un état à plusieurs autres peut dépendre de la donnée d'une information particulière (figure 2.3). Le déterminisme de cette évolution est conditionné par le fait qu'on est capable de discriminer parfaitement les différents cas possibles. Dans un programme conçu ``à la main'', la technique de discrimination est établie une fois pour toutes et c'est la valeur de l'information au moment du ``branchement'' vers un ensemble d'états possibles qui va déterminer lequel de ceux-ci deviendra l'état courant à l'instant suivant. L'exactitude de l'information correspond à la possibilité de connaître l'ensemble des valeurs que celle-ci peut prendre et d'attribuer d'une manière déterministe à chacune de ces valeurs une transition vers un état précis. Cela revient à pouvoir construire sans ambiguïté des classes d'équivalences (une par transition possible).
Or, si on considère que l'information est une donnée ou un ensemble de données issues de capteurs à un instant donné, la catégorisation déterministe n'est pas envisageable, en particulier du fait des bruits de mesure. Cela signifie que ces données ``brutes'' ne peuvent pas être utilisées dans un mécanisme de choix de l'état futur, si toutefois on veut conserver un cadre déterministe. Dans le cas contraire, le résultat du programme peut être décrit statistiquement (figure 2.4).
Notre objectif est de rester dans un cadre ``quasi-déterministe'', comme nous l'avons exposé dans le paragraphe 1.3.7 sous-tendant l'hypothèse 10. Les informations, qui peuvent être traitées par un processus de décision, sont bâties, au fur et à mesure de l'expérience, dans le but de pouvoir être considérées comme exactes, dans le sens où l'expérience n'aura révélé aucune incohérence. Ces informations sont bâties à partir de ``régularités'' perceptives qui caractérisent chacune, indépendamment les unes des autres, l'évolution du signal brut. Elles peuvent être vues comme des états internes (ou une représentation mentale) qui naissent lorsqu'une caractéristique précise des données est détectée. Chaque régularité est rattachée à une action interne (dérivée d'une variable interne) dont le but est de reconnaître un trait particulier du signal brut (figure 2.5).
Or, ces régularités peuvent être détectées dans un signal aléatoire, suivant une certaine probabilité. Mais, si on considère l'ensemble des régularités détectées sur un intervalle de temps déterminé, la probabilité pour que la totalité de celles-ci soient erronées devient plus faible. Et, si on observe une fréquence d'apparition d'une régularité particulière sur un intervalle de temps donné, cela signifie que la probabilité pour que le trait détecté soit erroné (sur cette période de temps) est très faible. Donc, nous utilisons les données dans le temps afin de confirmer (ou d'infirmer) l'exactitude d'une caractéristique (ou d'une partie d'image mentale).
Avec cette démarche, nous ne sortons pas théoriquement du cadre statistique: une erreur est toujours théoriquement possible. Cependant, si l'ensemble du processus de confirmation permet de faire chuter la probabilité d'erreur en dessous d'un certain seuil, on pourra affirmer que celle-ci ne surviendra jamais en réalité, du moins sur une durée d'utilisation déterminée a priori. Donc, si une information est découverte par cette technique de recoupement, on pourra considérer qu'elle est exacte, même s'il reste une incertitude théorique.

Figure: Transition d'un état à l'autre d'une machine à états déterministe, en fonction de la valeur d'une information
\includegraphics{fig/transition_etat.eps}
Suivant la valeur v de l'information I, la machine passe de l'état a vers l'état b (si v $ \in$ I1), c (si v $ \in$ I2) ou c (si v $ \in$ I3). L'exactitude de l'information I dépend de la faculté à catégoriser celle-ci correctement en I1, I2 ou I3.

Figure: Transition d'un état à l'autre, suivant une certaine probabilité
\includegraphics{fig/transition_proba.eps}
Le passage de l'état a aux états b,c et d ne peut être défini qu'en termes statistiques, avec les probabilités de transitions associées p1, p2 et p3 ( p1 + p2 + p3 = 1).

Figure: Les données brutes sont transmises à un ensemble d'actions internes qui délivrent un signal, le cas échéant.
\includegraphics{fig/action_interne.eps}


next up previous contents
suivant: 3 Première approche: Information monter: 1 Introduction précédent: 1 Avant-propos   Table des matières
Frédéric Davesne 2001-07-13