suivant: Contraintes associées à l'information
monter: Contraintes appliquées à la
précédent: Contraintes appliquées à la
  Table des matières
Le chapitre précédent nous a permis de spécifier le processus
de catégorisation, permettant de fournir l'information perceptive
à partir d'un signal pris dans le temps et d'une mémoire. Nous avons
indiqué les caractéristiques de cette mémoire (ensemble d'hypothèses,
appelées focus), ainsi que les paramètres h, i et l attachés à
ces focus. Dans ce chapitre, nous allons considérer le système
``mémoire'' et appliquer la démarche que nous avons indiquée en section
introductive: trouver des contraintes d'équilibre de ce système et
former l'équation d'équilibre. Dans un premier temps, nous limiterons
notre étude à la spécification des contraintes appliquées au système
``mémoire'', puis à la formalisation de celles-ci. Nous donnerons, en
guise de perspectives de notre travail, des pistes pour formuler un
algorithme complet d'AP, qui demeure l'objectif à moyen terme de notre
recherche.
Nous proposons deux contraintes: la contrainte d'observabilité (CO) est
relative au postulat de rareté de l'information perceptive (voir la section
introductive), alors que la contrainte d'unicité (CU) stipule qu'une unique
information perceptive (au plus) doit être délivrée par le processus de
catégorisation. Ces deux contraintes permettent de spécifier les propriétés
de l'information perceptive.
Nous allons débuter ce chapitre en formulant les contraintes CO et
CU. Nous noterons que, dans le cas général, la contrainte CO
aboutit à un problème de probabilité particulièrement complexe:
dans le cas général, il est souvent difficile de montrer
l'existence des valeurs de h, i et l pour que le système
satisfasse CO. De plus l'exigence de rareté implique qu'il n'est
pas possible, a priori, d'estimer les valeurs de ces
paramètres en utilisant des méthodes statistiques. Néanmoins, il
existe des cas simples pour lesquels on peut prouver l'existence
des paramètres h, i et l et même trouver leur valeur exacte. Nous
poursuivrons donc en donnant ces cas particuliers; ils font appel
à des mémoires très simples. Nous allons montrer que, pour les cas
où nous aurons pu résoudre explicitement le problème lié à CO, la
valeur de h possède une borne minimum dépendante de la nature des
signaux à détecter. Nous en déduirons un équivalent du théorème
d'échantillonnage de Shannon.
suivant: Contraintes associées à l'information
monter: Contraintes appliquées à la
précédent: Contraintes appliquées à la
  Table des matières
2002-03-01