next up previous contents
suivant: Contraintes associées à l'information monter: Contraintes appliquées à la précédent: Contraintes appliquées à la   Table des matières

Introduction

Le chapitre précédent nous a permis de spécifier le processus de catégorisation, permettant de fournir l'information perceptive à partir d'un signal pris dans le temps et d'une mémoire. Nous avons indiqué les caractéristiques de cette mémoire (ensemble d'hypothèses, appelées focus), ainsi que les paramètres h, i et l attachés à ces focus. Dans ce chapitre, nous allons considérer le système ``mémoire'' et appliquer la démarche que nous avons indiquée en section introductive: trouver des contraintes d'équilibre de ce système et former l'équation d'équilibre. Dans un premier temps, nous limiterons notre étude à la spécification des contraintes appliquées au système ``mémoire'', puis à la formalisation de celles-ci. Nous donnerons, en guise de perspectives de notre travail, des pistes pour formuler un algorithme complet d'AP, qui demeure l'objectif à moyen terme de notre recherche.
Nous proposons deux contraintes: la contrainte d'observabilité (CO) est relative au postulat de rareté de l'information perceptive (voir la section introductive), alors que la contrainte d'unicité (CU) stipule qu'une unique information perceptive (au plus) doit être délivrée par le processus de catégorisation. Ces deux contraintes permettent de spécifier les propriétés de l'information perceptive.
Nous allons débuter ce chapitre en formulant les contraintes CO et CU. Nous noterons que, dans le cas général, la contrainte CO aboutit à un problème de probabilité particulièrement complexe: dans le cas général, il est souvent difficile de montrer l'existence des valeurs de h, i et l pour que le système satisfasse CO. De plus l'exigence de rareté implique qu'il n'est pas possible, a priori, d'estimer les valeurs de ces paramètres en utilisant des méthodes statistiques. Néanmoins, il existe des cas simples pour lesquels on peut prouver l'existence des paramètres h, i et l et même trouver leur valeur exacte. Nous poursuivrons donc en donnant ces cas particuliers; ils font appel à des mémoires très simples. Nous allons montrer que, pour les cas où nous aurons pu résoudre explicitement le problème lié à CO, la valeur de h possède une borne minimum dépendante de la nature des signaux à détecter. Nous en déduirons un équivalent du théorème d'échantillonnage de Shannon.
next up previous contents
suivant: Contraintes associées à l'information monter: Contraintes appliquées à la précédent: Contraintes appliquées à la   Table des matières
2002-03-01