next up previous contents
suivant: Méthodologie d'étude des capacités monter: Sources d'inspiration précédent: Modèle d'un système capable   Table des matières

Contraintes appliquées au système

Nous souhaitons préciser la génèse des contraintes appliquées au sous-système d'AP. Elles seront détaillées (ainsi que celles affectant le sous-système d'AO) dans le corps de ce document.
La question qui est posée pour établir ces contraintes est liée avec l'établissement d'hypothèses restrictives sur le bon déroulement de l'AP: à partir de quel environnement peut-on apprendre globalement (c'est-à-dire réussir l'AP puis l'AO) ?
Pour mieux faire comprendre notre démarche intellectuelle, commençons par décrire un exemple issu du vivant: celui des lymphocytes T. Il a été montré que leur faculté de discernement n'est pas programmée à l'avance (à l'image d'un programme d'ordinateur, exploitant tous les cas possibles prévus dès la conception du programme). En effet, le nombre de gènes activés dans le processus de discernement (environ une centaine) est trop faible pour faire face à l'ensemble des cas théoriquement possibles d'entités ``intruses'' (c'est-à-dire à l'ensemble des variétés de microbes, bactéries ou virus); par contre, ce nombre est tout-à-fait compatible avec les différents types d'intrus qui se présenteront effectivement pendant la vie de l'individu. Les ``connaissances'' des lymphocytes vont se former à partir de la vie intra-utérine, au contact des intrus qui vont se présenter en réalité.
Cela donne lieu à plusieurs remarques: Donc, il existe un paradoxe apparent: nous sommes en présence d'un système dont l'évolution est hautement incertaine en théorie, et dont le résultat est pourtant quasi-prédictible en réalité. Cependant, la prédictibilité ne porte pas sur la nature exacte de la catégorisation après apprentissage (on ne connaît pas a priori les intrus qui pourront être détectés) mais sur le lien direct qui existe entre les conditions d'apprentissage (l'ensemble des intrus qui se sont présentés) et la réussite de l'apprentissage dans le cadre d'une tâche précise. Une explication est assez communément admise; elle provient de la théorie évolutionniste. Ameisen [Ameisen, 1999] explique ce phénomène, pour les lymphocytes T, de la manière suivante: au stade de l'embryon, une population de lymphocytes T d'une grande diversité est créée, mais il existe une régulation permettant d'éliminer ceux qui s'attaquent aux cellules ``amies''; d'autre part, la diversité restante suffit, grâce à la loi des grands nombres, à garantir une probabilité acceptable pour que l'intrus rencontre un lymphocyte qui le reconnaîtra. Mais, dans l'absolu, cette explication n'est pas tout à fait satisfaisante, pour au moins deux raisons: La théorie évolutionniste suppose qu'il a existé une sélection naturelle ne laissant survivre que les individus possédant de bonnes solutions à ces deux problèmes. Mais cela ne supprime pas les deux remarques posées ci-dessus: celles-ci sont déplacées à un problème possédant une autre échelle de temps (sélection des individus ``corrects'' au fil des millénaires). Critiquant ce déplacement de la difficulté, Denton met en lumière l'équilibre qu'il doit exister entre le ``grand nombre'' et la probabilité d'atteindre l'objectif assez certainement (voir en particulier le chapitre ``Hors de portée du hasard'' de [Denton, 1985]). Le mécanisme de sélection en lui-même n'est pas réfuté: il existe bel et bien (voir le mécanisme de sélection neuronale proposée par Eldelman [Edelman, 1992] et sa modélisation informatique appelée ``Darwin'' [Reeke et al., 1990]). Par contre, Denton prétend que la seule intervention du hasard ne peut expliquer l'équilibre entre le mécanisme d'élimination et la diversité de la population initiale. À partir de cela, nous formulons le postulat que l'existence de contraintes permettrait d'expliquer ce phénomène remarquable, en ne laissant intervenir le hasard que localement (dans le temps).
Nous nous inspirons de l'exemple des lymphocytes T. L'idée principale est que la détection d'une information perceptive (par le sous-système subissant l'AP) n'est fiable que si l'apparition d'un tel événement est rare [*], dans l'absolu, mais très fréquent en pratique. Cela signifie que si M et X (se reporter au scéma 4) sont choisis au hasard, la probabilité pour qu'une information perceptive soit détectée est très faible. Dans une démarche classique, l'existence d'une sortie au processus de catégorisation est assurée quel que soit le signal X, mais sa nature et sa fiabilité restent incertaines. Au contraire, nous établissons des contraintes sur la rareté de la détection de l'information perceptive, de manière à ce que lorsqu'il y a effectivement une détection, alors non seulement nous connaissons parfaitement la nature de l'information perceptive (qui est un ensemble d'hypothèses de M) mais, comme il y a peu de chance que cette détection ait eu lieu par hasard, la détection exprime une quasi-certitude à propos de la nature de ce qui a été détecté. Ainsi, l'esprit de notre démarche consiste à pouvoir affirmer que lorsqu'une information perceptive est détectée, alors elle peut être utilisée comme source d'information fiable par l'AO, indépendamment des aléas du signal d'entrée X. Mais, il faut bien comprendre que notre raisonnement s'écroule si la détection d'une primitive peut avoir lieu en choisissant X au hasard (il s'agit du déséquilibre évoqué plus haut, entre loi des grands nombres et hasard): en effet, dans ce cas, la détection ne peut plus garantir la validité de la nature de la primitive. Par conséquent, la validité des informations provenant de notre système de catégorisation dépend de la nature des ensembles M: ceux-ci doivent respecter des contraintes visant à garantir la rareté, dans l'absolu, de la détection d'une primitive. Une partie de notre travail va donc consister à spécifier ces contraintes et à les formaliser, de manière à trouver des ensembles M adéquats. Imaginons par exemple que M contienne l'intégralité des évolutions possibles du signal sur h pas de temps: il s'agit du cas le plus flagrant d'un M ne respectant pas cette ``rareté'' de découverte de primitive, puisque M contient toujours l'évolution du signal qui va effectivement arriver en entrée du processus de catégorisation.
En résumé, nous pensons que l'association perception/état (ou, d'une manière équivalente, perception/information perceptive) n'est possible que si les deux contraintes suivantes sont respectées:
  1. en théorie (en considérant l'ensemble des perceptions théoriquement possibles), le sous-système subissant l'AP détecte très rarement une information perceptive
  2. en pratique (en considérant uniquement des perceptions auxquelles le système aura à faire face dans l'application de robotique mobile), le sous-système subissant l'AP détecte très fréquemment une information perceptive
Ces contraintes sont regroupées en une seule, appelée contrainte d'observabilité (CO).
À l'aide de (CO), on peut avoir la garantie que lorsqu'une information perceptive est détectée, cela n'est pas dû au hasard (du moins, en toute probabilité). Par contre, il manque le fait d'avoir la certitude que si une informations perceptive est détectée (associée à une catégorie perceptive), alors c'est la bonne: on cherche une contrainte assurant que les catégories soient séparées: nous la nommons contrainte d'unicité (CU). La résultante de cette contrainte est qu'on va s'intéresser à la certitude de bien catégoriser, plutôt qu'à la précision d'une catégorie: cela va permettre de définir le nombre de catégories discriminables en pratique, avec une quasi-certitude.
next up previous contents
suivant: Méthodologie d'étude des capacités monter: Sources d'inspiration précédent: Modèle d'un système capable   Table des matières
2002-03-01