next up previous contents
suivant: Piste de recherche sur monter: Perspectives précédent: Introduction   Table des matières

Conjecture à propos des mémoires possédant un ensemble infini d'hypothèses

Nous avons constitué un ensemble de contraintes sur la mémoire du système. La principale difficulté que nous rencontrons actuellement est de pouvoir vérifier, pour une mémoire donnée, c'est-à-dire pour un ensemble d'hypothèses fixé, si ces contraintes sont respectées ou non. En effet, notre méthodologie impose que le système réagisse à son interaction avec son environnement, dans le cas où les contraintes qu'il subit ne seraient plus satisfaites: c'est cette réaction que nous souhaitons pouvoir interpréter comme un apprentissage du système.
Dans l'état actuel, nous ne savons pas, dans la plupart des cas, si la contrainte CO est satisfaite ou non. L'expression de cette contrainte est un problème de probabilité qui devient très rapidement ardu à résoudre dans un cadre purement théorique. L'estimation des paramètres pourrait être effectuée d'une manière numérique par une méthode de Monte Carlo: une propriété du système respectant la contrainte CO est que si on injecte en entrée du processus de catégorisation un vecteur ``signal'' comportant des valeurs prises aléatoirement suivant une loi uniforme, alors la probabilité pour qu'une information perceptive soit détectée est inférieure à un certaine valeur, fixée à l'avance. Or, pour que notre postulat de rareté soit respecté, il faut que cette valeur soit extrêmement faible, de manière à ne jamais détecter une information perceptive, en pratique, dans ce cas. Nous voyons bien que, pour un ensemble de paramètres donnés de la mémoire, on peut tester son rejet par une méthode de Monte Carlo: il suffit de détecter une information perceptive. Par contre, cette méthode ne pourra jamais, par définition de la rareté, valider un ensemble de paramètres donné. La figure 2.7 présente le résultat du mécanisme de sélection utilisant SIVIA, à un instant donné, pour quatre mémoires dont les hypothèses sont générées à partir de deux paramètres (constituant les axes x et y de nos graphes). Pour chacun des graphes, les valeurs de h et l sont identiques. Seul i varie. On s'aperçoit que, dans le dernier cas (graphe (d)), l'algorithme de sélection trouve des solutions (les quatre tâches). Cela suffit pour rejeter le triplet (h,i,l) correspondant à la mémoire utilisée dans ce cas. D'autre part, on remarque que la taille moyenne des rectangles en bleu diminue lorsque i augmente. Dans le cas d'un système linéaire ( C(t)=a.t+b ), il semble donc exister une relation entre la grosseur des pavés pour lesquels il n'y a pas de solution et le nombre d'inéquations satisfaites dans la relation 1.1 [*]. Cette piste serait intéressante, car on pourrait ainsi déterminer graphiquement des valeurs approchées de triplets (h,i,l) admissibles.

Figure: Quatre résultats de l'algorithme de sélection
\includegraphics[]{fig/aleas.eps}
Les boîtes vides traduisent qu'aucune solution n'existe dans celles-ci; les zones pleines signifient que certains points peuvent être solutions. Les quatre graphes sont les résultats, au même instant t et pour les mêmes valeurs du signal d'entrée, de quatre mémoires différentes. Les mémoires sont constituées d'un ensemble infini d'hypothèses (les génératrices sont des droites, possédant deux paramètres qu'on fait varier). Les paramètres h et l sont communs et valent respectivement 17 et 0.05. La différence provient de la valeur de i: respectivement 3, 6, 9 et 12. Les données à l'entrée du processus de catégorisation sont choisies aléatoirement, suivant une loi uniforme sur [0,1].

Peut-on s'attendre à des résultats analogues à ceux de la propriété 7 pour des ensembles infinis d'hypothèses, spécifiés à partir d'un ensemble fini de paramètres ? Peut-on prouver l'existence de triplets (h,i,l) vérifiant CO et CU ? Un premier élément de réponse peut être donné par l'expérience suivante. On fixe a priori les valeurs de i et l et on fait varier le paramètre h. Dans le cas où h est assez petit, on peut déterminer, par une méthode de Monte Carlo, la probabilité de détection d'une information perceptive à partir des données choisies aléatoirement selon une loi uniforme sur [0,1]: nous comparons les résultats obtenus pour une mémoire possédant une hypothèse (dont on connaît les propriétés théoriques) avec ceux obtenus pour une mémoire dont les hypothèses sont générées à partir de deux paramètres (mémoire utilisée dans la figure 2.7). La figure 2.8 montre cette comparaison. On s'aperçoit, sans surprise, que, à h,i et l fixés, la probabilité de détection pour une mémoire possédant un ensemble infini d'hypothèses est toujours supérieure à celle obtenue pour une mémoire ayant une unique hypothèse. Le fait intéressant est que le comportement des deux courbes lorsque h augmente est identique (les courbes ont une pente approximativement égale, à h fixé, pour h>10 ). Cela semble indiquer que les limites asymptotiques des deux probabilités de détection sont proches, donc que le comportement de la probabilité de détection pour une mémoire de taille infinie est identique à celui d'une mémoire possédant une unique hypothèse. À partir de ce résultat, nous conjecturons qu'il existe probablement des résultats analogues à la propriété 7 pour certaines catégories de mémoires ayant une taille infinie.

Figure: Évolutions comparées de la probabilité de détection d'information perceptive à partir d'une entrée aléatoire.
\includegraphics[]{fig/calc_experi.eps}


next up previous contents
suivant: Piste de recherche sur monter: Perspectives précédent: Introduction   Table des matières
2002-03-01