next up previous contents
suivant: Extensions du problème ``D'' monter: Contraintes associées à l'information précédent: Introduction   Table des matières

Le problème ``D''

Nous souhaitons expliquer l'importance du paramètre h de la mémoire du système. Ce paramètre influe sur la dimensionnalité théorique de l'ensemble des signaux possibles: Un signal pris entre les instants t et t+h permet d'engendrer un vecteur de dimension h (en normalisant le pas d'échantillonnage à 1). L'idée est que l'information perceptive découverte est fiable uniquement si la probabilité de découverte au hasard d'une telle information est très faible. Dans ces conditions, le guide permettant de découvrir l'information perceptive est l'expérience du système, emmagasinée dans sa mémoire. Nous illustrons cela par l'exemple nommé problème ``D'' [*]. Celui-ci va expliciter la caractéristique de rareté de l'information perceptive et son lien avec la mémoire. Il met en scène une personne cobaye, qui doit donner des réponses à des questions posées, et un observateur qui ne connaît pas la nature du problème, mais sait si la personne cobaye a bien répondu ou non. C'est l'observateur qui nous intéresse: il doit décider, à partir des résultats de la personne cobaye, si celle-ci a répondu au hasard ou en utilisant ses connaissances sur le problème posé.
Voici l'énoncé du problème ``D''.
Considérons les deux classes de problèmes suivantes:
  1. Imaginons que nous jetions une pièce de monnaie en l'air à l'instant t. Considérons l'ensemble des événements possibles générés par ce jet à l'instant t+1: ``la pièce tombe sur pile'' et la ``pièce tombe sur face''. A priori, si la pièce est correctement équilibrée, ces deux événements sont statistiquement aussi probables l'un que l'autre. Imaginons à présent une personne jetant cette pièce à l'instant t, après avoir effectué une prévision sur le résultat du jet, à l'instant t-1. D'un point de vue statistique, le taux de bonnes prédictions sur un nombre d'essais très grand correspond à la probabilité objective que la pièce tombe sur pile ou sur face. Ainsi, si la personne effectue non pas un jet mais disons 100 jets, après avoir donné une prédiction sur l'enchaînement précis des 100 jets, la probabilité de justesse de l'intégralité de la prédiction est égale à $ (1/2)^{100} \simeq 8.10^{-31}$. Cette très faible probabilité de deviner la bonne réponse est due à la très grande dimension de l'univers des possibilités qui sont offertes à la personne lors de son choix (dans notre exemple, il y en a exactement $ 2^{100}
\simeq 10^{30}$). D'autre part, il paraît raisonnable d'affirmer que la personne servant de cobaye à l'expérience n'influence pas le résultat de celle-ci. Sachant cela, que penserions-nous si cette personne avait effectivement deviné l'enchaînement exact des jets, malgré cette si faible probabilité de bonne réponse ?
  2. Considérons à présent une personne devant répondre à un questionnaire comportant 100 questions. Admettons que celle-ci ait deux possibilités de réponses: ``vrai'' ou ``faux'' et que les questions soient toutes du type ``Le nombre entier 'n' est pair''. Pour déterminer les 100 entiers du questionnaire, on les choisit entièrement au hasard, en imposant simplement qu'un entier ne soit choisi qu'une fois au plus. Si on considère la personne comme un acteur passif de l'expérience[*], la probabilité objective pour que les réponses au questionnaire soient toutes exactes est la même que celle de l'expérience précédente, puisqu'il existe une chance sur deux de répondre correctement à chaque question.
Les deux expériences sont objectivement similaires et possèdent deux univers des possibilités de même dimension. Pourtant, un élément essentiel diffère: dans le premier cas, on peut raisonnablement supposer que la personne cobaye ne maîtrise pas le résultat de son jet, donc que ses prévisions sont purement spéculatives, alors que dans le second cas, si la personne cobaye possède la notion de nombre pair ou impair, elle saura répondre avec certitude à l'intégralité du questionnaire. Mais comment discerner en pratique ces deux cas de figures ? Pour cela, admettons qu'une deuxième personne (l'observateur) puisse choisir a priori l'étendue de l'univers des possibilités offertes à la personne cobaye, commun aux deux expériences, sans pour autant en connaître la nature: elle est avertie uniquement de la qualité des résultats de la personne cobaye pour chacune des deux tâches, sans savoir en quoi celles-ci consistent, mais en maîtrisant toutefois la probabilité de bonne réponse. Dans notre exemple, cela signifie que l'observateur donne a priori le nombre de jets, ainsi que le nombre de questions (qui sont identiques dans ce cas précis). Une technique simple permettant de discerner les deux expériences est de regarder l'évolution des bonnes réponses en fonction d'une augmentation progressive de la taille de l'univers des possibilités. On imagine facilement que, pour la première expérience, une demande de prévision sur l'enchaînement d'un nombre de jets trop important n'aboutira à aucune bonne réponse. En ce qui concerne la deuxième expérience, le même résultat sera obtenu si la personne cobaye ne connaît pas la notion de nombre pair, alors qu'un résultat invariablement positif sera obtenu dans le cas contraire, quel que soit le nombre des questions. Nous souhaitons fixer h de manière à ce que les problèmes de catégorie 1 ne puissent être résolus que rarement. Ainsi, lorsque h augmente, le taux de bonnes réponses du cobaye diminue pour les problèmes de catégorie 1 mais reste très bon pour les problèmes de catégorie 2. Si on considère un observateur ne connaissant pas le problème du cobaye, mais décidant du nombre h, celui-ci peut déterminer, simplement en faisant augmenter h, quelle est la catégorie du problème que traite le cobaye. Il faut bien noter que cette réponse est dépendante des capacités du cobaye, si celui-ci est confronté à un problème de catégorie 2 qu'il ne sait pas résoudre: en effet, le cobaye donnerait alors des réponses aléatoires, comme s'il avait été confronté à un problème de catégorie 1.
Ainsi, si on augmente suffisamment la valeur de h, nous savons que la probabilité pour que le cobaye trouve une bonne réponse pour un problème de catégorie 1 est très faible (cet événement est rare). Nous utilisons alors un raisonnement inductif pour supposer que, si la personne cobaye donne une bonne réponse alors que h est suffisamment élevé, cela signifie que le problème ne peut pas être de catégorie 1. Dans ce cas, une unique bonne réponse suffit pour dire que le problème est de catégorie 2.
Voici comment nous pouvons interpréter le problème ``D''. L'observateur est le processus de catégorisation. Le choix du cobaye est assimilable à une hypothèse contenue dans la mémoire en entrée du processus de catégorisation. Dans notre cas, h vaudrait 100 et on souhaiterait qu'il y ait une bonne réponse sur l'intégralité des questions, ce qui signifie que i vaudrait 0 (aucune erreur admise). Enfin, un seul choix est proposé au cobaye, ce qui peut être interprété par le fait que la mémoire en entrée du processus de catégorisation est composée d'une unique hypothèse.
next up previous contents
suivant: Extensions du problème ``D'' monter: Contraintes associées à l'information précédent: Introduction   Table des matières
2002-03-01