next up previous contents
suivant: 3 Idées associées à monter: 2 Différentes approches de précédent: 1 Idées fondatrices associées   Table des matières


2 Idées associées à l'approche cognitive de l'intelligence

Alors que l'approche béhavioriste se concentre sur le résultat - observable de l'extérieur - de l'intelligence, admettant qu'il existe une séparation nette entre l'esprit (non exprimable scientifiquement) et sa manifestation (seul objet d'étude), l'approche cognitive tente d'effacer ce dualisme; en particulier, le référent n'est plus le résultat mais le sens que l'on peut donner à ce qui est perçu ou à un comportement.
La possibilité de donner un sens à ce qui est perçu (la perception étant employée dans le sens le plus large) nécessite en outre la faculté de catégorisation.
Comment le sens naît-il à partir de la perception ? Une hypothèse assez répandue consiste à considérer une représentation sémantique de la signification. Pour cela, la représentation mentale est supposée être abstraite. En particulier, on admet l'existence d'un ensemble fini de symboles qui sont associés à des catégories classiques, choisies et fixées a priori. Par ``catégories classiques'', nous entendons celles dans lesquelles l'appartenance est définie d'après des conditions nécessaires et suffisantes. En suivant cette voie, si on parvient à construire pour chaque perception une association avec une catégorie, donc un symbole, celui-ci peut être employé au sein de règles logiques ou, plus généralement, de calculs. Somme toute, les approches béhavioristes rejoignent celle-ci dans la possibilité de construire un système logique pouvant représenter l'intelligence. Dans ce cadre, nous avons un système possédant deux niveaux hiérarchiquement connectés: le premier est chargé d'effectuer l'interface entre le monde extérieur (les perceptions de l'entité) et le monde intérieur, en associant la perception avec un symbole, alors que le second utilise ce symbole ``désincarné'' au sein d'un ensemble de calculs (voir la figure 1.2) . La démarche de catégorisation utilisant un ensemble figé de symboles abstraits suppose en fait que:
  1. les objets du monde extérieur à une entité sont catégorisables exactement;
  2. le nombre de catégories est fini et on est capable de les dénombrer d'une manière exhaustive;
  3. la représentation mentale d'un objet est identique d'une personne à l'autre;
  4. les catégories sont indépendantes du moyen dont elles sont perçues;
  5. la mémoire d'un phénomène se résume à un ensemble de symboles et à la relation entre ceux-ci.
D'une certaine manière, on retrouve la vision fonctionnaliste, supposant un monde statique et fermé où tout est censé être connu (car catégorisable) d'un manière objective. En particulier, la perception est analysée, à l'interface entre le monde extérieur et le monde intérieur, par la correspondance avec un symbole dont l'existence est supposée être indépendante de la réalité physique de l'entité le manipulant.
Les faits ne remettent pas en cause l'approche symbolique (c'est-à-dire l'existence d'une faculté de catégorisation d'éléments perceptifs), mais l'existence d'une manière unique, transposable d'un individu à l'autre, d'appréhender un symbole donné. A priori, chaque individu crée sa propre représentation mentale d'un fait ou d'une scène, à partir de ses facultés de perception et d'action sur le monde. Par conséquent, l'objet mental dépend intimement des moyens qui l'ont généré, donc de l'individu qui l'abrite; ce n'est pas une ``substance'' échangeable d'une personne à l'autre. En d'autres termes, si l'on veut être cohérent avec la réalité biologique, le problème de catégorisation ne peut pas être résolu en spécifiant a priori un certain nombre de symboles et en effectuant a posteriori une correspondance de signaux perceptifs avec l'un de ceux-ci. Dans le cadre de l'apprentissage, cela implique que les symboles soient créés par l'expérience, ce qui n'empêche pas, si besoin est, de leur attribuer une interprétation a posteriori. La démarche de classification engendrée par l'algorithme des cartes auto-organisatrices de Kohonen [] reproduit ce principe.
En robotique mobile, un exemple classique de catégorisation est celui de la reconnaissance ou de la reconstruction d'environnements. S'il s'agit d'un environnement du type ``labyrinthe'', une idée fréquemment usitée consiste à décrire le lieu en termes d'assemblage de symboles simples (couloir, coin, intersection, etc.) utilisés au sein de règles logiques []. L'expérimentateur choisit cet ensemble de symboles car ils lui semblent (conformément à sa propre représentation du monde) être représentatifs d'un tel environnement et avoir chacun des propriétés géométriques particulières; nous sommes ici dans une tentative de description objective d'une scène. Or, si le robot est équipé de capteurs frustres (infrarouge ou ultrason), voit-il le monde comme nous pouvons le faire ? Certainement pas. Les catégories que nous avons formées ont-elles un sens pour ce robot ? Nous ne pouvons pas a priori répondre à cette question. En fait, deux problèmes principaux surviennent, qui sont la cause d'ambiguïtés:
  1. il peut être difficile de discriminer deux catégories parce que les symboles sont mal choisis par rapport à la perception du robot (ils peuvent être vus d'une manière très proche par celui-ci)
  2. il n'existe pas de frontière nette entre deux archétypes (le passage d'un couloir à une intersection peut être reconnu comme ``couloir'' ou ``intersection'' à un instant donné)
Alors que la première cause d'ambiguïté est rédhibitoire (le problème est mal posé) mais évitable, la seconde est naturelle, du moins si on fait l'hypothèse que le robot passe continuement d'une situation perceptive (le couloir) à une autre (l'intersection), mais elle est inévitable. Toutefois, tel que le problème est posé, il semble qu'aucune méthode (directe ou par apprentissage) ne peut parvenir à l'élimination de l'incertitude qu'on peut avoir sur la véracité de l'association perception/symbole. On peut néanmoins obtenir un degré de certitude sur l'association fournie (réseaux de neurones bayésiens). Cela permet de regarder d'un oeil critique la réponse avancée et de rejeter celle-ci le cas échéant. Mais ce degré de confiance n'est jamais nul (``je ne sais pas'') ou maximum (``je suis certain'').
L'avantage d'un passage au symbolique est clair: les symboles (abstraits) peuvent être manipulés aisément au sein de propositions logiques: ``Si le robot détecte tel symbole ou groupement de symboles (avec un degré de certitude élevé) alors il doit accomplir telle tâche''. La gestion de la perception est alors une fonction de bas niveau, exploitée par un programme gérant la stratégie du robot (processus de haut niveau). Mais la détection du symbole ne peut s'exprimer qu'en termes statistiques, puisque l'ambiguïté inhérente à la démarche employée rend toute certitude impossible sur la validité de la reconnaissance. Qu'en est-il alors de l'exécution du programme formé de règles utilisant des symboles perceptifs ? Son résultat n'est pas garanti: au mieux, il est probablement exact.
À travers cet exemple, nous constatons que le fait d'admettre d'office l'existence d'un ensemble de symboles conduit à une démarche qui est confrontée à la gestion de l'incertain (voir la figure 1.3). Mais peut-on imaginer que celle-ci soit réaliste d'un point de vue psychologique ? Il est clair que l'incertitude fait partie intégrante de la vie humaine, mais certainement pas au niveau de la perception ``courante'' du monde extérieur: la marche est un processus complexe multimodal (vue, toucher au niveau des pieds, centre de l'équilibre au niveau de l'oreille interne), faisant intervenir plus d'une cinquantaine de muscles; pourtant, lorsque le bébé a appris à marcher, il ne tombe plus. Le sentiment de certitude dans l'accomplissement correct de gestes réflexes aussi bien que dans les réponses du monde extérieur dans des situations familières est d'ailleurs un impératif pour l'être humain. Comme nous le verrons dans la section 1.3, nous pensons que la gestion de l'incertain est un processus de haut niveau, conscient et raisonné, qui n'est pas concevable à l'échelle du traitement de la perception.
Mais la notion d'objet mental peut se concevoir sans l'utilisation d'un ensemble de symboles prédéfinis. Ainsi, Lecerf établit une théorie de l'objet mental - la double boucle de l'apprentissage cognitif - inspirée directement de considérations biologiques [Lecerf, 1997]. Selon son hypothèse, l'objet mental émerge d'un processus de résonance provoqué par une structure neuronale cyclique: l'influx sortant de chaque neurone du cycle peut en affecter un autre, engendrant une propagation auto-entretenue du signal; l'objet mental serait alors caractérisé par la donnée des neurones touchés, mais également par le chemin parcouru par le signal nerveux, donc par une certaine dynamique existant à travers ces neurones. Lecerf fait un tour d'horizon des processus mentaux (mémorisation, apprentissage, abstraction, etc.) en les expliquant à la lumière de son schéma de l'objet mental.
Dans ce cas, l'ensemble des symboles représente toutes les configurations neuronales dans lesquelles un signal auto-entretenu peut être engendré; ces configurations sont obtenues par apprentissage. Une image mentale particulière est donc activée par une perception donnée, qui est ensuite auto-entretenue dans le cerveau par un certain nombre de neurones (voir la figure 1.4).
Le problème est ici de trouver une loi d'organisation de l'architecture des neurones, dont le résultat est la création de cycles ayant des propriétés émergentes particulières (rendre compte des spécificités perceptives d'un symbole). Si une scène non connue est présentée, aucune configuration neuronale préétablie n'engendrera un signal auto-entretenu: cette propriété est intéressante, car elle permet la reconnaissance concrète de l'état d'incertitude. Celui-ci pourra être levé par apprentissage, donc par la constitution d'une nouvelle structure neuronale.

Figure 1.2: Une approche fonctionnaliste en sciences cognitives
\includegraphics{fig/symbole.eps}

Figure: Une démarche confrontée à la gestion de l'incertitude
\includegraphics{fig/symbole2.eps}

Figure 1.4: Le symbole vu comme auto-entretien d'un signal sur un cycle neuronal
\includegraphics{fig/idee_lecerf.eps}
La perception est émise au niveau du neurone 1. Un signal électrique se propage à partir de ce neurone et donne naissance à un signal auto-entretenu sur les neurones 1 à 6, dans le cycle (1,2,3,4,5,6).


next up previous contents
suivant: 3 Idées associées à monter: 2 Différentes approches de précédent: 1 Idées fondatrices associées   Table des matières
Frédéric Davesne 2001-07-13