Idées associées à l'approche cognitive de l'intelligence
Alors que l'approche béhavioriste se concentre sur le résultat -
observable de l'extérieur - de l'intelligence, admettant qu'il existe une
séparation nette entre l'esprit (non exprimable scientifiquement) et sa
manifestation (seul objet d'étude), l'approche cognitive tente d'effacer
ce dualisme; en particulier, le référent n'est plus le résultat mais le
sens que l'on peut donner à ce qui est perçu ou à un comportement.
La possibilité de donner un sens à ce qui est perçu (la perception
étant employée dans le sens le plus large) nécessite en outre la faculté
de catégorisation.
Comment le sens naît-il à partir de la perception ? Une hypothèse
assez répandue consiste à considérer une représentation sémantique
de la signification. Pour cela, la représentation mentale est
supposée être abstraite. En particulier, on admet l'existence d'un
ensemble fini de symboles qui sont associés à des catégories
classiques, choisies et fixées a priori. Par ``catégories
classiques'', nous entendons celles dans lesquelles l'appartenance
est définie d'après des conditions nécessaires et suffisantes. En
suivant cette voie, si on parvient à construire pour chaque
perception une association avec une catégorie, donc un symbole,
celui-ci peut être employé au sein de règles logiques ou, plus
généralement, de calculs. Somme toute, les approches béhavioristes
rejoignent celle-ci dans la possibilité de construire un système
logique pouvant représenter l'intelligence. Dans ce cadre, nous
avons un système possédant deux niveaux hiérarchiquement
connectés: le premier est chargé d'effectuer l'interface entre le
monde extérieur (les perceptions de l'entité) et le monde
intérieur, en associant la perception avec un symbole, alors que
le second utilise ce symbole ``désincarné'' au sein d'un ensemble
de calculs (voir la figure 2.2) . La démarche de
catégorisation utilisant un ensemble figé de symboles abstraits
suppose en fait que:
les objets du monde extérieur à une entité
sont catégorisables exactement;
le nombre de catégories est fini et on est capable
de les dénombrer d'une manière exhaustive;
la représentation mentale d'un objet est identique
d'une personne à l'autre;
les catégories sont indépendantes du moyen dont elles sont perçues;
la mémoire d'un phénomène se résume à un ensemble de
symboles et à la relation entre ceux-ci.
D'une certaine manière, on retrouve la vision fonctionnaliste,
supposant un monde statique et fermé où tout est censé être connu
(car catégorisable) d'un manière objective. En particulier, la perception
est analysée, à l'interface entre le monde extérieur et le monde intérieur,
par la correspondance avec un symbole dont l'existence est supposée être
indépendante de la réalité physique de l'entité le manipulant.
Les faits ne remettent pas en cause l'approche symbolique (c'est-à-dire
l'existence d'une faculté de catégorisation d'éléments perceptifs),
mais l'existence d'une manière unique, transposable d'un individu à
l'autre, d'appréhender un symbole donné. A priori, chaque individu
crée sa propre représentation mentale d'un fait ou d'une scène, à partir
de ses facultés de perception et d'action sur le monde. Par conséquent,
l'objet mental dépend intimement des moyens qui l'ont généré, donc de
l'individu qui l'abrite; ce n'est pas une ``substance'' échangeable
d'une personne à l'autre. En d'autres termes, si l'on veut être cohérent
avec la réalité biologique, le problème de catégorisation ne peut pas
être résolu en spécifiant a priori un certain nombre de symboles
et en effectuant a posteriori une correspondance de signaux
perceptifs avec l'un de ceux-ci. Dans le cadre de l'apprentissage,
cela implique que les symboles soient créés par l'expérience, ce qui
n'empêche pas, si besoin est, de leur attribuer une interprétation
a posteriori. La démarche de classification engendrée par
l'algorithme des cartes auto-organisatrices de Kohonen [Kohonen, 2001]
reproduit ce principe.
En robotique mobile, un exemple classique de catégorisation est
celui de la reconnaissance ou de la reconstruction
d'environnements. S'il s'agit d'un environnement du type
``labyrinthe'', une idée fréquemment usitée consiste à décrire le
lieu en termes d'assemblage de symboles simples (couloir, coin,
intersection, etc.) utilisés au sein de règles logiques
[Pradel et Barret, 1998]. L'expérimentateur choisit cet ensemble de
symboles car ils lui semblent (conformément à sa propre
représentation du monde) être représentatifs d'un tel
environnement et avoir chacun des propriétés géométriques
particulières; nous sommes ici dans une tentative de description
objective d'une scène. Or, si le robot est équipé de capteurs
frustres (infrarouge ou ultrason), voit-il le monde comme nous
pouvons le faire ? Certainement pas. Les catégories que nous avons
formées ont-elles un sens pour ce robot ? Nous ne pouvons pas
a priori répondre à cette question. En fait, deux problèmes
principaux surviennent, qui sont la cause d'ambiguïtés:
il peut être difficile de discriminer deux catégories parce
que les symboles sont mal choisis par rapport à la perception du robot
(ils peuvent être vus d'une manière très proche par celui-ci)
il n'existe pas de frontière nette entre deux archétypes (le
passage d'un couloir à une intersection peut être reconnu comme ``couloir''
ou ``intersection'' à un instant donné)
Alors que la première cause d'ambiguïté est rédhibitoire (le problème est
mal posé) mais évitable, la seconde est naturelle, du moins si on fait
l'hypothèse que le robot passe continuement d'une situation perceptive
(le couloir) à une autre (l'intersection), mais elle est inévitable.
Toutefois, tel que le problème est posé, il semble qu'aucune méthode
(directe ou par apprentissage) ne peut parvenir à l'élimination de
l'incertitude qu'on peut avoir sur la véracité de l'association
perception/symbole. On peut néanmoins obtenir un degré de certitude
sur l'association fournie (réseaux de neurones bayésiens). Cela permet
de regarder d'un oeil critique la réponse avancée et de rejeter celle-ci
le cas échéant. Mais ce degré de confiance n'est jamais nul
(``je ne sais pas'') ou maximum (``je suis certain'').
L'avantage d'un passage au symbolique est clair: les symboles
(abstraits) peuvent être manipulés aisément au sein de propositions
logiques: ``Si le robot détecte tel symbole ou groupement de symboles
(avec un degré de certitude élevé) alors il doit accomplir telle tâche''.
La gestion de la perception est alors une fonction de bas niveau, exploitée
par un programme gérant la stratégie du robot (processus de haut niveau).
Mais la détection du symbole ne peut s'exprimer qu'en termes statistiques,
puisque l'ambiguïté inhérente à la démarche employée rend toute certitude
impossible sur la validité de la reconnaissance. Qu'en est-il alors de
l'exécution du programme formé de règles utilisant des symboles perceptifs ?
Son résultat n'est pas garanti: au mieux, il est probablement exact.
À travers cet exemple, nous constatons que le fait d'admettre d'office
l'existence d'un ensemble de symboles conduit à une démarche qui est
confrontée à la gestion de l'incertain (voir la figure 2.3).
Mais peut-on imaginer que celle-ci soit réaliste d'un point de vue
psychologique ? Il est clair que l'incertitude fait partie intégrante
de la vie humaine, mais certainement pas au niveau de la perception
``courante'' du monde extérieur: la marche est un processus complexe
multimodal (vue, toucher au niveau des pieds, centre de l'équilibre au
niveau de l'oreille interne), faisant intervenir plus d'une cinquantaine
de muscles; pourtant, lorsque le bébé a appris à marcher, il ne tombe plus.
Le sentiment de certitude dans l'accomplissement correct de gestes réflexes
aussi bien que dans les réponses du monde extérieur dans des situations
familières est d'ailleurs un impératif pour l'être humain. Nous pensons
que la gestion de l'incertain est un processus de haut niveau, conscient
et raisonné, qui n'est pas concevable à l'échelle du traitement de la
perception.
Mais la notion d'objet mental peut se concevoir sans l'utilisation d'un
ensemble de symboles prédéfinis. Ainsi, Lecerf établit une théorie de
l'objet mental - la double boucle de l'apprentissage cognitif - inspirée
directement de considérations biologiques [Lecerf, 1997]. Selon son
hypothèse, l'objet mental émerge d'un processus de résonance provoqué
par une structure neuronale cyclique: l'influx sortant de chaque neurone
du cycle peut en affecter un autre, engendrant une propagation auto-entretenue
du signal; l'objet mental serait alors caractérisé par la donnée des neurones
touchés, mais également par le chemin parcouru par le signal nerveux, donc
par une certaine dynamique existant à travers ces neurones. Lecerf fait un
tour d'horizon des processus mentaux (mémorisation, apprentissage, abstraction,
etc.) en les expliquant à la lumière de son schéma de l'objet mental.
Dans ce cas, l'ensemble des symboles représente toutes les configurations
neuronales dans lesquelles un signal auto-entretenu peut être engendré;
ces configurations sont obtenues par apprentissage. Une image mentale
particulière est donc activée par une perception donnée, qui est ensuite
auto-entretenue dans le cerveau par un certain nombre de neurones (voir
la figure 2.4).
Le problème est ici de trouver une loi d'organisation de
l'architecture des neurones, dont le résultat est la création de
cycles ayant des propriétés émergentes particulières (rendre
compte des spécificités perceptives d'un symbole). Si une scène
non connue est présentée, aucune configuration neuronale
préétablie n'engendrera un signal auto-entretenu: cette propriété
est intéressante, car elle permet la reconnaissance concrète de
l'état d'incertitude. Celui-ci pourra être levé par apprentissage,
donc par la constitution d'une nouvelle structure neuronale.
Figure 2.2:
Une approche fonctionnaliste en sciences cognitives
Figure:
Une démarche confrontée à la gestion de l'incertitude
Figure 2.4:
Le symbole vu comme auto-entretien d'un
signal sur un cycle neuronal
La perception est émise au niveau du neurone 1. Un signal
électrique se propage à partir de ce neurone et donne naissance à
un signal auto-entretenu sur les neurones 1 à 6, dans le cycle
(1,2,3,4,5,6).