suivant: Réflexion à propos de
monter: Différentes approches de l'Intelligence
précédent: Idées associées à l'approche
  Table des matières
Idées associées à l'approche biologique de l'intelligence
Une démarche parallèle à celle de Turing est l'étude du support
de l'intelligence, c'est-à-dire le cerveau. En supposant qu'on
comprenne le fonctionnement des éléments formant le cerveau ainsi
que l'interaction entre ces éléments, on pourrait saisir le comportement
global de celui-ci, donc les caractères de l'intelligence. Très
grossièrement, le cerveau peut être vu comme un énorme ensemble de
neurones interconnectés dans lesquels passe un faible courant
électrique. Historiquement, le premier réseau de neurones a été présenté
par Bain [Bain, 1873]. Celui-ci propose une loi, reformulée par James
[James, 1890] puis par le psychologue Hebb [Hebb, 1949], mettant en
avant les facultés d'adaptation des connexions neuronales qui peuvent
dans certains cas se renforcer et dans d'autres s'inhiber. Cette possibilité
d'évolution, associée à l'idée d'apprentissage, est à la base des sciences
connexionistes. L'autre idée forte est celle de l'émergence de phénomènes
complexes résultant de l'interaction entre différents agents simples
(les neurones). On retrouve cette idée dans le cadre de l'étude de
systèmes coopératifs multi-agents.
Des approches de formalisation du neurone ont été faites dès la
moitié du vingtième siècle. Ainsi, N. Rashevsky suggéra que le
cerveau pourrait être vu comme une organisation complexe de 0 et
de 1. Mais c'est en 1943 que Warren McCulloch et Walter Pitts
[McCulloch et Pitts, 1943] mirent en évidence que la fonction
d'activation d'un neurone pouvait être modélisée par une fonction
à seuil, suivant les potentiels électriques arrivant à l'entrée du
neurone. L'ensemble des neurones connectés forme un réseau de
neurones artificiel. Le modèle du neurone artificiel, utilisant
les propriétés biologiques des neurones et de leur interaction, a
été amélioré à de nombreuses reprises. Rosenblatt en a été le
précurseur en créant le Perceptron [Rosenblatt, 1958]. En fait,
dans le cas où les connexions entre neurones sont figées, le
réseau de neurones artificiel n'est rien d'autre qu'une fonction
paramétrique dont les paramètres principaux sont les poids
synaptiques. Par conséquent, un réseau de neurones multicouches
tel que le Perceptron n'est rien d'autre qu'une boîte noire
possédant des entrées et des sorties dont le nombre est fixé
a priori. La modification des paramètres internes par une règle
d'apprentissage supervisée (méthode de rétropropagation du
gradient [Rumelhart et al., 1986]) permet à cette fonction
paramétrique d'interpoler avec un minimum d'erreur un ensemble
d'exemples d'association entrée/sortie.
Mais le modèle du réseau de neurones artificiel, bien qu'il ait
été conçu à la base grâce à des observations biologiques, est très
éloigné du réseau de neurones biologique. En particulier, le fait
que les connexions entre neurones et que l'organisation des
couches soient figées le rend particulièrement irréaliste d'un
point de vue biologique. De plus, dans ce cas, le terme
``apprentissage'' signifie simplement ``interpolation avec
un minimum d'erreur''.
La connaissance du fonctionnement d'un neurone isolé n'est
pas suffisante pour comprendre l'émergence de phénomènes
intelligents. La manière dont ceux-ci sont connectés et se
regroupent en zones spécialisées dans le traitement de certaines
tâches permet de donner une ``carte géographique'' du cerveau.
En particulier, les zones impliquées dans l'exécution de tâches
courantes (régulation homéostatique, reconnaissance d'un visage,
écoute, marche, etc. ) sont connues assez précisément. A partir de
ces faits, l'étude de l'organisation et des mécanismes de certaines
zones du cerveau a inspiré la constitution d'algorithmes d'apprentissage
élaborés (voir les travaux effectués entre autres à
l'ETIS [Revel, 1997]). D'une manière générale, l'objectif est de
reproduire le plus fidèlement possible une structure neuronale complexe
particulière, connaissant sa fonction biologique, de manière à générer
un fonctionnement artificiel accomplissant une tâche proche de celle
générée par la structure réelle. Cette démarche est identique à celle
des pionniers de l'aviation tentant de construire une machine volante
imitant l'oiseau.
Mais la complexité extrême du cerveau rend naturellement la tâche
quasi-impossible dans sa totalité. On est alors amené à se concentrer
sur un mécanisme particulier, une zone restreinte, en perdant la vision
globale du fonctionnement du cerveau; en fait, on est poussé à adopter
une stratégie similaire à celle décrite dans le paragraphe 2.2.2,
pour des raisons identiques à celles de Turing lorsqu'il avouait
la nécessité d'un système d'apprentissage. De fait, si on veut étudier
un système biologique dans sa globalité pour en traduire le
fonctionnement d'une manière mécanique, on est obligé d'abandonner
l'humain et de se centrer sur l'étude d'animaux supposés beaucoup
plus simples, comme la fourmi. Mais, la complexité du problème est-elle
réduite pour autant ? En ce qui concerne l'étude des fonctionnalités
intrinsèques à une fourmi, c'est certain. Des ``animats'' apprennent à
marcher et à se déplacer comme une fourmi. Mais l'approche qui sous-tend
ce travail n'est-elle pas fonctionnaliste, au moins en partie ? Qu'extrait-on
de la particularité d'une fourmi ?
De l'avis d'Edelman, le cerveau n'est pas réductible à un programme
exécutable sur une machine ([Edelman, 1992]). En outre, il déclare:
``L'aptitude du système nerveux à effectuer une catégorisation
perceptive des différents signaux pour la vue, le son, etc., et à les
diviser en classes cohérentes sans code préalable est propre au cerveau,
et les ordinateurs n'y parviennent pas''. La raison principale qu'il
invoque est qu'un programme est conçu en dehors de la réalité physique
de la machine qui le fait fonctionner, même si des interactions avec
le monde extérieur sont traitées dans ce programme. Cela signifie que
deux machines différentes, possédant le même programme, traiteront le
programme de la même façon; en définitive, pour que celui-ci puisse
s'exécuter à partir de ``supports'' différents (en particulier lorsque
la machine est pourvue de capteurs ou d'effecteurs, cette différence,
aussi minime soit-elle, existe), il faut avoir prévu l'ensemble des
cas possibles au coeur du programme. Or, de son point de vue, en ce
qui concerne le cerveau, le contenu (c'est-à-dire le programme) ne peut
être dissocié du contenant (la réalité physique du corps). Pratiquement,
nous constatons qu'un même programme réagit de manière différente sur
deux robots distincts, possédant forcément des capteurs dont la réponse
n'est pas tout à fait la même. Il faudrait donc que ce programme puisse
s'adapter à la réalité physique du robot.
Certains faits témoignant de l'extraordinaire plasticité du cerveau
tendent à contredire le fait qu'un ``programme'' y soit logé et que
celui-ci ``s'adapte'' par apprentissage. Ainsi, il n'est pas exceptionnel
que le cerveau récupère toutes ses facultés malgré la présence d'une
lésion. La région touchée peut être relayée par d'autres zones cérébrales
demeurées intactes; il arrive même que ce relais soit pris par une région
qui n'appartient pas au même hémisphère cérébral que celui où la lésion
s'est produite. En particulier, cela a été observé chez des patients qui,
après avoir perdu la motricité d'une main, l'ont retrouvée: leur main était
désormais commandée par les deux hémisphères, alors que, normalement,
l'hémisphère gauche pilote la main droite et réciproquement.
Une autre approche que la tentative de reproduction directe de
parties de la topologie du cerveau existe. Il s'agit d'une
tentative d'explication de l'organisation de cet organe au travers
de lois ou de principes. Cette démarche est, par nature,
explicative et non guidée par l'obtention immédiate de
comportements simulés satisfaisants par rapport aux comportements
réels. Ainsi, Edelman tente d'expliquer le fonctionnement et
l'organisation neuronale par l'utilisation de la loi régissant la
sélection naturelle, fondée par Darwin: sa théorie porte le nom de
``théorie de la sélection des groupes
neuronaux''([Edelman, 1992]). L'originalité de la démarche
consiste à appliquer une loi du vivant qui, à l'origine, était
destinée à expliquer l'évolution d'entités sur de très longues
périodes, à l'organisation de cellules nerveuses sur de très
courts laps de temps. La démarche d'Edelman est donc bien plus
qu'une volonté d'explication chimique ou organique d'un mécanisme:
elle a pour vocation de trouver une formulation cohérente de ce
mécanisme par rapport à une hypothèse fondatrice, c'est-à-dire
l'application de la loi de sélection. Cela permet par conséquent
de prévoir. La validation de la théorie est double: d'une part, il
s'agit de vérifier que les prévisions correspondent bien à la
réalité biologique; d'autre part, il y a une possibilité de
simulation sur ordinateur du phénomène biologique. Dans le cadre
de la théorie d'Edelman, cela a été partiellement fait, sur des
problèmes simples.
suivant: Réflexion à propos de
monter: Différentes approches de l'Intelligence
précédent: Idées associées à l'approche
  Table des matières
2002-03-01