next up previous contents
suivant: 4 Réflexion à propos monter: 2 Différentes approches de précédent: 2 Idées associées à   Table des matières

3 Idées associées à l'approche biologique de l'intelligence

Une démarche parallèle à celle de Turing est l'étude du support de l'intelligence, c'est-à-dire le cerveau. En supposant qu'on comprenne le fonctionnement des éléments formant le cerveau ainsi que l'interaction entre ces éléments, on pourrait saisir le comportement global de celui-ci, donc les caractères de l'intelligence. Très grossièrement, le cerveau peut être vu comme un énorme ensemble de neurones interconnectés dans lesquels passe un faible courant électrique. Historiquement, le premier réseau de neurones a été présenté par Bain [Bain, 1873]. Celui-ci propose une loi, reformulée par James [James, 1890] puis par le psychologue Hebb [Hebb, 1949], mettant en avant les facultés d'adaptation des connexions neuronales qui peuvent dans certains cas se renforcer et dans d'autres s'inhiber. Cette possibilité d'évolution, associée à l'idée d'apprentissage, est à la base des sciences connexionistes. L'autre idée forte est celle de l'émergence de phénomènes complexes résultant de l'interaction entre différents agents simples (les neurones). On retrouve cette idée dans le cadre de l'étude de systèmes coopératifs multi-agents.
Des approches de formalisation du neurone ont été faites dès la moitié du vingtième siècle. Ainsi, N. Rashevsky suggéra que le cerveau pourrait être vu comme une organisation complexe de 0 et de 1. Mais c'est en 1943 que Warren McCulloch et Walter Pitts [McCulloch et Pitts, 1943] mirent en évidence que la fonction d'activation d'un neurone pouvait être modélisée par une fonction à seuil, suivant les potentiels électriques arrivant à l'entrée du neurone. L'ensemble des neurones connectés forme un réseau de neurones artificiel. Le modèle du neurone artificiel a été amélioré à de nombreuses reprises , utilisant les propriétés biologiques des neurones et de leur interaction. Rosenblatt en a été le précurseur en créant le Perceptron [Rosenblatt, 1958]. En fait, dans le cas où les connexions entre neurones sont figées, le réseau de neurones artificiel n'est rien d'autre qu'une fonction paramétrique dont les paramètres principaux sont les poids synaptiques. Par conséquent, un réseau de neurones multicouches tel que le Perceptron n'est rien d'autre qu'une boîte noire possédant des entrées et des sorties dont le nombre est fixé a priori. La modification des paramètres internes par une règle d'apprentissage supervisée (méthode de rétropropagation du gradient [Rumelhart et al., 1986]) permet à cette fonction paramétrique d'interpoler avec un minimum d'erreur un ensemble d'exemples d'association entrée/sortie.
Mais le modèle du réseau de neurones artificiel, bien qu'il ait été conçu à la base grâce à des observations biologiques, est très éloigné du réseau de neurones biologique. En particulier, le fait que les connexions entre neurones et que l'organisation des couches soient figées le rend particulièrement irréaliste d'un point de vue biologique. De plus, dans ce cas, le terme ``apprentissage'' signifie simplement ``interpolation avec un minimum d'erreur''.
La connaissance du fonctionnement d'un neurone isolé n'est pas suffisante pour comprendre l'émergence de phénomènes intelligents. La manière dont ceux-ci sont connectés et se regroupent en zones spécialisées dans le traitement de certaines tâches permet de donner une ``carte géographique'' du cerveau. En particulier, les zones impliquées dans l'exécution de tâches courantes (régulation homéostatique, reconnaissance d'un visage, écoute, marche, etc. ) sont connues assez précisément. A partir de ces faits, l'étude de l'organisation et des mécanismes de certaines zones du cerveau a inspiré la constitution d'algorithmes d'apprentissage élaborés (voir les travaux effectués entre autres à l'ETIS []). D'une manière générale, l'objectif est de reproduire le plus fidèlement possible une structure neuronale complexe particulière, connaissant sa fonction biologique, de manière à générer un fonctionnement artificiel accomplissant une tâche proche de celle générée par la structure réelle. Cette démarche est identique à celle des pionniers de l'aviation tentant de construire une machine volante imitant l'oiseau.
Mais la complexité extrême du cerveau rend naturellement la tâche quasi-impossible dans sa totalité. On est alors amené à se concentrer sur un mécanisme particulier, une zone restreinte, en perdant la vision globale du fonctionnement du cerveau; en fait, on est poussé à adopter une stratégie similaire à celle décrite dans le paragraphe 1.2.1, pour des raisons identiques à celles de Turing lorsqu'il avouait la nécessité d'un système d'apprentissage. De fait, si on veut étudier un système biologique dans sa globalité pour en traduire le fonctionnement d'une manière mécanique, on est obligé d'abandonner l'humain et de se centrer sur l'étude d'animaux supposés beaucoup simples, comme la fourmi. Mais, la complexité du problème est-elle réduite pour autant ? En ce qui concerne l'étude des fonctionnalités intrinsèques à une fourmi, c'est certain. Des ``animats'' apprennent à marcher et à se déplacer comme une fourmi. Mais l'approche qui sous-tend ce travail n'est-elle pas fonctionnaliste, au moins en partie ? Qu'extrait-on de la particularité d'une fourmi ?
De l'avis d'Edelman, le cerveau n'est pas réductible à un programme exécutable sur une machine ([Edelman, 1992]). En outre, il déclare: ``L'aptitude du système nerveux à effectuer une catégorisation perceptive des différents signaux pour la vue, le son, etc., et à les diviser en classes cohérentes sans code préalable est propre au cerveau, et les ordinateurs n'y parviennent pas''. La raison principale qu'il invoque est qu'un programme est conçu en dehors de la réalité physique de la machine qui le fait fonctionner, même si des interactions avec le monde extérieur sont traitées dans ce programme. Cela signifie que deux machines différentes, possédant le même programme, traiteront le programme de la même façon; en définitive, pour que celui-ci puisse s'exécuter à partir de ``supports'' différents (en particulier lorsque la machine est pourvue de capteurs ou d'effecteurs, cette différence, aussi minime soit-elle, existe), il faut avoir prévu l'ensemble des cas possibles au coeur du programme. Or, de son point de vue, en ce qui concerne le cerveau, le contenu (c'est-à-dire le programme) ne peut être dissocié du contenant (la réalité physique du corps). Pratiquement, nous constatons qu'un même programme réagit de manière différente sur deux robots distincts, possédant forcément des capteurs dont la réponse n'est pas tout à fait la même. Il faudrait donc que ce programme puisse s'adapter à la réalité physique du robot.
Certains faits témoignant de l'extraordinaire plasticité du cerveau tendent à contredire le fait qu'un ``programme'' y soit logé et que celui-ci ``s'adapte'' par apprentissage. Ainsi, il n'est pas exceptionnel que le cerveau récupère toutes ses facultés malgré la présence d'une lésion. La région touchée peut être relayée par d'autres zones cérébrales demeurées intactes; il arrive même que ce relais soit pris par une région qui n'appartient pas au même hémisphère cérébral que celui où la lésion s'est produite. En particulier, cela a été observé chez des patients qui, après avoir perdu la motricité d'une main, l'ont retrouvée: leur main était désormais commandée par les deux hémisphères, alors que, normalement, l'hémisphère gauche pilote la main droite et réciproquement.
Une autre approche que la tentative de reproduction directe de parties de la topologie du cerveau existe. Il s'agit d'une tentative d'explication de l'organisation de cet organe au travers de lois ou de principes. Cette démarche est, par nature, explicative et non guidée par l'obtention immédiate de comportements simulés satisfaisants par rapport aux comportements réels. Ainsi, Edelman tente d'expliquer le fonctionnement et l'organisation neuronale par l'utilisation de la loi régissant la sélection naturelle, fondée par Darwin: sa théorie porte le nom de ``théorie de la sélection des groupes neuronaux''([Edelman, 1992]). L'originalité de la démarche consiste à appliquer une loi du vivant qui, à l'origine, était destiner à expliquer l'évolution d'entités sur de très longues périodes, à l'organisation de cellules nerveuses sur de très courts laps de temps. La démarche d'Edelman est donc bien plus qu'une volonté d'explication chimique ou organique d'un mécanisme: elle a pour vocation de trouver une formulation cohérente de ce mécanisme par rapport à une hypothèse fondatrice, c'est-à-dire l'application de la loi de sélection. Cela permet par conséquent de prévoir. La validation de la théorie est double: d'une part, il s'agit de vérifier que les prévisions correspondent bien à la réalité biologique; d'autre part, il y a une possibilité de simulation sur ordinateur du phénomène biologique. Dans le cadre de la théorie d'Edelman, cela a été partiellement fait, sur des problèmes simples.


next up previous contents
suivant: 4 Réflexion à propos monter: 2 Différentes approches de précédent: 2 Idées associées à   Table des matières
Frédéric Davesne 2001-07-13