Ce thème évolue vers le contrôle de véhicules routiers et vers la robotique mobile 3D (Contrôle d'engins volants).
Les principaux résultats obtenus au cours de ces dernières années, sont présentés ci-après.
3.1.1. Localisation et reconstruction de l'environnement 2D
3.1.1.1 - Localisation d'un robot mobile à l'aide de capteurs à ultrasons et d'odométrie
Dans le contexte difficile de capteurs de caractéristiques métrologiques moyennes, la fonction " localisation " présente trois niveaux de comportement adaptés aux différentes situations envisageables. Chaque comportement fait appel à des algorithmes particuliers, peu sensibles au fort taux de mesures aberrantes et à la présence d'obstacles par définition non modélisés.
Tant que la situation est jugée " normale ", le système de localisation est basé sur l'odométrie qui remet à jour la position du robot sous contrôle des mesures des capteurs à ultrasons qui bornent l'erreur odométrique systématique. Les résultats sont présentés exhaustivement dans [HOP97T]. Ils ont donné lieu à deux publications : [HOP97aC] et [HOP98R]. Sans obstacle, une erreur jusqu'à 10% sur le diamètre des roues est corrigible ; avec obstacle, cette erreur admissible est réduite à 4.5%. Une simulation basée sur des trajectoires réelles avec des mesures réelles préenregistrées nous a permis de mettre au point les algorithmes reproduisant presque fidèlement la réalité.
Lorsque, à cause d'une erreur odométrique trop importante (systématique au dessus de 4.5%), le système de localisation en ligne ne suffit pas à garantir la position du robot, une localisation est donc indispensable. Elle se base uniquement sur un relevé panoramique de mesures ultrasonores. Elle suit une démarche en trois étapes. La première consiste en un pré-traitement des données : la pièce étant modélisée sous forme de segments, l'idée est de segmenter l'image ultrasonore en utilisant la transformée de Hough. Puis, une recherche de plusieurs positions possibles est effectuée. Enfin, parmi toutes ces positions, une est choisie en fonction de différents critères. Deux positions sont d'abord trouvées, symétriques par rapport au centre de la pièce rectangulaire. Dans une pièce avec obstacle, l'erreur maximale est de 40cm et 20° (sans lever l'ambiguïté d'orientation). Pour distinguer la bonne position, le seul élément disponible est la porte de la pièce qui rompt sa symétrie. La technique des réseaux de neurones, bien adaptée à la détection de forme, a été retenue pour cette tâche, réalisée en lien avec l'équipe travaillant sur la modélisation par apprentissage. Les résultats montrent que ce choix est bon : aucune erreur de position n'est générée.
Dans ce même contexte, l'étude menée dans [SUA97T] pour la localisation concerne la fonction repositionnement. La méthode proposée initialement par Crowley et Léonard & Durand-Whyte, reposant sur l'extraction d'amers géométriques et conduisant à la construction d'une représentation globale de l'environnement destinée à la localisation s'avère trop lourde vis-à-vis des contraintes fixées par le cahier des charges. La méthode que nous avons étudiée consiste à construire autant de cartes locales qu'il y a de positions, quantifiées par une grille dont les éléments ont la taille du robot. Les segments relevés puis, en cours de mesure, corrigés, sont stockés dans la cellule de la grille de repositionnement depuis laquelle ils sont perçus. Dans chaque cellule, il y a une représentation locale qui, seule est utilisée, sans fusion avec des segments trouvés depuis une autre cellule. Des objets virtuels peuvent être pris en compte (objets réels vus après réflexions multiples sur un mur par exemple). Un coefficient de fiabilité est attribué à l'attribut mémorisé, il résulte de la composition d'un coefficient dit de forme - déterminé à partir de l'écart entre trois mesures prises sur cet objet - et d'un coefficient de distance. Les mesures sont prises pendant que le robot est en mouvement ; ce dernier point montre que la procédure reste compatible avec la puissance de calcul (faible) du système embarqué [SUA95aC], [SUA95bC].
3.1.1.2 - Reconnaissance d'environnement et localisation non métrique par réseau de neurones
L'approche suivie ici repose sur une vision anthropomorphique de la localisation correspondant aux échanges d'informations entre deux individus pour décrire un chemin à suivre et vérifier qu'il est bien suivi. Dans le cas d'un véhicule mobile, il s'agit de reconnaître automatiquement, à partir des informations télémétriques fournies par les capteurs extéroceptifs, un certain nombre d'éléments caractéristiques de son environnement immédiat. Posé ainsi, le problème devient un problème de classification supervisée et nous l'avons approché par des techniques neuromimétiques puisqu'un RMC est un approximateur d'un classifieur bayésien. En collaboration avec le LESiR (ENS Cachan), nous avons développé un système de reconnaissance d'environnement basé sur une architecture de classifieurs hiérarchisés capable d'un taux de reconnaissance élevé sur une douzaine de situations différentes et dotée d'une bonne robustesse par rapport aux dimensions des environnements [ROM95C], [ALL96T], [PRA98R].
Ce travail se poursuit actuellement avec l'objectif non plus de reconnaître une situation parmi N, mais de détecter la présence d'un amer passif donné ou d'une situation spécifique (porte par exemple) dans un environnement quelconque. Le problème devient alors un problème d'analyse de signature et non plus de classification.
3.1.1.3 - Reconstruction d'environnement domestique
L'objectif est ici d'effectuer une cartographie d'un environnement de type intérieur de bâtiment à partir d'un système de perception se résumant à un télémètre ultrasonore monté sur une tourelle rotative. Nous nous sommes affranchis de la problématique de calibration du capteur et d'inversion de son modèle d'erreur en caractérisant directement le résultat de la perception. La largeur du faisceau ultrasonore rend difficile l'estimation de la position du robot, les objets apparaissant dilatés en position angulaire et latérale. Nous y avons remédié en fusionnant des échos proches en segments plus représentatifs de la position des objets [VAS97C]. Les différentes techniques comparées apportent des améliorations sensiblement équivalentes sur l'estimation de la position du robot. L'orientation des segments dépendant de l'angle de vue, et donc de cette position, nous avons amélioré son estimation en corrigeant les données odométriques lorsque deux segments issus de prises de vues différentes apparaissent confondus. Nous avons élaboré une démarche ascendante, partant d'une carte de segments et aboutissant à un modèle où la nature des objets identifiés est mise en relation avec les actions liées à la stratégie de navigation et d'exploration. Nous validons, dans un premier temps, nos travaux sur un environnement domestique standard : les murs forment des angles droits, les tables et les chaises ont quatre pieds. L'appariement de segments de cartes correspondant à des positions différentes du robot délivre un indice sur la nature de la surface détectée (plane ou de faible courbure, objet ponctuel ou discontinuité de profondeur) identifié par une méthode de discrimination paramétrique avec rejet d'ambiguïté utilisant l'orientation et la position relative de ces segments [VER97C]. Puis, un modèle géométrique est élaboré par la reconstruction, à partir de ces indices, de primitives de types plans, coins de la pièce, angles de bords d'armoires, pieds de table ou de chaises. Les résultats obtenus sur l'extraction des indices sont satisfaisants mais trop conditionnés par la phase d'apprentissage supervisé. Nous avons étudié d'autres méthodes de classification faisant appel aux techniques neuronales (cartes de Kohonen, Radial Basis Fonction) afin d'affiner la définition de l'espace de représentation [VAS98C].
Enfin, l'environnement étant reconstruit pas à pas, nous avons étudié des méthodes de fusion et de mise à jour des différents modèles (cartes de segments, primitives, modèle sémantique). Les résultats obtenus ont démontré la possibilité d'extraire une connaissance de niveau d'abstraction élevé à partir d'un système sensoriel minimaliste. Nous examinons maintenant les liens entre les stratégies de déplacement, la localisation et la reconstruction pas à pas : ayant détecté et identifié un des constituants d'un objet, le robot doit décider quel déplacement effectuer pour renforcer la certitude quant à son identification et achever sa caractérisation, sachant que le domaine de visibilité des amers précédemment identifiés contraint les possibilités de localisation absolue, et donc la stratégie d'exploration.
[Retour au sommaire] [suivant] [précédent]