FRE 2494

ARPH : Assistance Robotique aux Personnes Handicapées

 

L'équipe

Le projet - Présentation générale

Les thèses

Les publications

L'équipe

Etienne Colle

ecolle@lsc.univ-evry.fr

Professeur

Philippe Hoppenot

hoppenot@lsc.univ-evry.fr

Maître de conférences

Khiar Nait Chabane

chabane@lsc.univ-evry.fr

Doctorant

 

 

 

 

Deux anciens

 

Omar Ait Aider

oaider@lsc.univ-evry.fr

Post-doc au LASMEA

Yves Rybarczyk

yrybarc@lsc.univ-evry.fr

Post doc au LMP

Le projet

L'aide aux personnes handicapées moteur se développe depuis quelques années. La robotique mobile peut y apporter sa contribution. Défini en lien avec l'Association Française contre les Myopathies (AFM), l'objectif du projet ARPH est d'embarquer un bras manipulateur sur une base mobile autonome pour donner aux personnes handicapées la possibilité de réaliser seules des tâches de la vie quotidienne, soit dans son environnement proche en vision directe, soit dans un environnement plus lointain en vision indirecte
De tels projets ne sont envisageables qu'avec deux contraintes. La première est de bien définir le besoin réel d'une personne handicapée. En particulier, l'AFM insiste sur la volonté de l'opérateur humain d'agir par lui même : le robot ne doit donc pas "faire à la place" de la personne mais pallier ses déficiences. La seconde contrainte est financière. En effet, le coût de l'assistance doit être suffisamment faible pour que des personnes handicapées puissent y accéder. Cela impose en particulier des choix quant aux capteurs utilisés : odométrie et capteurs à ultrasons avec des capacités télémétriques moyennes. Une caméra a été rajoutée pour le retour d'information à l'utilisateur, la localisation et la commande du robot.
Ce domaine de recherche conduit naturellement à s'intéresser à la Coopération Homme-Machine (CHM). En effet, les deux entités (homme et machine) ont des capacités de perception, de décision et d'action. La première étape du travail a consisté à analyser l'autonomie possible de la base mobile (planification de trajectoire, navigation, localisation). La seconde étape est la mise en place de la CHM proprement dite.
Ce travail théorique est implanté sur un système réel : le robot ARPH. Sa commande repose sur une architecture clients-serveurs, basée sur le système ARITI, développé au laboratoire avec des techniques de réalités virtuelle et augmentée.

Le robot ARPH

Le robot ARPH doit être utilisé par des personnes handicapées. Les choix technologiques pour la base mobile et pour le bras manipulateur sont guidés par cette application. Les publications R4, R7, C3, C5, C9, C10 et C13 donnent un aperçu global du projet.

La base mobile

LA base mobile doit s'inspirer le plus possible d'un fauteuil roulant électrique pour des raisons de fiabilité et de maintenance. Nous avons donc choisi d'utiliser la motorisation DX, très répandue sur les fauteuils roulants électriques. La commande classique est réalisée par un joystick. Le système DX est basé sur le bus CAN et permet de piloter l'ensemble des periphériques du fauteuil (moteurs, klaxon, feux...). Le protocole utilisé n'est pas divulgué par le constructeur. Il propose une passerelle, le DXKEY, entre le bus CAN et le port parallèle d'un PC.
Nous avons développé un châssis en fibre de verre. Il possède de multiples avantages par rapport à une base de fauteuil roulant électrique. De forme circulaire, il est plus adapté à l'utilisation des capteurs à ultrasons sur la demi sphère avant du robot. Ses dimensions sont réduites au maximum pour simplifier sa commande, notamment dans les portes. Enfin, même en série limitée, son coût est faible. En effet, seuls les moules sont chers, la matière première et la main d'oeuvre pour réaliser la châssis à partir des moules étant très bon marché. Une série de quelques dizaines suffit à dépasser la rentabilité d'une base de fauteuil roulant électrique.

Le bras Manus®

Développé aux Pays Bas, le bras Manus® est spécialement conçu pour les personnes handicapées. Il est prévu pour s'embarquer sur un fauteuil roulant électrique. Il est commandé par un clavier à 16 touches. Déjà produit à plus de cent exemplaires, il est utilisé en France par une dizaine de personnes, en institution ou à domincile. Muni d'un bus CAN, il est pilotable par un PC muni d'une carte CAN.

La structure informatique de contrôle: Clients-Serveurs

Le système est basé sur une architecture Clients-Serveurs (Figure). Les serveurs sont implantés sur un PC embarqué. Ils permettent d'accéder aux différentes ressources (moteurs, capteurs ultrasons, caméra, odométrie, bras manipulateur). Les clients, à travers une interface dérivée de ARITI (Figure 2, C4), donnent à l'utilisateur la possibilité de communiquer avec le robot à partir d'un autre PC et d'un navigateur. Une liaison TCP/IP sans fil à haute fréquence relie les deux PC.


Figure 1 : Architecture Clients/Serveurs.

La figure 2 montre l'interface Homme-Machine, dérivée de ARITI. En haut à gauche, l'image caméra est retournée à l'utilisateur. En base à gauche, une vue virtuelle correspondant à la vue caméra permet de mieux saisir la scène dans les cas où un obstacle se trouve devant le robot. L'image en haut au centre représente une vue d'en haut du robot dans son environnement. Le pavé du dessous donne à l'utilisateur la possibilité de piloter la base mobile. En haut à droite, on trouve la commande du bars Manus et en bas à droite le retour des capteurs à ultrasons indiquant la présence d'obstacles devant le robot.


Figure 2 : Interface Homme-Machine.

L'autonomie du système

Si l'objectif final de ARPH est la réalisation satisfaisante d'une mission par l'opérateur avec l'aide du système, il convient d'étudier ses capacités d'autonomie afin de proposer à l'opérateur des assistances précises et efficaces. Une mission utilise deux grands types de fonctions: le déplacement de la base mobile et la manipulation d'objets.

Le déplacement de la base mobile

Pour commander la base mobile, il faut choisir une trajectoire et la suivre. Cela fait appel à des notions de planification de trajectoire et de navigation. Elles sont basées sur la connaissance de la position de la base mobile dans son environnement.

La commande de la base mobile

La planification consiste à définir le chemin à suivre pour aller d'un point à un autre de l'environnement. Elle requiert une connaissance au moins partielle de l'environnement. Après une dilatation des obstacles, un graphe de visibilité est calculé hors ligne. L'application de l'algorithme A*, par minimisation d'une fonction de coût, permet de choisir dans chaque configuration le plus court chemin d'un point à un autre. Un autre choix de fonction de coût pourrait permettre de minimiser d'autres critères que la distance comme l'énergie, la difficulté de suivi de la trajectoire...
La navigation consiste à suivre le chemin fourni par la navigation. Le problème principal est d'éviter des objets non modélisés, donc non pris en compte par la planification. Des capteurs à ultrasons et un traitement par logique floue donne des résultats satisfaisants. Ces résultats sont publiés dans R1 et C1 ainsi que dans la thèse de P. Hoppenot.

La localisation de la base mobile

La planification et la navigation ont besoin de connaître la position du robot par rapport à son environnement. En effet, pour planifier une trajectoire entre la cuisine et la salle à manger, il faut disposer d'un plan de l'appartement. De même, lors du parcours de chemin calculé, le robot doit pouvoir savoir où il en est.
Une première étude a porté sur la possibilité de localisation en utilisant les mêmes capteurs à ultrasons que pour l'évitement d'obstacle en fusionnant avec les données odométriques. Cette approche a donné des résultats dans des environnements peut encombrés mais lorsque le nombre d'objets non modélisés augmente, les seules meures de distance sont trop pauvre pour obtenir une localisation. Les résultats de ces travaux ont été publiés dans R2, R3, R5 et C2 ainsi que dans la thèse de P. Hoppenot.
Une seconde direction a été explorée en utilisant une caméra. L'environnement est décrit sous la forme de segments de droite, très nombreux dans un environnement d'intérieur. La démarche suit ensuite les étapes suivantes :
1- Acquisition d'une image
2- Segmentation de l'image
3- Mise en correspondance des segments extraits de l'image avec ceux de l'environnement
4- Calcul de la position du robot.
Les étapes 1 et 2 utilisent des techniques classiques en image avec quelques adaptation à notre problème. L'étape 3 est la plus sensible. La recherche de la solution est basée sur un arbre des possibilités élagué par eux critères complémentaires. C'est l'étape la plus délicate du processus. L'étape 4 utilise les techniques de Lowe et Phong-Horaud adaptées à notre contexte. Les résultats de ces travaux ont été publiés dans R6, C7 et C11 ainsi que dans la thèse de O. Ait Aider.
Actuellement, nous cherchons à enrichir cette technique en combinant l'image avec des capteurs à ultrasons intelligents. En effet, en plus de la distance mesurée par les capteurs d'évitement d'obstacles, toute l'onde ultrasonore est récupérée. Un traitement à base de réseaux de neurones permet de reconnaître des objets simples tels des angles, des coins, des plans mais aussi des objets complexes tels des chaises ou le bras Manus. L'idée est d'optimiser la phase 3 décrite ci-dessus. La thèse de M. Trabelsi a débuté sur ce sujet en septembre 2002.

La manipulation d'objets

L'objectif du projet ARPH est de (re)donner de l'autonomie à des personnes qui en sont privée. La manipulation d'objets de la vie courante est au centre de ces préoccupations. Nous travaillons avec un bas de type Manus, conçu pur être embarqué sur un fauteuil roulant électrique. La commande fournie est réalisée à l'aide d'un clavier 16 touches. Pour les besoins de notre application, nous avons dû développer une commande par l'intermédiaire du réseau CAN. Dans le cadre d'un projet ANVAR, un stagiaire IUP 3ème année a écrit les driver CAN sous Linux et e programme de commande du bras.
Sur le plan scientifique, la thèse de Khiar Nait Chabane à débuté en septembre 2002 sur saisie et la manipulation d'objets. Son objectif est de fournir à l'utilisateur des modes de commande du bras manipulateur lui permettant d'aller chercher des objets. La démarche est identique à celle développée pour le mouvement c'est à dire l'analyse des possibilités de commande automatique puis le développement de modes de commande mixtes entre l'opérateur et le système.

La Coopération Homme-Machine - CHM

L'objectif du système ARPH est de (re)donner à l'opérateur humain une part d'autonomie. A partir de la connaissance du système étudiée ci-dessus, l'idée de base est de tirer partie des capacités du système et de l'homme (Figure 3). Dans un sens, on cherche à donner au robot des comportements imités de ceux de l'homme. C'est ce que nous avons appliqué au déplacement de la base mobile. Dans l'autre sens, on utilise les grandes capacités d'adaptation de l'homme à incorporer dans son schéma corporel des objets extérieurs. C'est ce que nous avons appliqué à la manipulation d'objets.

Figure 3 : Interaction Homme-Machine.

Le travail de thèse de Y. Rybarczyk, de formation neuro-scientifique, porte sur l'ensemble de cette question.

Le déplacement de la base mobile

La commande de la base mobile

Plusieurs modes de commande sont offerts à l'opérateur pour piloter la base mobile. Le mode manuel donne tous les degrés de liberté à l'opérateur. Le mode automatique permet à l'opérateur de se décharger totalement de l'exécution de la mission. Entre ces deux extrêmes, nous développons des modes mixtes dans lesquels la commande des degrés de liberté est partagée entre le système et l'opérateur humain. Le premier mode de ce type est le mode manuel avec évitement d'obstacles. Il permet de donner à l'opérateur la maîtrise de la direction moyenne du mouvement, le système se chargeant d'éviter les obstacles sur le chemin.
Pour tenir compte de l'idée de donner au robot des comportements de type humain, nous utilisons la caméra comme organe de commande. Une stratégie de déplacement de l'homme est : "je vais là où je regarde". Dans le cadre du projet ARPH, l'opérateur humain pilote la caméra, orientable en site et en azimut, et le robot suit la direction donnée par la caméra. On peut aussi utiliser le mode "suivi automatique" donné par la caméra. Dans ce cas, l'opérateur choisit l'objet à fixer et le robot suit la direction donnée par la caméra. Dans les deux cas, on peut coupler cette commande avec l'évitement.
On peut aussi prévoir une stratégie de type "je regarde là où je vais". Des études ont montré qu'en situation de conduite automobile, le regard du chauffeur s'oriente vers l'intérieur des virages. Pour retourner une information plus pertinente à l'opérateur, on oriente la caméra vers l'intérieur de la courbe. On montre alors que les performances sont améliorées par rapport à une caméra fixe.
Ces travaux ont été publiés dans R9, R10, C6, C8 et C12.

La localisation de la base mobile

L'idée est d'utiliser les capacités de l'opérateur, en particulier pour l'analyse d'une image. Sachant qu'une difficulté importante de la localisation est la mise en correspondance du modèle avec les mesures. Le travail initial a consisté à demander à l'opérateur de détecter les erreurs de localisation à l'aide des retours des capteurs à ultrasons. Des résultats sont publiés dans R8.

La manipulation d'objets

Les manipulations en cours cherchent estimer la capacité de l'homme à intégrer le bras manipulateur dans son schéma corporel. L'idée est de comparer des performances de saisie d'objet entre l'humain avec son bras et l'humain avec le bras manipulateur.

Les thèses

Contribution de la robotique mobile à la localisation d'un robot mobile - Philippe Hoppenot, soutenue en novembre 1997

Jury

Radja CHATILA

LAAS

Rapporteur, président du jury

Florent Chavand

LSC

Rapporteur

Alain Pruski

LASC

Rapporteur

Jean-Claude Lafont

INT

Examinateur

Jean-Claude Cunin

AFM

Examinateur

Etienne Colle

LSC

Directeur de thèse

 

L'aide aux personnes handicapées moteur se développe depuis quelques années. La robotique mobile peut y apporter sa contribution. Défini en lien avec l'Association Française contre les Myopathies (AFM), l'objectif du projet Robot Mobile Intelligent (RMI) est d'embarquer un bras manipulateur sur une base mobile autonome pour donner aux personnes handicapées la possibilité de réaliser seules des tâches de la vie quotidienne.
Le travail se divise en deux grandes parties. La première, la plus développée dans ce mémoire, consiste à donner à la base mobile une certaine autonomie (capacité de planification et de navigation). Résolu avec des systèmes coûteux, ce problème mérite encore des recherches pour devenir opérationnel avec des robots à faible coût, indispensables dans le domaine médical. Pour que ces deux tâches soient possibles, le robot doit connaître sa position dans un environnement partiellement connu. Pendant le déroulement de la mission, la localisation en ligne tient compte des données odométriques, corrigées par les mesures des capteurs à ultrasons. Le point crucial de ce recalage est l'appariement des mesures avec l'environnement. Il se base sur la connaissance approximative de la position du robot donnée par l'odométrie. Si, malgré cette localisation en ligne, le robot se perd (une détection automatique est prévue), un système de localisation hors ligne est déclenché. Basé sur les seules mesures ultrasonores, il donne la position du robot dans son environnement.
La seconde partie porte sur l'étude de la coopération entre l'homme et la machine. Dans le domaine de l'assistance aux personnes handicapées, l'automatisme n'est pas recherché pour faire à la place mais doit venir en complément des capacités de l'opérateur handicapé. Ce mémoire s'intéresse au retour d'information nécessaire à l'utilisateur qui lui permet de savoir si le robot effectue correctement sa mission : détection de blocage et/ou d'erreur de localisation.

Mots clé : Robotique mobile, assistance aux personnes handicapées, localisation, coopération homme machine, planification de trajectoire, navigation, odométrie, capteurs à ultrasons.

Localisation grâce à l'image d'un robot mobile en environnement intérieur modélisé - Omar Ait Aider, soutenue en décembre 2002

Jury

Mustapha MOUADDIB

CREA

Rapporteur

Marie Josée ALDON

LIRMM

Rapporteur

Jacques DROULEZ

LPPA

Examinateur, président du jury

Malik MALLEM

LSC

Examinateur

Etienne COLLE

LSC

Directeur de thèse

Philippe HOPPENOT

LSC

Encadreur

 

La robotique d'assistance aux personnes handicapées s'est développée ces dernières années. Elle cherche à restaurer, au moins partiellement, l'autonomie d'une personne handicapée dans sa vie de tous les jours, au travail... Ce domaine d'application impose deux contraintes : le coût qui doit rester modéré et la fiabilité. Dans le cadre du projet ARPH (Assistance Robotique aux Personnes Handicapées) développé au CEMIF-LSC, notre démarche consiste dans un premier temps à étudier la capacité d'autonomie du robot pour pouvoir ensuite proposer à la personne des modes de commande partagés dans lesquels l'opérateur humain et la machine pilotent ensemble le robot pour atteindre l'objectif souhaité par la personne.
ARPH est une base mobile équipée d'un bras manipulateur afin de pouvoir saisir des objets. La première étape est de déplacer la base mobile vers l'objet à saisir. Elle met en œuvre des notions de planification de trajectoire et de navigation, basées sur une connaissance de la position du robot. Dans un environnement intérieur, cette dernière doit être connue avec une précision de quelques dizaines de centimètres en translation et de quelques degrés en rotation. Une caméra permet d'obtenir en une seule acquisition suffisamment d'informations. Les primitives utilisées sont ici des segments, nombreux dans un environnement structuré et facile à extraire par des traitements classiques en image. Les deux points clé de cette démarche restent d'une part la mise en correspondance des segments mesurés et ceux définis par le modèle partiel de l'environnement et d'autre part le calcul de la position à partir de l'appariement choisi. L'utilisation d'une seule caméra est imposée par les contraintes de coût financier et de temps de calcul. Toute la chaîne de développement, de la capture de l'image au calcul de la position, a été développée et permet d'obtenir un système complet. Les apports scientifiques portent sur les deux derniers points à savoir la mise en correspondance et le calcul de la position.
En supposant la mise ne correspondance résolue, le calcul de la position du robot s'appuie principalement sur deux méthodes : Phong-Horaud et Lowe. Ces deux méthodes ont été adaptées au contexte de la robotique mobile. En effet, elles sont énoncées dans le cas général où la position est donnée par trois composantes en translation et trois composantes en rotation. Dans notre cas, le sol étant plat, seules deux composantes en translation sont utiles. Les angles de roulis et de tangage peuvent aussi être considérés connus ce qui limite la rotation à un seul angle. Une formulation dans ce cas fait apparaître des simplifications qui rendent ces méthodes plus simples, donc plus rapides, et utilisables à partir de seulement deux segments.
La mise en correspondance entre les segments mesurés et modélisés est basée sur la recherche arborescente. La difficulté majeure de cette approche est l'explosion combinatoire. Dans un premier temps, l'utilisation d'une connaissance a priori de la position du robot grâce à l'odométrie permet de réduire le nombre de segments visibles du modèle en utilisant les régions d'invariance visuelle. Deux contraintes géométriques sont ensuite appliquées. La première, unaire, donne des appariements possibles entre un segment mesuré et un segment du modèle. Elle ne s'applique qu'à des segments non verticaux du modèle. La seconde, binaire, donne des appariements possibles entre une paire de segments mesurés et une paire de segments du modèle. Elle s'applique à des segments verticaux du modèle. Après l'application de ces contraintes, le nombre d'hypothèses restantes est suffisamment faible pour estimer une position pour tous les cas dans un temps raisonnable et choisir la meilleure grâce à une fonction de coût.
Les méthodes proposées sont d'abord testées sur des données synthétiques bruitées avant de prouver leur efficacité sur des images réelles. Les résultats de localisation font apparaître des erreurs en translation de l'ordre de vingt centimètres et deux degrés. L'étude de la sensibilité à la qualité de l'initialisation et au nombre de segments donne les limites d'utilisation de ces méthodes. Elles restent suffisantes pour notre application.
L'élagage de l'arbre des possibilités de mise en correspondance est aussi testé avec des données synthétiques et des images réelles. Le nombre moyen d'hypothèses retenues est de l'ordre de la centaine. Il est très peu sensible à la qualité de l'initalisation. De plus, le bon appariement est toujours présent dans la liste de ceux retenus et la fonction de coût associée à l'algorithme de localisation utilisé le désigne comme le meilleur avec une grande marge de sécurité.

Etude de l'appropriation d'un système de téléopération dans l'optique d'une coopération homme-machine - Yves Rybarczyk, soutenue en mars 2004

Jury

J. M. HOC

IRCCyN

Rapporteur

A. PRUSKI

LASC

Rapporteur

P. RABARDEL

Paris 8

Rapporteur

P. HOPPENOT

LSC

Encadreur

E. COLLE

LSC

Directeur de thèse

D. MESTRE

LMP

Directeur de thèse

 

Cette thèse a consisté à configurer un robot téléopéré de réhabilitation de manière à ce qu’il soit le plus adapté possible à l’opérateur, ceci afin de parvenir à une réelle coopération entre l’homme et la machine (CHM). Pour cela nous avons employé une approche expérimentale qualifiée d’anthropomorphique. Celle-ci a été appliquée tant au niveau de l’architecture structurale que de l’architecture fonctionnelle de l’engin de téléopération. Du point de vue structural, cette approche a visé à configurer la machine telle que les relations topologiques entre capteur visuel et organe effecteur respectent une morphologie de type humain. Sur le plan fonctionnel, des mécanismes d’anticipation visuo-motrice d’inspiration humaine ont été implémentés sur le robot mobile. Par la suite, ces configurations ont été comparées à des conditions suivant une échelle d’anthropomorphie décroissante. Afin d’évaluer dans quelles conditions l’opérateur parvenait au meilleur niveau d’adaptation à la machine, des marqueurs révélant la présence d’un phénomène d’appropriation sensori-motrice ont également été utilisés. Les résultats expérimentaux mettent en évidence (i) que les configurations anthropomorphiques sont celles qui permettent à l’opérateur de s’approprier le plus aisément un engin de téléopération, (ii) que l’atteinte d’une appropriation du système s’effectue par des processus à dominante différente (assimilation vs accommodation) selon le caractère plus ou moins fidèle de la copie du comportement humain implémentée. Enfin, ces travaux de robotiques suggèrent que l’individu circonscrit moins son schéma corporel à son enveloppe charnelle qu’à son espace d’action, montrant ainsi que l’étude de l’homme en situation de téléopération a beaucoup à apporter à la compréhension de celui-ci.

Mots clés : appropriation sensori-motrice, téléopération, CHM, anthropomorphisme, schéma corporel, assimilation/accommodation.

Saisie et manipulation d'objets pour l'assistance aux personnes handicapées - Khiar Nait Chabane. Début en octobre 2002

Directeur de thèse: Etienne Colle
Encadrement: Philippe Hoppenot

Les publications

Revues

12- Y. Rybarczyk, D. Mestre, P. Hoppenot et E. Colle : "A biological model for the evaluation of human-machine adaptation" – AMSE, 2004, à paraître.
Résumé – Abstract
revue2004amse.pdf

11- G. Pradel, P. Hoppenot : "Symbolic environment representation by means of frescoes in mobile robotics" - Robotica 2004, à paraître.
Résumé - Abstract
revue2004robotica.pdf

10- Y. Rybarczyk, D. Mestre, P. Hoppenot et E. Colle : " Implémentation télérobotique de l'anticipation sensorimotrice pour optimiser la Coopération Homme-Machine" - Le Travail humain, tome 67, n°3/2004, 209-233, 2004.
Résumé
revue2004th.pdf

9- Yves Rybarczyk, Omar Ait Aider, Philippe Hoppenot, Etienne Colle : " Remote control of a biomimetics robot assistance system for disabled persons" -
Modelling Measurement and Control, 2002, to appear.
Résumé - Abstract
revue2002mmc.pdf

8- J.P. Gaillard, D. Freard, E. Colle, P. Hoppenot : "Operator's self confidence to detect mobile robot trajectory errors - Le travail humain, tome 66, n°1, pp. 1-21, 2003.

7- P. Hoppenot, E. Colle : "Mobile robot command by man-machine co-operation - Application to disabled and elderly people assistance" - Journal of Intelligent
and Robotic Systems, vol. 34, n°3, pp. 235-252, July 2002.
Résumé - Abstract
revue2002mjirs.pdf

6- Omar Ait-Aider, Philippe Hoppenot, Etienne Colle : "Adaptation of Lowe's camera pose recovery algorithm to mobile robot self-localisation" - Robotica 2002,
Vol. 20, pp. 385-393, 2002.
Résumé - Abstract
revue2002robotica.pdf

5- P. Hoppenot, E. Colle : "Localisation and control of a rehabilitation robot by close human-machine co-operation" - IEEE Transaction on Neural System and Rehabilitation Engineering, vol. 9, pp. 181-190, June 2001.
Résumé - Abstract

4- E. Colle, P. Hoppenot, J.P. Gaillard, L. Claquin : "Assistance robotisée basée sur une coopération entre la personne handicapée et la machine" - JESA, vol. 34, n°6-7, pp. 743-764, septembre 2000.
Résumé - Abstract
revue2000jesa.pdf

3- P. Hoppenot, E. Colle and C. Barat: "Off line localisation of a mobile robot using ultrasonic measures" - Robotica, Vol 18, pp. 315-323, 2000.
Résumé - Abstract
revue2000robotica.pdf

2- P. Hoppenot, E. Colle: "Real-time localisation of a low-cost mobile robot with poor ultrasonic data" - IFAC journal, Control Engineering practice, vol. 6, pp.925-934, 1998.
Résumé - Abstract
revue1998ifac-contringpract.pdf

1- M. Benreguieg, P. Hoppenot, H. Maaref, E. Colle, C. Barret: "Fuzzy navigation strategy : Application to two distinct autonomous mobile robots" - Robotica, vol. 15, pp. 609-615, 1997.
Résumé - Abstract
revue1997robotica.pdf

Conférences

16- R. Gharbi, N. Rezzoug, P. Gorce, P. Hoppenot, E. Colle : " Assistance à la saisie en milieu non structuré" - Handicap 2004, Paris, 17-18 juin, p.12-17, 2004.
Résumé
conf2004handicap2.pdf

15- Yves Rybarczyk, Daniel Mestre, Philippe Hoppenot, Etienne Colle : " Evaluation de l'adaptation homme-machine basée sur un modèle biologique" - Handicap 2004, Paris, 17-18 juin, p. 71-76, 2004.
Résumé
conf2004handicap1.pdf

14- Philippe Hoppenot, Gilbert Pradel, Catalin Caleanu, Nicolas Perrin, Vincent Sommeilly: "Towards a symbolic representation of an indoor environment" - IEEE, CESA'2003, Abstract p.69, CD ROM S1-R-00-0048, 9-11 july 2003.
Résumé - Abstract
conf2003cesa.pdf

13- Etienne Colle, Yves Rybarczyk, Philippe Hoppenot: " ARPH: An assistant robot for disabled people" - SMC'2002, Hammanet, Tunisia, 6-9 October 2002, to
appear.
Résumé - Abstract
conf2002smc2.pdf

12- Yves Rybarczyk, Etienne Colle, Philippe Hoppenot: "Contribution of neuroscience to the teleoperation of rehabilitation robot" - SMC'2002, Hammanet,
Tunisia
, 6-9 october, to appear.
Résumé - Abstract
conf2002smc.pdf

11- O. Ait Aider, P. Hoppenot, E. Colle: "A Model to Image Straight Line Matching Method for Vision-Based Indoor Mobile Robot Self-Location" - IROS'2002, Lausanne, 30 September - 4 October, to appear.
Résumé - Abstract
conf2002iros.pdf

10- Yves Rybarczyk, Omar Ait Aider, Philippe Hoppenot, Etienne Colle: "Commande d'un système d'assistance robotique aux personnes handicapées" - Handicap'2002, pp. 81-87, Paris, 13-14 juin 2002.
Résumé - Abstract
conf2002handicap.pdf

9- P. Hoppenot, E. Colle, O. Ait Aider, Y. Rybarczyk: "ARPH - Assistant Robot for Handicapped People - A pluridisciplinary project" - IEEE Roman'2001, Bordeaux and Paris, pp. 624-629, 18-21 Sept 2001.
Résumé - Abstract
conf2001roman.pdf

8- Y. Rybarczyk, S. Galerne, P. Hoppenot, E. Colle, D. Mestre : "The development of robot human-like behaviour for an efficient human-machine co-operation" - AAATE, Ljubjana, pp. 274-279, 3-6 September 2001.
Résumé - Abstract
conf2001aaate.pdf

7- O. Ait Aider, P. Hoppenot, E. Colle : "Localisation by camera of a rehabilitation robot" - ICORR 7th Int. Conf. On Rehab Robotics, Evry, France, pp. 168-176, 25-27 avril 2001.
Résumé - Abstract
conf2001icorr.pdf

6- P. Hoppenot, E. Colle: "Human-like beaviour robot - Application to disabled people assistance" - IEEE SMC'2000, Nashville, abstract pp. 204, 8-11 October 2000.
Résumé - Abstract
conf2000smc.pdf

5- P. Hoppenot, E. Colle: "Robotics Assistance to disabled and elderly people" - IMACS'2000, Lausanne, Session 170, abstract pp.261, 21-25 August 2000.
Résumé - Abstact
conf2000imacs.pdf

4- S. Otmane, E. Colle, M. Mallem, P. Hoppenot: "Disabled people assistance by a semiautonomous robotic system" - SCI'2000, Vol 3 - Virtual Engineering and Emergent Computing, Orlando, Florida, USA, pp.684-689, 23-26 July 2000.
Résumé - Abstact
conf2000sci.pdf

3- P. Hoppenot, E. Colle : "Robotique d'assistance aux personnes handicapées" - Handicap'2000, Paris, pp. 11-16, juin 2000.
Résumé - Abstact
conf2000handicap.pdf

2- P. Hoppenot, E. Colle: "Real-time mobile robot localisation with poor ultrasonic data" - 3rd IFAC Symposium on Intelligent Component and Instrument for Control Application (SICICA), Annecy, France, pp. 135-140, 9-11 June 1997.
Résumé - Abstract
conf1997sicica-ifac.pdf

1- P. Hoppenot , M. Benreguieg, H. Maaref., E. Colle. and C. Barret: "Control of a medical aid mobile robot based on a fuzzy navigation" - IEEE Symposium on Robotics and Cybernetics, Lille, France, pp. 388-393, july 1996.
Résumé - Abstract
conf1996ieee.pdf

Communications à des manifestations nationales

6- P. Hoppenot, E. Colle, Omar Ait Aider, Yves Rybarczyk :"A remote control manipulator assistance for disabled people" - IFRATH, Workshop franco espagnol, Paris, 16-17 octobre 2003.

5- O. Ait Aider, P. Hoppenot, E. Colle  : "Localisation caméra/objet par correspondances point 3D / pixel - application à la localisation d'un robot mobile" - JJCR 13, Rennes, 28 et 29 Septembre 2000.

4- V. Vigneron, P. Hoppenot, C. Barret : " Modèle de perception structurelle chez la chauve-souris " - JJCR 12, Bourges, pp. 125-130, 3-4 février 2000.

3- P. Hoppenot, E. Colle : "Real-time mobile robot localisation with poor ultrasonic data" - Club EEA, GDR Automatique et ISIS, journées d'étude automatique et santé, LIRMM, 5 et 6 juin 1997.

2- P. Hoppenot : "Assistance au pilotage d'une base mobile : application médicale" - GDR ISIS, Fusion de données pour véhicules intelligents, ENST, 4 mars 1997.

1- P. Hoppenot : "Assistance au pilotage d'une base mobile, équipée de capteurs ultrasonores, par logique floue" - SARTA, 10-11 janvier 1996.