|
ARPH : Assistance Robotique aux Personnes Handicapées |
Professeur |
||
Maître de conférences |
||
Khiar Nait Chabane |
Doctorant |
|
|
|
|
|
Deux anciens |
|
Post-doc au LASMEA |
||
Yves Rybarczyk |
Post doc au LMP |
L'aide aux personnes handicapées moteur se développe depuis quelques années.
La robotique mobile peut y apporter sa contribution. Défini en lien avec
l'Association Française contre les Myopathies (AFM), l'objectif du projet ARPH est
d'embarquer un bras manipulateur sur une base mobile autonome pour donner aux
personnes handicapées la possibilité de réaliser seules des tâches de la vie
quotidienne, soit dans son environnement proche en vision directe, soit dans un
environnement plus lointain en vision indirecte
De tels projets ne sont envisageables qu'avec deux
contraintes. La première est de bien
définir le besoin réel d'une personne handicapée. En particulier,
l'AFM insiste sur la volonté de l'opérateur humain d'agir par lui même : le
robot ne doit donc pas "faire à la place" de la personne mais pallier
ses déficiences. La seconde contrainte est financière.
En effet, le coût de l'assistance doit être suffisamment faible pour que des
personnes handicapées puissent y accéder. Cela impose en particulier des choix
quant aux capteurs utilisés : odométrie et capteurs à ultrasons avec des
capacités télémétriques moyennes. Une caméra a été rajoutée pour le retour
d'information à l'utilisateur, la localisation et la commande du robot.
Ce domaine de recherche conduit naturellement à s'intéresser à la Coopération Homme-Machine (CHM). En effet,
les deux entités (homme et machine) ont des capacités de perception, de
décision et d'action. La première étape du travail a consisté à analyser l'autonomie possible de la base mobile
(planification de trajectoire, navigation, localisation). La seconde étape est la mise en place de la CHM proprement dite.
Ce travail théorique est implanté sur un système réel : le robot ARPH. Sa
commande repose sur une architecture clients-serveurs, basée sur le système ARITI,
développé au laboratoire avec des techniques de réalités
virtuelle et augmentée.
Le robot ARPH doit être utilisé par des personnes handicapées. Les choix technologiques pour la base mobile et pour le bras manipulateur sont guidés par cette application. Les publications R4, R7, C3, C5, C9, C10 et C13 donnent un aperçu global du projet.
LA base mobile doit s'inspirer le plus possible d'un fauteuil roulant
électrique pour des raisons de fiabilité et de maintenance. Nous avons donc
choisi d'utiliser la motorisation DX, très répandue sur les fauteuils roulants
électriques. La commande classique est réalisée par un joystick. Le système DX
est basé sur le bus CAN et permet de piloter l'ensemble des periphériques du
fauteuil (moteurs, klaxon, feux...). Le protocole utilisé n'est pas divulgué
par le constructeur. Il propose une passerelle, le DXKEY, entre le bus CAN et
le port parallèle d'un PC.
Nous avons développé un châssis en fibre de verre. Il possède de multiples
avantages par rapport à une base de fauteuil roulant électrique. De forme
circulaire, il est plus adapté à l'utilisation des capteurs à ultrasons sur la
demi sphère avant du robot. Ses dimensions sont réduites au maximum pour
simplifier sa commande, notamment dans les portes. Enfin, même en série
limitée, son coût est faible. En effet, seuls les moules sont chers, la matière
première et la main d'oeuvre pour réaliser la châssis à partir des moules étant
très bon marché. Une série de quelques dizaines suffit à dépasser la
rentabilité d'une base de fauteuil roulant électrique.
Développé aux Pays Bas, le bras Manus® est spécialement conçu pour les personnes handicapées. Il est prévu pour s'embarquer sur un fauteuil roulant électrique. Il est commandé par un clavier à 16 touches. Déjà produit à plus de cent exemplaires, il est utilisé en France par une dizaine de personnes, en institution ou à domincile. Muni d'un bus CAN, il est pilotable par un PC muni d'une carte CAN.
Le système est basé sur une architecture Clients-Serveurs (Figure). Les serveurs sont implantés sur un PC embarqué. Ils permettent d'accéder aux différentes ressources (moteurs, capteurs ultrasons, caméra, odométrie, bras manipulateur). Les clients, à travers une interface dérivée de ARITI (Figure 2, C4), donnent à l'utilisateur la possibilité de communiquer avec le robot à partir d'un autre PC et d'un navigateur. Une liaison TCP/IP sans fil à haute fréquence relie les deux PC.
Figure 1 : Architecture Clients/Serveurs.
La figure 2 montre l'interface Homme-Machine, dérivée de ARITI. En haut à gauche, l'image caméra est retournée à l'utilisateur. En base à gauche, une vue virtuelle correspondant à la vue caméra permet de mieux saisir la scène dans les cas où un obstacle se trouve devant le robot. L'image en haut au centre représente une vue d'en haut du robot dans son environnement. Le pavé du dessous donne à l'utilisateur la possibilité de piloter la base mobile. En haut à droite, on trouve la commande du bars Manus et en bas à droite le retour des capteurs à ultrasons indiquant la présence d'obstacles devant le robot.
Figure 2 : Interface Homme-Machine.
Si l'objectif final de ARPH est la réalisation satisfaisante d'une mission par l'opérateur avec l'aide du système, il convient d'étudier ses capacités d'autonomie afin de proposer à l'opérateur des assistances précises et efficaces. Une mission utilise deux grands types de fonctions: le déplacement de la base mobile et la manipulation d'objets.
Pour commander la base mobile, il faut choisir une trajectoire et la suivre. Cela fait appel à des notions de planification de trajectoire et de navigation. Elles sont basées sur la connaissance de la position de la base mobile dans son environnement.
La planification consiste à définir le chemin à suivre pour aller d'un point
à un autre de l'environnement. Elle requiert une connaissance au moins
partielle de l'environnement. Après une dilatation des obstacles, un graphe de
visibilité est calculé hors ligne. L'application de l'algorithme A*, par
minimisation d'une fonction de coût, permet de choisir dans chaque
configuration le plus court chemin d'un point à un autre. Un autre choix de
fonction de coût pourrait permettre de minimiser d'autres critères que la
distance comme l'énergie, la difficulté de suivi de la trajectoire...
La navigation consiste à suivre le chemin fourni par la navigation. Le problème
principal est d'éviter des objets non modélisés, donc non pris en compte par la
planification. Des capteurs à ultrasons et un traitement par logique floue
donne des résultats satisfaisants. Ces résultats sont publiés dans R1 et C1
ainsi que dans la thèse de P. Hoppenot.
La planification et la navigation ont besoin de connaître la position du
robot par rapport à son environnement. En effet, pour planifier une trajectoire
entre la cuisine et la salle à manger, il faut disposer d'un plan de
l'appartement. De même, lors du parcours de chemin calculé, le robot doit
pouvoir savoir où il en est.
Une première étude a porté sur la possibilité de localisation en utilisant les
mêmes capteurs à ultrasons que pour l'évitement d'obstacle en fusionnant avec
les données odométriques. Cette approche a donné des résultats dans des
environnements peut encombrés mais lorsque le nombre d'objets non modélisés
augmente, les seules meures de distance sont trop pauvre pour obtenir une
localisation. Les résultats de ces travaux ont été publiés dans R2, R3, R5 et
C2 ainsi que dans la thèse de P. Hoppenot.
Une seconde direction a été explorée en utilisant une caméra. L'environnement
est décrit sous la forme de segments de droite, très nombreux dans un
environnement d'intérieur. La démarche suit ensuite les étapes suivantes :
1- Acquisition d'une image
2- Segmentation de l'image
3- Mise en correspondance des segments extraits de l'image avec ceux de
l'environnement
4- Calcul de la position du robot.
Les étapes 1 et 2 utilisent des techniques classiques en image avec quelques
adaptation à notre problème. L'étape 3 est la plus sensible. La recherche de la
solution est basée sur un arbre des possibilités élagué par eux critères
complémentaires. C'est l'étape la plus délicate du processus. L'étape 4 utilise
les techniques de Lowe et Phong-Horaud adaptées à notre contexte. Les résultats
de ces travaux ont été publiés dans R6, C7 et C11 ainsi que dans la thèse de O.
Ait Aider.
Actuellement, nous cherchons à enrichir cette technique en combinant l'image
avec des capteurs à ultrasons intelligents. En effet, en plus de la distance
mesurée par les capteurs d'évitement d'obstacles, toute l'onde ultrasonore est
récupérée. Un traitement à base de réseaux de neurones permet de reconnaître
des objets simples tels des angles, des coins, des plans mais aussi des objets
complexes tels des chaises ou le bras Manus. L'idée est d'optimiser la phase 3
décrite ci-dessus. La thèse de M. Trabelsi a débuté sur ce sujet en septembre
2002.
L'objectif du projet ARPH est de (re)donner de l'autonomie à des personnes
qui en sont privée. La manipulation d'objets de la vie courante est au centre
de ces préoccupations. Nous travaillons avec un bas de type Manus, conçu pur
être embarqué sur un fauteuil roulant électrique. La commande fournie est
réalisée à l'aide d'un clavier 16 touches. Pour les besoins de notre
application, nous avons dû développer une commande par l'intermédiaire du
réseau CAN. Dans le cadre d'un projet ANVAR, un stagiaire IUP 3ème
année a écrit les driver CAN sous Linux et e programme de commande du bras.
Sur le plan scientifique, la thèse de Khiar Nait Chabane à débuté en septembre
2002 sur saisie et la manipulation d'objets. Son objectif est de fournir à
l'utilisateur des modes de commande du bras manipulateur lui permettant d'aller
chercher des objets. La démarche est identique à celle développée pour le
mouvement c'est à dire l'analyse des possibilités de commande automatique puis
le développement de modes de commande mixtes entre l'opérateur et le système.
L'objectif du système ARPH est de (re)donner à l'opérateur humain une part d'autonomie. A partir de la connaissance du système étudiée ci-dessus, l'idée de base est de tirer partie des capacités du système et de l'homme (Figure 3). Dans un sens, on cherche à donner au robot des comportements imités de ceux de l'homme. C'est ce que nous avons appliqué au déplacement de la base mobile. Dans l'autre sens, on utilise les grandes capacités d'adaptation de l'homme à incorporer dans son schéma corporel des objets extérieurs. C'est ce que nous avons appliqué à la manipulation d'objets.
Figure 3 : Interaction Homme-Machine.
Le travail de thèse de Y. Rybarczyk, de formation neuro-scientifique, porte sur l'ensemble de cette question.
Plusieurs modes de commande sont offerts à l'opérateur pour piloter la base
mobile. Le mode manuel donne tous les
degrés de liberté à l'opérateur. Le mode
automatique permet à l'opérateur de se décharger totalement de
l'exécution de la mission. Entre ces deux extrêmes, nous développons des modes mixtes dans lesquels la commande des
degrés de liberté est partagée entre le système et l'opérateur humain. Le
premier mode de ce type est le mode manuel avec évitement d'obstacles. Il
permet de donner à l'opérateur la maîtrise de la direction moyenne du
mouvement, le système se chargeant d'éviter les obstacles sur le chemin.
Pour tenir compte de l'idée de donner au robot des comportements de type
humain, nous utilisons la caméra comme organe de commande. Une stratégie de
déplacement de l'homme est : "je vais là où je regarde". Dans le
cadre du projet ARPH, l'opérateur humain pilote la caméra, orientable en site
et en azimut, et le robot suit la direction donnée par la caméra. On peut aussi
utiliser le mode "suivi automatique" donné par la caméra. Dans ce
cas, l'opérateur choisit l'objet à fixer et le robot suit la direction donnée
par la caméra. Dans les deux cas, on peut coupler cette commande avec
l'évitement.
On peut aussi prévoir une stratégie de type "je regarde là où je
vais". Des études ont montré qu'en situation de conduite automobile, le
regard du chauffeur s'oriente vers l'intérieur des virages. Pour retourner une
information plus pertinente à l'opérateur, on oriente la caméra vers
l'intérieur de la courbe. On montre alors que les performances sont améliorées
par rapport à une caméra fixe.
Ces travaux ont été publiés dans R9, R10, C6, C8 et C12.
L'idée est d'utiliser les capacités de l'opérateur, en particulier pour l'analyse d'une image. Sachant qu'une difficulté importante de la localisation est la mise en correspondance du modèle avec les mesures. Le travail initial a consisté à demander à l'opérateur de détecter les erreurs de localisation à l'aide des retours des capteurs à ultrasons. Des résultats sont publiés dans R8.
Les manipulations en cours cherchent estimer la capacité de l'homme à intégrer le bras manipulateur dans son schéma corporel. L'idée est de comparer des performances de saisie d'objet entre l'humain avec son bras et l'humain avec le bras manipulateur.
Jury
Radja CHATILA |
LAAS |
Rapporteur, président du jury |
Florent Chavand |
LSC |
Rapporteur |
Alain Pruski |
LASC |
Rapporteur |
Jean-Claude Lafont |
INT |
Examinateur |
Jean-Claude Cunin |
AFM |
Examinateur |
Etienne Colle |
LSC |
Directeur de thèse |
L'aide aux personnes handicapées moteur se développe depuis quelques années.
La robotique mobile peut y apporter sa contribution. Défini en lien avec
l'Association Française contre les Myopathies (AFM), l'objectif du projet Robot
Mobile Intelligent (RMI) est d'embarquer un bras manipulateur sur une base
mobile autonome pour donner aux personnes handicapées la possibilité de
réaliser seules des tâches de la vie quotidienne.
Le travail se divise en deux grandes parties. La première, la plus développée
dans ce mémoire, consiste à donner à la base mobile une certaine autonomie
(capacité de planification et de navigation). Résolu avec des systèmes coûteux,
ce problème mérite encore des recherches pour devenir opérationnel avec des
robots à faible coût, indispensables dans le domaine médical. Pour que ces deux
tâches soient possibles, le robot doit connaître sa position dans un
environnement partiellement connu. Pendant le déroulement de la mission, la
localisation en ligne tient compte des données odométriques, corrigées par les
mesures des capteurs à ultrasons. Le point crucial de ce recalage est
l'appariement des mesures avec l'environnement. Il se base sur la connaissance
approximative de la position du robot donnée par l'odométrie. Si, malgré cette
localisation en ligne, le robot se perd (une détection automatique est prévue),
un système de localisation hors ligne est déclenché. Basé sur les seules
mesures ultrasonores, il donne la position du robot dans son environnement.
La seconde partie porte sur l'étude de la coopération entre l'homme et la
machine. Dans le domaine de l'assistance aux personnes handicapées,
l'automatisme n'est pas recherché pour faire à la place mais doit venir en
complément des capacités de l'opérateur handicapé. Ce mémoire s'intéresse au
retour d'information nécessaire à l'utilisateur qui lui permet de savoir si le
robot effectue correctement sa mission : détection de blocage et/ou d'erreur de
localisation.
Mots clé : Robotique mobile, assistance aux personnes handicapées, localisation, coopération homme machine, planification de trajectoire, navigation, odométrie, capteurs à ultrasons.
Jury
Mustapha MOUADDIB |
CREA |
Rapporteur |
Marie Josée ALDON |
LIRMM |
Rapporteur |
Jacques DROULEZ |
LPPA |
Examinateur, président du jury |
Malik MALLEM |
LSC |
Examinateur |
Etienne COLLE |
LSC |
Directeur de thèse |
Philippe HOPPENOT |
LSC |
Encadreur |
La robotique d'assistance aux personnes handicapées s'est développée ces dernières
années. Elle cherche à restaurer, au moins partiellement, l'autonomie d'une
personne handicapée dans sa vie de tous les jours, au travail... Ce domaine
d'application impose deux contraintes : le coût qui doit rester modéré et
la fiabilité. Dans le cadre du projet ARPH (Assistance Robotique aux Personnes
Handicapées) développé au CEMIF-LSC, notre démarche consiste dans un premier
temps à étudier la capacité d'autonomie du robot pour pouvoir ensuite proposer
à la personne des modes de commande partagés dans lesquels l'opérateur humain
et la machine pilotent ensemble le robot pour atteindre l'objectif souhaité par
la personne.
ARPH est une base mobile équipée d'un bras manipulateur afin de pouvoir saisir
des objets. La première étape est de déplacer la base mobile vers l'objet à
saisir. Elle met en œuvre des notions de planification de trajectoire et de
navigation, basées sur une connaissance de la position du robot. Dans un
environnement intérieur, cette dernière doit être connue avec une précision de
quelques dizaines de centimètres en translation et de quelques degrés en
rotation. Une caméra permet d'obtenir en une seule acquisition suffisamment
d'informations. Les primitives utilisées sont ici des segments, nombreux dans
un environnement structuré et facile à extraire par des traitements classiques
en image. Les deux points clé de cette démarche restent d'une part la mise en
correspondance des segments mesurés et ceux définis par le modèle partiel de
l'environnement et d'autre part le calcul de la position à partir de
l'appariement choisi. L'utilisation d'une seule caméra est imposée par les
contraintes de coût financier et de temps de calcul. Toute la chaîne de
développement, de la capture de l'image au calcul de la position, a été
développée et permet d'obtenir un système complet. Les apports scientifiques
portent sur les deux derniers points à savoir la mise en correspondance et le
calcul de la position.
En supposant la mise ne correspondance résolue, le calcul de la position du
robot s'appuie principalement sur deux méthodes : Phong-Horaud et Lowe.
Ces deux méthodes ont été adaptées au contexte de la robotique mobile. En
effet, elles sont énoncées dans le cas général où la position est donnée par
trois composantes en translation et trois composantes en rotation. Dans notre
cas, le sol étant plat, seules deux composantes en translation sont utiles. Les
angles de roulis et de tangage peuvent aussi être considérés connus ce qui
limite la rotation à un seul angle. Une formulation dans ce cas fait apparaître
des simplifications qui rendent ces méthodes plus simples, donc plus rapides,
et utilisables à partir de seulement deux segments.
La mise en correspondance entre les segments mesurés et modélisés est basée sur
la recherche arborescente. La difficulté majeure de cette approche est
l'explosion combinatoire. Dans un premier temps, l'utilisation d'une
connaissance a priori de la position du robot grâce à l'odométrie permet
de réduire le nombre de segments visibles du modèle en utilisant les régions
d'invariance visuelle. Deux contraintes géométriques sont ensuite appliquées.
La première, unaire, donne des appariements possibles entre un segment mesuré
et un segment du modèle. Elle ne s'applique qu'à des segments non verticaux du
modèle. La seconde, binaire, donne des appariements possibles entre une paire
de segments mesurés et une paire de segments du modèle. Elle s'applique à des
segments verticaux du modèle. Après l'application de ces contraintes, le nombre
d'hypothèses restantes est suffisamment faible pour estimer une position pour
tous les cas dans un temps raisonnable et choisir la meilleure grâce à une
fonction de coût.
Les méthodes proposées sont d'abord testées sur des données synthétiques
bruitées avant de prouver leur efficacité sur des images réelles. Les résultats
de localisation font apparaître des erreurs en translation de l'ordre de vingt
centimètres et deux degrés. L'étude de la sensibilité à la qualité de
l'initialisation et au nombre de segments donne les limites d'utilisation de
ces méthodes. Elles restent suffisantes pour notre application.
L'élagage de l'arbre des possibilités de mise en correspondance est aussi testé
avec des données synthétiques et des images réelles. Le nombre moyen
d'hypothèses retenues est de l'ordre de la centaine. Il est très peu sensible à
la qualité de l'initalisation. De plus, le bon appariement est toujours présent
dans la liste de ceux retenus et la fonction de coût associée à l'algorithme de
localisation utilisé le désigne comme le meilleur avec une grande marge de
sécurité.
Jury
J. M. HOC |
IRCCyN |
Rapporteur |
A. PRUSKI |
LASC |
Rapporteur |
P. RABARDEL |
Paris 8 |
Rapporteur |
P. HOPPENOT |
LSC |
Encadreur |
E. COLLE |
LSC |
Directeur de thèse |
D. MESTRE |
LMP |
Directeur de thèse |
Cette thèse a consisté à configurer un robot téléopéré de réhabilitation de manière à ce qu’il soit le plus adapté possible à l’opérateur, ceci afin de parvenir à une réelle coopération entre l’homme et la machine (CHM). Pour cela nous avons employé une approche expérimentale qualifiée d’anthropomorphique. Celle-ci a été appliquée tant au niveau de l’architecture structurale que de l’architecture fonctionnelle de l’engin de téléopération. Du point de vue structural, cette approche a visé à configurer la machine telle que les relations topologiques entre capteur visuel et organe effecteur respectent une morphologie de type humain. Sur le plan fonctionnel, des mécanismes d’anticipation visuo-motrice d’inspiration humaine ont été implémentés sur le robot mobile. Par la suite, ces configurations ont été comparées à des conditions suivant une échelle d’anthropomorphie décroissante. Afin d’évaluer dans quelles conditions l’opérateur parvenait au meilleur niveau d’adaptation à la machine, des marqueurs révélant la présence d’un phénomène d’appropriation sensori-motrice ont également été utilisés. Les résultats expérimentaux mettent en évidence (i) que les configurations anthropomorphiques sont celles qui permettent à l’opérateur de s’approprier le plus aisément un engin de téléopération, (ii) que l’atteinte d’une appropriation du système s’effectue par des processus à dominante différente (assimilation vs accommodation) selon le caractère plus ou moins fidèle de la copie du comportement humain implémentée. Enfin, ces travaux de robotiques suggèrent que l’individu circonscrit moins son schéma corporel à son enveloppe charnelle qu’à son espace d’action, montrant ainsi que l’étude de l’homme en situation de téléopération a beaucoup à apporter à la compréhension de celui-ci.
Mots clés : appropriation sensori-motrice, téléopération, CHM, anthropomorphisme, schéma corporel, assimilation/accommodation.
Directeur de thèse: Etienne Colle
Encadrement: Philippe Hoppenot
12- Y. Rybarczyk, D.
Mestre, P. Hoppenot et E. Colle : "A biological model for the
evaluation of human-machine adaptation" – AMSE, 2004, à paraître.
Résumé
– Abstract
revue2004amse.pdf
11- G. Pradel, P.
Hoppenot : "Symbolic environment representation by means of
frescoes in mobile robotics" - Robotica 2004, à paraître.
Résumé
- Abstract
revue2004robotica.pdf
10- Y. Rybarczyk, D. Mestre, P. Hoppenot et E. Colle : "
Implémentation télérobotique de l'anticipation sensorimotrice pour optimiser la
Coopération Homme-Machine" - Le Travail humain, tome 67, n°3/2004,
209-233, 2004.
Résumé
revue2004th.pdf
9- Yves Rybarczyk, Omar Ait
Aider, Philippe Hoppenot, Etienne Colle : " Remote control of a
biomimetics robot assistance system for disabled persons" -
Modelling Measurement and Control, 2002, to appear.
Résumé - Abstract
revue2002mmc.pdf
8- J.P. Gaillard, D.
Freard, E. Colle, P. Hoppenot : "Operator's self confidence to detect
mobile robot trajectory errors - Le travail humain, tome 66, n°1, pp. 1-21,
2003.
7- P. Hoppenot, E. Colle :
"
and Robotic Systems, vol. 34, n°3, pp. 235-252, July 2002.
Résumé
- Abstract
revue2002mjirs.pdf
6- Omar Ait-Aider, Philippe Hoppenot, Etienne Colle : "Adaptation of
Lowe's camera pose recovery algorithm to mobile robot self-localisation" -
Robotica 2002,
Vol. 20, pp. 385-393, 2002.
Résumé - Abstract
revue2002robotica.pdf
5- P. Hoppenot, E. Colle :
"Localisation and control of a rehabilitation robot by close human-machine
co-operation" - IEEE Transaction on Neural System and Rehabilitation
Engineering, vol. 9, pp. 181-190, June 2001.
Résumé
- Abstract
4- E. Colle, P. Hoppenot, J.P. Gaillard, L. Claquin : "Assistance
robotisée basée sur une coopération entre la personne handicapée et la
machine" - JESA, vol. 34, n°6-7, pp. 743-764, septembre 2000.
Résumé - Abstract
revue2000jesa.pdf
3- P. Hoppenot, E. Colle
and C. Barat: "Off line localisation of a mobile robot using ultrasonic
measures" - Robotica, Vol 18, pp. 315-323, 2000.
Résumé - Abstract
revue2000robotica.pdf
2- P. Hoppenot, E. Colle:
"Real-time localisation of a low-cost mobile robot with poor ultrasonic
data" - IFAC journal, Control Engineering practice, vol. 6, pp.925-934,
1998.
Résumé - Abstract
revue1998ifac-contringpract.pdf
1- M. Benreguieg, P.
Hoppenot, H. Maaref, E. Colle, C. Barret: "Fuzzy navigation strategy :
Application to two distinct autonomous mobile robots" - Robotica, vol. 15,
pp. 609-615, 1997.
Résumé
- Abstract
revue1997robotica.pdf
16- R. Gharbi, N. Rezzoug, P. Gorce, P. Hoppenot, E. Colle : "
Assistance à la saisie en milieu non structuré" - Handicap 2004,
Paris, 17-18 juin, p.12-17, 2004.
Résumé
conf2004handicap2.pdf
15- Yves Rybarczyk, Daniel Mestre, Philippe Hoppenot, Etienne Colle :
" Evaluation de l'adaptation homme-machine basée sur un modèle
biologique" - Handicap 2004, Paris, 17-18 juin, p. 71-76, 2004.
Résumé
conf2004handicap1.pdf
14- Philippe Hoppenot,
Gilbert Pradel, Catalin Caleanu, Nicolas Perrin, Vincent Sommeilly:
"Towards a symbolic representation of an indoor environment" - IEEE,
CESA'2003, Abstract p.69, CD ROM S1-R-00-0048, 9-11 july 2003.
Résumé - Abstract
conf2003cesa.pdf
13- Etienne Colle, Yves Rybarczyk, Philippe Hoppenot:
" ARPH: An assistant robot for disabled people" - SMC'2002,
appear.
Résumé - Abstract
conf2002smc2.pdf
12- Yves Rybarczyk, Etienne Colle, Philippe Hoppenot:
"Contribution of neuroscience to the teleoperation of rehabilitation
robot" - SMC'2002,
Résumé - Abstract
conf2002smc.pdf
11- O. Ait Aider, P. Hoppenot, E. Colle: "A Model to Image Straight
Line Matching Method for Vision-Based Indoor Mobile Robot Self-Location" -
IROS'2002, Lausanne, 30 September - 4 October, to appear.
Résumé
- Abstract
conf2002iros.pdf
10- Yves
Rybarczyk, Omar Ait Aider, Philippe Hoppenot, Etienne Colle: "Commande
d'un système d'assistance robotique aux personnes handicapées" -
Handicap'2002, pp. 81-87, Paris, 13-14 juin 2002.
Résumé
- Abstract
conf2002handicap.pdf
9- P. Hoppenot,
E. Colle, O. Ait Aider, Y. Rybarczyk: "ARPH - Assistant Robot for
Handicapped People - A pluridisciplinary project" - IEEE Roman'2001,
Bordeaux and Paris, pp. 624-629, 18-21 Sept 2001.
Résumé - Abstract
conf2001roman.pdf
8- Y. Rybarczyk, S.
Galerne, P. Hoppenot, E. Colle, D. Mestre : "The development of robot
human-like behaviour for an efficient human-machine co-operation" - AAATE,
Ljubjana, pp. 274-279, 3-6 September 2001.
Résumé - Abstract
conf2001aaate.pdf
7- O. Ait Aider, P.
Hoppenot, E. Colle : "Localisation by camera of a rehabilitation
robot" - ICORR 7th Int. Conf. On Rehab Robotics, Evry,
France, pp. 168-176, 25-27 avril 2001.
Résumé
- Abstract
conf2001icorr.pdf
6- P. Hoppenot, E. Colle:
"Human-like beaviour robot - Application to disabled people
assistance" - IEEE SMC'2000,
Résumé - Abstract
conf2000smc.pdf
5- P. Hoppenot, E. Colle:
"Robotics Assistance to disabled and elderly people" - IMACS'2000,
Résumé - Abstact
conf2000imacs.pdf
4- S. Otmane, E. Colle, M.
Mallem, P. Hoppenot: "Disabled people assistance by a semiautonomous
robotic system" - SCI'2000, Vol 3 - Virtual Engineering and Emergent
Computing, Orlando, Florida, USA, pp.684-689, 23-26 July 2000.
Résumé
- Abstact
conf2000sci.pdf
3- P. Hoppenot, E. Colle : "Robotique d'assistance aux personnes
handicapées" - Handicap'2000, Paris, pp. 11-16, juin 2000.
Résumé - Abstact
conf2000handicap.pdf
2- P. Hoppenot, E. Colle:
"Real-time mobile robot localisation with poor ultrasonic data" - 3rd
IFAC Symposium on Intelligent Component and Instrument for Control Application
(SICICA), Annecy, France, pp. 135-140, 9-11 June 1997.
Résumé - Abstract
conf1997sicica-ifac.pdf
1- P. Hoppenot , M.
Benreguieg, H. Maaref., E. Colle. and C. Barret: "Control of a medical aid
mobile robot based on a fuzzy navigation" - IEEE Symposium on Robotics and
Cybernetics,
Résumé
- Abstract
conf1996ieee.pdf
6- P. Hoppenot, E. Colle, Omar Ait Aider, Yves Rybarczyk :"A remote control manipulator assistance for disabled people" - IFRATH, Workshop franco espagnol, Paris, 16-17 octobre 2003.
5- O. Ait Aider, P. Hoppenot, E. Colle : "Localisation caméra/objet par correspondances point 3D / pixel - application à la localisation d'un robot mobile" - JJCR 13, Rennes, 28 et 29 Septembre 2000.
4- V. Vigneron, P. Hoppenot, C. Barret : " Modèle de perception structurelle chez la chauve-souris " - JJCR 12, Bourges, pp. 125-130, 3-4 février 2000.
3- P. Hoppenot, E. Colle : "Real-time mobile robot localisation with poor ultrasonic data" - Club EEA, GDR Automatique et ISIS, journées d'étude automatique et santé, LIRMM, 5 et 6 juin 1997.
2- P. Hoppenot : "Assistance au pilotage d'une base mobile : application médicale" - GDR ISIS, Fusion de données pour véhicules intelligents, ENST, 4 mars 1997.
1- P. Hoppenot : "Assistance au pilotage d'une base mobile, équipée de capteurs ultrasonores, par logique floue" - SARTA, 10-11 janvier 1996.