[Retour au sommaire] [suivant] [précédent]


1.2.2 Fusion de données.

Ce thème a pris une importance grandissante au cours des deux dernières années en lien avec les activités concernant la localisation et le contrôle de véhicules (cf. Thème 3.1), pour lesquelles une des problématiques importantes est de tirer le meilleur parti de ressources sensorielles limitées et pouvant être de mauvaise qualité. Ceci nous a amenés à nous intéresser, outre à la logique floue (qui traite essentiellement de l'imprécision), aux différentes théories de l'incertain (théories des probabilités, des possibilités et de l'évidence) pour le traitement des connaissances et l'aide à la décision. Les travaux en cours portent d'une part sur le développement d'une méthode possibiliste de fusion de données et d'autre part sur l'évaluation de la robustesse des différentes approches par rapport à l'imperfection des données.

1.2.2.1- Fusion possibiliste

Nous avons développé une méthode de fusion de données basée sur l'emploi de la théorie des possibilités [OUS98T]. Le travail effectué concerne, d'une part, l'extraction de distributions de possibilités représentatives des données et, d'autre part, le développement, l'analyse et la justification de différentes variantes de règles de fusion adaptatives [OUS96aC]. Le point central de la méthode possibiliste développée est l'utilisation d'une formulation modifiée de la règle de combinaison adaptative proposée par D. Dubois et H. Prade pour fusionner les différentes données. Deux modes de combinaison fondamentaux sont utilisables en théorie des possibilités : le mode conjonctif (intersections généralisées) et le mode disjonctif (réunions généralisées). Le mode conjonctif utilise comme opérateurs des normes triangulaires (t-normes, par exemple : minimum, produit etc.) et s'applique dans le cas où les sources sont considérées comme toutes fiables. Le mode disjonctif est basé sur les opérateurs de t-conorme (maximum, somme probabiliste etc.) et correspond aux cas où seulement certaines sources (non identifiées) sont fiables. Le choix du mode de combinaison dépend donc du degré de cohérence entre les sources. Une règle de combinaison adaptative permet alors de passer continûment du mode conjonctif au mode disjonctif en fonction de ce dernier.

Nous avons ainsi proposé [MAA98cC] une règle de fusion progressive qui possède deux caractéristiques importantes absentes dans la formulation standard :

La méthode possibiliste que nous avons mise au point n'impose pas en théorie de forme particulière aux distributions. Elle est donc de ce point de vue plus souple et éventuellement plus réaliste qu'une méthode probabiliste. Cependant cette souplesse se paye par une augmentation de la complexité, car l'enregistrement d'une distribution requiert soit plusieurs intervalles (forme alpha-coupe) soit une suite de points (forme fonctionnelle). Nous travaillons actuellement à l'amélioration de ce point.

La règle de combinaison adaptative utilisée dans la méthode possibiliste privilégie la redondance des différentes sources en accordant plus de poids aux informations qui se répètent. Il s'agit donc d'une fusion par "concordance", au lieu d'une fusion par "minimisation de la variance" dans la méthode standard du filtrage de Kalman [PAN98C].

Sur ces bases, une chaîne complète de fusion possibiliste a été réalisée et validée sur deux problèmes de localisation d'un robot mobile dans un environnement partiellement connu [BAR96aC].

La première application a été réalisée avec un robot miniature disposant de capteurs infrarouges et d'un odomètre. Il évolue dans un environnement muni de balises actives repérables par les capteurs infrarouges. Le but des expériences réalisées était ici de comparer la méthode possibiliste à celle du filtrage de Kalman, considérée comme la référence pour de tels problèmes [OUS96bC, OUS97C]. On peut en tirer les conclusions suivantes :

Par ailleurs, la méthode possibiliste permet de gérer les conflits (cas qui n'a pas été explicitement traité dans cette application), n'impose aucune contrainte sur les bruits et la linéarité du processus et n'est pas sensible à l'ordre dans lequel les observations sont traitées.

La deuxième application porte sur un robot d'exploration d'intérieur, muni d'un odomètre et de capteurs ultrasonores, qui évolue dans un environnement connu, mais susceptible de présenter des obstacles non modélisés. Nous avons pu mettre en évidence l'efficacité de la méthode et sa robustesse par rapport aux obstacles non modélisés et par rapport aux caractéristiques des distributions de possibilités associées aux capteurs. Nous avons montré également l'effet positif des modifications apportées à la règle de combinaison dans le cas d'informations conflictuelles.

1.2.2.2- Robustesse des méthodes de fusion

Plusieurs méthodes de fusion de données permettent de gérer les incertitudes et/ou l'imprécision . Elles diffèrent par une plus ou moins grande souplesse des règles de fusion de données et de décision, ainsi que par la possibilité de modéliser le degré d'ignorance, prenant ainsi en compte son influence sur la décison, en s'affranchissant de la propriété d'additivité des probabilités. La littérature abonde d'études reposant sur ces méthodes, mais les critères de choix entre elles sont fort peu développés. Par ailleurs, la souplesse s'obtient souvent au détriment de la simplicité de mise en oeuvre : de nombreux paramètres doivent être réglés, dont le choix des règles de fusion intervenant dans le processus de classification. Nous comparons ces méthodes dans le contexte de la classification afin d'en dégager des critères de choix objectifs portant sur leurs performances et leurs limites d'utilisation.

En particulier, chacune repose sur la construction d'une base d'apprentissage : c'est un ensemble d'exemples dont on connaît la classe d'appartenance. Les paramètres mathématiques des méthodes sont déterminés et ajustés grâce à cette base d'apprentissage. Or toute base peut présenter des imperfections (entre autres la sous-représentation d'une classe par rapport aux autres, l'incertitude sur l'appartenance d'un objet à une classe, voire l'ignorance de cette appartenance), et la qualité de la classification en dépend. L'objectif est donc de comparer la robustesse des méthodes de classification vis à vis des défauts de la base d'apprentissage.

Nous avons effectué une étude dans ce sens pour la reconstruction progressive d'un environnement à partir de données pauvres et incomplètes fournies par un ou plusieurs capteurs ultrasonores [VER98T]. La reconstruction s'effectue par des étapes successives ascendantes de classification (primitives géométriques élémentaires => association de primitives => objets). L'implantation de trois classificateurs utilisant un rejet en distance (pour les données dont la classe n'a pas été incluse au modèle a priori) et d'un rejet en ambigüité (pour les données pouvant appartenir à deux classes) a été réalisée et validée : classification paramétrique, réseaux neuromimétiques multicouches, méthode des kPPV avec une règle de décision basée sur la théorie de Dempster-Shafer [VAS98C].

D'autres applications sont utilisées afin d'élargir notre référentiel de données et confronter ces méthodes à d'autres types de défauts. En particulier nous travaillons sur le diagnostic de machines tournantes par l'analyse des fréquences de résonance (collaboration avec le pôle mécanique du CEMIF).

1.2.2.3- Etudes externes



[Retour au sommaire] [suivant] [précédent]