AccueilRapports d'activitésRapport d'activités 2001 • Traitement de données et modélisation

 

 

Traitement de données et modélisation

 

 

  1. TRAITEMENT DE DONNÉES ET MODÉLISATION

    Thèmes scientifiques :

    * Modélisation par apprentissage

    mots clés : Techniques d’apprentissage, réseaux neuromimétiques, analyse statistique, pré-traitement de données, réduction de dimension, renforcement.

    * Traitement de données imprécises et incertaines

    mots clés : Systèmes d’inférence floue, optimisation, théorie des possibilités, théorie de l’évidence, fusion de données.

    * Modélisation du savoir-faire et diagnostic

    mots clés : Raisonnement hypothétique, maintien de cohérence, diagnostic à base de modèles.

     

    Responsables :

    Claude Barret

    Jean-Marc Martinez (Modélisation par apprentissage)

    Hichem Maaref (Traitement de données imprécises et incertaines)

    Michel Dumas (Modélisation du savoir-faire et diagnostic)

    Participants :

    Claude Barret Pr IUT. Evry : (depuis 1992)

    Michel Dumas Ing CEA : (depuis 1992)

    Hichem Maaref MCF IUT Evry : (depuis 1992)

    J.-M. Martinez Ing CEA et PAST U. Evry : (depuis 1992)

    Yasmina Sadi MCF U. Evry : (depuis Septembre 1996)

    Claire Vasiljevic MCF U. Evry : (depuis Septembre 1995)

    Vincent Vigneron MCF U. Evry : (depuis Septembre 1998)

    Doctorants :

    Frédéric Davesne : 10/96 : Allocataire MENRT

    Ali Goudarzi ;10/95 : Bourse iranienne

    Stéphane Lepert : 01/97 : Bourse Cifre

    Ana Paola Leitao : 10/00 : Bourse INRETS

    Thèses soutenues ( 97-00) :

    Manuel Dominguez : 07/98 : Ingénieur

    Philippe Meyne : 06/97 : PRAG (IUT d'Evry)

    Mourad Oussalah : 10/98 : Post-doc (U. de Louvain)

    Denis Rivière : 09/00 : Post-doc (INSERM)

    Alberto Soria-Lopez : 12/99 : Chercheur (U. de Mexico)

    Renaud Thétiot : 09/99 : Ingénieur (High Tech Systems)

    Vincent Vigneron : 05/97 : MCF (U. d'Evry)

    Rachid Yacoub : 12/97 : Ingénieur (Société ORCHE)

    Fakher Zouaoui : 12/98 : Ingénieur

    Coopérations et Groupes de travail :

    GDR-PRC ISIS : Fusion de données

    GDR Automatique : Commande symbolique et neuromimétique

    Université Paris I (SAMOS) : Apprentissage non supervisé

    IRISA Rennes : Optimisation des systèmes flous ; Apprentissage par renforcement

    Université de Louvain : Théories de l'incertain

    Université de Rio de Janeiro : Apprentissage par modèles RAM

    INT Evry : Commande floue

    CEA : Modélisation par apprentissage ; Analyse de spectres

    INRETS : Commande floue ; Fusion de données, " Route Intelligente "

    EDF : Diagnostic

    CHU R.Debré : Traitement de données médicales (obstétrique)

     

    INTRODUCTION

    Quel que soit l'objectif poursuivi, modélisation d'un processus complexe et/ou prise de décision le concernant, pouvant faire intervenir des opérations d'identification, de classification, de fusion d'informations, de reconnaissance de situation ou de signature, ... en vue de commande ou de diagnostic, une préétape indispensable est de s'intéresser au traitement des données recueillies qui peuvent être de nature numérique ou symbolique.

    Initialement, nous avions abordé ces deux aspects à travers deux outils spécifiques : d'une part, les réseaux de neurones et d'autre part, la logique floue, en s'attachant particulièrement à développer et exploiter leur complémentarité. Depuis, notre activité s'est fortement élargie et est structurée suivant trois axes principaux :

    - Modélisation par apprentissage,

    - Traitement de données imprécises et incertaines,

    - Modélisation du savoir-faire et diagnostic.

    1.1. MODELISATION PAR APPRENTISSAGE

    Le problème abordé dans ce thème est celui de l'apprentissage dans le cadre de la modélisation d'un processus physique, en vue d'une prise de décision (commande, diagnostic, classification, reconnaissance de signature, etc...), à partir d'informations empiriques (données), disponibles ou recueillies en ligne. Les outils utilisés font appel aux différentes techniques d'apprentissage (non supervisé, semi-supervisé, supervisé) et reposent majoritairement sur les concepts de "réseaux neuromimétiques", compris comme une façon particulière d'implanter une analyse statistique de données.

    Les activités du thème peuvent être séparées en quatre domaines, avec des interactions importantes entre eux.

    1.1.1. Approximation de fonctions

    Cette activité concerne la recherche des modèles les plus appropriés pour un problème donné. Dans ces familles de modèles, les réseaux de neurones tiennent une place privilégiée pour leur propriété reconnue d'approximateur universel.

    Sur le plan théorique, nous avons entrepris un travail sur les modes de convergence de l'apprentissage reposant sur l'idée qu'une partie importante du fonctionnement du réseau s'effectue dans un mode quasi-linéaire, avant d'évoluer progressivement vers un mode non-linéaire [VIG98bC] [VIG99aR] .

    Une activité importante concerne la validation des modèles obtenus. Les méthodes que nous développons permettent d’évaluer la qualité de représentation du réseau de neurones construit à partir d’un échantillon. Un des critères de qualification est le risque fonctionnel ou erreur de généralisation. Par rapport au risque empirique déterminé sur les données disponibles, le risque fonctionnel ne peut pas être calculé. Des bornes sur l’erreur fonctionnelle ont été proposées dans le cadre de la théorie de l’apprentissage statistique, mais elles sont encore aujourd’hui trop imprécises. Cette méthode est de plus en plus utilisée en analyse statistique et notamment en régression linéaire pour estimer la variabilité de la régression par rapport aux données.

    Pour calculer une estimation de l’erreur de généralisation, nous nous sommes attachés à développer des méthodes d'estimation d'un intervalle de confiance sur la (les) sortie(s) d'un modèle neuronal, intégrant l'imprécision (bruit) sur les données d'entrée et celle due au modèle lui-même. Nous nous sommes appuyés fortement sur des méthodes issues du calcul statistique, en particulier sur des algorithmes de type Bootstrap, pour propager et combiner les imprécisions sous forme de biais et d'écart-type. La méthode est basée sur la simulation d’échantillons. Le ré-échantillonnage permet de pallier le manque de données et d’obtenir des estimations robustes à partir d’un nombre limité d’observations. Une méthode de bootstrap généralisé [PIL98T], [PIL98bC] a été proposée,qui permet d'une part une estimation robuste de la qualité de la modélisation et, d'autre part, une estimation de la durée d'apprentissage la mieux adaptée au modèle et aux données (problème du sur-apprentissage).

    Nous avons appliqué cet emploi du Bootstrap dans le cadre de la régression et de la discrimination non linéaires par réseaux de neurones [VIG00bC] [VIG00cC] [KAL01R]. Notre méthode associe le Bootstrap et le " early-stopping " pour pallier les problèmes posés par l’adéquation entre complexité du modèle et données. Une analyse statistique sur l’ensemble des répliques, permet d’estimer le biais entre l’erreur d’apprentissage et l’erreur de test d’un réseau de neurones.. La technique du early stopping permettant de régulariser l’apprentissage est utilisée pour optimiser automatiquement le nombre de cycles qui est déterminé automatiquement par une analyse statistique faite sur l’ensemble des répliques. Cette approche est particulièrement adaptée aux problèmes où les exemples sont peu nombreux.

    Plusieurs applications de cette méthode portant sur l’approximation de fonctions complexes et des surfaces de réponses dans les logiciels scientifiques sont en cours, en collaboration avec le CEA. Elles concernent :

    - l’optimisation du repositionnement du combustible des réacteurs nucléaires, étude menée pour EDF [MAR00C]

    - les études de fiabilité mécanique [DEV00C]

    - la qualification de codes de thermohydraulique

    Nous pouvons ainsi mettre en jeu une méthodologie complète de développement de modèles neuromimétiques qui nous a permis d'utiliser avec succès ces techniques dans diverses applications couvrant des domaines très variés, en relation avec des partenaires publics ou privés, ou correspondant à des projets internes au laboratoire. Les thèmes de ces projets, les collaborations et les publications associées sont listés ci-dessous :

     

        THEME

     

        COLLABORATION

    PUBLICATIONS
    Modélisation système mécanique

     

        CEA / SFIM

    [DOM98T] [DOM97C]
    Modélisation four verrier

     

        Stein-Heurtey (Groupe Fives Lille)

    [LEP-T]
    Identification et Commande de processus non linéaire

     

        SNECMA / CEA

    [MEY97T]
    Prévision de temps de fabrication

     

        NORDON CRYOGENIE

    [BAR97bRC]
    Mesure physique nucléaire

     

        European JRC Ispra

        CEA

     

        [CLA97C][VIG97bC] [GAU97C] [PIL98aC] [PIL98bC]

    Calibration en fluorescence X

     

        CEA/SAR

    [VIG97R]
    Robotique mobile 2D  

     

        cf thème 3 : §3.1.1.2 et 3.1.2.2

    Par ailleurs, dans le domaine biomédical, une collaboration s’est développée avec l’équipe CEA basée à l'hôpital F. Joliot d'Orsay, où un travail est en cours [RIV00T] afin de développer des méthodologies cohérentes pour l'apprentissage de modèles de reconnaissance de la topographie du cortex. La difficulté du problème réside dans la construction d'un système de reconnaissance suffisamment robuste face à la variabilité interindividuelle des structures du cortex. Pour cela, les méthodes d'apprentissage statistique supervisé développées précédemment sont utilisées. La représentation de la topographie corticale est définie par un graphe dont les noeuds représentent les caractéristiques locales des sillons corticaux. A partir d'une base d'exemples de graphes étiquetés, le principe retenu est d'adapter des modèles de reconnaissance locales afin d'assurer l'optimisation de la probabilité a posteriori de la cohérence globale du graphe analysé [RIV98C] [RIV00aC]. Les résultats obtenus sont, de l’avis des experts médicaux, de toute première qualité [RIV00bC].

    1.1.2. Caractérisation des données

    La caractérisation des données est devenue depuis quelques années une stratégie prioritaire pour optimiser l'apprentissage. Elle consiste à extraire d'un signal ou d'un ensemble de données les caractéristiques propres du support de ces données afin de se focaliser sur les informations pertinentes. Notre approche est basée sur l'utilisation des méthodes de projection linéaire (ACP, ACI) ou non linéaire (ACC) et de regroupement par quantification vectorielle (LVQs, cartes de Kohonen). Nous avons particulièrement travaillé [VIG97T] sur la méthode ACC qui se distingue des cartes de Kohonen par une plus grande flexibilité dans l'auto-organisation des unités car la topologie n'est pas imposée a priori. Ceci permet une mise en forme qui explicite partiellement le problème de reconnaissance dans un espace de représentation nettement plus informatif que l'espace initial. Il en résulte que, par exemple pour des problèmes de classification, ce traitement des données permet une économie considérable sur le développement du classifieur (qui peut être réalisé par un réseau à apprentissage supervisé extrêmement simple).

    Ce thème évolue actuellement dans trois directions mettant en jeu différents partenaires et des domaines d’application très variés :

    · En lien avec le thème 1.2 (traitement de données imprécises et incertaines), nous avons débuté un travail sur la classification de données qualitatives par cartes de Kohonen. En effet, extraire de l'information d'un ensemble de données qualitatives provenant d'un tableau de réponses (sondage par exemple) est un problème difficile : les données sont par nature imprécises et faiblement informatives. Les méthodes les plus utilisées sur ce type de problème sont des méthodes de type factorielles, donc des méthodes projectives qui perdent la structure non-linéaire des données. Le but des travaux en cours est d'utiliser des méthodes non-linéaires pour analyser la structure de ces données. On peut relier ces recherches à la classification de données floues [VIG00aC]. Les premiers tests sur des données relatives au transfert de technologie entre laboratoires publics et industries ont donné des résultats très encourageants [VIG99C] [PET00R]. Nous travaillons actuellement sur deux projets, l’un relatif à des données économiques (avec l’INRA de Grenoble) , l’autre sur des données sociologiques (avec l’Institut d’Ethnologie de l’Université de Grenoble). Par ailleurs, dans le cadre de l’activité " capteurs intelligents " du laboratoire (cf. § 2-3), ces méthodes sont appliquées au traitement de données issues de capteurs ultrasonores [VIG00S].

    · Nous avons mis en place une collaboration avec une équipe du CHU R. Debré (Prs. Azencot-Bergel et Sibony) dans le but d’améliorer le traitement de données médicales dans le domaine de l’obstétrique. Un premier travail est en cours pour réaliser l'extraction en temps réel du signal cardiaque du fœtus in vivo dans le ventre de la mère [VIG98aC]. Les enjeux médicaux sont importants (suivi direct du fœtus pendant la grossesse et l’accouchement), mais les difficultés sont nombreuses : le bruit parasite est élevé, le signal du fœtus est imbriqué avec celui de la mère, il est non-stationnaire et varie selon la période de gestation.

    Le traitement direct de données issues de l’emploi d’appareillage de mesure standard n’a pas permis d’aboutir à une solution satisfaisante. C’est pourquoi nous avons dû développer une chaîne de mesure et d’acquisition de données originale et optimisée pour le problème à traiter. Cela nous permet d’améliorer de façon significative la qualité du signal et d’aborder maintenant le problème de la séparation de sources dans de bien meilleurs conditions.

    Ce projet a reçu un prix au concours pour l’innovation technologique ouvert par le CEA en 1998 et il est actuellement soutenu par le MRT dans le cadre des projets " Santé et Télémédecine ".

    · Depuis Septembre 2000, une collaboration se met en place avec le laboratoire LIVIC de l’INRETS dans le cadre de la problématique générale de la sécurité routière. Nous intervenons dans deux actions, correspondant à deux thèses en démarrage, l’une relative à la fusion de données multicapteurs multicibles (R. Khallel, Univ. Paris I), l’autre sur la reconnaissance et le suivi du marquage routier (A.P. Leitao, Univ. Evry).

    1.1.3. Méthode RWT

    Les deux approches précédentes correspondent aux deux grandes familles de méthodes usuellement mises en jeu pour résoudre un problème "mal posé" comme l'est l'apprentissage dans les conditions pratiques :

    - en faisant des hypothèses restrictives sur la famille des fonctions-solutions (§ 1.1.1)

    - en réduisant l'information pertinente du volume des observations (§ 1.1.2)

    Nous explorons, en marge de ces deux méthodes classiques, une solution originale basée sur des algorithmes stochastiques qui est caractérisée par (i) son caractère distribué, (ii) ses propriétés régularisantes, (iii) la convergence certaine de l'optimisation. Ces algorithmes intitulés "Random Walk Trapping" fédèrent des techniques d'inversion de modèles et de chaînes de Markov. La méthode n'est pas complètement explorée d'un point de vue théorique, mais son champ d'application couvre a priori toutes les familles de modèles. Elle est particulièrement efficace dans les situations difficiles où on dispose de peu de données et où ces données sont de grandes dimensions, par exemple en spectrométrie ou en traitement du signal. Ce modèle a été employé avec succès pour plusieurs problèmes dont les résultats ont été publiés dans [VIG97aC] [VIG98R].

    1.1.4. Apprentissage incrémental

    Un problème fondamental que posent les méthodes précédentes est l'aspect global de l'apprentissage qui rend difficile l'introduction de connaissance a priori et quasi-impossible l'incrémentalité de l'apprentissage. Il faut que toutes les situations potentielles auxquelles aura à faire face le réseau au cours de son " existence " aient été présentes dans la base d'apprentissage. Il est clair que, face à des problèmes complexes, il est beaucoup plus judicieux de pouvoir apprendre progressivement, de façon incrémentale. Les techniques d'apprentissage par renforcement sont une des rares voies pouvant déboucher sur cette propriété. Mais ces techniques, qu'elles soient basées sur les méthodes d'AHC ou de Q- Learning, souffrent d'une explosion de l'espace de recherche (états et actions) qui est un sérieux handicap pour traiter des problèmes de taille réaliste. C'est pourquoi nous avons repris le problème à la base et travaillons actuellement [DAV-T] sur la minimisation de l'espace de travail, en le construisant au fur et à mesure de l'évolution du système [DAV99dC]. Le champ potentiel d'applications de cette approche est très vaste. Les premiers domaines envisagés concernent la fusion de comportements élémentaires pour la navigation d'un robot mobile [DAV99S] [DAV99aC] [DAV99bC] [DAV99cC] et la coopération de plusieurs robots pour l'exécution d'une tâche complexe.

    1.2. TRAITEMENT DE DONNÉES IMPRÉCISES ET INCERTAINES

    Le problème qui nous intéresse ici est celui de la gestion de l'imprécision et de l'incertitude sur des informations qui peuvent être numériques ou symboliques. La logique floue a été initialement l'outil que nous avons privilégié dans ce domaine, puis nous avons développé différents travaux, en particulier dans le cadre de la fusion de données, en faisant appel à d'autres théories de l'incertain.

    1.2.1. Systèmes d'Inférence Floue Optimisés (SIFO)

    Ce thème a été le premier abordé, en particulier à travers une participation active au groupe de travail "Commande Symbolique et Neuromimétique" du pôle "Automatisation Intégrée" du G.R. Automatique dès sa création. Il est aussi très impliqué dans les activités du CEMIF concernant la robotique mobile et les véhicules intelligents (cf. thème 3 : § 3.1.2.1).

    Un système d'inférence floue peut être vu comme un système multi-paramètres. Même si l'esprit de la commande floue est de choisir ces paramètres par recours à "l'expertise humaine", une démarche logique est de se servir de cette expertise comme initialisation (introduction de connaissance a priori), mais de rajouter à cela une étape d'optimisation supervisée. Un lien naturel apparaît donc avec les activités concernant les problèmes d'apprentissage (cf § 1.1) et nous avons privilégié, par rapport à l'ensemble des méthodes d'optimisation possibles, le recours à des méthodes proches de celles utilisées dans les réseaux neuromimétiques multicouches (RMC), c'est à dire celles basées sur la minimisation d'une fonction de coût, puisqu'il existe une analogie structurelle très forte entre SIF et RMC. Néanmoins une différence importante apparaît immédiatement. Un RMC est une "boîte noire" à apprentissage global dans laquelle aucune interprétation physique ou logique n'est attribuable aux paramètres à optimiser. Par contre un SIF est un système de nature locale (seules quelques règles sont activées pour un vecteur d'entrée donné) dans lequel la signification des paramètres est très forte. Deux attitudes peuvent alors être suivies :

    - Considérer que l'objectif de l'étape d'optimisation est uniquement d'obtenir la meilleure commande possible du processus, quitte à ce que le système de commande devienne une boîte noire.

    - Considérer au contraire que cet objectif ne doit pas se faire au détriment de ce qui est l'essence de la commande floue, c'est à dire en s'imposant la contrainte que cette optimisation ne détruise pas la lisibilité et la cohérence logique des règles de décision.

    Nous nous inscrivons clairement dans une démarche du second type.

    Nous avons tout d'abord analysé de façon systématique les mécanismes d'apprentissage par descente de gradient appliqués à un SIF sous différentes contraintes visant à préserver la lisibilité des règles (Thèse M. Brunet, 1996) , afin de dégager un certain nombre de principes méthodologiques. Un problème majeur est lié au contrôle de la dérive des paramètres (ou poids) du SIF, en particulier pour ceux correspondant aux conclusions des règles. Nous avons pour cela développé un algorithme utilisant une méthode d'optimisation basée sur la minimisation d'un critère lié d'une part à la tâche à accomplir et contenant d'autre part un terme de pénalité qui va assurer un comportement de convergence des poids vers des valeurs faibles et quasi constantes. On peut alors extraire une table de règles du SIF optimisé, vérifier sa cohérence et son interprétabilité et comparer éventuellement sa logique à celle déduite par expertise [MAA99L] [MAA00C].

    Cette méthode a été validée dans le cadre applicatif d'un système de navigation réactive de robot mobile utilisant plusieurs blocs de commande floue et qui est présenté au § 3.1.2.1. Les différents modules flous ont été optimisés et une technique d'apprentissage a été mise au point qui évite les "pertes de mémoire" lorsque l'information reçue par le système est pauvre. On peut ainsi effectuer un apprentissage totalement en ligne, avec ou sans introduction de connaissance a priori, et en laissant l'algorithme actif en permanence [MAA98aC] [MAA99C]. Cette capacité d'apprentissage progressif permet de pouvoir passer, sans aucune étape de modélisation et de simulation, de la commande d'un mobile à celle d'un autre (ou plus généralement de celle d'un processus à un processus voisin) avec seulement une très courte phase de complément d'apprentissage en ligne [MAA98bC] [MAA00R].

    Ces travaux sur la commande floue et l'optimisation des SIF ont été étendus, en collaboration avec le LARP de l'INT, à la modélisation et la commande de systèmes non linéaires multi-entrées et multi-sorties (MIMO) [SOR99T]. Ceci pose tout d'abord le problème de la mise en oeuvre de méthodes de découplage pour lesquelles des solutions originales basées sur le concept de relation floue ont été proposées [SOR97C], [SOR98C]. Les démarches d'optimisation décrites précédemment peuvent ensuite s'appliquer efficacement et nous les avons évaluées très favorablement par rapport à des méthodes stochastiques telles que les algorithmes génétiques qui connaissent une grande vogue actuellement.

    Par ailleurs, ce thème est source de collaborations industrielles diverses :

    * Contrôle de dispositif de séchage de bois (Cathild Industries)

    Le séchage industriel du bois est une opération qui est réalisée actuellement sous contrôle d'un "expert" humain qui adapte de façon régulière les consignes (température, hygrométrie, ventilation) du système de séchage en fonction de ses observations sur le comportement actuel du bois et de sa mémoire sur les comportements passés. Un prototype de Système Expert Flou destiné à aider les prises de décision de l'opérateur a été réalisé. Il est basé sur la gestion d'une mémoire à court terme et d'une mémoire à long terme des mesures et un système de règles floues hiérarchisées qui s'adaptent automatiquement au contexte [BAR97eRC]. Ce travail, soutenu par l'ANVAR, est actuellement en évaluation dans l'entreprise.

    * Commmande de température de fours de métallurgie (Stein Heurtey) :

    La gestion de la température dans un four de sidérurgie est classiquement réalisée à base de PID. L'expérience montre que le réglage de ces PID reste très empirique et largement sous-optimal. Nous avons développé un système de supervision des coefficients de ces PID à base de règles floues qui a été implanté sur les fours de l'aciérie du Ruault (Belgique) [BAR97aRC]. Ce système, opérationnel depuis 18 mois, a d'une part réduit significativement la consommation de gaz et d'autre part amélioré considérablement le confort des opérateurs en diminuant très fortement le nombre d'alarmes et en gérant automatiquement les fluctuations de production. Ce système a été breveté par l'entreprise et fait partie maintenant de son offre commerciale.

    * Aide au contrôle de four verrier (Stein-Heurtey) :

    Le problème de la commande automatique de fours à verre est beaucoup plus délicat que le précédent en raison des retards très élevés, des contraintes fortes sur la température en sortie du four, des difficultés d'obtention de mesures in situ et de la complexité des réactions physico-chimiques se produisant dans le four. Le rôle des opérateurs est ici à la fois très important et très empirique. Dans le cadre d'un contrat CIFRE, une thèse est actuellement en cours [LEP-T]), avec comme principaux objectifs :

    - l'amélioration de l'extraction de données pertinentes à partir des capteurs [OBS98C] ;

    - la réalisation d'un système d'aide à la décision pour l'opérateur à base de règles floues [LEP99C] ;

    - la mise au point d'un modèle prédictif simplifié permettant d'évaluer d'évaluer la température future du verre en sortie de four à partir des conditions actuelles.

    * Régulation de métro automatisé (INRETS) :

    Une collaboration s'est établie entre le CEMIF et le laboratoire ESTAS de l'INRETS sur l'amélioration du système de commande des transports guidés automatisés (de type VAL). Un prototype de système de commande basé sur des SIFO a été réalisé et testé sur la plate-forme de simulation de l'INRETS. La contribution du CEMIF a porté principalement sur le problème de l'introduction de la prise en compte du flux de passagers dans le système de commande [BAR97dRC].

    1.2.2. Fusion de données

    Ce thème a pris une importance grandissante au cours des deux dernières années en lien avec les activités concernant la localisation et le contrôle de véhicules (cf. Thème 3.1), pour lesquelles une des problématiques importantes est de tirer le meilleur parti de ressources sensorielles limitées et pouvant être de mauvaise qualité. Ceci nous a amenés à nous intéresser, outre à la logique floue (qui traite essentiellement de l'imprécision), aux différentes théories de l'incertain (théories des probabilités, des possibilités et de l'évidence) pour le traitement des connaissances et l'aide à la décision. Les travaux en cours portent d'une part sur le développement d'une méthode possibiliste de fusion de données et d'autre part sur l'évaluation de la robustesse des différentes approches par rapport à l'imperfection des données.

    1.2.2.1. Fusion possibiliste

    Nous avons développé une méthode de fusion de données basée sur l'emploi de la théorie des possibilités [OUS98T]. Le travail effectué concerne, d'une part, l'extraction de distributions de possibilités représentatives des données [OUS00aR] [OUS00bR] et, d'autre part, le développement, l'analyse et la justification de différentes variantes de règles de fusion adaptatives [OUS00cR]. Le point central de la méthode possibiliste développée est l'utilisation d'une formulation modifiée de la règle de combinaison adaptative proposée par D. Dubois et H. Prade pour fusionner les différentes données. Deux modes de combinaison fondamentaux sont utilisables en théorie des possibilités : le mode conjonctif (intersections généralisées) et le mode disjonctif (réunions généralisées). Le mode conjonctif utilise comme opérateurs des normes triangulaires (t-normes, par exemple : minimum, produit etc.) et s'applique dans le cas où les sources sont considérées comme toutes fiables. Le mode disjonctif est basé sur les opérateurs de t-conorme (maximum, somme probabiliste etc.) et correspond aux cas où seulement certaines sources (non identifiées) sont fiables. Le choix du mode de combinaison dépend donc du degré de cohérence entre les sources. Une règle de combinaison adaptative permet alors de passer continûment du mode conjonctif au mode disjonctif en fonction de ce dernier. Nous avons ainsi proposé [MAA98cC] une règle de fusion progressive qui possède deux caractéristiques importantes absentes dans la formulation standard :

    - elle est robuste par rapport à la forme des distributions de possibilités;

    - elle tient compte de façon explicite de la distance séparant la zone de consensus de chaque point du support et permet une élimination progressive et contrôlable d'une information en contradiction avec les autres.

    La méthode possibiliste que nous avons mise au point n'impose pas en théorie de forme particulière aux distributions. Elle est donc de ce point de vue plus souple et éventuellement plus réaliste qu'une méthode probabiliste. Cependant cette souplesse se paye par une augmentation de la complexité, car l'enregistrement d'une distribution requiert soit plusieurs intervalles (forme alpha-coupe) soit une suite de points (forme fonctionnelle). Nous travaillons actuellement à l'amélioration de ce point. La règle de combinaison adaptative utilisée dans la méthode possibiliste privilégie la redondance des différentes sources en accordant plus de poids aux informations qui se répètent. Il s'agit donc d'une fusion par "concordance", au lieu d'une fusion par "minimisation de la variance" dans la méthode standard du filtrage de Kalman [PAN98C].

    Sur ces bases, une chaîne complète de fusion possibiliste a été réalisée et validée sur deux problèmes de localisation d'un robot mobile dans un environnement partiellement connu. La première application a été réalisée avec un robot miniature disposant de capteurs infrarouges et d'un odomètre. Il évolue dans un environnement muni de balises actives repérables par les capteurs infrarouges. Le but des expériences réalisées était ici de comparer la méthode possibiliste à celle du filtrage de Kalman, considérée comme la référence pour de tels problèmes [OUS97C] [MAA99R]. On peut en tirer les conclusions suivantes :

    - dans les situations d'informations riches, le filtrage de Kalman est sans conteste supérieur.

    - par contre, dans le cas de situations pauvres, la méthode possibiliste peut parvenir à de meilleurs résultats.

    - une procédure de redondance (rebouclage) permet une amélioration sensible des résultats.

    Par ailleurs, la méthode possibiliste permet de gérer les conflits (cas qui n'a pas été explicitement traité dans cette application), n'impose aucune contrainte sur les bruits et la linéarité du processus et n'est pas sensible à l'ordre dans lequel les observations sont traitées.

    La deuxième application porte sur un robot d'exploration d'intérieur, muni d'un odomètre et de capteurs ultrasonores, qui évolue dans un environnement connu, mais susceptible de présenter des obstacles non modélisés. Nous avons pu mettre en évidence l'efficacité de la méthode et sa robustesse par rapport aux obstacles non modélisés et par rapport aux caractéristiques des distributions de possibilités associées aux capteurs. Nous avons montré également l'effet positif des modifications apportées à la règle de combinaison dans le cas d'informations conflictuelles [OUS01aR] [OUS01bR].

    1.2.2.2. Robustesse des méthodes de fusion

    Plusieurs méthodes de fusion de données permettent de gérer les incertitudes et/ou l'imprécision . Elles diffèrent par une plus ou moins grande souplesse des règles de fusion de données et de décision, ainsi que par la possibilité de modéliser le degré d'ignorance, prenant ainsi en compte son influence sur la décison, en s'affranchissant de la propriété d'additivité des probabilités. La littérature abonde d'études reposant sur ces méthodes, mais les critères de choix entre elles sont fort peu développés. Par ailleurs, la souplesse s'obtient souvent au détriment de la simplicité de mise en oeuvre : de nombreux paramètres doivent être réglés, dont le choix des règles de fusion intervenant dans le processus de classification. Nous comparons ces méthodes dans le contexte de la classification afin d'en dégager des critères de choix objectifs portant sur leurs performances et leurs limites d'utilisation.

    En particulier, chacune repose sur la construction d'une base d'apprentissage : c'est un ensemble d'exemples dont on connaît la classe d'appartenance. Les paramètres mathématiques des méthodes sont déterminés et ajustés grâce à cette base d'apprentissage. Or toute base peut présenter des imperfections (entre autres la sous-représentation d'une classe par rapport aux autres, l'incertitude sur l'appartenance d'un objet à une classe, voire l'ignorance de cette appartenance), et la qualité de la classification en dépend. L'objectif est donc de comparer la robustesse des méthodes de classification vis à vis des défauts de la base d'apprentissage.

    Nous avons effectué une étude dans ce sens pour la reconstruction progressive d'un environnement à partir de données pauvres et incomplètes fournies par un ou plusieurs capteurs ultrasonores [VAS97C][VER98T]. La reconstruction s'effectue par des étapes successives ascendantes de classification (primitives géométriques élémentaires => association de primitives => objets). L'implantation de trois classificateurs utilisant un rejet en distance (pour les données dont la classe n'a pas été incluse au modèle a priori) et d'un rejet en ambigüité pour les données pouvant appartenir à deux classes) a été réalisée et validée : classification paramétrique, réseaux neuromimétiques multicouches, méthode des kPPV avec une règle de décision basée sur la théorie de Dempster-Shafer [VAS98C].

    D'autres applications sont utilisées afin d'élargir notre référentiel de données et confronter ces méthodes à d'autres types de défauts. En particulier nous travaillons sur le diagnostic de machines tournantes par l'analyse des fréquences de résonance (collaboration avec le pôle mécanique du CEMIF).

    1.2.2.3. Etudes externes

    - Evaluation de la satisfaction des clients de transports collectifs urbains (INRETS) :

    Ce travail a consisté à développer en collaboration avec le laboratoire ESTAS de l'INRETS un système d'évaluation de la qualité de service des réseaux de transport urbain. Notre contribution a porté sur l'extraction d'une mesure du degré de satisfaction des clients à partir de l'analyse d'enquêtes de terrain, en utilisant des méthodes d'agrégation multicritère [BAR97cRC] [BAR97fRC].

    - Etat de l'art sur la fusion d'informations multisensorielles (INRETS)

    Ce travail a consisté en une présentation générale et une synthèse bibliographique comparative des différentes méthodes de fusion [CHA98RC].

    1.3. MODÉLISATION DU SAVOIR FAIRE ET DIAGNOSTIC

    Les travaux regroupés ici sont davantage proches de l'IA " classique ". Ils reposent sur la notion de modèles logiques ou de modèles sémantiques permettant la description de systèmes complexes. Ils sont orientés soit vers le diagnostic à base de modèles, soit vers la conception de chaînes d'assemblage par capitalisation des savoirs et savoirs-faire.

    Ce thème entrera en extinction, M. Dumas rejoignat le thème 1.1. et Y. Sadi devant se rapprocher du thème 3.2.

    1.3.1. Systèmes de maintien de la cohérence et diagnostic logique

    Les Systèmes de Maintien de la Cohérence (SMC) permettent la mise en œuvre de raisonnements de type hypothétique. Ils offrent ainsi des possibilités nouvelles pour traiter les problèmes aux applications pratiques nombreuses utilisant ce type de raisonnement, en particulier les problèmes de diagnostic. La mise en œuvre de ces techniques se heurte à leurs caractères intrinsèquement combinatoires. On distingue deux grandes classes de SMC : ceux qui utilisent le calcul des impliqués premiers et ceux qui sont basés sur des mécanismes de propagation. Pour leur donner un intérêt pratique, il est nécessaire d'introduire un mécanisme de contrôle permettant de n'explorer que des sous-parties de l'espace de recherche, caractérisées par un " focus ". Pour les SMC utilisant le calcul des impliqués premiers par le principe de résolution, cela revient à définir le sous-ensemble d'impliqués particuliers qu'il est suffisant de calculer pour un focus donné et à construire une stratégie de résolution appropriée à ce calcul.

    Nos travaux [YAC97T] ont consisté à définir une suite de nouvelles stratégies de résolution aux conditions de plus en plus restrictives permettant le calcul de sous-ensembles d'impliqués premiers de plus en plus particuliers. La dernière stratégie de cette suite correspond au mécanisme de contrôle que nous voulions introduire. La complétude de chacune de ces stratégies a été démontrée. Les possibilités de contrôle dans un SMC peuvent donc être sérieusement améliorées. La dernière stratégie a été implémentée dans un SMC couplé avec un système de déduction. Les possibilités d'application de ce SMC, muni de ce mécanisme de contrôle, ont été illustrées dans le domaine du diagnostic par le calcul des diagnostics préférés.

    Les travaux sur la représentation des systèmes complexes permettant de construire des modèles, supports des raisonnements utilisés pour comprendre et pour prévoir leur fonctionnement, ont porté sur l'amélioration et l'adaptation aux systèmes physiques de l'approche multi-modèles [ZOU98T] [ZOU99R]. Cette approche vise à exploiter la contribution de différents modèles, (structurel, comportemental, fonctionnel et téléologique) dans le raisonnement global sur un système [ZOU97aC], [ZOU97bC], [THE97C]. Nous avons introduit, au niveau comportemental, une représentation de type bond-graph [ZOU98aC].

    L'exploitation de cette représentation s'est révélée très fructueuse :

    - elle permet de générer le graphe d'influences du système explicitant les relations causales entre les variables du système et reliant leurs sens de variation. L'utilisation de ce graphe est particulièrement intéressante pour expliquer qualitativement le comportement d'un système sans disposer des valeurs précises des paramètres,

    - elle permet de construire le modèle des rôles fonctionnels du système en interprétant les éléments du bond-graph (résistance, capacité, source d'effort,…) comme des rôles fonctionnels élémentaires (conduit avec dissipation, réservoir, générateur,...),

    - elle permet également, en suivant dans le bond-graph les chemins causaux, de regrouper les rôles fonctionnels définissant des " processus ", permettant ainsi la construction d'un modèle fonctionnel du système [THE98C].

    Les concepts de cette approche sont validés, en collaboration avec le CEA, en les appliquant à la représentation du circuit primaire d'un réacteur à eau sous pression.

    L'exploitation de ces modèles permet d'analyser et d'expliquer le comportement du circuit lors de transitoires d'exploitation à partir des valeurs des variables observables fournies par les capteurs [ZOU98bC]. Une autre exploitation de ce type de modélisation est le diagnostic. En effet, l'approche dite " Model Based Diagnosis " (MBD) utilise les modèles structurel et comportemental du bon fonctionnement du système dans un raisonnement de type hypothétique mis en œuvre dans les SMC. Les modèles fonctionnel et téléologique de la représentation multimodèles fournissent des mécanismes de focalisation qui peuvent être exploités par le SMC que nous avons développé [ZOU99R]. Cette approche apparaît comme complémentaire de l'approche dite " abductive " du diagnostic qui utilise des modèles de pannes. Le dernier volet de cet ensemble de travaux dans le domaine du diagnostic [THE99T] est d'établir comment ces approches pourraient se compléter et coopérer pour fournir des outils d'aide au diagnostic plus robustes et plus efficaces (contrat avec EDF/DER/SDM).

    1.3.2. Modélisation des connaissances dans les processus industriels complexes

    Dans le cadre de ce thème, nous nous intéressons aux processus subis par un produit tout au long de son cycle de vie (conception, fabrication, …). Les systèmes prenant en charge ces processus complexes présentent des dysfonctionnements dus à l'absence de modèles permettant d'intégrer connaissances, savoir et savoir-faire. Notre objectif est d'apporter notre contribution dans ce contexte. Nous nous basons sur une approche systémique, au cœur de laquelle se trouve l'interaction entre systèmes. Notre démarche consiste en la définition du système complexe, associé au champ d'application, et de ses entités (sous systèmes) constituantes, que nous considérons comme relativement autonomes, ainsi qu'à leurs descriptions en intégrant leurs aspects statiques (description sémantique), dynamiques (règles formelles et informelles) mais aussi réactifs. Nous nous intéressons par ailleurs aux flux de communication représentant les interactions entre entités ainsi qu'aux structures émergeant de ces interactions. Notre travail associe une démarche conceptuelle pour l'extraction, la formalisation et la représentation des connaissances basée sur la notion de modèles objets et une logique de raisonnement pour l'implémentation de règles gérant la connaissance des objets. Les modèles proposés sont alors implémentés dans des systèmes aidant l'opérateur dans sa conception ainsi que sa prise de décision.

    Comme champ d'application, nous nous sommes intéressés, dans un premier temps, à la conception de chaînes d'assemblage, pour une industrie de grande production d'objets complexes. La problématique devait être envisagée au travers du processus et des moyens faisant passer des pièces stockées à un ensemble assemblé avec tous ses composants fixés. La démarche de conception est aléatoire, car directement liée à l'expérience et au savoir-faire de l'opérateur méthode. A cette expérience s'ajoute la culture d'entreprise, mais aussi les critères de choix du matériel. L'expertise et les connaissances sont caractérisées par une durée longue d'acquisition sans oublier leur caractère labile. A partir d'une analyse sémantique des tâches d'assemblage et des moyens les prenant en charge, nous avons établi un vocabulaire métier rigoureux propre à l'assemblage que nous avons structuré en une base vocabulaire. Une analyse syntaxique nous a permis de mettre en place un ensemble de référentiels technologiques contenant des règles syntaxiques formelles et informelles. La construction de modèles, c'est à dire la conception de lignes d'assemblage, la validation de leur faisabilité technique ou économique, l'évaluation de la qualité, consiste à établir des liens d'association entre entités émanant de la base vocabulaire, des référentiels technologiques ou des entités créées en dynamique par l'expert. Nous avons validé notre méthodologie par la construction du prototype d'un outil d'aide à la décision et à la collaboration, basé sur la connaissance. Celui-ci a été testé dans le cadre de l'industrie automobile.

    Après les problèmes liés à l'assemblage, nous nous sommes penchés sur la phase de conception de systèmes mécaniques complexes. Notre approche est basée sur l'intégration des étapes formant le cycle de vie du produit dès la phase de conception. Ceci nécessite un modèle de description du produit et du processus de conception, permettant aux différents acteurs d'intervenir pour un juste besoin (ingénierie simultanée). Par ailleurs, notre approche permet deux types de conception : la conception concernant la création de structures topologiques d'objets (conception créatrice ou innovatrice) et la conception d'objets dont la structure topologique est connue (conception routinière). Nous avons mis en place des modèles génériques (statique, fonctionnel et dynamique en utilisant la méthode OMT) pour le produit et le processus de conception. Une base de connaissances contient les référentiels associés, de même qu'elle intègre les modèles associés à des produits antérieurement validés [GOU-T].

    Concernant l'intégration des différents métiers, nous nous orientons vers les systèmes multi-agents afin de gérer les interactions entre eux et intégrer dans la conception, par exemple, les contraintes de fabrication.