Nous vous rappelons que, afin de garantir l'accès de tous les inscrits aux salles de réunion, l'inscription aux réunions est gratuite mais obligatoire.
Inscriptions closes à cette réunion.
24 personnes membres du GdR ISIS, et 35 personnes non membres du GdR, sont inscrits à cette réunion.
Capacité de la salle : 80 personnes.
Les systèmes de fusion de données sont maintenant largement utilisés dans divers domaines comme par exemple les systèmes intelligents, les réseaux de capteurs et la robotique. La fusion de données multi-capteurs est une technologie qui permet de combiner des renseignements provenant de plusieurs sources afin de former une information de meilleure qualité. Mais certains problèmes rendent la fusion de données encore délicate. La majorité de ces problèmes découle de la nature des données à fusionner, de leurs imperfections et de la diversité des technologies des capteurs.
La gestion des imperfections des données est une partie intégrante de la fonction même de perception du système. Ces imperfections proviennent des capteurs, des datations pas toujours précises ni synchrones, de la dynamique de la scène observée (occultations, flou, déplacements). Il convient de maîtriser les imperfections et incertitudes associées, depuis l’acquisition des informations jusqu’au niveau de la prise de décision. Les méthodes de fusion de données permettent d’augmenter la connaissance sur l’état du système en tirant profit de la complémentarité des capteurs, d’améliorer la précision des estimations en exploitant la redondance des données et de gérer l’incertitude lors de la combinaison d’informations qui seront utilisées dans le processus de décision. La redondance peut provenir de l’utilisation de plusieurs sources d’information ou de la connaissance de l’évolution du système dans le temps.
Pour résoudre ces problèmes différentes techniques et méthodologies de fusion existent. Ces dernières s’appuient sur des théories capables de manipuler, de représenter et de propager des incertitudes et/ou des imprécisions inhérentes aux informations fournies par les capteurs. On peut citer parmi ces formalismes les approches ensemblistes ainsi que les théories des possibilités, des probabilités imprécises et des fonctions de croyances.
L'objectif de cette journée est de faire un bilan des différentes méthodes qui existent et celles qui sont mises en œuvre dans les applications.
10h-11h: Véronique Cherfaoui (Heudiasyc - UTC) : la gestion des incertitudes et la fusion de données de capteurs : application aux véhicules intelligents.
11h-12h: Jean-François Grandin (Thales) : Systèmes multi-capteurs et multi-plateformes.
Pause déjeuner
13h30-14h00: Nicole El Zoghby (Heudiasyc - UTC) : Association optimale dans le cadre de Dempster-Shafer.
14h00-14h30: Paulo Cavalcante (Télécom Sud Paris): Réseaux évidentiels pour la fusion de données multimodales hétérogènes: application à la détection de chutes.
14h30-15h00: Wan Xiao (Université de Paris-Est, IGN/SR-Matis): Change detection in 3D point clouds using Dempster-Shafer theory.
15h00-15h30 Samir Hachour (Université Artois): Classification Multi-Objets, Multi-sources
15h30-16h00: Nadia ben Aldallah (Heudiasyc - UTC): Combinaison d'informations statistiques et d'avis d'experts dans le cadre de la théorie des fonctions de croyance
16h00-16h30: Benoit Lelandais (Rouen): Fusion d'informations pour la modélisation et la réduction des incertitudes et des imprécisions: Application aux images médicales TEP multi-traceurs.
L'exposé traitera de la gestion des incertitudes et de la fusion de données de capteurs. J'aborderai des notions de fusion centralisée et de fusion distribuée. Les concepts seront illustrés avec des applications autour des véhicules intelligents.
L'exposé traitera de la fusion, dans lequel nous illustrerons nos travaux sur les systèmes multi-capteurs et multi-plateformes. Nos travaux ont essentiellement porté sur de la fusion bayésienne car l'incertitude dominante est lié aux bruits de mesure. Nous montrerons que le résultat de la fusion pondéré par l'incertitude est toujours meilleur que celui du meilleur des capteurs. Nous distinguerons ensuite la sémantique bayésienne et la sémantique possibiliste, puis crédibiliste en montrant des différences profondes. Nous tenterons dans un deuxième temps d'ouvrir sur des problèmes où le traitement de l'incertitude ne répond plus à une sémantique bayésienne: c'est le cas de toutes les fonctions interprétatives de haut niveau ou des interactions avec un opérateur humain ouvrant ainsi sur des problèmes restant à traiter.
L’association des objets est souvent une étape préalable dans le processus de fusion de données, en particulier pour le suivi d’objets multiples et fusion de données multicapteurs. Le problème d’association consiste à trouver une relation entre deux ensembles d’objets détectés par deux capteurs différents ou par un seul capteur à des instants différents. Ce problème est formalisé dans le cadre des fonctions de croyance de façon qu’un objet de chaque ensemble soit associé au plus à un seul objet de l’autre ensemble. La modélisation des relations entre les objets en prenant en compte les incertitudes est faite par des fonctions de masse, calculées selon la similarité des objets. Ces fonctions de masse sont combinées en utilisant la règle de Dempster et la relation de plausibilité maximale est obtenue en résolvant un problème de programmation linéaire. Ce problème se révèle être équivalent à un problème d’affectation, qui peut être résolu en temps polynomial en utilisant, par exemple, l’algorithme hongrois. Les performances de cette méthode sont illustrées sur des données réelles et simulées. L’extension tridimensionnelle de ce problème (avec trois ensembles d’objets), également formalisée, s’avère être NP-difficile. Ce travail a été mené dans le cadre de la thèse sur la fusion de données dans un réseau de véhicules, sous la direction de Véronique Cherfaoui et Thierry Denoeux.
Ces travaux de recherche se sont déroulés dans le cadre du développement d'une application de télévigilance médicale ayant pour but de détecter une situation de détresse à travers l'utilisation de plusieurs types de capteurs. La fusion multi-capteurs peut fournir des informations plus précises et fiables par rapport aux informations provenant de chaque capteurs prises séparément. Par ailleurs les données issues de plusieurs capteurs hétérogènes présents dans les systèmes de télévigilance médicale possèdent différents degrés d'imperfection et de confiance. Parmi les techniques de fusion muti-capteurs, les méthodes crédibilistes fondées sur les fonctions de croyance de Dempster-Shafer sont actuellement considérées comme les plus adaptées à la représentation et au traitement des données imparfaites. La prise en compte de l'imperfection présente dans les données de notre système de télévigilance médicale permet une modélisation plus réaliste du problème. En nous appuyant sur une représentation graphique de la théorie de Dempster-Shafer appelé Réseaux Evidentiels, nous proposons une structure de fusion de données hétérogènes issues de plusieurs capteurs pour la détection de chutes. Les Réseaux Evidentiels, implémentés sur notre plateforme de télévigilance médicale, sont donc proposés dans ces travaux afin de maximiser les performances de détection automatique de chutes et ainsi rendre le système plus fiable. La non-stationnatité des signaux recueillis sur les capteurs du système considéré peut conduire à une dégradation des conditions expérimentales. La présence de bruit de mesure, la variabilité des signaux enregistrés par les capteurs, les capteurs défaillants ou non fiables, peuvent rendre les Réseaux Evidentiels incohérents dans leur décisions. Afin de compenser les effets résultant de la non-stationnarité des signaux provenant des capteurs, les Réseaux Evidentiels sont rendus évolutifs dans le temps, ce qui nous a conduit à introduire les Réseaux Evidentiels Dynamiques dans nos traitements et à les évaluer sur des scenarios de chutes simulées correspondant à des cas d'usage variés.
Thanks to the development of Mobile mapping system (MMS), street object's recognition, classification, modelling and relative studies become hot topics recently. We tend to detect changes between mobile laser scanning (MLS) point clouds in complex urban areas. To generate sufficient changes, some objects in the street are set differently from scan to scan artificially. A method based on the consistency between the occupancies of space computed from different datasets is proposed. First, a local coordinate system is established to present the relative position of points from different datasets. The scan ray (r) rotates in a vertical plan (rotation angle teta) perpendicular to the trajectory (t). Each ray has its own local coordinate system (r,t,teta) which describes the relative position with other points. Then the occupancy score (empty, occupied, unknown) of scan rays are described with the consideration of precision of measurement and registration.The space is empty from the scan center to the point, and occupied at the location of the point. Behind the point, no information is obtained thus it is unknown. The certainties of occupancy in vertical teta and trajectory t directions are presented by Gaussian distributions. Also, the measurement and registration errors are modelled and convoluted with the occupancy functions. Next, the overall occupancy scores of scan rays are fused using Dempster-Shafer theory (DST). The three occupancy scores are all within the interval 0 to 1, and sum up to 1. Thus the set of disernement has the properties to be a basic belief assignment (BBA). The combination rule is commutative and associative, so any rays that have evidence can be fused regardless the order. Eventually, the consistency (consistent, conflict, uncertain) between different datasets is obtained by sampling the occupancy scores of reference dataset at the location of points from target dataset. The shape of the beam is considered as prism to avoid anisotropic sampling problem. The change detection results were compared with conventional point to triangle distance method. The proposed approach is able to dectect changes at a large scale in urban scenes with fine details and more importantly distinguish really changes from occlusions. Changes at point level are detected fully automatically.
L’étude présentée ici porte sur le suivi et la classification d’objets à l’aide de plusieurs capteurs. Dans ce système, chaque capteur est en mesure de suivre et de classer localement plusieurs objets effectuant des mouvements divers. Les capteurs sont considérés imparfaits de part leurs erreurs de mesure considérées importantes. Ces erreurs de mesure peuvent considérablement altérer les résultats de classifications prononcés au niveau des capteurs. L’objectif de ce travail est de fusionner les classifications locales des capteurs et de fournir un résultat de classification globale de meilleure qualité en utilisant le formalisme des fonctions de croyance. Dans la première phase, la classification locale, effectuée par les capteurs, est basée sur des données cinématiques (position, vitesse, accélération, etc) des objets suivis. Les données cinématiques des objets sont estimées à l’aide d’algorithmes IMM (Interacting Multiple Model) basés sur des filtres de Kalman et connaissant a priori les différents modèles d’évolutions des objets. Pour assurer le bon fonc- tionnement des IMM dans le cadre multi-objets (éviter la confusion entre les ob- jets), un algorithme GNN (Global Nearest Neighbor) est utilisé pour acheminer les différentes mesures aux IMM. Ajoutées à cette combinaison d’algorithmes, des fonctions scores sont utilisées pour gérer les apparitions et disparitions d’objets. Les algorithmes utilisés pour le suivi des objets peuvent être trouvés dans la littéra- ture [1–3]. A l’issue de ce processus de suivi et à l’aide des données cinématiques estimées, chaque capteur procède à la phase de classification. Dans cette première partie de nos travaux, les résultats de la classification bayésienne sont comparés aux résultats de la classification crédale. La seconde phase, nommée classification globale, n’est exécutée que pour les objets communément observés et suivi par plus d’un seul capteur. Les capteurs s’accordent sur les objets suivis par l’utilisation d’un algorithme GNN exécuté pour chaque paire de capteurs. Il permet de reconnaître les objets communément observés et suivis par les capteurs et ceux qui sont partiellement observés. Dans le domaine du suivi et de la classification d’objets, cette technique est appelée "track- to-track association". Une fois la correspondance entre les objets réalisée, les clas- sifications locales des capteurs peuvent être fusionnées pour obtenir la classifica- tion globale. Les résultats obtenus à partir de différentes règles de fusion (bayé- sienne ou crédale) sont étudiés. Un exemple simplifié, avec deux capteurs qui observent des objets aériens, permet d’illustrer le système proposé.
Nous abordons le problème de la combinaison d'informations provenant de sources différentes dans le cadre de la théorie de Dempster et Shafer. Nous nous intéressons en particulier au cas où une information de nature statistique (issue d'observations) est à combiner, via un modèle, avec des jugements d'experts (connaissances imparfaites). L'imprécision des opinions est décrite par une distribution de possibilité et différentes règles (conjonctive, disjonctive, moyenne pondérée) permettent la fusion des croyances des experts sous différentes hypothèses. La composante statistique est représentée par une fonction de croyance consonante construite à partir de la fonction de vraisemblance. Des simulations de Monte Carlo permettent finalement de combiner les deux éléments d’évidence et de quantifier l’incertitude sur la réponse du modèle. La méthodologie est appliquée à la détermination du niveau de franchissement d'une structure côtière dans le contexte du changement climatique. Le franchissement est induit par des variables hydrologiques observables et des variables mal connues (telles que l’augmentation du niveau moyen de la mer au cours du 21ème siècle) estimées par des experts du climat.
En imagerie, les informations sont incertaines en raison du bruit, ou imprécises en raison de la résolution spatiale. Ces imperfections doivent être modélisées de manière pertinente pour pouvoir ensuite être réduites en tirant parti des différentes sources d'information disponibles. Nous proposons une méthode de clustering basée sur la théorie des fonctions de croyance, nommée EVEII, opérant sur des images mono-modales et ayant un impact différencié entre les incertitudes et les imprécisions. Tout d'abord, l'estimation des croyances, avec modélisation des imperfections, est réalisée par la combinaison disjonctive des voxels voisins intégrée au sein de l'algorithme Fuzzy C-Means. Ensuite, la réduction des incertitudes est réalisée par combinaison conjonctive des voxels voisins. Enfin, nous proposons de modéliser une connaissance externe, intrinsèque au système d'imagerie, par une fonction de croyance obtenue par mesure de l'imprécision. Cette imprécision est ensuite considérablement réduite par fusion des voxels avec cette connaissance externe. EVEII a été évalué sur des images simulées et comparée à d’autres méthodes utilisant la théorie des fonctions de croyance pour la modélisation des incertitudes et des imprécisions. EVEII a également été évaluée sur des images médicales par Tomographie d’Emission de Positons ayant une faible résolution spatiale et présentant du bruit. Comparativement à trois méthodes proposées dans la littérature pour segmenter ce type d'images, notre méthode offre les pourcentages d'erreur les plus faibles. Ensuite, l'application sur des images médicales multi-modales de patients a montré que EVEII est tout à fait adapté aux problèmes de segmentation d'images de nature diverse.
Date : 2013-10-03
Lieu : Télécom ParisTech (46 rue Barrault, 75013 Paris)
Thèmes scientifiques :
A - Méthodes et modèles en traitement de signal
Inscriptions closes à cette réunion.
Accéder au compte-rendu de cette réunion.
(c) GdR IASIS - CNRS - 2024.