Vous êtes ici : Réunions » Réunion

Identification

Identifiant: 
Mot de passe : 

Mot de passe oublié ?
Détails d'identification oubliés ?

Approches du suivi des caractéristiques dans des images et leur applications à la navigation.

Nous vous rappelons que, afin de garantir l'accès de tous les inscrits aux salles de réunion, l'inscription aux réunions est gratuite mais obligatoire.

Inscriptions closes à cette réunion.

Inscriptions

28 personnes membres du GdR ISIS, et 0 personnes non membres du GdR, sont inscrits à cette réunion.
Capacité de la salle : 40 personnes.

Annonce

ATTENTION ! Journée reportée au 13 janvier 2012.

 

De très nombreuses applications de la vision, et notamment la navigation de robots, s'appuient sur la détection et sur le suivi de caractéristiques, tant 2D que 3D. Les méthodes bayésiennes, la méthode de Monte-Carlo et ses différentes déclinaisons autour du filtrage particulaire, les SLAM (vidéo, EKF/Fast, collaboratifs, etc.), SVM, sont très populaires et très étudiées. Les méthodes sans calibrage de caméras remplacent les méthodes avec le calibrage, car elles sont moins fastidieuses et invariantes aux conditions de prises de vues.

Cependant, ces approches sont connues pour être difficilement portables sur les systèmes embarqués à cause de leur importantes complexités spatio-temporelles.

Aussi, cette journée vise à faire un point sur l’état de recherche sur ces méthodes d'une part, et sur leur applications embarquables, d'autre part.

Nous vous invitons donc à proposer des présentations sur les sujets suivants (liste non exhaustive) :

Les résumés des propositions (1/2 page environ) devront parvenir à :

Programme

10h-10h15 : Accueil des participants.

10h15-11h : Suivi et quantification de mouvements dans des séquences d’images médicales par optimisation dynamique, Julien Lepagnot, Amir Nakib, Hamouche Oulhadj et Patrick Siarry, LiSSi, Université Paris 12.

11h-11h45 : Navigation d'un robot mobile en milieu humain encombré, A.Mekkonnen, F.Lerasle, N.Ouadah, V.Cadenat, LAAS-CNRS.

11h45-12h30 : Détection et caractérisation en temps quasi-réel de points d’intérêt 3D pour la reconnaissance d'objets, Ayet Shaiek, Fabien Moutarde, Mines ParisTech.

12h30- 14h : Déjeuner dans les cafés/brasseries près de Jussieu.

14h-14h30 : Fusion GPS-vision à l'aide d'ajustements de faisceaux contraints, Maxime Lhuiller, LASMEA.

14h30- 15h15 : Géo localisation en environnement intérieur et extérieur avec une caméra embarquée, Sylvie Naudet, Romain Dupont, CEA.

15h15-16h : Body-Relative Navigation Guidance using Uncalibrated Cameras, Olivier Koch, Thalès.

16h-16h45 : Détection et suivi basé modèle d’objets complexes, Antoine Petit, Eric Marchand, Keyvan Kanani, INRIA & Astrium.

16h45-17h30 : Système de vision embarquée, Ch. Lecomte, LITIS, Université de Rouen.

17h30-17h45 : Discussion finale.

 

Résumés des contributions

Suivi et quantification de mouvements dans des séquences d’images médicales par optimisation dynamique

Julien Lepagnot, Amir Nakib, Hamouche Oulhadj et Patrick Siarry
Laboratoire Images, Signaux et Systèmes Intelligents, LiSSi (E.A. 3956)
Université Paris-Est Créteil, 61 avenue du Général de Gaulle, 94010 Créteil, France
{Julien.lepagnot, nakib, oulhadj, siarry}@u-pec.fr

Un problème d’optimisation dynamique se caractérise par une fonction de coût qui évolue au cours du temps. Le but n’est pas alors seulement de trouver l’optimum de la fonction, mais de le suivre aussi fidèlement que possible dans le temps. Dans ce contexte, un algorithme d’optimisation continue dynamique, MLSDO (Multiple Local Search algorithm for Dynamic Optimization), a été proposé. MLSDO utilise plusieurs recherches locales, exécutées en parallèle par des agents, pour explorer l’espace de recherche et suivre les optima chaque fois qu’un changement est détecté dans la fonction de coût. Ces agents de recherche locale sont coordonnés par un module dédié (le coordinateur), permettant d’explorer au mieux l’espace de recherche (l'espace des paramètres) et de garantir la diversification des solutions. Les optima locaux trouvés sont transmis à un autre module qui est chargé de la gestion de la mémoire globale. Ce dernier permet la réutilisation des optima déjà trouvés lorsqu’un changement est détecté dans la fonction objectif.

MLSDO a été appliqué dans le contexte d’une méthode de quantification des mouvements des parois du 3ème ventricule cérébral, à partir de séquences ciné-IRM cérébrales. Cette quantification permet notamment de faciliter le diagnostic et d’assister les neurochirurgiens dans la caractérisation de l’hydrocéphalie. Dans un premier temps, la méthode extrait, puis apparie, les points des contours de la région d’intérêt, pour chaque image d’une séquence ciné-IRM. Ensuite, l’amplitude des mouvements dans la région d’intérêt (3ème ventricule cérébral) est estimée via une procédure de recalage utilisant MLSDO. L’utilisation de MLSDO permet d’exploiter les corrélations entre les images de la séquence, afin d’accélérer la procédure de recalage.

Navigation d'un robot mobile en milieu humain encombré OK

A.Mekkonnen, F.Lerasle (orateur), N.Ouadah, V.Cadenat, LAAS-CNRS (groupe RAP).
lerasle@laas.fr, devy@laas.fr , cadenat@laas.fr, Alhayat Ali Mekonnen aamekonn@laas.fr

Cet exposé présente nos travaux actuels sur la navigation d'un robot mobile dans un environnement humain encombré. Pour cela, le robot mobile considéré embarque un dispositif actif de perception, composé d'une caméra montée sur une platine orientable, un système de détection RFID à 360° et un laser SICK. Cette perception embarquée est amenée à coopérer avec des caméras déportées (fixes) pour accroître son champ de perception et donc sa réactivité du robot durant ses déplacements. La finalité est de suivre une personne donnée (identifiée par son badge RF) tout en évitant les passants partageant l'espace. Notre stratégie s'appuie sur la fusion de données hétérogènes via des techniques de Monte Carlo type filtre particulaire avec/sans chaîne de Markov pour détecter, reconnaître et suivre les personnes au voisinage immédiat du robot. Le contrôle du robot, pour assurer conjointement ces deux tâches de poursuite et évitement de personnes, repose sur des techniques de asservissement visuel et grille d'occupation. L'exposé se conclut par la mention de travaux menés par ailleurs au laboratoire sur le SLAM.

Détection et caractérisation en temps quasi-réel de points d’intérêt 3D pour la reconnaissance d'objets

Ayet Shaiek, Fabien Moutarde, Mines ParisTech
Ayet.Shaiek@mines-paristech.fr, Fabien.Moutarde@mines-paristech.fr

Divers algorithmes pour la navigation de robot (e.g. SLAM) s'appuient sur la caractérisation 3D de l'environnement et des objets qu'il contient. Au cours des dernières années, l'intérêt pour la reconnaissance 3D a considérablement augmenté grâce à la diversité des technologies d'acquisitions 3D et au succès des techniques de reconnaissance connues dans le domaine de la 2D. Les grands défis qui se posent pour la reconnaissance 3D concernent la variabilité des classes, l'occultation partielle et les variations de l’échelle et de l'angle de vues.

Nous proposons, dans ce cadre, une nouvelle méthode pour la reconnaissance, en temps quasi-réel, d'objets 3D qui utilise des points d'intérêts 3D extraits sur un nuage de points associé à une vue. Le principe de cette approche se base sur l'expression de la variation locale de la surface à travers les courbures calculées sur un nuage de points. Pour détecter des points d'intérêts bien localisés et répétables, nous proposons de combiner deux critères de sélection : une carte de classification basée sur l'indice de forme : Shape Index (SI) et l'intensité de courbure : Curvedness (C) et une carte de classification basée sur la courbure gaussienne (H) et la courbure moyenne (K). Pour chaque point extrait et pour un voisinage choisi, un descripteur est attribué en combinant l'histogramme des indices de forme et l'histogramme normalisé des angles des normales entre le point et son voisinage. L'ordre de grandeur du temps de calcul requis par notre approche la rend utilisable en temps quasi-réel. Une évaluation expérimentale du taux de reconnaissance et de la robustesse du détecteur et du descripteur pour des variations d'échelles et de l'angle de vues sera présentée.

Fusion GPS - vision à l'aide d'ajustements de faisceaux contraints

Maxime Lhuillier, LASMEA
Maxime.Lhuillier@lasmea.univ-bpclermont.fr

Il y a deux problèmes lorsque l'on applique un ajustement de faisceaux (AF) sur des séquences d'images longues: le temps de calcul et la dérive (i.e. l'accumulation d'erreurs). Une méthode récente réduit le temps de calcul grâce à un AF local appliqué incrémentalement. De plus, la fusion avec des données GPS devrait permettre de réduire la dérive. Une méthode de fusion existante est un AF minimisant une somme pondérée d'erreurs images et GPS.

On introduit ici deux AFs contraints pour la fusion, qui imposent une limite supérieure sur l'erreur de reprojection. Ces AFs sont des alternatives à l'AF de fusion existant, ce dernier ne garantissant pas une faible erreur de reprojection et nécessitant la donnée d'une pondération. Ensuite, les trois AFs de fusion sont intégrés dans un système de reconstruction visuelle incrémental basé sur l'AF local. Enfin, des résultats de fusion avec un GPS bas coût sont comparés sur une longue séquence d'images monoculaires.

Les trois AFs de fusion améliorent notablement les poses du SfM ; l'accroissement des erreurs de reprojection qui en résulte est faible. Grâce à la vérité terrain, on sait que la précision des poses obtenues est similaire à celle du GPS seul. La précision moyenne du GPS est cependant légèrement meilleure (c'est le seul capteur qui fournit des données absolues, la caméra monoculaire ne peut pas le faire). IBA produit les meilleurs résultats de fusion, EBA est classé second mais a deux avantages : c'est la méthode la plus robuste et elle ne dépend pas du choix d'un poids, contrairement à IBA et à la méthode classique UBA. 

Géo localisation en environnement intérieur et extérieur avec une caméra embarquée

Sylvie Naudet, Romain Dupont, CEA
Sylvie.NAUDET@cea.fr

Nous proposons une solution de localisation par vision au moyen d'une caméra embarquée en combinant une technique de SLAM et une technique de relocalisation par reconnaissance de points de vues. Celle-ci a été expérimentée sur de longues trajectoires sur des environnements intérieurs et extérieurs. 

Body-Relative Navigation Guidance using Uncalibrated Cameras

Olivier Koch, Thalès,
olivier.koch@fr.thalesgroup.com

Publications

• Ground Robot Navigation using Uncalibrated Cameras, Olivier Koch, Matthew Walter, Albert Huang, Seth Teller, International Conference on Robotics and Automation (ICRA), Anchorage, Alaska, 2010

• Body-Relative Navigation using Uncalibrated Cameras, Olivier Koch, Seth Teller, International Conference on Computer Vision (ICCV), Kyoto, Japan, 2009

URL http://people.csail.mit.edu/koch/

Olivier Koch est responsable du Service Traitement d'Images à Thales Optronique S.A. A ce titre, il dirige une équipe en charge de la conception et du développement d'algorithmes d'améliorations de qualité image et d'analyse de scènes sur imagerie visible et infrarouge pour une gamme de produits variés destinés à des applications civiles et militaires (caméras thermiques, caméras embarquées, systèmes de veille). Olivier Koch possède un diplôme d'ingénieur de l'Ecole Nationale Supérieure de Techniques Avancées ENSTA ParisTech (2002) et un PhD en informatique du Massachusetts Institute of Technology (2010).

Détection et suivi basé modèle d’objets complexes

A. Petit , INRIA Rennes - Bretagne Atlantique, Campus de Beaulieu, 35042 Rennes, France,
Antoine.Guillaume.Petit@inria.fr,
E. Marchand, Université de Rennes 1, IRISA, Campus de Beaulieu, 35042 Rennes, France, Eric.Marchand@irisa.fr,
Keyvan Kanani, Astrium, 31 Avenue Des Cosmonautes, 31402 Toulouse, France 

La méthode présentée vise à réaliser un suivi 3D d’une scène ou d’un objet complexe au sein d’une séquence d’images, ainsi qu’à initialiser ce processus grâce à une technique de détection par recherche exhaustive. Afin d’estimer la pose (translation et rotation) d’une caméra monoculaire par rapport à une scène, certaines approches reposent sur l’exploitation du modèle 3D de la scène considérée, en utilisant des informations de type point d’intérêt ou contour. Pour les contours, dont l’intérêt réside notamment dans leur invariance aux conditions d’illumination et au bruit, l’estimation de la pose s’effectue classiquement image après image en réalignant, par des techniques d’optimisation locales, les lignes projetées du modèle et les contours correspondants extraits dans l’image. Toutefois, pour ces méthodes classiques et dans le cas d’objets complexes, la gestion de la projection d’un modèle constitué de segments peut s’avérer inadaptée pour un traitement temps réel, et pour des formes cylindriques, sphériques ou quelconques. Notre approche permet de s’affranchir de ces limites en tirant profit du processeur graphique (GPU). L’idée consiste à opérer la projection du modèle complet (texturé ou non) de la cible par l’intermédiaire d’un moteur de rendu 3D, puis à extraire de ce rendu synthétique les contours saillants, issues de discontinuités de profondeur ou de texture. Grâce à la carte de contour obtenue, on génère des points de mesure dont on connaît les coordonnées 3D. A partir de ces points, on procède au suivi dans l’image de manière classique, en cherchant un contour correspondant selon la normale au contour sous-jacent du point de mesure. Enfin la pose est estimée en minimisant les distances contours images/modèle projeté correspondants. Une approche multi-hypothèses permettant un suivi plus robuste est également présentée. Les résultats, à la fois sur des séquences réelles et synthétiques, montrent, de manière qualitative et quantitative, l’intérêt de la méthode. Afin d’initialiser ce processus de suivi, on effectue une estimation de pose par détection, en procèdent par recherche exhaustive sur l’espace des poses, à l’aide du modèle 3D et sans images d’apprentissage. On génère en effet une base d’images de synthèse de l’objet en plaçant de manière régulière la caméra virtuelle sur une sphère centrée sur le modèle 3D. Cette base est ensuite organisée selon une structure hiérarchique pyramidale. A chaque niveau de la structure les vues les plus similaires entre elles sont fusionnées. Le critère de similarité se base sur les distances et les orientations entre contours et permet un discrimination satisfaisante. En ligne, on parcourt l’arbre avec l’image acquise jusqu’à obtenir la vue de base la plus proche vis à vis du même critère de similarité. Les résultats montrent la pertinence du critère, avec une estimation de pose précise, et pour un temps d’éxécution faible, grâce à la structure hiérarchique (augmentée d’une approche multi-échelle).

Système de vision embarquée

Ch. Lecomte, U. Rouen, Equipe STI du LITIS
Christele.Lecomte@univ-rouen.fr

Plusieurs caractéristiques sont disponibles pour réaliser le suivi d’un objet à partir d’un système de vision embarquée. Nous avons testé les sources textures, couleur, forme et mouvement qui ont montré leurs limites lorsqu’elles sont utilisées seules mais tout leur intérêt quand elles sont fusionnées.

L’algorithme de suivi utilisé est le filtre particulaire. L’ajout d’un opérateur de combinaison pour les fonctions de croyances permet de gérer les conflits entre sources, le cas des sources non fiables et indécises. Ainsi, à partir d’une image de l’objet à suivre, l’algorithme proposé reste robuste à la variation de luminosité, à l’occlusion et au fouillis sur des scènes d’autoroutes et sur des chemins.

Afin de connaître notre position sur une carte, la caméra seule n’est pas suffisante. Il faut lui ajouter un GPS pour obtenir la trajectoire et pouvoir « la rejouer » sur PC. De plus, afin de valider les données vision obtenues, l’ajout de la centrale inertielle est nécessaire.

 

 

Date : 2012-01-13

Lieu : UPMC-Paris 6 (Jussieu) salle 304, couloir 65-66


Thèmes scientifiques :
B - Image et Vision

Inscriptions closes à cette réunion.

Accéder au compte-rendu de cette réunion.

(c) GdR IASIS - CNRS - 2024.