Nous vous rappelons que, afin de garantir l'accès de tous les inscrits aux salles de réunion, l'inscription aux réunions est gratuite mais obligatoire.
Inscriptions closes à cette réunion.
2 personnes membres du GdR ISIS, et 0 personnes non membres du GdR, sont inscrits à cette réunion.
Capacité de la salle : 30 personnes.
L'objectif de cette action est de se consacrer aux modèles et algorithmes permettant une analyse de scènes fixes et dynamiques dans le cadre spécifique des images couleur. Cette deuxième journée se focalise sur l'utilisation des informations chromatiques pour caractériser le mouvement dans les scènes dynamiques et le suivi d'objets déformables. Il s'agira de faire un état de l'art sur la manière dont les informations chromatiques peuvent être utiles pour caractériser le mouvement, par exemple à travers la mise en correspondance inter images et images-modèles, l'extraction de primitives, la modélisation du mouvement, la fusion d'informations.
La fin de la réunion sera consacrée également à un point d'avancement sur la rédaction d'un ouvrage collectif sur l'imagerie couleur.
Rémy Scaramuzzi, Frédérique Robert-Inacio (ISEN Toulon)
Dans le cadre du développement d'un oeil électronique, plusieurs fonctionnalités du système visuel humain ont été reproduites. L'oeil électronique est un substitut à l'oeil humain directement relié au cerveau. Il est constitué d'une caméra assurant l'acquisition des images, d'une partie mécanique permettant de mouvoir la caméra et d'une partie électronique pilotant l'ensemble et effectuant le traitement des images.
Le tout premier traitement opéré par la carte électronique consiste en un ré-échantillonnage radial des images autour d'un point de focalisation. Cette opération a pour but de restituer à partir de l'image de la caméra, une image beaucoup plus proche de l'image perçue au niveau de la rétine. Cette image est ensuite traitée de manière à déterminer des points d'intérêt. Ainsi, tout comme l'oeil humain qui procède en se focalisant par saccades en un certain nombre de points d'intérêt, l'oeil électronique va explorer une scène complexe en se focalisant successivement en plusieurs points d'intérêt, déterminés sur l'image ré-échantillonnée.
M. Elbouz, A. Coum, M. Mkhinini et A. Alfalou (ISEN Brest, Département opto-électronique)
Le maintien à domicile des personnes âgées (et/ou des malades) devient un enjeu crucial de nos jours. En effet, l'augmentation de l'espérance de vie des personnes âgées accompagnée d'une amélioration de leurs conditions de santé rendent inopportunes leur placement dans des centres médicalisés (souvent rares et très coûteux). De plus, ces personnes expriment de plus en plus le souhait de rester à leur domicile. Cependant, cette catégorie de population nécessite une surveillance constante et rapprochée pour éviter les problèmes liés à des chutes, des dégradations rapides de leurs conditions de santé, ...
Dans cette optique, nous proposons et validons un premier prototype de système de surveillance vidéo (basée sur la corrélation : VLC et JTC). Une composante importante du système est sa capacité à étudier le comportement et à suivre le patient (un suivi 3D dans une pièce) et ne se limite pas à la simple détection d'une chute. En effet, le patient peut se retrouver dans le cas de non chute mais dans l'incapacité de déclencher une alarme (un malaise). Pour répondre à tous ces besoins, nous utilisons et combinons les différentes décisions prises par plusieurs capteurs (décision bas niveaux) grâce à une technique adaptée de l'intelligence artificielle : la logique floue (décision haut niveau). A noter que le système proposé est entièrement intrusif (ne nécessitant pas le port des capteurs, ...), et de plus qu'il est compatible et complémentaire avec les autres systèmes développés dans le cadre de l'habitat intelligent.
Zafar SHAHID (ICAR, LIRMM Université Montpellier)
With the inundation of surveillance cameras to the security prone modern world, the privacy has become an important issue. Encryption can be used to restrict the access to this visual content. It is not only the luma component which is important to encrypt. Rather the chroma is also crucial for protection, since chroma component can also be used for many image processing tasks like object detection, motion tracking etc. Selective encryption (SE) may be used for protection of color information in the video. It is important to fulfill the real-time constraints, which includes: 1) no change in bitrate of encrypted video, 2) should use minimal extra processing power, 3) encryption bitstream should be format compliant to the respective video standard. SE will be explained with help of simulation results based on H.264/AVC and AVS bitstreams for benchmark video sequences.
Cindy Torres (laboratoire LISA, Université d'Angers)
Nous proposons une nouvelle méthode de segmentation non supervisée d'images couleur prenant en compte à la fois l'information spatiale et l'information couleur au travers d'une matrice de probabilité de voisinage spatial compacte (SNPM). Afin de surmonter les problèmes d'espace mémoire liés à l'analyse d'histogrammes multidimensionnels, la SNPM est construite à partir d'histogrammes compacts et contient toutes les probabilités non nulles de connexité spatiale entre les différentes couleurs présentes dans l'image, dans un voisinage donné. La classification est effectuée par une analyse hiérarchique d'histogrammes couleur au moyen d'un étiquetage en composantes connexes 3D et d'une distance spatio-colorimétrique calculée à partir de la SNPM. Une application à la segmentation d'images naturelles de végétaux sera présentée.
Amandine Soury et Christèle Lecomte (LITIS Université Rouen)
Dans ces travaux, nous présentons une méthode de détection des deux-roues
motorisés dans le trafic par traitement d'image à partir d'une caméra fixe. Notre objectif est de développer une méthode permettant de supprimer les difficultés spécifiques à la prise de vue de scènes routières (éclairement variable, ombres, ...).
Il existe plusieurs méthodes de suppression des ombres utilisant différents espaces colorimétriques (YUV, HSV, IHLS), l'étude du gradient est également utilisée. Ces méthodes sont des méthodes paramétrables. Une autre méthode est également utilisée, elle permet de générer une image invariante, c'est-à-dire sans variation de luminosité et donc sans ombre.
Frédéric Petit (SIC Université Poitiers)
Nous allons présenter une méthode d'extraction de zone de
couleur spécifique dans une image couleur. Les méthodes usuelles de
segmentation et de détection de contours couleurs réalisent un traitement
global de l'image. Ainsi, toutes les zones d'une image sont détectées.
L'image entière est divisé en plusieurs régions par des pixels labelisés,
ou par des frontières dans le cas d'une détection de contours.
Notre propos est d'extraire uniquement des régions spécifiques partageant un
même attribut colorimétrique spécifique, autrement dit partageant une même
gamme de couleur basée sur la teinte. Une transformation géométrique
quaternionique dans l'espace RGB est utilisée. Un axe chromatique
spécifique est défini. A partir de cet axe, un critère permet la
définition d'un sous-espace couleur dans l'espace RGB s'appuyant sur une
interprétation HSI quaternionique des vecteurs RGB. Nous verrons pour finir
une application à l'extraction de poissons de couleur uni dans une
séquence vidéo sous-marines.
John Klein (LAGIS Université Lille 1)
En vision par ordinateur, un élément de la scène peut être caractérisé à l'aide d'un algorithme d'extraction
d'attributs. Ces attributs permettent d'avoir une représentation de la "forme" ( au sens de la reconnaissance des formes) de l'objet dans un espace plus pertinent, i.e. dans lequel elle sera plus facilement discriminable.
La nature des attributs est variable (couleur, texture, morphologique ou mouvement si la dimension temporelle est disponible). En comparant les attributs extraits avec d'autres connus a priori, chaque algorithme d'extraction permet de reconnaître, dans certaines limites, un élément de la scène. Il peut donc être intéressant de considérer chacun d'entre eux comme une source d'informations. L'information commune à ces sources peut alors être captée par le truchement d'une méthode de fusion d'information telle que la théorie des fonctions de croyance. Nous présenterons ainsi une méthodologie d'un tel procédé et un exemple d'application en suivi d'objets.
Bernard Perroche (LIRIS Université Lyon 1) et Samuel Delepoulle (LISTIC Université Littoral Côte Opale)
Les différentes méthodes de rendu d'images de synthèse reposent sur la
simulation des interactions entre lumière et matière. Ceci suppose de
modéliser et de représenter comment une source distribue de la lumière,
comment cette lumière se comporte lorsqu'elle rencontre des objets
(réflexion, réfraction, diffusion, ...) et comment les rayons lumineux se
propagent.
Après une rapide présentation des modèles utilisés dans ce
domaine, nous présenterons les solutions les plus courantes pour simuler
les échanges de lumière dans une scène et finalement produire des images
de synthèse. Ceci impose de tenir compte de l'information chromatique
non seulement au niveau de l'image (image HDR) mais aussi dans
l'ensemble du processus de rendu (rendu spectral). A l'extrémité du
processus, l'image est perçue par le système visuel humain. Certaines
caractéristiques perceptives peuvent être prise en compte dans les
algorithmes de rendu. Enfin, la production de vidéos d'image de synthèse
(animation) repose essentiellement sur la réalisation de séquences
d'images. Chacune des images de la séquence est généralement traitée
indépendamment des autres et ceci impose de nouvelles contraintes
faisant émerger deux familles d'algorithme de rendu. Certaines méthodes
ont pour objectif le temps réel (au minimum 25 images par secondes),
d'autres visent le photo-réalisme indépendamment du temps de calcul.
Date : 2010-10-07
Lieu : Telecom Paris Tech, amphi Jade
Thèmes scientifiques :
B - Image et Vision
Inscriptions closes à cette réunion.
(c) GdR IASIS - CNRS - 2024.