Vous êtes ici : Réunions » Réunion

Identification

Identifiant: 
Mot de passe : 

Mot de passe oublié ?
Détails d'identification oubliés ?

Co-conception de systèmes hybrides : quand l'instrumentation et les traitements numériques se rencontrent.

Nous vous rappelons que, afin de garantir l'accès de tous les inscrits aux salles de réunion, l'inscription aux réunions est gratuite mais obligatoire.

Inscriptions closes à cette réunion.

Inscriptions

18 personnes membres du GdR ISIS, et 23 personnes non membres du GdR, sont inscrits à cette réunion.
Capacité de la salle : 60 personnes.

Annonce

L'objectif de cette réunion est de discuter des nouvelles approches de conception de nouveaux systèmes d'acquisition pour lesquels le dispositif d’imagerie, de détection ou de mesure est fortement associé aux traitements numériques.

Dans de nombreux domaines, tels que la photographie numérique, la microscopie, l’astronomie ou l’imagerie radar, de nouveaux dispositifs d’acquisition sont développés pour dépasser les performances des systèmes traditionnels, en termes de qualité de signal, d'encombrement, ou pour leur ajouter de nouvelles fonctionnalités. Le principe est d'utiliser un dispositif d’acquisition, autrement dit un instrument, qui favorise l'efficacité des traitements, quitte à dégrader la qualité du signal brut en sortie du détecteur. Ceci donne lieu au développement de nouveaux systèmes "non conventionnels" ou "hybrides", pour lesquels l’instrument et les traitements sont indissociables.

L'enjeu principal de la conception de ces nouveaux systèmes est alors d'optimiser simultanément les paramètres de l’instrument et des traitements. On parle alors de conception conjointe ou co-conception. Cette nouvelle approche repose alors sur :

  1. la définition de nouveaux critères de conception caractérisant la performance globale du système en lien avec sa fonctionnalité
  2. l'utilisation de ces critères pour optimiser conjointement les paramètres de l’instrument et des traitements.

Lors de cette journée seront abordées plusieurs thématiques :

Orateurs invités

Peyman Milanfar (University of California, Santa Cruz) et Yohann Tendero (UCLA)

Organisateurs

Pauline Trouvé (Onera), Matthieu Boffety (IOGS), Mauricio Delbracio (ENS-Cachan), Andrés Almansa (Télécom Paris).

Appel à participation

Si vous souhaitez effectuer un exposé lors de cette journée, merci d'envoyer un résumé de votre contribution  (1 page) avant le 15 Septembre à Pauline Trouvé (pauline.trouve@onera.fr), Andrés Almansa (andres.almansa@telecom-paristech.fr), Matthieu Boffety (matthieu.boffety@institutoptique.fr), ou Mauricio Delbracio (mauricio.delbracio@cmla.ens-cachan.fr).

Accès

31 octobre 2014 // Telecom ParisTech - 46 rue Barrault - 75013 Paris // Salles B310 & E200

 

Programme

 

Durée des exposés : 15 min + 5 min de questions

10h – 11h35 Modèles de performance et optimisation

10h ­ The coded exposure method: model, theory and algorithm

Y. Tendero
UCLA, Los Angeles, Etats­-Unis. 

10h45  Amélioration  de   la  résolution  longitudinale  en   microscopie  holographique  en  ligne  par  une  approche co-­conception optique/traitement

N. Verrier, C. Fournier et  T. Fournel
Laboratoire Hubert Curien, CNRS UMR 5516, Univ. de Lyon, Univ. Jean­-Monnet, Saint­-Etienne, France.

11h10 Optimisation  des  techniques polarimétriques de  microscopie de  génération  de second harmonique  ou de fluorescence

V. Wasik, M. Roche, J. Duboisset, S. Brasselet et P. Réfrégier
Centrale Marseille, CNRS, Univ. Aix Marseille, Institut Fresnel, UMR7249, Marseille, France.

 

11h35 – 13h30 Repas

 

13h30 – 16h20  Instruments et traitements numériques non conventionnels

13h30 Computational Imaging: From Photons to Photos

P. Milanfar
Google & UC Santa Cruz, Etats­-Unis.

14h15  Depth, stereo and focus with sparse camera arrays

M. Ziegler, M. Schöberl et S. Foessel
Fraunhofer IIS, Erlangen, Allemagne.

14h40 Disparity guided demosaicking of plenoptic data

M. Seifi, N. Sabater, V. Drazic et P. Perez
Technicolor R&I Labs, Cesson­Sévigné, France.

 

15h05 – 15h30 Pause & Poster

 

15h30 Computational Approaches for Full­-State Non­-Invasive Fluid Measurements

I. Ihrke1, W. Heidrich2, B. Atcheson2, J. Gregson2 et N. Thuerey3
1INRIA, Bordeaux, France.2 Univ. of British Columbia, Vancouver, Canada. 3Technische Universität München, Allemagne.

15h55 Nouveaux développements à l’ONERA dans le domaine de la co­conception infrarouge

G. Druart1, F. de la Barrière1, N. Guérineau1, A. Plyer1, G. Le Besnerais1, F. Champagnat1,  
G. Lasfargues2 et S. Magli3
1ONERA, Palaiseau, France. 2CEA Leti, Grenoble, France.3 Sofradir, Palaiseau, France.
 

16h20 – 18h Discussion & Poster

 

Session poster

Calibration  d'un  module  optique/numérique  de  super­résolution  par  diffraction  conique  pour  la  microscopie confocale
J. Caron
Bioaxial, Paris, France.
 
Characterization  of  noise   throughout  the  camera  processing  chain  and  denoising  of  images  with  unknown noise model
M. Colom
CMLA, Cachan, France.
 
Single Shot High Dynamic Range Imaging Using Piecewise Linear Estimators
C. Aguerrebere1, A. Almansa1, J. Delon2, Y Gousseau1 et P. Musé3
1Telecom ParisTech ­ TII, Paris, France. 2Université Paris Descartes ­ MAP5, Paris, France. 3Universidad de la República ­ IIE, Montevideo, Uruguay.
 
Hand  pose estimation  with a chromatic 3D camera
P. Trouvé, F. Champagnat, G. Le Besnerais et M. Sanfourche
ONERA, Palaiseau, France.
 

Statistical performance analysis of a fast super-resolution technique using random translations                                                          

P. Chainais

Centrale Lille/LAGIS/INRIA SequeL & Aymeric Leray, CNRS/Laboratoire Interdisciplinaire Carnot de Bourgogne (ICB), Dijon (France)

 

Sécurisation des capteurs biométriques par une approche OCT (Tomographie par Cohérence Optique)

F. Lamare, B. Dorizzi et Y. Gottesman.

Télécom SudParis

 

Résumés des contributions

 

The coded exposure method: model, theory and algorithm.
Y. Tendero (UCLA)
 
This talk is about revolutionary camera concept called "coded exposure". Coded exposure cameras promised to increase the image quality when photographing moving scenes. The talk will give a model that permits to answer this question and show an unexpected consequence of the study.
 
 
Amélioration de la résolution longitudinale en microscopie holographique en ligne par une approche co­conception optique/traitement.
N. Verrier, C. Fournier et T. Fournel
Laboratoire Hubert Curien, CNRS UMR 5516, Univ. de Lyon, Univ. Jean-­Monnet, Saint­-Etienne, France.
 
L’holographie numérique (HN) est une technique de microscopie 3D qui s’est largement développée au cours des dernières décennies grâce aux énormes progrès de l'imagerie numérique. Cette technique permet d'obtenir la reconstruction 3D d'objets à partir d'images hologrammes 2D avec une précision qui peut être inférieure à la longueur d'onde. De plus, l’utilisation de caméras rapides pour l’acquisition d’hologrammes mène à des reconstructions 3D, résolues en temps, de phénomènes rapides. Les applications de l'holographie numérique sont nombreuses et vont de l’analyse de microstructures à l’imagerie biomédicale. Pour la plupart de ces applications l’aspect métrologique est primordial.
 
L’estimation et l’amélioration de la résolution en holographie numérique est actuellement la problématique la plus importante de ce domaine. Les approches de types "problèmes inverses" ont montré ces dernières années leur potentiel pour améliorer la précision de la reconstruction 3D. Elles sont basées sur l’utilisation d’a priori sur les objets et sur les modèles de formation d’images­ hologrammes. Dans le cas d’objets paramétriques (pouvant être décrits par un petit nombre de paramètres), elles permettent d’atteindre théoriquement la limite inférieure de la résolution (résolution à un point) donnée par les bornes de Cramer Rao [1­2].
 
Cependant, même si ces approches de traitement d’image permettent une amélioration de la précision de positionnement 3D des objets étudiés, elles ne permettent pas de s’affranchir de la disparité entre précision longitudinale et transversale (importante en holographie en ligne à faible ouverture numérique). Une autre problématique de l’holographie en ligne est la mauvaise exploitation de la dynamique de la caméra. En effet, le signal enregistré comporte un offset, pouvant réduire fortement le nombre de niveaux de gris utilisés pour enregistrer le signal.
 
Nous proposons ici, une modification du montage d’holographie numérique en ligne en introduisant un filtrage du signal dans le plan de Fourier pour atténuer l’ordre 0 sur l’hologramme et augmenter le rapport signal à bruit (RSB) des hautes fréquences du signal. Nous présentons ensuite comment une approche de co-­conception optique/traitement permet de choisir les bons paramètres de ce montage pour optimiser l’estimation du positionnement des objets dans le champ.
 
[1] P. Réfrégier, Noise theory and application to physics: from fluctuations to information. Springer Verlag, 2004.
[2] C. Fournier, L. Denis, et T. Fournel, On the single point resolution of on­axis digital holography, Journal of the Optical Society of America A, vol. 27, no 8, p. 1856?1862, 2010.
 
Ce travail a été réalisé grâce au soutien financier du Programme Avenir Lyon Saint­Etienne de l’Université de Lyon, dans le cadre du programme “Investissements d’Avenir” (ANR­1 1­IDEX­0007).
 
Optimisation des techniques polarimétriques de microscopie de génération de second harmonique ou de fluorescence
V. Wasik, M. Roche, J. Duboisset, S. Brasselet et P. Réfrégier
Centrale Marseille, CNRS, Aix Marseille Université, Institut Fresnel, UMR7249, Marseille, France.
 
De nombreuses techniques de microscopie utilisent les propriétés de polarisation de la lumière. C’est le cas des techniques de génération de second harmonique résolue en polarisation ainsi que de certaines méthodes de fluorescence [1,2]. Schématiquement, le principe consiste à éclairer le milieu étudié avec une onde le plus souvent polarisée linéairement et de mesurer l’intensité émise par le milieu pour différents angles de la polarisation incidente. Il est également possible d’analyser en polarisation la lumière générée par le milieu. Avec leurs avantages et inconvénients respectifs, ces méthodes permettent d’obtenir certains renseignements sur l’ordre orientationel moléculaire et sont des candidates pour de nouvelles techniques d’investigation en biologie, où l’apport d’une information structurale, complémentaire de l’imagerie, est crucial pour la compréhension des fonctions biologiques. L’étude de la borne de Cramer Rao (BCR) dans des conditions particulières a également permis de montrer l’efficacité de certaines méthodes d’estimation dans ces contextes [3,4]. Si de nombreuses études expérimentales ont démontré la faisabilité et la pertinence de ces approches [1,2], plusieurs questions restent encore à analyser, comme l’optimisation du nombre d’états de polarisation incidente ou l’intérêt d’une analyse en polarisation de la lumière émise par le milieu. Plusieurs facteurs peuvent avoir une influence importante sur les résultats obtenus. C’est bien entendu le cas de l’intensité de la lumière mesurée, puisque la limite ultime des fluctuations est le bruit de photons. La nature du matériau éclairé est aussi importante. Enfin, et ce sera le point central de notre exposé, le nombre d’états de polarisation utilisés pour la lumière incidente ainsi que celui utilisé pour l’analyse de la lumière émise par l’échantillon peuvent avoir une incidence non négligeable sur la qualité des estimations. Après une présentation générale des techniques considérées, nous montrerons au cours de cet exposé comment l’analyse de la précision décrite par la BCR permet d’étudier l’influence des différents paramètres [1], et en particulier celle du nombre d’états de polarisation utilisés lors de l’éclairement du milieu ou lors de l’analyse de la lumière émise. Nous discuterons également les limites de l’approche basée sur la BCR pour les problèmes considérés. Nous soulignerons enfin l’influence de la nature du bruit considéré (bruit additif gaussien ou bruit de photons) sur le processus d’optimisation. Nous conclurons en discutant les questions ouvertes et les enjeux pour les études futures.
 
Références :
[1] S. Brasselet, “Polarization resolved nonlinear microscopy: application to structural molecular and biological imaging”, Advances in Optics and Photonics 3, pp. 205–271 (2011) ainsi que les références citées dans ce papier.
[2] A. Kress, X. Wang, H. Ranchon, J. Savatier, H. Rigneault, P. Ferrand, S. Brasselet,. Mapping the local organization of cell membranes using generalized polarization resolved confocal fluorescence microscopy.
Biophys. J. 105, 127­136 (2013) ainsi que les références citées dans ce papier.
[3] Ph. Réfrégier, M. Roche, and S. Brasselet. Precision analysis in polarization­resolved second harmonic generation microscopy. Opt. Lett. 36, 2149–2151, 2011.
[4] Ph. Réfrégier, M. Roche, J. Duboisset, and S. Brasselet. Precision increase with two orthogonal
analyzers in polarization­resolved second­harmonic generation microscopy. Opt. Lett., 37, 4173–4175, 2012.
 
 
Computational Imaging: From Photons to Photos
P. Milanfar (Google & UC Santa Cruz)
 
Fancy cameras used to be the exclusive domain of professional photographers and experimental scientists. Times have changed, but even as recently as a decade ago, consumer cameras were solitary pieces of hardware and glass; disconnected gadgets with little brains, and no software. But now, everyone owns a smartphone with a powerful processor, and every smartphone has a camera. These mobile cameras are simple, costing only a few dollars per unit. And on their own, they are no competition for their more expensive cousins. But coupled with the processing power native to the devices in which they sit, they are so effective that much of the low­end point­and­shoot camera market has already been decimated by mobile photography.
Computational imaging is the enabler for this new paradigm in consumer photography. It is the art, science, and engineering of producing a great shot (moving or still) from small form factor, mobile cameras. It does so by changing the rules of image capture — recording information in space, time, and across other degrees of freedom — while relying heavily on post­processing to produce a final result. Ironically, in this respect, mobile imaging devices are now more like scientific instruments than conventional cameras. This has deep implications for the future of consumer photography.
 
In this technological landscape, the ubiquity of devices and open platforms for imaging will inevitably lead to an explosion of technical and economic activity, as was the case with other types of mobile applications. In this wild ride, it is time for clever algorithms, along with dedicated hardware architectures, to take center stage and enable unprecedented imaging capabilities in the user’s hands.
 
Depth, Stereo and focus with sparse camera arrays

M. Ziegler, M. Schöberl et S. Foessel
Fraunhofer IIS, Erlangen, Allemagne.

The acquisition of the light field of a scene can be performed with plenoptic cameras or camera arrays. While plenoptic cameras have a small outline, sparse camera arrays promise higher image quality and are therefore better suited for media production solutions. 

Combined with algorithms from the field of computational imaging our technology allows reconstructing a dense lightfield from a sparse lightfield. This technology allows creating artistic effects in post-production. This includes in particular effects such as dolly zoom, but also changing the depth-of-field after acquisition or smoothly moving the camera along virtual camera paths in high quality. These benefits are demonstrated by a first stop-motion test production. The light field technology permits to keep all intrinsic and extrinsic parameters of the cameras static during the whole production. This simplifies acquisition while still allowing effects such as virtual camera movements computed and applied in post-production. Specifically designed plugins for popular video editing software make this technology available for users in post-production as demonstrated in this presentation.

 
Disparity guided demosaicking of plenoptic data
M. Seifi, N. Sabater, V. Drazic et P. Perez
Technicolor R&I Labs, Cesson­Sévigné, France.
 
Capturing the scene’s light field has been an old interest in the field of computational photography. However, the recent release of hand held plenoptic cameras as Lytro has introduced the potentials of light field imaging to the mass market. By placing a microlens array between the main lens and the sensor, a plenoptic camera captures the direction of the light bundles that enter the camera, in addition to their intensity and color. Captured data is then demultiplexed to provide a matrix of horizontally and vertically aligned views from slightly different points of view over the scene. With the light fields, a number of natural applications have risen such as depth estimation or post­capture refocusing. Among the state of art post­processing methods of the plenoptic data, only very few address the very first steps regarding raw data conversion: (i) demosaicking, which aims to recover the color content of the scene from the mosaicked captured raw data ([1, 2]) and (ii) view demultiplexing, which consists in reordering the pixels based on microlenses positions in order to recover the matrix of views ( [3, 4, 5]). None of the mentioned works address both problems simultaneously.
Most of the works in the literature propose to first demosaick the raw data and then demultiplex to recover the views, but this leads to color artifacts on the views. By construction, neighbor pixels in a plenoptic raw image contain different angular information (each pixel under a microlens corresponds to a different view). So, demosaicking the raw plenoptic image, as if it was a conventional image, wrongly mixes angular information: classical algorithms interpolate neighbor color values, which causes the so­called view cross­talk artifacts. Besides, it has been shown in [5] that disparity estimation from views obtained from such a demosaicked raw image is prone to tremendous errors.
Therefore, we build on the work in [5], in which the raw image is demultiplexed without demosaicking, and we study how to recover the full RGB views. This means that demosaicking is done on the views and not on the raw multiplexed data. Note that the demultiplexing step (pixel reordering) transforms the Bayer pattern on the raw data into new view­dependent color patterns. On these new irregular color patterns, classical demosaicking algorithms poorly recover highly textured areas. In this presentation, we propose a generic demosaicking framework specifically designed for plenoptic data and inspired by multi­frame demosaicking approaches. The goal is to increase the chromatic resolution of each view, exploiting the redundant sampling of the scene by the other views. Particularly, our strategy is to estimate and use pixel disparities to guide demosaicking. A recent block­matching method for plenoptic data is used to estimate pixel disparities. Then reliable estimated disparities are used to demosaick views, exploiting the redundant sampling of the scene.
The results do not contain color artifacts, compared to the state of art methods. Thanks to accurate view demultiplexing and sub­pixel accuracy of the estimated disparities, the spatial resolution of the demosaicked views are higher than the state of art methods by a factor of 2, and can be increased up to a factor of 6, without bearing the complexity of additional super­resolution steps. Circumventing the fattening effect of the block­matching method, and achieving higher factors of super­resolution are left as future works.
 
[1] Z. Yu, J. Yu, A. Lumsdaine, and T. Georgiev, “An analysis of color demosaicing in plenoptic cameras,” in CVPR. IEEE, 2012, pp. 901–908.
[2] T. Georgiev, G. Chunev, and A Lumsdaine, “Superresolution with the focused plenoptic camera,” in SPIE Electronic Imaging, 2011.
[3] D. G. Dansereau, O. Pizarro, and S. B. Williams, “Decoding, calibration and rectification for lenselet­based plenoptic cameras,” in CVPR, 2013.
[4]D. Cho, M. Lee, S. Kim, and Y.­W. Tai, “Modeling the calibration pipeline of the lytro camera for high quality light­field image reconstruction,” in ICCV, 2013.
[5]N. Sabater, V. Drazic, M. Seifi, G. Sandri, and P. Perez, “Lightfield demultiplexing and disparity estimation,” technical report: hal­00925652, 2014.
 
 
Computational Approaches for Full­State Non­Invasive Fluid Measurements
I. Ihrke1, W. Heidrich2, B. Atcheson2, J. Gregson2 et N. Thuerey3
1INRIA, Bordeaux, France.2 Univ. of British Columbia, Vancouver, Canada. 3Technische Universität München, Allemagne.
 
I will present our work on time­resolved Schlieren tomography for capturing full 3D, non­stationary gas flows on dense volumetric grids. Schlieren tomography uses 2D ray deflection measurements to reconstruct a time­varying grid of 3D refractive index values, which directly correspond to physical properties of the flow. Our experimental system is easy to set up, and consists of an array of relatively low cost rolling­shutter camcorders that are synchronized with a new approach.
 
 In addition, we recently established a connection between fluid capture and fluid simulation. Our key finding is that fluid simulation can be used as a very effective regularizer for the ill­posed problem of tracking flow velocities using the data captured with the methods outlined above. We tightly couple fluid simulation into the flow tracking problem, providing a global prior that significantly increases tracking accuracy and temporal coherence as compared to previous techniques.
 
Nouveaux développements à l’ONERA dans le domaine de la co­conception infrarouge.
G. Druart1, F. de la Barrière1, N. Guérineau1, A. Plyer1, G. Le Besnerais1, F. Champagnat1,
G. Lasfargues2 et S. Magli3
1ONERA, Palaiseau, France. 2CEA Leti, Grenoble, France.3 Sofradir, Palaiseau, France.
 
Nous présenterons un démonstrateur de caméra infrarouge cryogénique entièrement intégrée dans un cryostat SOFRADIR et dont le champ de vue est égal à 120°. En s’appuyant sur le principe de la supperrésolution, nous avons conçu une optique multivoie produisant quatre images non redondantes sur un détecteur Scorpio (640x512 au pas de 15μm) afin de réduire l’encombrement de la partie optique à moins de 5mm. Une telle miniaturisation poussée à l’extrême permet de réduire considérablement la masse optique à refroidir et ainsi obtenir des temps de descente en froid comparables à des détecteurs infrarouges sans fonction d’imagerie intégrée. Grâce à cette démarche de conception conjointe, nous restituons une image pleine résolution avec un pas d’échantillonnage équivalent de 7,5μm qui est inférieur à l'état de l'art actuel (autours de 10μm). Dans cet exposé, la conception de cette caméra sera décrite et nous illustrerons ses performances avec plusieurs résultats expérimentaux. Enfin, nous ferons un point sur l’arrivée de capteurs
microbolomètre faible format mais très bas coût et les défis autour du traitement d’images pour exploiter au mieux ces capteurs prometteurs.
 
 
Single Shot High Dynamic Range Imaging Using Piecewise Linear Estimators
C. Aguerrebere1, A. Almansa1, J. Delon2, Y Gousseau1 et P. Musé3
1Telecom ParisTech ­ TII, Paris, France. 2Université Paris Descartes ­ MAP5, Paris, France. 3Universidad de la República ­ IIE, Montevideo, Uruguay.
 
Building high dynamic range (HDR) images by combining photographs captured with different exposure times present several drawbacks, such as the need for global alignment and motion estimation in order to avoid ghosting artifacts. The concept of spatially varying pixel exposures (SVE) proposed by Nayar et al. enables to capture in only one shot a very large range of exposures while avoiding these limitations. In this paper, we propose a novel approach to generate HDR images from a single shot acquired with spatially varying pixel exposures. The proposed method makes use of the assumption stating that the distribution of patches in an image is well represented by a Gaussian Mixture Model. Drawing on a precise modeling of the camera acquisition noise, we extend the piecewise linear estimation strategy developed by Yu et al. for image restoration. The proposed method permits to reconstruct an irradiance image by simultaneously estimating saturated and under­exposed pixels and denoising existing ones, showing significant improvements over existing approaches.
 


Calibration d'un module optique/numérique de super­résolution par diffraction conique pour la microscopie confocale 

J. Caron 
Bioaxial, Paris, France. 
 
Le module de super­résolution de Bioaxial consiste en la mise en forme du faisceau laser qui est utilisé en microscopie confocale. Il est couplé à deux caméras rapides CMOS, une pour l'imagerie et une pour la localisation précise du spot laser. 
Ce système nécessite une calibration de l'intensité lumineuse reçue en tout point du plan focal de l'objectif ainsi que de la fonction de transfert optique de celui­-ci. La procédure de calibration est une mesure par scanning d'un échantillon de billes fluorescentes. Une bille isolée est imagée et les données sont traitées par la résolution d'un problème inverse (maximum likelihood sous contraintes). 
Les illuminations et la PSF sont modélisées dans un espace de fonctions à bande limitée dépendant de l'ouverture numérique de l'objectif. Une coregistration des caméras est effectuée au préalable afin de garantir la précision du réseau de scan de la bille. Plusieurs critères numériques simples permettent ensuite à l'utilisateur (averti) d'évaluer la qualité de la calibration et de régler les paramètres internes du système. 
 

Statistical performance analysis of a fast super-resolution technique using random translations

P. Chainais1 & A. Leray2

Centrale Lille/LAGIS/INRIA SequeL

CNRS/Laboratoire Interdisciplinaire Carnot de Bourgogne (ICB), Dijon (France)

 

Super-resolution is an ill-posed inverse problem where the registration step is often problematic. The sensor of many microscopes and telescopes is now supported by a piezoelectric platform which permits to accurately control their motion (down to nanometers). Thus one can acquire multiple images of the same scene at various prescribed positions. Then efficient super-resolution using a simple and fast super-resolution algorithm becomes possible. However the optimal use of r2 images for a resolution enhancement factor r is generally not sufficient. We propose to use several images at positions randomly distributed close to each reference position. We study the number of images that is necessary to control the error resulting from the super-resolution algorithm due to the inaccuracy of the moving platform. The main result is a lower bound on the number of images to respect a given error upper bound with probability higher than a desired confidence level.

 

Characterization of noise throughout the camera processing chain and denoising of images with unknown noise model
M. Colom
CMLA, Cachan, France.
 
Any image, digital or analogic, contains not only information from the scene being photographed but also external interferences known as noise. The resulting image is the combination of the ideal image without noise with noise itself.
The “ideal image without noise” is a mathematic abstraction and it is not available in reality. Thus, it is needed methods that given only the degraded image are capable to properly characterize noise. This characterization using the noisy image is known as blind noise estimation since it does not use any additional information out the the noisy image.
We will discuss the different sources that generate the noise during the acquisition of the image. One source of noise is caused by the quantum nature of light, while other sources are introduced by the acquisition instrument (electronic noise, read noise,...) or by its processing chain (quantification, demosaicing, compression,...). We will see how the noise is transformed at each step of the camera processing chain. Understanding how the acquisition conditions affect the noise is important to predict the kind of noise we should expect and how to treat (denoise) it optimally. We will also see that most of the simple noise models that can be found in the literature are not valid for real images, since they are not capable of modeling all the characteristics of the noise after the many transformations the camera performs. In general, the homoscedastic noise model or the signal­dependent model are not enough, since they do not take into account the frequency dependence of the noise that occurs after demosaicing.
 

We propose a complex noise model that is able to estimate the noise in a large typology of images, including those with unknown noise model and JPEG­compressed images. Once noise has been properly characterized, the next step is to obtain a version of the image which is as close as possible to the ideal image (blind denoising). In general, when adding denoising into an image processing chain the results improve. For example, we can think about a satellite that denoises the acquired images before it compresses and sends them to the Earth. If the noise is removed before compression, the noise will not be compressed and the signal is more sparse and thusmore compressible. This is only one of many applications on noise estimation and denoising. 

 

Hand pose estimation with a chromatic 3D camera
P. Trouvé, F. Champagnat, G. Le Besnerais et M. Sanfourche
ONERA, Palaiseau, France.
 
We present a new approach for partial hand pose estimation using a passive monocular 3D camera. The camera depth estimation is based on the Depth from Defocus principle improved with the use of chromatic aberration. As this camera is passive and monocular, it can be used for indoor and outdoor application on a compact device. We present algorithms for respectively depth maps estimation, regularization and hand segmentation that are dedicated to the proposed 3D chromatic camera and show experimental results of hand shape estimation and finger tips localization, that are two important issues in partial hand pose estimation problem.
 

 

 

 

Date : 2014-10-31

Lieu : Télécom ParisTech, 46 rue Barrault, 75013 Paris. Amphithéâtre B310 pour les exposés, salle E200 pour les posters.


Thèmes scientifiques :
A - Méthodes et modèles en traitement de signal
B - Image et Vision
C - Algorithme-architecture en traitement du signal et des images

Inscriptions closes à cette réunion.

Accéder au compte-rendu de cette réunion.

(c) GdR IASIS - CNRS - 2024.