Nous vous rappelons que, afin de garantir l'accès de tous les inscrits aux salles de réunion, l'inscription aux réunions est gratuite mais obligatoire.
Inscriptions closes à cette réunion.
18 personnes membres du GdR ISIS, et 40 personnes non membres du GdR, sont inscrits à cette réunion.
Capacité de la salle : 100 personnes.
L'objectif de cette réunion est de discuter des nouvelles approches de conception de nouveaux systèmes d'acquisition pour lesquels le dispositif d'imagerie, de détection ou de mesure est fortement associé aux traitements numériques.
Dans de nombreux domaines, tels que la photographie numérique, la microscopie, l'astronomie ou l'imagerie radar, de nouveaux dispositifs d'acquisition sont développés pour dépasser les performances des systèmes traditionnels, en termes de qualité de signal, d'encombrement, ou pour leur ajouter de nouvelles fonctionnalités. Le principe est d'utiliser un dispositif d'acquisition, autrement dit un instrument, qui favorise l'efficacité des traitements, quitte à dégrader la qualité du signal brut en sortie du détecteur. Ceci donne lieu au développement de nouveaux systèmes "non conventionnels" ou "hybrides", pour lesquels l'instrument et les traitements sont indissociables.
L'enjeu principal de la conception de ces nouveaux systèmes est alors d'optimiser simultanément les paramètres de l'instrument et des traitements. On parle alors de conception conjointe ou co-conception. Cette nouvelle approche repose alors sur :
Lors de cette journée seront abordées plusieurs thématiques :
Sabine Süsstrunk (EPFL), Guillermo Sapiro (Duke University), Neus Sabater (Technicolor) et Wolf Hauser (DxO)
Pauline Trouvé (Onera), Matthieu Boffety (IOGS), Yohann Tendero (CNRS LTCI, Télécom ParisTech, Univ Paris-Saclay), Andrés Almansa (CNRS LTCI, Télécom ParisTech, Univ Paris-Saclay).
Si vous souhaitez effectuer un exposé ou présenter un poster lors de cette journée, merci d'envoyer un résumé de votre contribution (1 page) avant le 17 mai 2016 à Pauline Trouvé (pauline.trouve@onera.fr), Andrés Almansa (andres.almansa@telecom-paristech.fr), Matthieu Boffety (matthieu.boffety@institutoptique.fr), ou Yohann Tendero (yohann.tendero@telecom-paristech.fr).
Cette journée est organisée avec le soutien du GdR ISIS, du GdR MIA, de l'ONERA, de Télécom-ParisTech et de l'Institut d'Optique-ParisTech.
The death of the camera shake problem
G. Sapiro
Duke University, ECE Dept, Etats-Unis
10h50 - Field processing: from plenoptic cameras to camera arrays (Invité)
N. Sabater
Technicolor R&I Labs, Cesson - Sévigné, France
11h20 - Estimation de profondeur par caméra monoculaire
Jean Louchet1,2, Peter Villaert2
1Vision Systems Laboratory, Hogeschool Gent (Belgique)
2Artenia (France)
11h40 - Peut-on définir et construire des images parfaites (et comment ?)
T. Briand1, P. Monasse1, J-M Morel2
1IMAGINE, Ecole des Ponts ParisTech, France
2CMLA, ENS Cachan, France
14h - Camera Miniaturization in the Digital Age (Invité)
W. Hauser
DxO Labs, Boulogne-Billancourt, France
14h30 - Imagerie 3D exploitée par le CSIG, application à la vision industrielle
S. Perrault1, G. Druart1, A. Montmerle-Bonnefois1, N. Guérineau1, L. Mugnier1, S. Monneret2, J. Primot1
1ONERA The French Aerospace Lab, Palaiseau, France
2Aix Marseille Universite, CNRS, Centrale Marseille, Institut Fresnel UMR 7249, Marseille, France
14h50 - Single-Lens Light Field Imaging: What Exactly is the Equivalent Camera Array?
L. Mignard-Debise, J. Restrepo, I. Ihrke
Manao, INRIA, Bordeaux, France
Computational imaging laboratory, LP2N, Bordeaux, France
15h10 - Reconstructions 3D d'hologrammes 2D pour la Microscopie
A. Houillot, A. Montmerle-Bonnefois, L. M. Mugnier, G. Druart, L. Blanco
ONERA The French Aerospace Lab, Palaiseau, France
16h - Nouvelle méthode de conception des systèmes d'imagerie basée sur l'optimisation conjointe de l'optique et du traitement d'image
M.-A. Burcklen1, F. Diaz1, J. Rollin1, M.-S. L. Lee2, B. Loiseaux2, H. Sauer3, F. Goudail3
1Thales Angénieux, Saint-Héand, France
2Thales Research & Technology, Palaiseau, France
3Laboratoire Charles Fabry, IOGS, Palaiseau, France
16h20 - Binary Phase Masks for Depth of Field Extension: The Role of the Rings
R. Falcon, C. Kulcsar, F. Goudail
Laboratoire Charles Fabry, IOGS, Palaiseau, France
16h40 - Evaluation d'imageurs à super-résolution au moyen de mires fractales binaires
S. Landeau
DGA, Paris, France
G. Sapiro
Duke University, ECE Dept, Etats-Unis
Camera shake deblurring is typically addressed by solving an inherently ill-posed deconvolution problem. If the photographer takes a multi-image burst, we show that it is possible to combine them to get a clean sharp version. The algorithm is strikingly simple: it performs a Fourier weighted average, with weights depending on the Fourier spectrum magnitude. The rationale uses no image or kernel assumptions, and can be applied also to video. Modern photography should then have no more camera shake issues.
Jean Louchet1,2, Peter Villaert2
1Vision Systems Laboratory, Hogeschool Gent (Belgique)
2Artenia (France)
Dans le cadre du projet 3-SIS de caméra intégrée, cet article décrit un algorithme de stéréo mono-objectif faisant appel à un réseau de microprismes/microlentilles placé sur le capteur, et permettant d'entrelacer sur le capteur des images provenant de deux zones opposées de la pupille de l'objectif. La base stéréo étant limitée par le diamètre de pupille, les disparités mesurables sont très faibles; la réciproque de cette limitation est qu'elle permet d'estimer et exploiter les disparités à l'aide d'un algorithme local n'impliquant que des pixels voisins, ce qui est bien adapté à un traitement précoce SIMD au niveau du capteur. Par exemple, mettant au point à l'hyperfocale h (ici définie par h = df/p où d est le diamètre de pupille, f la distance focale et p le pas interpixels), l'algorithme exploitera pour des objets situés entre h / 2 et l'infini, des disparités comprises entre 1 et +1 pixel, ce qui autorise un traitement purement local entre pixels voisins. Une corrélation subpixel donne une information de profondeur moins précise qu'un système classique bi-caméra, mais quasi-dense et avec un coût et un encombrement réduits.
T. Briand1, P. Monasse1, J-M Morel2
1IMAGINE, Ecole des Ponts ParisTech, France
2CMLA, ENS Cachan, France
Nous appelons image parfaite une image digitale qui serait parfaitement interpolable et donc rééchantillonnable. Pour cela il faut que l'image soit virtuellement sans aliasing et sans bruit. L'aliasing a deux causes: d'abord l'échantillonnage insuffisamment dense et ensuite l'erreur de troncature, récemment étudiée et quantifiée par Loic Simon, et qui est causée par la perte des échantillons extérieurs, qui empêche de les utiliser pour un échantillonnage Shannonien non-local. Le bruit est évidemment lié au fait que le temps d'exposition est limité. L'idée est alors de revenir aux origines de la photographie en accumulant virtuellement l'information via la prise de bursts. Dans cet exposé nous discutons d'une part comment l'on peut fabriquer une image parfaite par une méthode de super-résolution, et quel dispositif employer pour cela. Nous nous attachons ensuite à la mesure de la perfection de l'image. Nous vérifions la consistance d'une mesure de perfection sur un simulateur avec des vérités terrain et ensuite en donnons aussi une version empirique que nous testons sur des données réelles.
W. Hauser
DxO Labs, Boulogne-Billancourt, France
Looking at camera evolution from the end of the 19th century to present, two main trends can be identified: miniaturization of the devices on the one hand, simplification of the picture-taking process on the other hand. Nowadays, cameras are easy to use and ubiquitous as never before. In our talk we will present a survey of techniques and tricks that allowed smartphone manufacturers to develop tiny cameras of exceptional quality. We show where smartphones are already ahead of professional DSLRs, where they still need to catch up, and what technologies might eventually allow to reach this goal.
S. Perrault1, G. Druart1, A. Montmerle-Bonnefois1, N. Guérineau1, L. Mugnier1, S. Monneret2, J. Primot1
1ONERA The French Aerospace Lab, Palaiseau, France
2Aix Marseille Universite, CNRS, Centrale Marseille, Institut Fresnel UMR 7249, Marseille, France
Il existe un nombre certain de méthodes pour réaliser de l'imagerie 3D. Au fur et à mesure, les moyens d'acquisition et de traitement ont évolué dans des soucis de qualité mais aussi de simplicité, de poids des données, de compacité, ... différents critères qui ne vont pas forcément de pair, et qui conditionnent le choix de la solution à privilégier. Récemment, Perry West a recensé dans un papier 19 procédés différents pour faire de l'imagerie 3D. A l'origine, les méthodes d'imagerie 3D utilisaient simplement les propriétés réfléchissantes et réfractives de composants, et, plus récemment, elles ont évolué en exploitant la diffraction combinée avec du traitement d'image pour en extraire l'information 3D.
Nous présentons ici une méthode nouvelle (la 20 ème en quelque sorte) qui a fait l'objet d'un brevet, utilisant un capteur et un CSIG (Continuously Self Imaging Grating). Ses propriétés 3D sont étudiées depuis près de 6 ans à l'ONERA via une thèse, un projet étudiant entrepreneur ainsi que lors de plusieurs stages afin de trouver le domaine d'application permettant de positionner cette méthode parmi les 19 autres !
Le CSIG est un composant optique diffractif qui diffracte un nombre fini d'ordres. La transformée de Fourier de sa transmittance est constituée de points situés à l'intersection d'un anneau et d'une grille cartésienne de points. Ainsi, le CSIG va générer un motif d'intensité qui sera invariant à un facteur de dilatation ou de contraction près suivant la direction de propagation et la position de la source. Le CSIG va générer une PSF dont la fonction de transfert est discrète dans le domaine de Fourier et est constituée d'un nombre fini de pics. Les fréquences spatiales de ces pics sont directement liées avec les distances des objets par rapport au CSIG. La lacunarité fréquentielle de la FTM permet avec un simple traitement d'image d'en déduire les distances d'un nombre réduit d'objets en une seule acquisition.
Nous avons donc un système simple et compact utilisant un CSIG et un détecteur et capable d'extraire avec une grande précision une information 3D d'une scène simple composée d'un nombre fini de sources lumineuses. Toutes ces propriétés conviennent parfaitement pour des applications de vision industrielle comme la métrologie, ou encore médicales dans la localisation de particules fluorescentes.
Cette présentation détaillera un mode d'observation visualisant un point laser sur une surface métallique afin d'en mesurer la planéité.
L. Mignard-Debise, J. Restrepo, I. Ihrke
Manao, INRIA, Bordeaux, France
Computational imaging laboratory, LP2N, Bordeaux, France
In the past years, many optical designs for single-lens light field imaging have been proposed in the literature. Common wisdom holds that these light field cameras are in some sense equivalent to object space camera arrays. However, the different optical implementations make a comparison challenging and the extraction of the parameters associated with such an equivalent camera array difficult.
In this article we make the notion of an equivalent camera array (ECA) precise. In particular, we devise formulas and interpretations for all important practical parameters pertaining to such arrays, such as their:
- positions in world space and baseline,
- optical axes,
- field of view,
- focal planes, principal planes, and focal length, as well as
- aperture sizes, depth-of-field, and hyperfocal distance,
- spatial, directional, and depth resolution.
These properties characterize an optical system to first-order and are therefore important proxies for the performance of the system. We develop a unifying model for three major types of light field camera implementations, mapping them to their first order description in terms of the equivalent camera array and its parameters. This way, different designs become comparable. We perform a comparative performance analysis, identifying the areas of parameter space that the different designs can cover. Finally, we investigate how the aberrations of the main optical system of a single-lens light field camera affect the virtual cameras of the ECA.
A. Houillot, A. Montmerle-Bonnefois, L. M. Mugnier, G. Druart, L. Blanco
ONERA The French Aerospace Lab, Palaiseau, France
Nous nous intéressons à la récupération de la position dans l'espace d'un ensemble de points sources, qui est un problème essentiel en microscopie par fluorescence. Plusieurs applications dans le cadre de la microscopie, ont besoin de récupérer les informations 3D d'un objet constitué d'un ensemble de sources ponctuelles incohérentes. Nous développons et validons une méthode qui reconstitue efficacement ces objets parcimonieux en 3D à partir d'une image 2D, obtenue avec une lumière spatialement incohérente comme l'holographie conoscopique ou l'imagerie CSIG. Cette méthode repose sur l'optimisation conjointe des traitements et du dispositif expérimental.
Afin d'optimiser la résolution, la déconvolution 3D nécessite la mise au point d'un système optique qui présente une réponse impulsionnelle (PSF) codant finement la position longitudinale du point source, soit une PSF qui se décorrèle très rapidement par rapport à son point de focalisation, tout en conservant un fort contraste.
Nous étudions actuellement conjointement deux systèmes d'imagerie présentant ces qualités, l'holographie conoscopique et l'imagerie CSIG, tout en comparant leurs performances théoriques et expérimentales après déconvolution, à celles obtenues par imagerie traditionnelle.
Lors de ma présentation, je détaillerai tout particulièrement le principe de la déconvolution 3D d'images 2D appliquée à l'imagerie conoscopique, et présenterai mes derniers résultats en date.
L'holographie conoscopique est une méthode d'imagerie holographique numérique autoréférencée fonctionnant en lumière spatialement incohérente. C'est une technique simple à mettre en oeuvre et très stable qui repose sur la biréfringence des cristaux uniaxes.
À partir de l'image 2D et de la PSF 3D supposée connue et un a priori sur l'objet (en l'occurrence positivité + parcimonie), nous utilisons une approche bayésienne de type Maximum A Posteriori (MAP) pour estimer itérativement un objet 3D.
Des résolutions en profondeur de l'ordre de 10µm pour des résolutions latérales de 1µm ont été obtenues avec des simulations en utilisant le modèle de l'imagerie classique. En gardant ces résolutions latérales, l'holographie conoscopique permet d'obtenir des résolutions en profondeur de l'ordre de 0,1µm. Une validation expérimentale est en cours.
R. Falcon, C. Kulcsar, F. Goudail
Laboratoire Charles Fabry, IOGS, Palaiseau, France
Phase masks are used as wavefront modulation devices on, typically, the aperture stop of an optical system, causing the PSF to become invariant to defocus. This invariance can cause blurred captured images, making it necessary to add a digital post-processing to the overall system. It is then interesting to jointly optimize both the phase mask and the post-processing so that we get the best possible output image. In this work we study the performance of jointly optimized binary annular phase masks, in the context of depth of field (DoF) extension, as a function of the number of rings and the desired DoF. For the performance evaluation we use an image quality (IQ) criterion based on the mean squared error between the obtained image and the object, therefore it takes into account the phase mask and the Wiener filter used for post-processing. We sh ow that the IQ quickly grows with the number of rings, but it levels-off after a given number of rings. Also we show that the number of rings at which the IQ levels-off is higher as the required DoF increases. Finally, we illustrate through simulations that IQ can satisfactorily predict the performance of the system on real image.
S. Landeau
DGA, Paris, France
M.-A. Burcklen1, F. Diaz1, J. Rollin1, M.-S. L. Lee2, B. Loiseaux2, H. Sauer3, F. Goudail3
1Thales Angénieux, Saint-Héand, France
2Thales Research & Technology, Palaiseau, France
3Laboratoire Charles Fabry, IOGS, Palaiseau, France
Augmenter les performances des systèmes d'imagerie sans accroître leur complexité, leur consommation ou leur coût est un enjeu crucial, tout particulièrement dans la conception des systèmes embarqués.
Traditionnellement, ces systèmes sont conçus en optimisant d'abord la combinaison optique de manière à obtenir la meilleure image possible, puis en rehaussant éventuellement la qualité avec un traitement numérique. Depuis une vingtaine d'années, de nouvelles approches de conception sont proposées pour augmenter les performances, comme le codage de pupille où un masque de phase inséré dans la combinaison optique permet de rendre le système insensible à un défaut optique donné.
Nous proposons ici une nouvelle méthode de calcul de solution optique pour l'imagerie basée sur l'optimisation conjointe de l'optique et du traitement numérique. Elle définit un nouveau critère d'optimisation conjointe basé sur la fonction de transfert de l'optique et prend implicitement en compte le traitement de déconvolution. Ce critère exploite l'algorithme d'optimisation du logiciel de conception optique Code V®. Nous montrons qu'il permet d'obtenir des résultats similaires à ceux donnés par le critère de conception conjointe basé sur le calcul de l'écart quadratique moyen entre la scène observée et l'image restaurée.
Cette nouvelle méthode de conception sera illustrée au travers d'un objectif infrarouge corrigé des dérives thermiques. La combinaison est simplifiée par rapport aux solutions traditionnelles optiquement athermalisées et, de plus, présente une profondeur de champ augmentée.
Date : 2016-06-17
Lieu : Télécom ParisTech (Amphi B310 et salle E200)
Thèmes scientifiques :
A - Méthodes et modèles en traitement de signal
B - Image et Vision
Inscriptions closes à cette réunion.
Accéder au compte-rendu de cette réunion.
(c) GdR IASIS - CNRS - 2024.