Vous êtes ici : Réunions » Réunion

Identification

Identifiant: 
Mot de passe : 

Mot de passe oublié ?
Détails d'identification oubliés ?

Co-conception de systèmes hybrides : quand l'instrumentation et les traitements numériques se rencontrent.

Nous vous rappelons que, afin de garantir l'accès de tous les inscrits aux salles de réunion, l'inscription aux réunions est gratuite mais obligatoire.

Inscriptions closes à cette réunion.

Inscriptions

18 personnes membres du GdR ISIS, et 40 personnes non membres du GdR, sont inscrits à cette réunion.
Capacité de la salle : 100 personnes.

Annonce

L'objectif de cette réunion est de discuter des nouvelles approches de conception de nouveaux systèmes d'acquisition pour lesquels le dispositif d'imagerie, de détection ou de mesure est fortement associé aux traitements numériques.

Dans de nombreux domaines, tels que la photographie numérique, la microscopie, l'astronomie ou l'imagerie radar, de nouveaux dispositifs d'acquisition sont développés pour dépasser les performances des systèmes traditionnels, en termes de qualité de signal, d'encombrement, ou pour leur ajouter de nouvelles fonctionnalités. Le principe est d'utiliser un dispositif d'acquisition, autrement dit un instrument, qui favorise l'efficacité des traitements, quitte à dégrader la qualité du signal brut en sortie du détecteur. Ceci donne lieu au développement de nouveaux systèmes "non conventionnels" ou "hybrides", pour lesquels l'instrument et les traitements sont indissociables.

L'enjeu principal de la conception de ces nouveaux systèmes est alors d'optimiser simultanément les paramètres de l'instrument et des traitements. On parle alors de conception conjointe ou co-conception. Cette nouvelle approche repose alors sur :

  1. la définition de nouveaux critères de conception caractérisant la performance globale du système en lien avec sa fonctionnalité
  2. l'utilisation de ces critères pour optimiser conjointement les paramètres de l'instrument et des traitements.

Lors de cette journée seront abordées plusieurs thématiques :

Orateurs invités

Sabine Süsstrunk (EPFL), Guillermo Sapiro (Duke University), Neus Sabater (Technicolor) et Wolf Hauser (DxO)

Organisateurs

Pauline Trouvé (Onera), Matthieu Boffety (IOGS), Yohann Tendero (CNRS LTCI, Télécom ParisTech, Univ Paris-Saclay), Andrés Almansa (CNRS LTCI, Télécom ParisTech, Univ Paris-Saclay).

Appel à participation

Si vous souhaitez effectuer un exposé ou présenter un poster lors de cette journée, merci d'envoyer un résumé de votre contribution (1 page) avant le 17 mai 2016 à Pauline Trouvé (pauline.trouve@onera.fr), Andrés Almansa (andres.almansa@telecom-paristech.fr), Matthieu Boffety (matthieu.boffety@institutoptique.fr), ou Yohann Tendero (yohann.tendero@telecom-paristech.fr).

Partenaires

Cette journée est organisée avec le soutien du GdR ISIS, du GdR MIA, de l'ONERA, de Télécom-ParisTech et de l'Institut d'Optique-ParisTech.



Programme



9h30 - 9h45 : Accueil et café

9h45 - 10h45 : PRESENTATION INVITEE


The death of the camera shake problem
G. Sapiro
Duke University, ECE Dept, Etats-Unis


10h50 - 12h : CAPTEURS ET TRAITEMENTS NON CONVENTIONNELS


10h50 - Field processing: from plenoptic cameras to camera arrays (Invité)
N. Sabater
Technicolor R&I Labs, Cesson - ­Sévigné, France


11h20 - Estimation de profondeur par caméra monoculaire
Jean Louchet1,2, Peter Villaert2
1Vision Systems Laboratory, Hogeschool Gent (Belgique)
2Artenia (France)


11h40 - Peut-on définir et construire des images parfaites (et comment ?)
T. Briand1, P. Monasse1, J-M Morel2
1IMAGINE, Ecole des Ponts ParisTech, France
2CMLA, ENS Cachan, France


12h00 - 14h00 : Déjeuner

14h00 - 14h50 : ENJEUX INDUSTRIELS ET APPLICATIONS


14h - Camera Miniaturization in the Digital Age (Invité)
W. Hauser
DxO Labs, Boulogne-Billancourt, France


14h30 - Imagerie 3D exploitée par le CSIG, application à la vision industrielle
S. Perrault1, G. Druart1, A. Montmerle-Bonnefois1, N. Guérineau1, L. Mugnier1, S. Monneret2, J. Primot1
1ONERA The French Aerospace Lab, Palaiseau, France
2Aix Marseille Universite, CNRS, Centrale Marseille, Institut Fresnel UMR 7249, Marseille, France


14h50 - 15h30 : MODELISATION, CONCEPTION ET EVALUATION I


14h50 - Single-Lens Light Field Imaging: What Exactly is the Equivalent Camera Array?
L. Mignard-Debise, J. Restrepo, I. Ihrke
Manao, INRIA, Bordeaux, France
Computational imaging laboratory, LP2N, Bordeaux, France


15h10 - Reconstructions 3D d'hologrammes 2D pour la Microscopie
A. Houillot, A. Montmerle-Bonnefois, L. M. Mugnier, G. Druart, L. Blanco
ONERA The French Aerospace Lab, Palaiseau, France


15h30 - 16h : Pause

16h - 17h : MODELISATION, CONCEPTION ET EVALUATION II


16h - Nouvelle méthode de conception des systèmes d'imagerie basée sur l'optimisation conjointe de l'optique et du traitement d'image
M.-A. Burcklen1, F. Diaz1, J. Rollin1, M.-S. L. Lee2, B. Loiseaux2, H. Sauer3, F. Goudail3
1Thales Angénieux, Saint-Héand, France
2Thales Research & Technology, Palaiseau, France
3Laboratoire Charles Fabry, IOGS, Palaiseau, France


16h20 - Binary Phase Masks for Depth of Field Extension: The Role of the Rings
R. Falcon, C. Kulcsar, F. Goudail
Laboratoire Charles Fabry, IOGS, Palaiseau, France


16h40 - Evaluation d'imageurs à super-résolution au moyen de mires fractales binaires
S. Landeau
DGA, Paris, France


17h00 - 18h00 : DISCUSSIONS



Résumés des contributions



The death of the camera shake problem

G. Sapiro
Duke University, ECE Dept, Etats-Unis

Camera shake deblurring is typically addressed by solving an inherently ill-posed deconvolution problem. If the photographer takes a multi-image burst, we show that it is possible to combine them to get a clean sharp version. The algorithm is strikingly simple: it performs a Fourier weighted average, with weights depending on the Fourier spectrum magnitude. The rationale uses no image or kernel assumptions, and can be applied also to video. Modern photography should then have no more camera shake issues.

Estimation de profondeur par caméra monoculaire

Jean Louchet1,2, Peter Villaert2
1Vision Systems Laboratory, Hogeschool Gent (Belgique)
2Artenia (France)

Dans le cadre du projet 3-SIS de caméra intégrée, cet article décrit un algorithme de stéréo mono-objectif faisant appel à un réseau de microprismes/microlentilles placé sur le capteur, et permettant d'entrelacer sur le capteur des images provenant de deux zones opposées de la pupille de l'objectif. La base stéréo étant limitée par le diamètre de pupille, les disparités mesurables sont très faibles; la réciproque de cette limitation est qu'elle permet d'estimer et exploiter les disparités à l'aide d'un algorithme local n'impliquant que des pixels voisins, ce qui est bien adapté à un traitement précoce SIMD au niveau du capteur. Par exemple, mettant au point à l'hyperfocale h (ici définie par h = df/p où d est le diamètre de pupille, f la distance focale et p le pas interpixels), l'algorithme exploitera pour des objets situés entre h / 2 et l'infini, des disparités comprises entre 1 et +1 pixel, ce qui autorise un traitement purement local entre pixels voisins. Une corrélation subpixel donne une information de profondeur moins précise qu'un système classique bi-caméra, mais quasi-dense et avec un coût et un encombrement réduits.

Peut-on définir et construire des images parfaites (et comment ?)

T. Briand1, P. Monasse1, J-M Morel2
1IMAGINE, Ecole des Ponts ParisTech, France
2CMLA, ENS Cachan, France

Nous appelons image parfaite une image digitale qui serait parfaitement interpolable et donc rééchantillonnable. Pour cela il faut que l'image soit virtuellement sans aliasing et sans bruit. L'aliasing a deux causes: d'abord l'échantillonnage insuffisamment dense et ensuite l'erreur de troncature, récemment étudiée et quantifiée par Loic Simon, et qui est causée par la perte des échantillons extérieurs, qui empêche de les utiliser pour un échantillonnage Shannonien non-local. Le bruit est évidemment lié au fait que le temps d'exposition est limité. L'idée est alors de revenir aux origines de la photographie en accumulant virtuellement l'information via la prise de bursts. Dans cet exposé nous discutons d'une part comment l'on peut fabriquer une image parfaite par une méthode de super-résolution, et quel dispositif employer pour cela. Nous nous attachons ensuite à la mesure de la perfection de l'image. Nous vérifions la consistance d'une mesure de perfection sur un simulateur avec des vérités terrain et ensuite en donnons aussi une version empirique que nous testons sur des données réelles.

Camera Miniaturization in the Digital Age (Invité)

W. Hauser
DxO Labs, Boulogne-Billancourt, France

Looking at camera evolution from the end of the 19th century to present, two main trends can be identified: miniaturization of the devices on the one hand, simplification of the picture-taking process on the other hand. Nowadays, cameras are easy to use and ubiquitous as never before. In our talk we will present a survey of techniques and tricks that allowed smartphone manufacturers to develop tiny cameras of exceptional quality. We show where smartphones are already ahead of professional DSLRs, where they still need to catch up, and what technologies might eventually allow to reach this goal.

Imagerie 3D exploitée par le CSIG, application à la vision industrielle

S. Perrault1, G. Druart1, A. Montmerle-Bonnefois1, N. Guérineau1, L. Mugnier1, S. Monneret2, J. Primot1
1ONERA The French Aerospace Lab, Palaiseau, France
2Aix Marseille Universite, CNRS, Centrale Marseille, Institut Fresnel UMR 7249, Marseille, France

Il existe un nombre certain de méthodes pour réaliser de l'imagerie 3D. Au fur et à mesure, les moyens d'acquisition et de traitement ont évolué dans des soucis de qualité mais aussi de simplicité, de poids des données, de compacité, ... différents critères qui ne vont pas forcément de pair, et qui conditionnent le choix de la solution à privilégier. Récemment, Perry West a recensé dans un papier 19 procédés différents pour faire de l'imagerie 3D. A l'origine, les méthodes d'imagerie 3D utilisaient simplement les propriétés réfléchissantes et réfractives de composants, et, plus récemment, elles ont évolué en exploitant la diffraction combinée avec du traitement d'image pour en extraire l'information 3D.
Nous présentons ici une méthode nouvelle (la 20 ème en quelque sorte) qui a fait l'objet d'un brevet, utilisant un capteur et un CSIG (Continuously Self Imaging Grating). Ses propriétés 3D sont étudiées depuis près de 6 ans à l'ONERA via une thèse, un projet étudiant entrepreneur ainsi que lors de plusieurs stages afin de trouver le domaine d'application permettant de positionner cette méthode parmi les 19 autres !
Le CSIG est un composant optique diffractif qui diffracte un nombre fini d'ordres. La transformée de Fourier de sa transmittance est constituée de points situés à l'intersection d'un anneau et d'une grille cartésienne de points. Ainsi, le CSIG va générer un motif d'intensité qui sera invariant à un facteur de dilatation ou de contraction près suivant la direction de propagation et la position de la source. Le CSIG va générer une PSF dont la fonction de transfert est discrète dans le domaine de Fourier et est constituée d'un nombre fini de pics. Les fréquences spatiales de ces pics sont directement liées avec les distances des objets par rapport au CSIG. La lacunarité fréquentielle de la FTM permet avec un simple traitement d'image d'en déduire les distances d'un nombre réduit d'objets en une seule acquisition.
Nous avons donc un système simple et compact utilisant un CSIG et un détecteur et capable d'extraire avec une grande précision une information 3D d'une scène simple composée d'un nombre fini de sources lumineuses. Toutes ces propriétés conviennent parfaitement pour des applications de vision industrielle comme la métrologie, ou encore médicales dans la localisation de particules fluorescentes.
Cette présentation détaillera un mode d'observation visualisant un point laser sur une surface métallique afin d'en mesurer la planéité.

Single-Lens Light Field Imaging: What Exactly is the Equivalent Camera Array?

L. Mignard-Debise, J. Restrepo, I. Ihrke
Manao, INRIA, Bordeaux, France
Computational imaging laboratory, LP2N, Bordeaux, France

In the past years, many optical designs for single-lens light field imaging have been proposed in the literature. Common wisdom holds that these light field cameras are in some sense equivalent to object space camera arrays. However, the different optical implementations make a comparison challenging and the extraction of the parameters associated with such an equivalent camera array difficult.
In this article we make the notion of an equivalent camera array (ECA) precise. In particular, we devise formulas and interpretations for all important practical parameters pertaining to such arrays, such as their:
- positions in world space and baseline,
- optical axes,
- field of view,
- focal planes, principal planes, and focal length, as well as
- aperture sizes, depth-of-field, and hyperfocal distance,
- spatial, directional, and depth resolution.
These properties characterize an optical system to first-order and are therefore important proxies for the performance of the system. We develop a unifying model for three major types of light field camera implementations, mapping them to their first order description in terms of the equivalent camera array and its parameters. This way, different designs become comparable. We perform a comparative performance analysis, identifying the areas of parameter space that the different designs can cover. Finally, we investigate how the aberrations of the main optical system of a single-lens light field camera affect the virtual cameras of the ECA.

Reconstructions 3D d'hologrammes 2D pour la Microscopie

A. Houillot, A. Montmerle-Bonnefois, L. M. Mugnier, G. Druart, L. Blanco
ONERA The French Aerospace Lab, Palaiseau, France

Nous nous intéressons à la récupération de la position dans l'espace d'un ensemble de points sources, qui est un problème essentiel en microscopie par fluorescence. Plusieurs applications dans le cadre de la microscopie, ont besoin de récupérer les informations 3D d'un objet constitué d'un ensemble de sources ponctuelles incohérentes. Nous développons et validons une méthode qui reconstitue efficacement ces objets parcimonieux en 3D à partir d'une image 2D, obtenue avec une lumière spatialement incohérente comme l'holographie conoscopique ou l'imagerie CSIG. Cette méthode repose sur l'optimisation conjointe des traitements et du dispositif expérimental.
Afin d'optimiser la résolution, la déconvolution 3D nécessite la mise au point d'un système optique qui présente une réponse impulsionnelle (PSF) codant finement la position longitudinale du point source, soit une PSF qui se décorrèle très rapidement par rapport à son point de focalisation, tout en conservant un fort contraste.
Nous étudions actuellement conjointement deux systèmes d'imagerie présentant ces qualités, l'holographie conoscopique et l'imagerie CSIG, tout en comparant leurs performances théoriques et expérimentales après déconvolution, à celles obtenues par imagerie traditionnelle.
Lors de ma présentation, je détaillerai tout particulièrement le principe de la déconvolution 3D d'images 2D appliquée à l'imagerie conoscopique, et présenterai mes derniers résultats en date.
L'holographie conoscopique est une méthode d'imagerie holographique numérique autoréférencée fonctionnant en lumière spatialement incohérente. C'est une technique simple à mettre en oeuvre et très stable qui repose sur la biréfringence des cristaux uniaxes.
À partir de l'image 2D et de la PSF 3D supposée connue et un a priori sur l'objet (en l'occurrence positivité + parcimonie), nous utilisons une approche bayésienne de type Maximum A Posteriori (MAP) pour estimer itérativement un objet 3D.
Des résolutions en profondeur de l'ordre de 10µm pour des résolutions latérales de 1µm ont été obtenues avec des simulations en utilisant le modèle de l'imagerie classique. En gardant ces résolutions latérales, l'holographie conoscopique permet d'obtenir des résolutions en profondeur de l'ordre de 0,1µm. Une validation expérimentale est en cours.

Binary Phase Masks for Depth of Field Extension: The Role of the Rings

R. Falcon, C. Kulcsar, F. Goudail
Laboratoire Charles Fabry, IOGS, Palaiseau, France

Phase masks are used as wavefront modulation devices on, typically, the aperture stop of an optical system, causing the PSF to become invariant to defocus. This invariance can cause blurred captured images, making it necessary to add a digital post-processing to the overall system. It is then interesting to jointly optimize both the phase mask and the post-processing so that we get the best possible output image. In this work we study the performance of jointly optimized binary annular phase masks, in the context of depth of field (DoF) extension, as a function of the number of rings and the desired DoF. For the performance evaluation we use an image quality (IQ) criterion based on the mean squared error between the obtained image and the object, therefore it takes into account the phase mask and the Wiener filter used for post-processing. We sh ow that the IQ quickly grows with the number of rings, but it levels-off after a given number of rings. Also we show that the number of rings at which the IQ levels-off is higher as the required DoF increases. Finally, we illustrate through simulations that IQ can satisfactorily predict the performance of the system on real image.

Evaluation d'imageurs à super-résolution au moyen de mires fractales binaires

S. Landeau
DGA, Paris, France

De nos jours, de puissants traitements d'images non-linéaires sont utilisés en temps réel pour mettre en oeuvre de la super-résolution et du débruitage. Les imageurs optroniques intégrant de telles techniques deviennent difficiles à évaluer, car la résolution spatiale est maintenant fonction du contenu de la scène. Beaucoup d'algorithmes incluent des processus de régulation qui généralement réduisent la complexité de l'image en lissant les contours. Des petits détails d'importance peuvent être ainsi détruits par ce genre de traitements. Dans cet article, une mire fractale binaire est présentée, avec un fouillis structuré et d'intéressantes propriétés d'autosimilarités multi-échelles. L'apparent fouillis structuré de cette mire offre un compromis entre bruit blanc, peu probable dans une scène réelle, et une mire très structurée comme l'est une mire de FTM. En association avec la conception fractale de la mire, une méthode d'analyse a été développée pour évaluer automatiquement les effets non-linéaires des images acquises et traitées par un imageur. La figure de mérite calculée est directement comparable avec une FTM linéaire dans Fourier. Dans cet objectif, les éléments en ondelette de Haar distribués spatialement sur la mire à différentes échelles, sont assimilés aux cycles sinus de Fourier à différentes fréquences. La probabilité de résolution correcte indique la capacité à lire correctement les contrastes de Haar parmi la population de tous les éléments de Haar avec une contrainte d'exactitude de position. Pour la validation de la méthode, la simulation de deux types différents d'imageurs a été réalisée, un système linéaire bien échantillonné et un système sous- échantillonné, associé à des traitements de super-résolution et de réduction de bruit. L'influence du contraste de cible sur les figures de mérites est analysée. Enfin, l'introduction de cette nouvelle figure de mérite dans les modèles de performance actuels, comme TRM4 (Fraunhofer IOSB) et NVIPM (NVESD) est envisagée. Les bénéfices et les limitations de la méthode sont aussi comparés avec l'évaluation TOD (TNO).

Nouvelle méthode de conception des systèmes d'imagerie basée sur l'optimisation conjointe de l'optique et du traitement d'image

M.-A. Burcklen1, F. Diaz1, J. Rollin1, M.-S. L. Lee2, B. Loiseaux2, H. Sauer3, F. Goudail3
1Thales Angénieux, Saint-Héand, France
2Thales Research & Technology, Palaiseau, France
3Laboratoire Charles Fabry, IOGS, Palaiseau, France

Augmenter les performances des systèmes d'imagerie sans accroître leur complexité, leur consommation ou leur coût est un enjeu crucial, tout particulièrement dans la conception des systèmes embarqués.
Traditionnellement, ces systèmes sont conçus en optimisant d'abord la combinaison optique de manière à obtenir la meilleure image possible, puis en rehaussant éventuellement la qualité avec un traitement numérique. Depuis une vingtaine d'années, de nouvelles approches de conception sont proposées pour augmenter les performances, comme le codage de pupille où un masque de phase inséré dans la combinaison optique permet de rendre le système insensible à un défaut optique donné.
Nous proposons ici une nouvelle méthode de calcul de solution optique pour l'imagerie basée sur l'optimisation conjointe de l'optique et du traitement numérique. Elle définit un nouveau critère d'optimisation conjointe basé sur la fonction de transfert de l'optique et prend implicitement en compte le traitement de déconvolution. Ce critère exploite l'algorithme d'optimisation du logiciel de conception optique Code V®. Nous montrons qu'il permet d'obtenir des résultats similaires à ceux donnés par le critère de conception conjointe basé sur le calcul de l'écart quadratique moyen entre la scène observée et l'image restaurée.
Cette nouvelle méthode de conception sera illustrée au travers d'un objectif infrarouge corrigé des dérives thermiques. La combinaison est simplifiée par rapport aux solutions traditionnelles optiquement athermalisées et, de plus, présente une profondeur de champ augmentée.



Date : 2016-06-17

Lieu : Télécom ParisTech (Amphi B310 et salle E200)


Thèmes scientifiques :
A - Méthodes et modèles en traitement de signal
B - Image et Vision

Inscriptions closes à cette réunion.

Accéder au compte-rendu de cette réunion.

(c) GdR IASIS - CNRS - 2024.