Vous êtes ici : Réunions » Réunion

Identification

Identifiant: 
Mot de passe : 

Mot de passe oublié ?
Détails d'identification oubliés ?

Co-conception de systèmes hybrides

Nous vous rappelons que, afin de garantir l'accès de tous les inscrits aux salles de réunion, l'inscription aux réunions est gratuite mais obligatoire.

Inscriptions closes à cette réunion.

Inscriptions

16 personnes membres du GdR ISIS, et 23 personnes non membres du GdR, sont inscrits à cette réunion.
Capacité de la salle : 50 personnes.

Annonce

Co-conception de systèmes hybrides : quand l’instrumentation et les traitements numériques se rencontrent.

L'objectif de cette réunion est de discuter des nouvelles approches de conception de nouveaux systèmes d'acquisition pour lesquels le dispositif d’imagerie, de détection ou de mesure est fortement associé aux traitements numériques.

Dans de nombreux domaines, tels que la photographie numérique, la microscopie, l’astronomie ou l’imagerie radar, de nouveaux dispositifs d’acquisition sont développés pour dépasser les performances des systèmes traditionnels, en termes de qualité de signal, d'encombrement, ou pour leur ajouter de nouvelles fonctionnalités. Le principe est d'utiliser un dispositif d’acquisition, autrement dit un instrument, qui favorise l'efficacité des traitements, quitte à dégrader la qualité du signal brut en sortie du détecteur. Ceci donne lieu au développement de nouveaux systèmes "non conventionnels" ou "hybrides", pour lesquels l’instrument et les traitements sont indissociables.

L'enjeu principal de la conception de ces nouveaux systèmes est alors d'optimiser simultanément les paramètres de l’instrument et des traitements. On parle alors de conception conjointe ou co-conception. Cette nouvelle approche repose alors sur :

  1. la définition de nouveaux critères de conception caractérisant la performance globale du système en lien avec sa fonctionnalité
  2. l'utilisation ces critères pour optimiser conjointement les paramètres de l’instrument et des traitements.

Lors de cette journée seront abordées plusieurs thématiques :

Organisateurs

Pauline Trouvé (Onera), Matthieu Boffety (IOGS), Mauricio Delbracio (ENS-Cachan).

Appel à participation

Si vous souhaitez effectuer un exposé lors de cette journée, merci d'envoyer un résumé de votre contribution  (1 page) avant le 30 Septembre à Pauline Trouvé (pauline.trouve@onera.fr), Matthieu Boffety (matthieu.boffety@institutoptique.fr) ou à Mauricio Delbracio (mauricio.delbracio@cmla.enscachan.fr).

Programme

22 Novembre 2013 à Télécom ParisTech
46 Rue Barrault, 75013 Paris, Amphithéâtre SAPHIR

Durée de chaque contribution orale : 15 min + 5 min de questions

 

Inscriptions obligatoires

 

10h - 10h10 : Accueil

10h10 - 12h15: Conception de nouveaux instruments et traitements

12h15 - 14h00 : Repas

14h00 - 15h15 : Modèles de performance

15h15 - 15h30 : Pause

15h30 - 17h10 : Optimisation

Résumés des contributions

Réalisation d’une caméra IR sur puce

F. de la Barrière, G. Druart, J.Taboury et N. Guérineau

Nous présenterons une caméra infrarouge dont le champ de vue est égale à 120° et dont l'encombrement est inférieur à 4mm. Une telle caméra peut être ainsi intégrée au plus près du détecteur répondant alors aux contraintes cryogéniques qui imposent la réduction de la masse optique à refroidir. Une telle compacité est possible en combinant une architecture multivoie produisant une multitude d'imagettes non redondantes avec des algorithmes de superresolution. Grâce à cette démarche de conception conjointe, nous pouvons réduire le pas d'échantillonnage du détecteur à une valeur de 7,5µm qui est inférieure à l'état de l'art actuel (autours de 10µm). Avec un pas d'échantillonnage plus faible, nous pouvons alors réduire l'encombrement de la caméra. Dans cet exposé, la conception de cette caméra sera décrite et nous illustrerons ses performances avec plusieurs résultats expérimentaux.

Imagerie 3D à partir d’images comprimées obtenues avec un réseau continûment auto-imageant

M. Piponnier, R. Horisaki, G. Druart, J. Primot et F. Goudail

On observe aujourd’hui une demande de plus en plus forte pour des systèmes imageurs spécialisés, c’est-à-dire dont la mission est d’observer une information précise dans un environnement connu. Ces systèmes étant dédiés à une unique fonction, la connaissance a priori de cette fonction ainsi que de l’environnement, permet au concepteur de choisir les composants optiques et les traitements d’image adaptés pour réaliser le système imageur le plus simple et le mieux adapté pour répondre à ce besoin : c’est la démarche de conception conjointe. Appliquée au cas de l’imagerie 3D, cette démarche nous amène à chercher un système imageur capable d’obtenir, en une seule acquisition, l’image et la distance des objets présents dans la scène observée.
Une solution consiste à envisager comme composants optiques les réseaux continûment auto-imageants. Ces réseaux diffractent un nombre fini d’ordres qui ont la particularité de former une figure d’éclairement invariante par propagation. Dans l’espace de Fourier, le spectre de cette figure est composé d’un nombre fini de fréquences spatiales dont les coordonnées radiales varient en fonction de la distance de l’objet. Il est donc possible de sommer de manière distincte le signal provenant d’objets situés à différentes distances. Cependant, comme le spectre est discret, on perd de l’information sur la forme de l’objet. La distance de l’objet est donc obtenue ici au détriment de son spectre. Il faut donc utiliser un traitement d’image pour reconstruire la forme de l’objet.
Dans certains contextes d’imagerie (objets peu étendus ou peu texturés), il est possible de reconstruire les objets grâce à un traitement d’image adapté. Ainsi, ce composant permet l’acquisition d’une information 3D sur les objets présents dans une scène, et ce, en une seule acquisition d’image. La démarche de conception conjointe a alors permis d’obtenir un système imageur simple qui image une scène en 3D en une seule acquisition. Ce travail est le fruit d’une collaboration entre l’Institut d’Optique, l’Onera et la Graduate School of Information Science and Technology de l’université d’Osaka (Japon).

A reconfigurable camera add-on for high dynamic range, multispectral, polarization, and light field imaging

I. Ihrke, A. Manakov, J. Restrepo, O. Klehm, R. Hegedus, E. Eisemann et H.P. Seidel.

We propose a non-permanent add-on that enables plenoptic imaging with standard cameras which we refer to as KaleidoCamera. Our design is based on a physical copying mechanism that multiplies a sensor image into a number of identical copies that still carry the plenoptic information of interest. Via different optical filters, we can then recover the desired information. A minor modification of the design also allows for aperture subsampling and, hence, light-field imaging. As the filters in our design are exchangeable, a reconfiguration for different imaging purposes is possible. We show in a prototype setup that high dynamic range, multispectral, polarization, and light-field imaging can be achieved with our design.

Conception, d'un imageur matriciel hyperspectral haute résolution et temps réel : principe et analyse préliminaire

A. Montmayrant, S. McGregor et S. Lacroix 

L'exposé présentera le principe et une analyse préliminaire d'un système permettant l'acquisition instantanée d'images hyperspectrales. Une première version du système consiste à imager la scène simultanément sur deux matrices CCD, dont une est située derrière un réseau diffractant. Un algorithme simple de déconvolution des deux images produites permet de reconstituer le cube hyperspectral, une première analyse vis-à-vis du bruit des images acquises sera présentée. Un second système combine une matrice CCD située derrière un réseau diffractant avec une matrice qui image le plan de Fourier, elle aussi située derrière un réseau diffractant. Les algorithmes de déconvolution des images acquises seront esquissés.

Disparity-Guided Demosaicing for Plenoptic Images

N. Sabater, G. Snadri et V. Drazic

A plenoptic camera captures the 4D light rays (position and angle of incidence) of a scene thanks to an array of microlenses placed between the sensor and the main lens of the camera. Thanks to its post-capture capabilities such as refocusing or depth estimation, plenoptic cameras are becoming very popular. Hovewer, traditional image processing algorithms can not been used with those images. In particular traditional demosaicing algorithms applied on plenoptic raw data will create image artifacts on the recovered views due to microlenses cross-talk.
In this work a new algorithm for view demosaicing that is performed after demultiplexing is proposed. In particular, our method estimates the disparity maps between the multiple views and uses them to compute the full RGB pixel values. Thus, iterating this process (disparity estimation and demosaicing) leads to demosaiced views without cross-talk image artifacts.

Limite de résolution en microscopie holographique : influence des paramètres expérimentaux et des algorithmes de reconstruction

C. Fournier, L. Denis et T. Fournel

L’holographie numérique (DH) est une technique de microscopie 3-D qui a été largement développée au cours des dernières décennies grâce aux énormes progrès de l'imagerie numérique. Cette technique permet d'obtenir la reconstruction 3D d'objets à partir d'images-hologrammes 2D avec une précision qui peut être inférieure à la longueur d'onde. De plus, l’utilisation de caméras rapides pour l’acquisition d’hologrammes mène à des reconstructions 3D, résolues en temps, de phénomènes rapides. Les applications de l'holographie numérique sont nombreuses et vont de l’analyse de microstructures à l’imagerie biomédicale. Pour la plupart de ces applications l’aspect métrologique est primordial.
L’estimation et l’amélioration de la résolution en holographie numérique est actuellement la problématique la plus importante de ce domaine. Les approches de types "problèmes inverses" ont montré ces dernières années leur potentiel pour améliorer la précision de la reconstruction 3D. Elles sont basées sur l’utilisation d’a priori sur les objets et sur les modèles de formation d’images hologrammes. Dans certains cas elles permettent d’atteindre la limite inférieure de la résolution (résolution d’un point) donné par les bornes de Cramer Rao [1],[2].
Dans le cas d’objets paramétriques (pouvant être décrits par un petit nombre de paramètres), le modèle de formation d’hologramme est également paramétrique et peut avoir une formulation analytique. Des travaux antérieurs ont permis de proposer un algorithme glouton permettant de résoudre le problème inverse de reconstruction (intrinsèquement mal posé par une maximisation de la vraisemblance entre un modèle de formation d’hologramme et les données [3]. Nous proposons ici, l’étude de la précision théorique d’estimation des paramètres en fonction des paramètres expérimentaux d’enregistrement des hologrammes (longueur d’onde, distance d’enregistrement, divergence de l’onde, …). L’estimation de ces paramètres est corrélée et donc souvent peu intuitive. Le calcul de cartes d’erreurs peut permettre d’optimiser le montage expérimental théoriquement. Nous discuterons les limites d’une telle approche.
La méthodologie utilisée est très générale, elle peut être appliquée à d’autres problématiques d’holographie numérique (le modèle de bruit peut être raffiné le modèle de formation d’image modifiée) ou d’imagerie. Cette méthodologie devrait aussi permettre de comparer la résolution de différents montages: holographie hors axe, “phase shifting “,  holographie couleur. 

Références :

[1] P. Réfrégier, Noise theory and application to physics: from fluctuations to information. Springer Verlag, 2004.
[2] C. Fournier, L. Denis, et T. Fournel, “ On the single point resolution of on-axis digital holography “,Journal of the Optical Society of America A, vol. 27, no 8, p. 1856?1862, 2010.
[3] F. Soulez, L. Denis, C. Fournier, E. Thiébaut, et C. Goepfert, “ Inverse problem approach for particle digital holography: accurate location based on local optimisation “, Journal of the Optical Society of America A, vol. 24, no 4, p. 1164—1171, 2007.

Remerciements :

Ce travail est financé par le projet MORIN (Mesures optiques 3D pour la recherche et Industrie), du "Programme Avenir Lyon-Saint-Etienne "(PAL-SE).

Influence du choix de la polarisation émise sur les performances d’estimation de la hauteur des arbres avec le système SAR polarimétrique interférométrique compact et le modèle RVoG

A. Roueff, Ph. Réfrégier, A. Arnaubec et P. C. Dubois-Fernandez

La mission BIOMASS a pour objectif d’envoyer un satellite équipé d’un système SAR polarimétriques interférométriques (PolInSAR) afin d’estimer la biomasse à l’échelle planétaire. Cette mission motive de nombreuses études portant sur l’estimation de la hauteur de végétation avec le système PolInSAR [1,2,3] ainsi qu’avec le système PolInSAR compact [4,5], qui correspond à un système PolInSAR simplifié où un seul état de polarisation est émis au lieu de deux. Le nombre de mesures en configuration PolInSAR compacte étant plus faible qu’en configuration PolInSAR complète, il est intéressant de déterminer la polarisation optimale à émettre (au sens de la précision de l’estimation de la hauteur des arbres) [6].
Après une introduction générale au modèle Random Volume over Ground (RVoG) utilisé pour décrire l’interaction de l’onde électromagnétique avec le milieu végétal, nous analyserons la configuration compacte qui peut être représentées à l’aide du formalisme de Stokes (1852) et de la sphère de Poincaré. Nous analyserons les configurations optimales pour le système PolInSAR compacte en nous appuyant sur des estimations obtenues avec différentes mesures PolInSAR.

Remerciements :

Les auteurs remercient la région PACA qui a participé au financement de la thèse de doctorat d’Aurélien Arnaubec. Ils remercient également le CNES et l’Onéra pour leur soutien financier.

Références :

[1] K. P. Papathanassiou and S. R. Cloude, “Single-baseline polarimetric SAR interferometry,” IEEE Trans. Geosci. Remote Sensing, vol. 39, no. 11, pp. 2352–2363, nov 2001.
[2] R. N. Treuhaft, S. Madsen, M. Moghaddam, and J. J. van Zyl, “Vegetation characteristics and underlying topography from interferometric data,” Radio Science, vol. 31, pp. 1449–1495, nov-dec 1996.
[3] A. Roueff, A. Arnaubec, P.-C. Dubois-Fernandez, and P. Réfrégier, “Cramer-Rao lower bound analysis of vegetation height estimation with random volume over ground model and polarimetric SAR interferometry,” IEEE Geosci. Remote Sens. Lett., vol. 8, no. 6, pp. 1115–1119, nov 2011.
[4] J. Souyris, P. Imbo, S. Fjortoft, R. Mingot, and J. S. Lee, “Compact polarimetry based on symmetry properties of geophysical media: The π mode,” IEEE Trans. Geosci. Remote Sensing, vol. 43, no. 3, pp. 634–646, mar 2005.
[5] P. C. Dubois-Fernandez, J.-C. Souyris, S. Angelliaume, and F. Garestier, “The Compact Polarimetry Alternative for Spaceborne SAR at Low Frequency,” IEEE Trans. Geosci. Remote Sens., vol. 46, no. 10, Part 2, pp. 3208– 3222, oct 2008.
[6] A. Arnaubec, A. Roueff, P. C. Dubois-Fernandez, and P. Réfrégier, “Vegetation Height Estimation Precision with Compact PolInSAR and homogeneous Random Volume over Ground Model,” IEEE Trans. Geosci. Remote Sensing accepté pour publication en 2013.

Modélisation de la performance en superrésolution, application pour l'observation spatiale

F. Champagnat, P. Cornic, G. Le Besnerais et C. Kulcsár

La super-résolution (SR) concerne l'amélioration de la qualité par traitement conjoint de plusieurs images, le terme super-résolution insistant sur le fait de pouvoir dépasser la fréquence de Shannon-Nyquist du capteur qui produit chaque image. Ces traitements sont désormais envisagés dans des calculateurs embarqués au plus proche des capteurs. Nous motivons l'intérêt de disposer d'un modèle de performance SR "end-to-end" pour la conception de ce type de "capteurs à SR". Nous présentons un modèle de performance, publié en 2009, et nous appliquons ce modèle à la comparaison des deux modes d'observation 'supermode' et 'hipermode' de SPOT5.

Qualité image pour les futurs systèmes spatiaux d’observation de la terre

J.-M. Delvit, C. Latry et C. Thiebaut

Le CNES a lancé en 2012 une réflexion sur le futur des systèmes d’observation de la terre, suite aux succès des missions Pléiades (1A et 1B lancés en 2011 et 2012).
L’objectif est de couvrir les besoins institutionnels duaux post Pléiades dans la gamme de résolution de 20 à 30 cm, sur de petits satellites compatibles d’un petit lanceur (type VEGA) en préparant les technologies et le savoir-faire nécessaires.
Une série d’innovations majeures sont proposées afin d’optimiser le système tant d’un point de vue bord que traitement sol. L’innovation la plus révolutionnaire réside dans l’instrument. La maturité est aujourd’hui suffisante pour préconiser l’emploi d’une technologie nouvelle pour les miroirs associée à l’utilisation de techniques d’optique active. Le passage à la technologie CMOS pour la détection change les paramètres usuels dans des domaines aussi variés que la qualité image et l’architecture du plan focal par exemple. Sur la chaîne image bord, de nouvelles techniques de compression deviennent accessibles, et une augmentation significative des débits de télémesure image est atteignable.
L’amélioration de la résolution des instruments entraine une augmentation de la taille des télescopes (augmentation du miroir primaire). Cette augmentation est accompagnée d’une forte croissance du volume et de la masse, afin d’assurer la stabilité thermo-mécanique de l’ensemble permettant de garantir la performance optique (Fonction de Transfert de Modulation - FTM). Aussi, les efforts faits ces dernières années pour alléger les miroirs, quelle que soit la technologie (Zerodur ou SiC) tendent à montrer que nous arrivons à une asymptote pour ce type de concept de télescope.  Par ailleurs, les exigences plus drastiques en matière de radiométrie (Rapport Signal à Bruit S/B à faible luminance), le passage du CCD au CMOS et l’augmentation de la résolution entrainent une augmentation du nombre d’étages TDI. L’introduction d’un ralenti satellite d’un facteur 2 permet de décontraindre ce point mais cela reste un impact système important. Il est possible que nous atteignions des limites technologiques (FTM de désynchronisation, vitesse de lecture du CMOS), et qu’il faille surdimensionner la taille de la pupille pour atteindre les S/B visés.
Enfin, les contraintes missions (revisite, durée de vie) ne nous permettent souvent pas, de baisser l’altitude du satellite ce qui ne nous permet pas de diminuer la taille de la pupille.
L’ensemble de ces contraintes associées à une contrainte forte de volume enveloppe (liée à la possibilité d’emport sur VEGA) nous amène à rechercher des solutions pour relaxer les exigences de stabilité des grands télescopes permettant ainsi des gains de volume, masse et consommation importants. L’optique active permet d’atteindre ces objectifs, car elle autorise des solutions technologiques innovantes qui ouvrent la voie à de grands diamètres de télescope et à des approches et performances différentes.
Nous proposons d’aborder ces différentes innovations bord/sol d’un point de vue qualité image, point de vue finalement assez proche de l’utilisateur final de ce type de mission.

Co-conception avant la lettre : optimisation de la configuration pupillaire d'un interféromètre imageur.

L. Mugnier, F. Cassaing et M-T Velluet

La résolution ultime d'un télescope est donnée par le rapport de la longueur d'onde et du diamètre de celui-ci. Ce diamètre est limité par la technologie actuelle à une dizaine de mètres pour des télescopes au sol et à quelques mètres pour des télescopes embarqués sur satellite, par suite de contraintes d'encombrement et de poids.
L'interférométrie optique ou synthèse d'ouverture optique (SOO) est unè technique permettant de dépasser la limitation en résolution qui en résulte. Cette technique consiste à faire interférer les champs électromagnétiques reçus en chaque pupille d'un réseau de pupilles élémentaires. Ces pupilles peuvent soit être elles-mêmes chacune un télescope, comme en astronomie au sol (VLTI, etc.) soit être des segments d'un miroir primaire commun (future mission spatiale JWST par ex.). L'instrument qui en résulte est un interféromètre ou un  télescope multi-pupilles. La résolution ultime est alors déterminée non par le diamètre des pupilles élémentaires mais par la distance les séparant (la base de l'interféromètre).
Un élément-clé de la conception d'un tel instrument est la configuration pupillaire, c'est-à-dire l'agencement relatif des pupilles élémentaires. Cet agencement détermine la fonction de transfert, qui peut être particulièrement irrégulière et posséder des zéros. Ainsi, pour un interféromètre, le traitement des données est un sous-système à part entière, sans lequel les données sont difficilement exploitables. À l'occasion d'études sur l'applicabilité de la SOO pour l'observation de la Terre, nous avons développé une méthode d'optimisation de la configuration pupillaire qui prend en compte la résolution souhaitée pour l'instrument, la surface collectrice totale (c'est-à-dire le RSB souhaité), le mode d'imagerie (snapshot ou super-synthèse temporelle) et la complexité système (nombre de pupilles élémentaires maximum). Cette méthode est fondée sur une approche "planification d'expérience" c'est-à-dire qu'elle prend en compte la chaîne complète d'acquisition et de restauration d'images. Je présenterai la méthode développée et son application à une étude menée sur l'observation permanente et haute résolution de la Terre depuis une orbite géostationnaire.

Optimisation conjointe d'un masque de phase et d'un algorithme de déconvolution pour l'augmentation de profondeur de champ

F. Diaz, B. Loiseaux, M.-L. Lee, J. Rollin et F. Goudail

De nouveaux concepts d’imagerie permettent aux systèmes optiques d’être plus compacts et plus performants. Parmi ces nouvelles techniques, les systèmes d’imagerie hybrides par codage de pupille allient un système optique comprenant un masque de phase et un traitement numérique. La fonction de phase implantée sur le masque peut rendre l’image insensible à la défocalisation, ce qui permet d’envisager le relâchement de contraintes de conception optique telles que la courbure de champ, la défocalisation thermique, le chromatisme… 
Cette invariance est obtenue au prix d’une déformation connue de l’image qui est ensuite corrigée par un traitement numérique. Dans ces techniques d’imagerie, la prise en compte du bruit du capteur constitue donc l’un des paramètres critiques pour le choix de la fonction de phase du masque.
Nous proposons une approche originale de conception conjointe de la fonction de phase du masque et de l’algorithme de restauration d’image. Celle-ci est basée sur un critère de rapport signal à bruit de l’image finale. Contrairement aux approches connues, ce critère montre qu’il n’est pas nécessaire d’obtenir une stricte invariance de la fonction de transfert du système optique par rapport à la défocalisation. Les paramètres des fonctions de phase optimisés grâce à ce critère sont sensiblement différents de ceux usuellement proposés et conduisent à une amélioration significative de la qualité de l’image.
Cette approche de conception optique a été validée expérimentalement sur une caméra thermique non refroidie. Un masque de phase binaire qui a été mis en œuvre en association avec un traitement numérique temps réel implémenté sur une carte GPU a permis d’augmenter la profondeur de champ de cette caméra d’un facteur 3. Compte-tenu du niveau de bruit important introduit par l’utilisation d’un capteur bolométrique, la bonne qualité des images obtenues après traitement démontre l’intérêt de l’approche de conception conjointe appliquée à l’imagerie hybride par codage de pupille.

Optimisation d’un imageur 3D à l’aide d’un modèle de performance conjoint optique/traitement

P. Trouvé, F. Champagnat, G. Le Besnerais, G. Druart et J. Idier

L'intérêt croissant pour la 3D a conduit au développement de nombreux imageurs capables de produire une image couleur et une carte présentant la profondeur des objets de la scène par rapport à l'imageur. Parmi les différentes approches possibles d'estimation de cette profondeur, nous nous sommes intéressés en particulier aux techniques de depth from defocus (DFD), reposant sur l'estimation locale du flou de défocalisation. Ces techniques impliquent de plus en plus souvent des solutions optiques non conventionnelles permettant de favoriser cette estimation. En particulier nous avons proposé d'utiliser l'aberration chromatique afin de favoriser la performance d'estimation de profondeur par DFD. En effet, cette aberration se traduit par une variation de la mise au point en fonction de la longueur d'onde, donc une mise au point différentes suivant les canaux RVB de l'image couleur, ce qui permet d'obtenir en une seule acquisition 3 images ayant un flou de défocalisation différent. Nous avons développé un algorithme de DFD dédié à un imageur chromatique et testé sur un premier prototype d'imageur chromatique [1].
La question que nous nous sommes ensuite posée est comment optimiser un imageur à capacité 3D par DFD lors de sa conception? Cette question relève typiquement de la co-conception car l'objectif est d'optimiser à la fois les paramètres de l'optique et des traitements de l'imageur afin de favoriser les performances du DFD. Pour répondre à cette question, nous avons développé un modèle de performance permettant de calculer la précision théorique du DFD, pour un imageur conventionnel puis pour un imageur chromatique, en fonction des paramètres de l'optique et des traitements. Ce modèle de performance repose sur un calcul de la borne de Cramér Rao avec une modélisation simple de la scène suivant un modèle de distribution gaussienne des gradients. Le caractère prédictif de notre modèle de performance a été validé expérimentalement à l'aide d'un imageur conventionnel et de l'imageur chromatique dont nous disposions.
Nous avons ensuite conçu conjointement un nouvel imageur chromatique, capable d'estimer la profondeur dans une gamme de profondeurs comprises entre 1 et 5m. La démarche de conception conjointe que nous avons définie pour concevoir et réaliser cet imageur repose entre autres sur la définition de deux nouveaux critères de conception. Le premier critère correspond à la précision d'estimation théorique moyenne de l'imageur chromatique entre 1 et 5m. Le deuxième critère caractérise la profondeur de champ de l'image après traitement. Ces deux critères ont été utilisés dans une étape de dimensionnement préliminaire puis dans l'optimisation finale des paramètres de l'imageur. Une caractérisation expérimentale de la précision d'estimation de profondeur de CAM3D a permis d'illustrer l’intérêt de la démarche de conception conjointe [2].

Références :

[1] Passive depth estimation using chromatic aberration and a depth from defocus approach. Trouvé, F. Champagnat, J. Sabater, T. Avignon et G. Le Besnerais, Applied Optics, vol 52, 2013
[2] Conception conjointe optique/traitement pour un imageur compact à capacité 3D, P. Trouvé, thèse de Doctorat, Ecole Centrale de Nantes, 2012.

 

Date : 2013-11-22

Lieu : Télécom Paris - Amphithéâtre Saphir


Thèmes scientifiques :
B - Image et Vision

Inscriptions closes à cette réunion.

Accéder au compte-rendu de cette réunion.

(c) GdR IASIS - CNRS - 2024.