Nous vous rappelons que, afin de garantir l'accès de tous les inscrits aux salles de réunion, l'inscription aux réunions est gratuite mais obligatoire.
Inscriptions closes à cette réunion.
17 personnes membres du GdR ISIS, et 10 personnes non membres du GdR, sont inscrits à cette réunion.
Capacité de la salle : 60 personnes.
Les technologies permettant aux utilisateurs d'avoir une sensation dimmersion sont en plein essor. Ainsi, les vidéos 3D offrent une impression de profondeur alors que les vidéos à point de vue libre offrent une sélection interactive à la fois des points de vue et des directions dans un intervalle prédéfini. Les deux solutions se combinent parfaitement pour donner plus de possibilités à l'utilisateur. Pour arriver à un tel résultat, il faut prendre en compte toute la chaîne de traitement, depuis lacquisition à l'affichage ou la projection, en passant pas les étapes de correction colorimétrique, de codage, de transmission, de rendu, etc.
Cette journée est organisée dans l'objectif de présenter les avancées scientifiques, qu'elles soient académiques ou industrielles, en matière d'imagerie multi-vues. Des présentations séniors, couvrant la chaîne entière de traitements, sont programmées afin de permettre une meilleure compréhension de la problématique.
Le programme de la journée du 10 novembre 2015 est composé de présentations effectuées par des séniors et des exposés de doctorants sur des thématiques autour de la 3D, le multi-vues, la réalité augmentée, etc.
Nous encourageons vivement les doctorants et jeunes chercheurs à venir participer à ce moment de partage scientifique avec des experts du domaine.
Organisateurs
Journée du 10 Novembre 2015
L. Lucas
L'extension de contenus visuels à la troisième dimension, comme la capture et la diffusion temps réel sur site distant d'une scène dynamique en 3D, ont longtemps été considérées comme des faits relevant de la science fiction. C'est aujourd'hui une réalité collectivement désignée sous le terme générique de vidéo 3D.
Les méthodes et outils relevant de ce champ d'applications, très largement fondées sur les mathématiques appliquées, la vision par ordinateur, l'informatique graphique et la réalité virtuelle, recouvrent deux domaines connexes qui seront successivement présentés et illustrés. Le premier concerne les technologies de vidéo 3D qui visent la reconstruction de scènes sur des caractéristiques variées (géométrie, éclairement, mouvement) pour différents usages. Le second, souvent appelé 3DTV/FTV, vise plutôt la diffusion de scènes en relief parfois interactive avec des besoins de reconstruction moins aigus mais en posant plus clairement les problèmes de transmission et codage des médias relief ou multi-vues.
Les verrous technologiques abordés durant cette présentation porteront sur :
la caractérisation et le rendu perceptuel des géométries de capture et de restitution d'images reliefs ;
la reconstruction et la structuration 3D de scènes réelles ;
Plusieurs illustrations sur ces différents points seront proposés dans des domaines comme l'imagerie biomédicale, la production multimédia et audiovisuelle (enrichissement de contenus 3D) et réalité mixte (mixage réel/virtuel).
F. Dufaux
Throughout the years, the Moving Picture Experts Group (MPEG) has specified a number of standards for the coding of 3D video. The recent MV-HEVC is a multi-view coding extension of HEVC enabling the compression of camera views. However, it fails to facilitate the synthesis of intermediate views. To address this limitation, the depth-based 3D-HEVC has also been developed. By supporting Depth-Image-Based Rendering (DIBR), it allows for the generation of additional views from a small set of coded views. 3D-HEVC is therefore suitable for auto-stereoscopic 3D display with tens of output views. Nevertheless, these standards assume a linear and narrow baseline arrangement of camera inputs.
MPEG is now exploring the standardization of Free-viewpoint TV (FTV). With FTV, the user is able to navigate the scene by freely varying the viewpoint. FTV can therefore be seen as the ultimate 3D-TV experience, providing a realistic glass-free 3D video viewing while avoiding visual fatigue.
In this presentation, I will first review 3D video data formats and existing MPEG 3D video coding standards. In a second part, I will then discuss on-going FTV activities and present some recent results.
S. A. Fezza, C. Larabi
Multi-View Video (MVV) consists of capturing the same scene with multiple cameras from different viewpoints. Therefore, substantial illumination and color inconsistencies can be observed between the different views. These color mismatches can reduce significantly compression efficiency and rendering quality. In this paper, we propose a preprocessing method for cor- recting these color discrepancies in MVV. To consider occlusion problem, our method is based on an improvement of Histogram Matching (HM) algorithm using only common regions across views. These regions are defined by an invariant feature detector (SIFT), followed by RANSAC algorithm to increase the matching robustness. In addition, to maintain temporal correlation, HM algorithm is applied on a temporal sliding-window, allowing to cope with time-varying acquiring system, camera moving capture and real-time broadcasting. Moreover, unlike to choose always by default the center view as the reference one, we propose an automatic selection algorithm based on both views statistics and quality. Experimental results show that the proposed method increases coding efficiency with gains of up to 1.1 dB and 2.2 dB for the luminance and chrominance components, respectively. Further, once the correction is performed, the color of real and rendered views is harmonized and looks very consistent as a whole.
T. Maugey
Enabling users to interactively navigate through different viewpoints of a static scene is a new interesting functionality in 3D streaming systems. While it opens exciting perspectives toward rich multimedia applications, it requires the design of novel representations and coding techniques to solve the new challenges imposed by the interactive navigation. In particular, the encoder must prepare a priori a compressed media stream that is flexible enough to enable the free selection of multiview navigation paths by different streaming media clients. Interactivity clearly brings new design constraints: the encoder is unaware of the exact decoding process, while the decoder has to reconstruct information from incomplete subsets of data since the server generally cannot transmit images for all possible viewpoints due to resource constrains. In the presentation, we analyse what methods already exist and we propose some new solutions based on our recent work.
A. Purica, F. Dufaux, B. Pesquet-Popescu
The demand for 3D content has increased over the last years as 3D displays are now a common product. View synthesis methods, such as depth-image-based-rendering, provide an efficient tool for the creation and transmission of 3D video, and are integrated in future coding solutions for multiview video content such as 3D-HEVC. Traditionally the synthesis is performed using depth computed inter-view correlations. We propose a novel synthesis method that exploits temporal correlations in video sequences to generate a blend between inter-view and temporally predicted pixels. The method is shown to bring gains of up 0.42dB in average over VSRS-1DFast, when tested on several multiview sequences. Furthermore, we introduce an SSIM based distortion evaluation framework for view synthesis methods that provides better synthesis differentiation with respect to structural distortions caused by the pixel warping process.
T. Ebrahimi
3D image and video technologies have been around since more than a century and several waves of technologies have created periods of intense activities around such content, often vanishing shortly after. One of the reasons for such a behaviour has been claimed to be due to lack of sufficient quality and lack of sufficiently convincing experience among users at every wave of increased interest in such content. Hence, understanding how to measure quality of experience of such content is essential for the success of 3D image and video technologies. In this talk we will provide an overview of the state of the art in subjective assessment methodologies for evaluation of 3D quality in particular for stereoscopic and multi view content. Several approaches will be analysed and their strengths and weaknesses compared to each other. We will then continue by analysing the performance of objective metrics to predict quality of experience in 3D content. Several examples and illustrations will be provided in the context of MPEG standardisation efforts. Last but not least, remaining challenges will conclude this talk.
A. Bletterer, F. Payan, M. Antonini
Nous présentons une nouvelle approche dans la représentation de nuages de points. En reconsidérant la chaîne de traitements de l'acquisition à la représentation progressive d'un nuage de points, nous proposons une méthode utilisant les données à l'origine du nuage de points, les cartes de profondeur. Nous montrons que cette structure est naturellement plus compacte qu'un nuage de points et qu'elle permet l'utilisation directe d'algorithmes issus du traitement des images. De plus, nous présentons une méthode pour supprimer les zones redondantes d'un nuage de points se basant sur la connectivité implicite des cartes de profondeur.
Y. Altmann
Les systèmes basés sur le temps de vol de sont particulièrement adaptés pour extraire de l'information géométrique (profondeur) d'une scène. Couplées à des images couleurs (voire multi/hyperspectrales), les données de tels systèmes peuvent permettre une meilleure caractérisation de scènes 3D. Durant cette présentation, nous allons voir comment les systèmes Lidar multispectral peuvent être utilisés pour une meilleure analyse (spatiale et spectrale) de scènes 3D, par exemple en s'affranchissant de l'étape de fusion multi-capteurs et en limitant l'influence des conditions d'illumination. Enfin, nous discuterons les problématiques associées à l'acquisition et au traitement de cette nouvelle modalité (modèle de bruit, échantillonnage spatial/spectral, multi-vues,...).
Date : 2015-11-10
Lieu : Télécom ParisTech - (salle C017)
Thèmes scientifiques :
D - Télécommunications : compression, protection, transmission
Inscriptions closes à cette réunion.
Accéder au compte-rendu de cette réunion.
(c) GdR IASIS - CNRS - 2024.