Vous êtes ici : Accueil » Réunions » Réunion

Identification

Identifiant: 
Mot de passe : 

Mot de passe oublié ?
Détails d'identification oubliés ?

Imagerie Multi-vues : de l'acquisition à la projection

Nous vous rappelons que, afin de garantir l'accès de tous les inscrits aux salles de réunion, l'inscription aux réunions est gratuite mais obligatoire.

Inscriptions closes à cette réunion.

Inscriptions

26 personnes membres du GdR ISIS, et 10 personnes non membres du GdR, sont inscrits à cette réunion.
Capacité de la salle : 60 personnes.

Instructions pour une demande de mission par le GdR ISIS

Le GdR ISIS prend en charge les déplacements des organisateurs des réunions et des orateurs. Le GdR prend aussi en charge les déplacements des participants aux réunions membres d'un laboratoire adhérent du GdR dans la limite d'un doctorant et d'un permanent par laboratoire académique et par réunion, ou d'une personne par adhérent du club des partenaires et par réunion.

La plus grande partie du budget du GdR ISIS est consacrée à la prise en charge de ces missions. Pour que le GdR puisse financer le plus grand nombre de réunions, les participants à ces réunions sont vivement incités à choisir les billets les moins chers. Seuls les billets de train ou d'avion en deuxième classe, non échangeables et non remboursables sont pris en charge. Le GdR se réserve le droit de refuser une demande de billet dont le prix excède la moyenne des prix couramment pratiqués pour le trajet de la mission.

Pour le transport et pour l'hébergement, vous êtes priés d'utiliser le portail SIMBAD du CNRS si vous en avez la possibilité. Cela est en particulier obligatoire si vous êtes membre d'une unité CNRS (UPR, UMR, UMI, URA, FRE). Les réservations d'hôtel sont possibles si la réunion dure plus d'une journée ou si le lieu d'habitation le justifie. Dans le cas où le laboratoire n'est pas une unité CNRS, merci d'envoyer votre demande de prise en charge de la mission à l'adresse DR01.SoutienUnites@cnrs.fr en précisant que la mission relève du GdR ISIS. Si vous utilisez votre véhicule personnel pour une distance supérieure à 300 kilomètres (aller+retour), le GdR ISIS ne rembourse pas vos frais de transport.

Les demandes de mission et les réservations sur le site SIMBAD doivent impérativement être effectuées au moins deux semaines avant la date de la mission.

Aucun remboursement de frais de transport ou d'hôtel avancés par l'agent ne peut plus être effectué au retour de la mission.

Annonce

Les technologies permettant aux utilisateurs d’'avoir une sensation d’immersion sont en plein essor. Ainsi, les vidéos 3D offrent une impression de profondeur alors que les vidéos à point de vue libre offrent une sélection interactive à la fois des points de vue et des directions dans un intervalle prédéfini. Les deux solutions se combinent parfaitement pour donner plus de possibilités à l’'utilisateur. Pour arriver à un tel résultat, il faut prendre en compte toute la chaîne de traitement, depuis l’acquisition à l’'affichage ou la projection, en passant pas les étapes de correction colorimétrique, de codage, de transmission, de rendu, etc.

Cette journée est organisée dans l’'objectif de présenter les avancées scientifiques, qu’'elles soient académiques ou industrielles, en matière d’'imagerie multi-vues. Des présentations séniors, couvrant la chaîne entière de traitements, sont programmées afin de permettre une meilleure compréhension de la problématique.

Le programme de la journée du 10 novembre 2015 est composé de présentations effectuées par des séniors et des exposés de doctorants sur des thématiques autour de la 3D, le multi-vues, la réalité augmentée, etc.…

Nous encourageons vivement les doctorants et jeunes chercheurs à venir participer à ce moment de partage scientifique avec des experts du domaine.

Organisateurs

Programme

Journée du 10 Novembre 2015

9h50 - 10h00 Ouverture de la journée
10h00 - 10h45 Laurent Lucas CReSTIC - URCA De l'acquisition à la diffusion d'images multi-vues
10h45 - 11h30 Frédéric Dufaux LTCI - TELECOM ParisTech MPEG Standardization Activities towards Free-viewpoint Television
11h30 - 12h00 Chaker Larabi XLIM - Université de Poitiers

Feature-based Color Correction of Multi-View Video for Coding and Rendering Enhancement

12h00 - 13h30 Pause déjeuner
13h30 - 14h15 Thomas Maugey SIROCCO - INRIA Rennes Multi-view video coding for free viewpoint navigation at the receiver
14h15 - 15h00 Andrei Purica LTCI - TELECOM ParisTech View synthesis exploiting temporal correlations and synthesis distortion evaluation for multiview video
15h00 - 15h45 Touradj Ebrahimi MMSPG - EPFL Subjective and objective assessment of multi view image and video quality evaluation
15h45 - 16h15 Arnaud Bletterer I3S - Université de Nice Sophia Antipolis Utilisation de cartes de profondeur pour la visualisation de nuages de points
16h15 - 16h45 Yoann Altmann ISSS - Heriot-Watt University Lidar multispectral pour analyse de scènes 3D
16h45 - 17h00 Discussion et clôture de la journée

Résumés des contributions

De l'acquisition à la diffusion d'images multi-vues

L. Lucas

L'extension de contenus visuels à la troisième dimension, comme la capture et la diffusion temps réel sur site distant d'une scène dynamique en 3D, ont longtemps été considérées comme des faits relevant de la science fiction. C'est aujourd'hui une réalité collectivement désignée sous le terme générique de vidéo 3D.

Les méthodes et outils relevant de ce champ d'applications, très largement fondées sur les mathématiques appliquées, la vision par ordinateur, l'informatique graphique et la réalité virtuelle, recouvrent deux domaines connexes qui seront successivement présentés et illustrés. Le premier concerne les technologies de vidéo 3D qui visent la reconstruction de scènes sur des caractéristiques variées (géométrie, éclairement, mouvement) pour différents usages. Le second, souvent appelé 3DTV/FTV, vise plutôt la diffusion de scènes en relief parfois interactive avec des besoins de reconstruction moins aigus mais en posant plus clairement les problèmes de transmission et codage des médias relief ou multi-vues.

Les verrous technologiques abordés durant cette présentation porteront sur :

Plusieurs illustrations sur ces différents points seront proposés dans des domaines comme l'imagerie biomédicale, la production multimédia et audiovisuelle (enrichissement de contenus 3D) et réalité mixte (mixage réel/virtuel).

retour


MPEG Standardization Activities towards Free-viewpoint Television

F. Dufaux

Throughout the years, the Moving Picture Experts Group (MPEG) has specified a number of standards for the coding of 3D video. The recent MV-HEVC is a multi-view coding extension of HEVC enabling the compression of camera views. However, it fails to facilitate the synthesis of intermediate views. To address this limitation, the depth-based 3D-HEVC has also been developed. By supporting Depth-Image-Based Rendering (DIBR), it allows for the generation of additional views from a small set of coded views. 3D-HEVC is therefore suitable for auto-stereoscopic 3D display with tens of output views. Nevertheless, these standards assume a linear and narrow baseline arrangement of camera inputs.

MPEG is now exploring the standardization of Free-viewpoint TV (FTV). With FTV, the user is able to navigate the scene by freely varying the viewpoint. FTV can therefore be seen as the ultimate 3D-TV experience, providing a realistic glass-free 3D video viewing while avoiding visual fatigue.

In this presentation, I will first review 3D video data formats and existing MPEG 3D video coding standards. In a second part, I will then discuss on-going FTV activities and present some recent results.

retour


Feature-based Color Correction of Multi-View Video for Coding and Rendering Enhancement

S. A. Fezza, C. Larabi

Multi-View Video (MVV) consists of capturing the same scene with multiple cameras from different viewpoints. Therefore, substantial illumination and color inconsistencies can be observed between the different views. These color mismatches can reduce significantly compression efficiency and rendering quality. In this paper, we propose a preprocessing method for cor- recting these color discrepancies in MVV. To consider occlusion problem, our method is based on an improvement of Histogram Matching (HM) algorithm using only common regions across views. These regions are defined by an invariant feature detector (SIFT), followed by RANSAC algorithm to increase the matching robustness. In addition, to maintain temporal correlation, HM algorithm is applied on a temporal sliding-window, allowing to cope with time-varying acquiring system, camera moving capture and real-time broadcasting. Moreover, unlike to choose always by default the center view as the reference one, we propose an automatic selection algorithm based on both views statistics and quality. Experimental results show that the proposed method increases coding efficiency with gains of up to 1.1 dB and 2.2 dB for the luminance and chrominance components, respectively. Further, once the correction is performed, the color of real and rendered views is harmonized and looks very consistent as a whole.

retour


Multi-view video coding for free viewpoint navigation at the receiver

T. Maugey

Enabling users to interactively navigate through different viewpoints of a static scene is a new interesting functionality in 3D streaming systems. While it opens exciting perspectives toward rich multimedia applications, it requires the design of novel representations and coding techniques to solve the new challenges imposed by the interactive navigation. In particular, the encoder must prepare a priori a compressed media stream that is flexible enough to enable the free selection of multiview navigation paths by different streaming media clients. Interactivity clearly brings new design constraints: the encoder is unaware of the exact decoding process, while the decoder has to reconstruct information from incomplete subsets of data since the server generally cannot transmit images for all possible viewpoints due to resource constrains. In the presentation, we analyse what methods already exist and we propose some new solutions based on our recent work.

retour


View synthesis exploiting temporal correlations and synthesis distortion evaluation for multiview video

A. Purica, F. Dufaux, B. Pesquet-Popescu

The demand for 3D content has increased over the last years as 3D displays are now a common product. View synthesis methods, such as depth-image-based-rendering, provide an efficient tool for the creation and transmission of 3D video, and are integrated in future coding solutions for multiview video content such as 3D-HEVC. Traditionally the synthesis is performed using depth computed inter-view correlations. We propose a novel synthesis method that exploits temporal correlations in video sequences to generate a blend between inter-view and temporally predicted pixels. The method is shown to bring gains of up 0.42dB in average over VSRS-1DFast, when tested on several multiview sequences. Furthermore, we introduce an SSIM based distortion evaluation framework for view synthesis methods that provides better synthesis differentiation with respect to structural distortions caused by the pixel warping process.

retour


Subjective and objective assessment of multi view image and video quality evaluation

T. Ebrahimi

3D image and video technologies have been around since more than a century and several waves of technologies have created periods of intense activities around such content, often vanishing shortly after. One of the reasons for such a behaviour has been claimed to be due to lack of sufficient quality and lack of sufficiently convincing experience among users at every wave of increased interest in such content. Hence, understanding how to measure quality of experience of such content is essential for the success of 3D image and video technologies. In this talk we will provide an overview of the state of the art in subjective assessment methodologies for evaluation of 3D quality in particular for stereoscopic and multi view content. Several approaches will be analysed and their strengths and weaknesses compared to each other. We will then continue by analysing the performance of objective metrics to predict quality of experience in 3D content. Several examples and illustrations will be provided in the context of MPEG standardisation efforts. Last but not least, remaining challenges will conclude this talk.

retour


Utilisation de cartes de profondeur pour la visualisation de nuages de points

A. Bletterer, F. Payan, M. Antonini

Nous présentons une nouvelle approche dans la représentation de nuages de points. En reconsidérant la chaîne de traitements de l'acquisition à la représentation progressive d'un nuage de points, nous proposons une méthode utilisant les données à l'origine du nuage de points, les cartes de profondeur. Nous montrons que cette structure est naturellement plus compacte qu'un nuage de points et qu'elle permet l'utilisation directe d'algorithmes issus du traitement des images. De plus, nous présentons une méthode pour supprimer les zones redondantes d'un nuage de points se basant sur la connectivité implicite des cartes de profondeur.

retour


Lidar multispectral pour analyse de scènes 3D

Y. Altmann

Les systèmes basés sur le temps de vol de sont particulièrement adaptés pour extraire de l'information géométrique (profondeur) d'une scène. Couplées à des images couleurs (voire multi/hyperspectrales), les données de tels systèmes peuvent permettre une meilleure caractérisation de scènes 3D. Durant cette présentation, nous allons voir comment les systèmes Lidar multispectral peuvent être utilisés pour une meilleure analyse (spatiale et spectrale) de scènes 3D, par exemple en s'affranchissant de l'étape de fusion multi-capteurs et en limitant l'influence des conditions d'illumination. Enfin, nous discuterons les problématiques associées à l'acquisition et au traitement de cette nouvelle modalité (modèle de bruit, échantillonnage spatial/spectral, multi-vues,...).

retour

Date : 2015-11-10

Lieu : Télécom ParisTech - (salle C017)


Thèmes scientifiques :
D - Télécommunications : compression, protection, transmission

Inscriptions closes à cette réunion.

Accéder au compte-rendu de cette réunion.

(c) GdR 720 ISIS - CNRS - 2011-2015.