Vous êtes ici : Accueil » Réunions » Réunion

Identification

Identifiant: 
Mot de passe : 

Mot de passe oublié ?
Détails d'identification oubliés ?

Avancées en compression de données multimédia et nouveaux challenges

Nous vous rappelons que, afin de garantir l'accès de tous les inscrits aux salles de réunion, l'inscription aux réunions est gratuite mais obligatoire.

Inscriptions closes à cette réunion.

Inscriptions

20 personnes membres du GdR ISIS, et 19 personnes non membres du GdR, sont inscrits à cette réunion.
Capacité de la salle : 50 personnes.

Instructions pour une demande de mission par le GdR ISIS

Le GdR ISIS prend en charge les déplacements des organisateurs des réunions et des orateurs. Le GdR prend aussi en charge les déplacements des participants aux réunions membres d'un laboratoire adhérent du GdR dans la limite d'un doctorant et d'un permanent par laboratoire académique et par réunion, ou d'une personne par adhérent du club des partenaires et par réunion.

La plus grande partie du budget du GdR ISIS est consacrée à la prise en charge de ces missions. Pour que le GdR puisse financer le plus grand nombre de réunions, les participants à ces réunions sont vivement incités à choisir les billets les moins chers. Seuls les billets de train ou d'avion en deuxième classe, non échangeables et non remboursables sont pris en charge. Le GdR se réserve le droit de refuser une demande de billet dont le prix excède la moyenne des prix couramment pratiqués pour le trajet de la mission.

Pour le transport et pour l'hébergement, vous êtes priés d'utiliser le portail SIMBAD du CNRS si vous en avez la possibilité. Cela est en particulier obligatoire si vous êtes membre d'une unité CNRS (UPR, UMR, UMI, URA, FRE). Les réservations d'hôtel sont possibles si la réunion dure plus d'une journée ou si le lieu d'habitation le justifie. Dans le cas où le laboratoire n'est pas une unité CNRS, merci d'envoyer votre demande de prise en charge de la mission à l'adresse DR01.SoutienUnites@cnrs.fr en précisant que la mission relève du GdR ISIS. Si vous utilisez votre véhicule personnel pour une distance supérieure à 300 kilomètres (aller+retour), le GdR ISIS ne rembourse pas vos frais de transport.

Les demandes de mission et les réservations sur le site SIMBAD doivent impérativement être effectuées au moins deux semaines avant la date de la mission.

Aucun remboursement de frais de transport ou d'hôtel avancés par l'agent ne peut plus être effectué au retour de la mission.

Annonce

L’explosion des applications multimédias est en grande partie liée à l’efficacité grandissante des techniques de compression vidéo utilisées. Plusieurs standards ont vu le jour (MPEG-2, MPEG-4, …) et certains ont été rapidement adoptés par l’industrie du multimédia. Cela n’arrête pas pour autant la recherche sur la compression vidéo et le nouveau standard HEVC (High Efficiency Video Coding) en est le bon exemple. En parallèle, google a développé un codeur libre de droit VP8 sensé garantir une qualité équivalente voire supérieure aux standards actuels. Le successeur VP9 est annoncé pour juin 2013 avec un accent mis sur la réduction de la consommation de la bande passante. Par ailleurs, les comités de normalisation développent un certain nombre de standards associés au codage vidéo qui restent méconnus par le grand public et peu connu par la communauté scientifique.

Cette journée est organisée dans l’objectif de présenter les avancées scientifiques académiques et industrielles, que ce soit au niveau des schémas de codage ou des solutions d’optimisation algorithmique ou perceptuelle ainsi que l’évaluation des améliorations. Elle est ouverte à tous les médias tels que les vidéos 2D, 3D stéréoscopiques, le High Dynamic Range (HDR), les hologrammes numériques...

Organisateurs

Chaker Larabi <chaker.larabi@univ-poitiers.fr> (XLIM) et Marc Antonini <Marc Antonini <am@i3s.unice.fr> (I3S).

Programme

 

 

 

Résumés des contributions

 

 

TUTORIEL : Introduction au streaming sur HTTP et à la norme MPEG-DASH (Dynamic Adaptive Streaming over HTTP)

Auteur : Cyril Concolato – Telecom Paritech

Résumé : La consommation de vidéo est en constante augmentation et les utilisateurs veulent pouvoir consulter des services de vidéo à la demande ou suivre des évènements en direct dans de nombreuses situations: à domicile, en mobilité, sur des télévisions connectées, sur smartphones ou tablettes, au travers de réseaux WiFi ou 3G/4G, etc. Cette diversité des scénarios appelle une solution de streaming flexible et adaptative. De plus, les difficultés de déploiement de protocoles spécifiques à la vidéo force à réutiliser les protocoles existants, en particulier le protocole HTTP. Ainsi les dernières années ont vu apparaître des techniques de streaming adaptatif sur HTTP. La norme MPEG-DASH est une tentative d'unification de ces techniques, publiée en 2012 sous l'égide de l'ISO. Cette présentation proposera une introduction aux techniques de streaming sur le protocole HTTP et en particulier la norme DASH. Une étude détaillée de la norme sera donnée et un panorama des outils, notamment des logiciels libres pour créer ou consommer des contenus DASH, sera présenté.

Biographie: Cyril Concolato est Maître de Conférences dans le groupe Multimédia de Telecom ParisTech, où il a reçu son diplôme de docteur en 2007. Ses travaux de recherche s'articulent autour des applications multimédia interactives, pour les environnements de la télévision numérique, de l'internet et de la téléphonie mobile. Il est un participant actif des organismes de normalisation MPEG et W3C, dans les groupes traitant des descriptions de scènes, du transport et de l'intégration des médias. Il est aussi l'un des pilotes du projet logiciel libre GPAC.


Détermination du paramètre de quantification du codeur H.264/AVC et son adaptation à l'importance perceptuelle du contenu de la vidéo

Auteurs : Miryem Hrarti, Hakim Saadane et Mohamed-Chaker Larabi – XLIM-SIC

Résumé : L’algorithme du contrôle de débit est un élément clé des standards de codage vidéo.  Son objectif est de réguler la qualité visuelle de la séquence reconstruite tout en respectant les contraintes imposées par le canal de transmission. Dans H.264/AVC, cet algorithme souffre de certains défauts, parmi lesquels on cite : la détermination des paramètres de quantification (QPs) des unités de base (Trame ou macroblocs) Intra et Inter. L’idée, qui fait l'objet de cette contribution, permet de remédier à ce défaut. Il se décline en deux parties : d'abord une nouvelle modélisation Débit-Quantification (R-Q) permettant d’estimer avec précision le QP des trames Intra (I) et ensuite un ajustement perceptuel des QPs des macroblocs Inter (P) exploitant les cartes de saillance. Ces approches sont implémentées dans le profil de base de H.264/AVC et visent les séquences vidéo codées à très bas débits.

Le modèle Débit-Quantification permet d’établir une relation non linéaire entre le débit global pour coder la totalité de la séquence, le débit cible et la complexité de la Trame I. Ce modèle permet d’estimer le QP initial d’une manière appropriée afin d’améliorer la qualité des Trames Intra et celle de la séquence entière. La particularité de ce modèle, qui constitue aussi sa force, est qu'il inclut la complexité de la trame sans avoir à la définir. Une fois déterminés, les QPs sont adaptés au contenu des unités de codage. Nous proposons ainsi, un ajustement qui s'adapte à la complexité perceptuelle de l'unité à coder. La complexité perceptuelle est définie à partir des cartes de saillance qui permettent de détecter les zones importantes et non importantes visuellement. Les unités saillantes sont alors codées finement tandis que les unités non saillantes le sont grossièrement. 

Les tests expérimentaux montrent que la combinaison de ces deux approches améliore les performances de codeur en termes de débit (réduction allant jusqu'à 18%) tout en obtenant une qualité similaire ou meilleure que celle du logiciel de référence JM15.0. 


Transcodage de flux H 264 AVC/SVC par troncature: application à la transmission optimisée de Flux HD sur supports filaires: ADSL/PLC

Auteurs : Patrick Corlay, François-Xavier Coudoux – IEMN, Valenciennes

Résumé : Les travaux présentés se sont déroulés majoritairement dans le cadre du projet ANR TOSCANE dont l’objectif était d’optimiser les transmissions de flux vidéo haute définition. Pour cela, deux types d’architectures de transcodage à complexité réduite des flux H.264/AVC sont proposés afin d’adapter le débit vidéo à la bande passante du canal de transmission.

La première architecture s’applique aux flux H.264/AVC et réalise une sélection fréquentielle des coefficients résiduels. Après comparaison en termes de réduction de débit et de qualité vidéo entre cette solution et la technique de requantification, nous avons constaté que l’architecture proposée donnait majoritairement de meilleurs résultats. Puis, cette solution est intégrée dans un scénario de transmission vidéo haute définition par courant porteur en ligne. Ce type de canal est soumis à des changements d’états fréquents nécessitant une nouvelle estimation du canal et allocation des bits et des puissances afin de garantir un débit quasiment sans erreur. Au prix d’une légère baisse de PSNR, les flux sont dynamiquement transcodés afin d’adapter leur débit à celui du canal et rendre ainsi la transmission possible.

La seconde architecture s’applique aux flux H.264 SVC utilisant une échelonnabilité spatiale. Elle consiste à sélectionner par position fréquentielle les coefficients résiduels de la couche d’amélioration la plus haute afin d’obtenir des débits intermédiaires tout en restant dans la définition spatiale la plus élevée. Cette solution de transcodage est mise en œuvre dans le cas d’une transmission ADSL, permettant d’augmenter la zone d’éligibilité des services vidéo en haute définition et fournissant aux abonnés une qualité vidéo progressivement réduite.


Prediction of Transformed (DCT) Video Coding Residual for Video Compression

Auteurs : Matthieu Moinard¹, Isabelle Amonou¹, Pierre Duhamel² et Patrice Brault²  – ¹Orange Labs, Rennes et ²L2S,  Supélec, Gif-sur-Yvette.

Résumé : Video compression has been investigated by means of Analysis-Synthesis, and more particularly by means of inpainting. The first part of our approach has been to develop the inpainting of DCT coefficients in an image. This has shown good results for image compression without overpassing todays compression standards like JPEG. We then looked at integrating the same approach in a video coder, and in particular in the widely used H264/AVC standard coder, but the same approach could be used in the framework of HEVC. The originality of this work consists in cancelling at the coder, then automatically restoring, at the decoder, some well chosen DCT residual coefficients. For this purpose, we have developed a restoration model of transformed coefficients.

By using a total variation based model, we derive conditions for the reconstruction of transformed coefficients that have been suppressed or altered. The main purpose here, in a video coding context, is to improve the rate-distortion performance of existing coders. To this end DCT restoration is used as an additional prediction step to the spatial prediction of the transformed coefficients, based on an image regularization process. The method has been successfully tested with the H.264/AVC standard video codec even with its (small) macroblocks of 4x4 and 8x8. We presume that the same principle could efficiently be used in the framework of HEVC that has CTBs up to 64x64, and  LCTBs of 128x128, and even in other newer compression standards. Furthermore our restoration method can be used with any kind of block transform, thus in a straightforward manner e.g. with the two linear block transforms of HEVC, the DCT and the DST(-like).


 

Codage vidéo basé segmentation pour les contenus High Dynamic Range

Auteurs : Paul Lauga,  Alper Koz, Giuseppe Valenzise and Frédéric Dufaux – Telecom Paritech

Résumé : Dans le but de transmettre des contenus HDR, on utilise des codecs déjà existants (H.264/HEVC). Une compression du contenu (tone mapping) est alors nécessaire pour utiliser ces codecs. Les algorithmes de tone mapping existant jusqu'alors sont étudiés pour renvoyer une image LDR "agréable" aux dépends de l'information contenu dans l'image HDR. Nous présentons ici une méthode de tone mapping différente. L'image HDR est segmentée en une partie sombre et une partie lumineuse, puis un algorithme de tone mapping est appliqué individuellement sur chaque partie. La segmentation et les deux tone mapping sont optimales du point de vue du MSE entre le logarithme de la luminance de l'image HDR originale et de celui de l'image HDR reconstruite.


 

Quelles transitions technologiques vers le numérique pour le cinéma Art et Essai ?

Auteurs : Nicolas Bertrand – IRIT, Toulouse

Résumé: L’exploitation cinématographique est entrée dans un nouveau paradigme : le numérique. En France, au début de l’année 2013, plus de 95 % des salles de cinéma sont équipées de projecteurs numériques. La conversion s'est faite grâce aux économies réalisées sur le tirage des copies 35 mm et aux aides publiques.

Le modèle du cinéma numérique tel qu’il est proposé actuellement, de la distribution à la projection en salle, convient au mode de fonctionnement des multiplexes mais n’est pas adapté aux cinémas indépendants en raison du coût et de la complexité des équipements. Le but de notre travail, initié par les cinémas Utopia, est de proposer une solution alternative libre et à moindre coût, adaptée aux distributeurs et exploitants Art & Essai. Les domaines couverts sont la création, la projection et la distribution de copies numériques avec une bonne qualité d’image optimisée pour les petits écrans (de largeur inférieure à 10 m).

Nos travaux ont pour l'instant principalement porté sur la projection de copies numériques. Le format JPEG2000 a été choisi par le consortium DCI (Digital Cinema Initiative) pour la compression des images. Ce format permet de compresser efficacement des images de grande taille. Néanmoins, la mise en œuvre de l’encodage et du décodage de ce format est complexe : elle entraîne une grande consommation de temps de calcul. Les solutions actuellement les plus performantes sont matérielles (utilisation d’architectures de type VLSI et, en particulier, de FPGA). Il existe peu de solutions logicielles performantes pour la décompression d’images en temps réel. Notre objectif pour le cinéma numérique dans les salles Art & Essai est de pouvoir décompresser un flux d’images allant jusqu’à 30 images par seconde au format 2K (images de taille 2048 × 1080). Des solutions à base d'architecture GPU ou multithread sont proposées pour la décompression JPEG2000, mais aucune n'est open-source. Cette dernière est une exigence forte des cinémas Utopia. Nous avons décidé d'intégrer la lecture des copies numériques dans le lecteur multimédia VLC. En effet, VLC est une solution  libre gratuite et multiplateforme dédié à la la lecture de contenu multimédia. Le décodeur JPEG2000 est implémenté dans les bibliothèques libav et ffmpeg, utilisés par VLC.

Nous présenterons les contraintes liées au cinéma numérique et ses impacts sur le décodage, ainsi que l'architecture open-source de lecture proposée.

 


Décodage temps réel et parallèle du standard de compression video scalable SHVC

Auteurs : Wassim Hamidouche, Mickaël Raulet et Olivier Deforges – IETR, INSA de Rennes

Résumé :  Le nouveau standard de codage vidéo High Efficiency Video Coding (HEVC) permet un gain de codage de l’ordre de 50% en terme de qualité subjective comparé à son prédécesseur H.264/AVC. De plus, HEVC adopte différents mécanismes permettant de paralléliser les processus d’encodage et de décodage tels que les Tiles, les slices et le wave-front. L’extension scalable du codec HEVC (SHVC) est en cours de standardisation par les groupes de travail ITU-T VCEG et ISO/IEC MPEG. Concernant la scalabilité spatiale, le codec SHVC consiste en trois étapes principales : l’encodage de la couche de base, le sur-échantillonnage de l’image de base décodée et ses vecteurs de mouvement et l’encodage de la couche d’amélioration. Un codeur SHVC revient à un encodage HEVC avec l’exploitation de l’image la couche de base sur-échantillonnée et ses vecteurs de mouvement comme image de référence supplémentaire pour l’encodage de la couche d’amélioration. 

Nous présentons le décodeur temps réel et parallèle OpenHEVC [1] développé par l’IETR. Le décodeur OpenHEVC tire profit des architectures multi-cœur des nouveaux processeurs pour paralléliser à la fois le décodage des trois étapes de décodage SHVC ainsi que le processus de décodage  de chaque couche pour des séquences vidéo codés en wave-front ou en Tiles. OpenHEVC permet un décodage des séquences vidéo 4K2K (couche de base en HD)  en 25 frames par second (fps) sur deux cœurs et un décodage temps réel de séquences 4K2Kp40 sur quatre cœurs.   


Un successeur pour HEVC ?

Auteur : Joël Jung – Orange labs

Résumé : Le résumé pourrait être : cette présentation a pour but de lancer une discussion/réflexion au sein de la communauté, quant au besoin de mettre en place un nouveau codec vidéo à l’horizon 2020. Elle se déroule en deux temps : d’abord elle dresse le paysage « codage vidéo » en cette fin 2013. HEVC est discuté, ainsi que des solutions concurrentes. Ensuite, une tentative de projection en 2020 est faite. Elle met en avant les éléments qui engendrent classiquement un besoin en codage vidéo, et soulève des questions liées à la nécessité d’un successeur à HEVC.

 

Date : 2013-10-01

Lieu : Télécom Paris Tech, salle C49


Thèmes scientifiques :
D - Télécommunications : compression, protection, transmission

Inscriptions closes à cette réunion.

Accéder au compte-rendu de cette réunion.

(c) GdR 720 ISIS - CNRS - 2011-2015.