Annonce
Super Résolution de texture pour la reconstruction 3D fine
9 Mars 2018
Catégorie : Soutenance de thèse
Calum Burns défendra son mémoire de thèse de doctorat de l'université Paris-Saclay "Super Résolution de texture pour la reconstruction 3D fine"
vendredi 23 mars à 14:00, ONERA Palaiseau, Salle Marcel Pierre.
Jury :
- Jean-Francois Giovannelli, Pr IMS univ-Bordeaux, Rapporteur
- Marc Pierrot-Desseligny, Pr IGN, Rapporteur
- Caroline Kulcsar, Pr IOGS, Examinateur
- El Mustapha Mouaddib, Pr Univ de Picardie Jules Vernes, Examinateur
- Andrew Comport, CR1 CNRS, Sophia , Examinateur
- Stéphane Landeau, DGA, Membre Invité,
- Aurélien Plyer, IR ONERA, co-encadrant
- Frédéric Champagnat, MR2 ONERA, directeur de thèse
Pour pouvoir assister à cette soutenance, il faut impérativement en faire la demande a l'adresse : frederic.champagnat@onera.fr au moins 48h à l'avance.
Super Résolution de texture pour la reconstruction 3D fine
Calum Burns
Résumé :
La reconstruction 3D multi-vue atteint désormais un niveau de maturité industriel: des utilisateurs non-experts peuvent produire des modèles 3D large-échelle de qualité à l'aide de logiciels commerciaux. Ces reconstructions utilisent des capteurs haut de gamme comme des LIDAR ou des appareils photos de type DSLR, montés sur un trépied et déplacés autour de la scène. Ces protocoles d'acquisition sont mal adaptés à l’inspection d’infrastructures de grande taille, à géométrie complexe. Avec l'évolution rapide des capacités des micro-drones, il devient envisageable de leur confier ce type de tâche. Un tel choix modifie les données d’acquisition : on passe d’un ensemble restreint de photos de qualité, soigneusement acquises par l’opérateur, à une séquence d'images à cadence vidéo, sujette à des variations de qualité image dues, par exemple, au bougé et au défocus.
Les données vidéo posent problème aux logiciels de photogrammétrie du fait de la combinatoire élevée engendrée par le grand nombre d’images. Nous proposons d’exploiterl’intégralité des images en deux étapes. Au cours de la première, la reconstruction 3D est obtenue en sous-échantillonant temporellement la séquence, lors de la seconde, la restitution haute résolution de texture est obtenue en exploitant l'ensemble des images. L'intérêt de la texture est de permettre de visualiser des détails fins du modèle numérisé qui ont été perdus dans le bruit géométrique de la reconstruction. Cette augmentation de qualité se fait via des techniques de Super Résolution (SR).
Pour atteindre cet objectif nous avons conçu et réalisé une chaîne algorithmique prenant, en entrée, la séquence vidéo acquise et fournissant, en sortie, un modèle 3D de la scène avec une texture sur-résolue. Cette chaîne est construite autour d’un algorithme de reconstruction 3D multi-vues de l’état de l’art pour la partie géométrique.
Une contribution centrale de notre chaîne est la méthode de recalage employée afin d’atteindre la précision sub-pixellique requise pour la SR. Contrairement aux données classiquement utilisées en SR, nos prises de vues sont affectées par un mouvement 3D, face à une scène à géométrie 3D, ce qui entraîne des mouvements image complexes. La précision intrinsèque des méthodes de reconstruction 3D est insuffisante pour effectuer un recalage purement géométrique, ainsi nous appliquons un raffinement supplémentaire par flot optique. Le résultat de cette méthode de restitution de texture SR est d'abord comparée qualitativement à une approche concurrente de l’état de l’art.
Ces appréciations qualitatives sont renforcées par une évaluation quantitative de qualité image. Nous avons à cet effet élaboré un protocole d’évaluation quantitatif de techniques de SR appliquées sur des surfaces 3D. Il est fondé sur l'utilisation de mires fractales binaires, initialement proposé par S. Landeau. Nous avons étendu ces idéesau contexte de SR sur des surfaces courbes. Cette méthode est employée ici pour valider les choix de notre méthode de SR, mais elle s'applique à l'évaluation de toute texturation de modèle 3D.
Enfin, les surfaces spéculaires présentes dans les scènes induisent des artefacts au niveau des résultats de SR en raison de la perte de photoconsistence des pixels au travers des images à fusionner. Pour traiter ce problème nous avons proposé deux méthodes correctives permettant de recaler photométriquement nos images et restaurer la photoconsistence. La première méthode est basée sur une modélisation des phénomènes d’illumination dans un cas d'usage particulier, la seconde repose sur une égalisation photométrique locale. Les deux méthodes testées sur des données polluées par une illumination variable s'avèrent effectivement capables d'éliminer les artefacts.