Annonce

Les commentaires sont clos.

Stage Reconstruction 3D par vision évènementielle stéréoscopique pour le véhicule autonome

9 Novembre 2021


Catégorie : Stagiaire


Encadrants : Rémi Boutteau (LITIS), Fabio Morbidi (MIS), Sébastien Kramm (LITIS)

Période : à partir du 1er février 2022 pour une durée de 6 mois

Ce stage est proposé dans le cadre du projet ANR CERBERE 2022-2025(« Caméra évènementielle pour la pERception d’oBjEts Rapides autour du véhicule autonomE »), en partenariat avec le laboratoire MIS de l’Université de Picardie Jules Verne et le laboratoire ImVia de l’Université Bourgogne Franche-Comté.

 

Les caméras évènementielles (ou « event-based ») sont des capteurs de vision innovants qui permettent de capturer l’apparence d’une scène 3D de manière asynchrone. Comme l’œil humain, ces caméras bio-inspirées enregistrent uniquement les variations d'intensité qui se produisent au sein de la scène et elles vont au-delà du mécanisme d'acquisition des caméras traditionnelles, basé sur des images temporisées. Par rapport à ces dernières, les capteurs évènementiels ont une très faible latence (à l’échelle de la microseconde), génèrent 10 à 1000 fois moins de données, ont une faible consommation énergétique (quelque dizaine de mW), une large plage dynamique (supérieure à 120 dB) et peuvent fonctionner dans des conditions de faible éclairage [1].

L’objectif de ce stage est de concevoir et de mettre en œuvre une méthode innovante permettant de reconstruire une scène 3D à partir d’un banc stéréo évènementiel embarqué sur un véhicule en mouvement [2].

Trois phases sont envisagées pour résoudre ce problème :

1)Étalonnage et synchronisation des deux caméras évènementielles du banc stéréo,

2)Développement d’un algorithme pour la détection de points d’intérêts dans les images évènementielles et pour la mise en correspondance,

3)Mise au point de la méthode de reconstruction 3D et validation avec un simulateur de caméra évènementielle [3][4] et avec une caméra réelle embarquée sur un robot mobile.

L’étudiant(e) traitera son travail de stage au laboratoire LITIS au sein de l’équipe STI (Systèmes de Transport Intelligent), avec les outils matériels (caméra évènementielle, robots mobiles) et logiciels (développements C++, librairies open-source et internes de vision par ordinateur, étalonnage de caméra, etc.) mis à sa disposition par les partenaires du projet.

 

Prérequis :

  • ·Vision par ordinateur, traitement d’images, robotique mobile
  • ·Algorithmique et programmation Matlab/C++

Candidatures :

Envoyez votre CV et votre lettre de motivation à : remi.boutteau@univ-rouen.fr, fabio.morbidi@u-picardie.fr et sebastien.kramm@univ-rouen.fr .

Références :

[1] “Event-based vision: A survey”, G. Gallego, T. Delbruck, G. Orchard, C. Bartolozzi, B. Taba, A. Censi, S. Leutenegger, A. Davison, J. Conradt, K. Daniilidis, D. Scaramuzza,IEEE Trans. Pattern Analysis and Machine Intelligence, 2021 in press, DOI: 10.1109/TPAMI.2020.3008413

[2] “Event-Based Stereo Visual Odometry”, Y. Zhou, G. Gallego, S. Shen, IEEE Trans. Robotics, vol. 37, n. 5, pp. 1433-1450, Oct. 2021.

[3] “ESIM: an Open Event Camera Simulator”, H. Rebecq, D. Gehrig, D. Scaramuzza, in Proc. 2nd Conference on Robot Learning, pp. 969-982, 2018.

[4] “CARLA: Open-source simulator for autonomous driving research” https://carla.org/