Annonce

Les commentaires sont clos.

Fusion RADAR et vidéo pour la conduite assistée

24 December 2022


Catégorie : Stagiaire


La conduite assistée et/ou autonome nécessite de collecter un grand nombre d'informations sur l'environnement extérieur au véhicule.
Les mesures recueillies ont alors pour but de monitorer le déplacement du véhicule dans l'espace, ainsi que la trajectoire des objets évoluant dans son environnement (autres véhicules, personnes, etc.).

Dans cette optique, de nombreuses modalités peuvent être utilisées pour interroger l'environnement du véhicule, avec chacune leurs avantages et inconvénients. La plus performante se base sur des technologies LIDAR, mais présente malheureusement un encombrement et des coûts (production, énergie, etc.) importants. C'est pourquoi il est intéressant de se tourner vers l'utilisation jointe de données provenant de capteurs RADAR et de caméras.

En effet, un capteur RGB (caméra) renvoie un nombre important d'images avec une haute résolution, mais sans information de distance ou de vitesse. Réciproquement un capteur RADAR permet d'évaluer la distance et la vitesse radiale sur un nombre de points limité autour du véhicule. Le problème technique revient alors a réaliser la fusion des informations que ces deux modalités peuvent apporter. Cette fusion de données consiste à i) combiner les informations homogènes recueillies par les capteurs d'une des deux modalités; ii) combiner et extrapoler les informations hétérogènes obtenues.

Dans ce contexte, le stage consistera en
- Une étude bibliographique pour se familiariser avec l'état de l'art en fusion de données (RADAR et vidéo), et les problématiques de tracking associés.
- L'évaluation d'une ou plusieurs méthodes existantes pour le cas d'un RADAR et une caméra, sur des jeux de données réelles.
- Le développement de nouvelles méthodes, en incluant la possibilité d'utiliser d'autres modalités.

Format : Le stage de M2 (4 à 6 mois) se déroulera entre Février et Septembre 2023 au Laboratoire des Signaux et Systèmes (L2S – CentraleSupélec, bât. Bréguet, 3, rue Joliot Curie, 91190 Gif-sur-Yvette).

Le projet associé au stage s'inscrit dans un partenariat de recherche entre Forvia et CentraleSupélec.

Profil recherché : Le candidat aura une formation en Master (M2) Recherche et/ou 3eme année de cursus ingénieur dans le domaine du traitement du signal et des images, mathématiques appliquées ou science des données. Il maitrisera les outils statistiques du traitement du signal et/ou d'optimisation numérique avancés. Le candidat saura utiliser et développer sous Python, en se formant si besoin.

 

Contact : Gilles Chardon (gilles.chardon@centralesupelec.fr), Arnaud Breloy (abreloy@parisnanterre.fr).

Références

Du Yong Kim, Moongu Jeon, Data fusion of radar and image measurements for multi-object tracking via Kalman filtering, Information Sciences, Volume 278, 2014, Pages 641-652
R. Zhang and S. Cao, "Extending Reliability of mmWave Radar Tracking and Detection via Fusion With Camera," in IEEE Access, vol. 7, pp. 137065-137079, 2019
D. Kang and D. Kum, "Camera and Radar Sensor Fusion for Robust Vehicle Localization via Vehicle Part Localization," in IEEE Access, vol. 8, pp. 75223-75236, 2020
Nabati, Ramin and Qi, Hairong, CenterFusion: Center-based Radar and Camera Fusion for 3D Object Detection, WACV 2021