Annonce

Les commentaires sont clos.

Adéquation Algorithme et Architecture : la détection et le suivi de primitives dans les données évènementielles pour le véhicule autonome

15 Octobre 2021


Catégorie : Doctorant


Le véhicule autonome est un des enjeux majeurs de la mobilité de demain. Dans un futur proche, les usagers auront accès à des flottes de véhicules autonomes partagés pouvant être réservés à tout moment via un smartphone, tout en réduisant les risques liés à la conduite humaine. Ces véhicules sont pilotés par des algorithmes décisionnels se basant sur la compréhension de l’environnement.

 
En dehors des capteurs traditionnels (Lidar, caméra RGB et Radar), le projet ANR CERBERE propose d’exploiter la caméra évènementielle pour la conduite autonome. Ces capteurs bio-inspirés, mesurent les changements d’illumination au niveau des pixels et de façon asynchrone. Ils permettent de répondre aux verrous subsistant à la compréhension de l’environnement : scène avec de hautes dynamiques, latence et vitesse de détection des obstacles, contraintes de puissance de calcul et flux de données limités.
 
Les données fournies par la caméra évènementielle étant fondamentalement différentes de la caméra classique, son utilisation impose d’étudier de nouvelles chaînes de traitements depuis l’acquisition des données jusqu’à la prise de décision, en passant par tous les pré-traitements nécessaires. Parallèlement, l’aspect temps réel est crucial au projet CERBERE pour ne pas perdre les avantages des caméras évènementielles (haute dynamique, haute résolution temporelle de l’ordre de la microseconde, faible consommation, pas de redondance d’informations, etc.). C’est pourquoi, une démarche systématique d’Adéquation Algorithme Architecture (AAA) sera mise en place afin de réduire significativement la complexité des algorithmes tout en garantissant des performances similaires, compatibles avec les exigences applicatives du véhicule autonome. Les solutions retenues seront évaluées sur une architecture matérielle comprenant un processeur GPU embarqué (typiquement NVIDIA Xavier) couplé aux différents capteurs utilisés dans le projet (1 ou 2 caméras évènementielles et Lidar). La thèse sera composée de 3 étapes : 1). Etude sur « Approximate Computing » et caméras évènementielles, 2). Conception d’une bibliothèque commune d’algorithmes temps réel de vision pour la perception 3D évènementielle d’un véhicule autonome, et 3). Validation expérimentale.
 
Le (la) doctorant(e) recruté devrait posséder de solides connaissances en traitement du signal et d’images, une bonne capacité de programmation en C++/Python et la maîtrise de l’anglais. Des compétences & expériences dans le domaine de la vision embarquée et de l’implémentation matérielle des algorithmes sur FPGA, GPU seraient particulièrement appréciées.
 
Salaire : 1350 € net/mois
Durée : 01/01/2022 – 31/12/2024
 
Si cette offre vous intéresse, veuillez bien nous envoyer :
-Lettre de motivation,
-CV,
-Photocopie du dernier diplôme.
 
Contacts :
Pr. Dominique GINHAC : dominique.ginhac@u-bourgogne.fr
Pr. Fan YANG-SONG : fanyang@u-bourgogne.fr
Pr. Rémi BOUTTEAU : remi.boutteau@univ.rouen.fr