Annonce

Les commentaires sont clos.

Fusion d’odométrie multimodale robuste pour robots mobiles autonomes

25 Avril 2023


Catégorie : Doctorant


Contexte.

Le recours croissant aux robots mobiles autonomes (Autonomous Mobile Robots, AMR) constitue une avancée spectaculaire dans divers secteurs d’activité (industrie 4.0, santé, etc.). Ces robots mobiles seront de plus en plus présents dans les années à venir afin d’assurer certaines tâches logistiques liées au transport, à la manutention, etc. Dans ce contexte d’innovation, de nouveaux algorithmes de perception et de commande doivent être développés de façon à augmenter les capacités des robots mobiles en matière d’autonomie, de flexibilité, de collaboration et d’économie. Le projet de thèse proposé s’inscrit dans cette problématique et est financé grâce au Fond Européen de Développement Régional (FEDER) dans le cadre des projets Européens INTERREG RobotHub Transfer et RobotHub Academie.

 

Mots clés : robots mobiles autonomes, estimation d’état multimodale, odométrie (visuelle, inertielle, roues), validation expérimentale.

 

Compétences nécessaires.

• Diplôme d’ingénieur ou de Master en automatique.

• Solides compétences en automatique (modélisation de systèmes, estimation d’état), développement informatique (C/C++, Python, Linux) et des environnements de programmation et simulation (Matlab/Simulink, ROS, etc.).

• Des connaissances en traitement d’images seraient appréciées.

• Très bonnes capacités de communication écrite et orale en français et en anglais.

 

Candidature.

Le recrutement sera effectué au fil de l'eau. Si vous êtes intéressé.e, merci de candidater avant le 31/05/2023 en envoyant par email à jonathan.ledy@uha.fr, stephane.bazeille@uha.fr et jean-philippe.lauffenburger@uha.fr :

1. Lettre de motivation (expliquant pourquoi vous êtes intéressé.e par ce projet et comment vous pouvez y contribuer).

2. CV incluant deux références académiques.

3. Relevé de notes et lettres de recommandation.

 

 

Offre de thèse 2023-2026.

Concernant la perception, l’IRIMAS (Institut de Recherche en Informatique, Mathématiques, Automatique et Signal) de l’Université de Haute-Alsace s’intéresse depuis plusieurs années à la navigation autonome de robots mobiles. Il dispose de plusieurs plateformes d’essais équipées de différents capteurs (Lidars, Caméras, IMU, GPS) qui peuvent aujourd’hui naviguer de manière autonome. Un objectif du laboratoire est de développer des algorithmes pour localiser le véhicule et cartographier l’environnement. Nous cherchons notamment à obtenir une estimation robuste du déplacement du robot mobile à partir de la fusion de différentes modalités de localisation (visuelle, inertielle, GPS, odométrie aux roues) afin de continuer à naviguer même en cas de détériorations ou pertes d’une ou plusieurs modalités. Cette localisation robuste devant être utilisée à terme pour assurer un guidage (contrôle/commande) performant en toutes circonstances.

 

Objectifs.

- Effectuer un état de l’art concernant les méthodes de localisation et d’estimation d’état multi-modalités,

- Mettre en œuvre et consolider la technique d’odométrie visuelle développée par l’IRIMAS en partenariat avec l’ISL (Institut de Saint-Louis - www.isl.eu),

- Mettre en œuvre et consolider la technique de fusion par estimation d’état (filtrage de Kalman) développée par l’IRIMAS,

- Caractériser les performances (précision, intégrité) des différentes modalités de localisation afin de les prendre en considération dans la démarche de fusion,

- Valider en simulation (sur données synthétiques et/ou réelles) et en conditions réelles sur les plateformes de l’IRIMAS de la brique de localisation hors et dans la boucle de guidage.

 

Références.

Rebert, M., Monnin, D., Bazeille, S., Cudel, C. Parallax beam: a vision-based motion estimation method robust to nearly planar scenes Journal Article In: SPIE Journal of Electronic Imaging, 2019.

Oubouabdellah, S. N., Bazeille, S., Mourllion, B., Ledy, J. Localization and Navigation of an Autonomous Vehicle in Case of GPS Signal Loss. Proceedings of the European Workshop on Advanced Control and Diagnosis (ACD 2022), 2022.

G. Chevrin, S. Changey, M. Rebert, D. Monnin and J. -P. Lauffenburger, "Visual-Inertial Fusion on KITTI using MSFEKF," 2022 17th International Conference on Control, Automation, Robotics and Vision (ICARCV), Singapore, Singapore, 2022, pp. 35-40.