Vous êtes ici : Accueil » Kiosque » Annonce

Identification

Identifiant: 
Mot de passe : 

Mot de passe oublié ?
Détails d'identification oubliés ?

Annonce

26 novembre 2019

Intelligence artificielle et fusion de données pour la perception des véhicules autonomes


Catégorie : Stagiaire


Le stage proposé s’inscrit dans le contexte actuel des véhicules autonomes. De nos jours, la perception de l’environnement autour du véhicule représente encore un verrou scientifique. Cette information est primordiale pour la planification de la trajectoire à suivre, et une erreur peut très vite coûter des vies. La perception de l’environnement peut se décomposer en deux tâches hiérarchiques : la détection des zones d’intérêt et l’analyse de la scène perçue. Ce stage se focalise sur l’analyse et l’interprétation de la scène. Une fois les zones d’intérêt détectées, il s’agira de définir les potentiels obstacles ainsi que la nature de ces derniers (notamment leur caractère mobile ou non) et leurs

Le/la stagiaire aura pour objectifs, dans un premier temps, de faire un état de l’art sur les différentes solutions existantes dans les deux disciplines : concernant les techniques de fusion de données, il/elle se focalisera sur la théorie évidentielle. Concernant le côté Intelligence artificielle, le/la stagiaire explorera les différents algorithmes existants des réseaux de neurones convolutifs (par exemple R- CNN). Ensuite, grâce à cette connaissance des deux domaines, le/la stagiaire pourra proposer une méthode originale pour les combiner comme initié dans les travaux de Denoeux.

Mots-clefs : Perception ; véhicule autonome ; robotique ; apprentissage profond ; fusion de données

 

Encadrant : Dr. Thomas Josso-Laurain, Dr. Maxime Devanne, Prof. Jean-Philippe Lauffenburger(UHA/IRIMAS EA 7499, Mulhouse, France)


Durée : 6 mois (début février -> fin août 2020)
Rétribution : 573.50 € par mois
Mots-clefs : Perception ; véhicule autonome ; robotique ; apprentissage profond ; fusion de données

Contexte de recherche :

Le stage proposé s’inscrit dans le contexte actuel des véhicules autonomes. De nos jours, la perception de l’environnement autour du véhicule représente encore un verrou scientifique. Cette information est primordiale pour la planification de la trajectoire à suivre, et une erreur peut très vite coûter des vies. La perception de l’environnement peut se décomposer en deux tâches hiérarchiques : la détection des zones d’intérêt et l’analyse de la scène perçue. Ce stage se focalise sur l’analyse et l’interprétation de la scène. Une fois les zones d’intérêt détectées, il s’agira de définir les potentiels obstacles ainsi que la nature de ces derniers (notamment leur caractère mobile ou non) et leurs caractéristiques (taille, vitesse...).

Dans la littérature, ce problème a été adressé par des approches basées modèle comme la fusion de données grâce, notamment, à la théorie évidentielle (Dempster-Shafer et extensions [1]). Les fonctions de croyance permettent ainsi d’obtenir un algorithme d’analyse de la scène précis. Cependant, cette méthode repose en grande partie sur les connaissances a priori des modèles. D’autre part, avec l’augmentation des puissances de calcul, les approches basées données comme les réseaux de neurones et l’apprentissage profond [2], [3] permettent avec des données d’apprentissage, de concevoir un algorithme robuste et réactif à une grande variété de situations, mais dont la fiabilité dépend de statistiques.

L’objectif de ce stage est de développer un formalisme théorique permettant de combiner les deux approches (fusion de données évidentielle et apprentissage profond). Il s’agira de concevoir un système d’analyse de la scène perçue s’appuyant sur des réseaux de neurones enrichis de fonctions de croyance.

Objectifs :

Le/la stagiaire aura pour objectifs, dans un premier temps, de faire un état de l’art sur les différentes solutions existantes dans les deux disciplines : concernant les techniques de fusion de données, il/elle se focalisera sur la théorie évidentielle. Concernant le côté Intelligence artificielle, le/la stagiaire explorera les différents algorithmes existants des réseaux de neurones convolutifs (par exemple R- CNN). Ensuite, grâce à cette connaissance des deux domaines, le/la stagiaire pourra proposer une méthode originale pour les combiner comme initié dans les travaux de Denoeux [4].

Cette partie théorique s’accompagnera de simulations sur la base de données KITTI (http://www.cvlibs.net/datasets/kitti/) pour valider le nouvel algorithme d’analyse de la scène combinant fusion de données et apprentissage profond. Si les résultats le permettent, la solution proposée pourra être implémentée dans le calculateur du prototype de véhicule autonome de l’IRIMAS (travail réalisé par un autre stagiaire). L’ensemble des travaux de recherche réalisé par le/la stagiaire donnera lieu à des publications scientifiques pour des conférences internationales et/ou des journaux à facteur d’impact.

Conditions d’accueil :

L’intégralité du stage se déroulera à IRIMAS, au sein du Département ASI (Automatique Signal Image) et plus précisément dans l’équipe MIAM (Modélisation Identification Automatique et Mécanique) de l’Université de Haute Alsace, à Mulhouse (France).

Le/la candidat(e) aura le profil suivant : inscrit en Master 2/diplôme d’ingénieur en automatique, traitement du signal ou informatique. Notions de fusion de données appréciées. Des compétences en développement sous Matlab et C++ seront déterminantes. Des connaissances en Deep Learning (NN, CNN...) et les outils associés (TensorFlow...) seraient un plus.

 

Pour toute demande d’information supplémentaire ou pour candidater, merci d’envoyer CV, résultats de Master/ingénieur et lettre de motivation avant le 01/01/20

Contact : thomas.laurain@uha.fr

 

Dans cette rubrique

(c) GdR 720 ISIS - CNRS - 2011-2019.