Vous êtes ici : Accueil » Kiosque » Annonce

Identification

Identifiant: 
Mot de passe : 

Mot de passe oublié ?
Détails d'identification oubliés ?

Annonce

18 mai 2020

Thèse : Interprétation de scènes par modélisation ontologique à base de données vidéo et/ou télémétrique (2D/3D)


Catégorie : Doctorant


Le sujet de thèse s’inscrit dans le cadre des travaux de recherche du laboratoire CIAD (Connaissance et Intelligence Artificielle Distribuées) de l'UTBM sur la perception de l’environnement pour véhicules intelligents et autonomes, par fusion multi-capteurs. Le véhicule intelligent et autonome constitue de nos jours un des jalons majeurs pour transformer la mobilité des personnes, et ce en améliorant le confort et la sécurité tout en réduisant l’impact sur l’environnement. Une étape primordiale est la perception de l’environnement du véhicule par le biais de différents capteurs (caméra, lidar, etc.). Cette étape de perception a pour objectif : (i) de cartographier de manière dynamique la scène qui entoure le véhicule, mais également, (ii) d’associer une interprétation sémantique aux différentes composantes de la scène. L'objectif de la thèse proposée est de combiner des modèles ontologiques d'un environnement à une segmentation intermédiaire afin de décoposer la scène en objets sémantiques (route, véhicule, bâtiment, végétation, véhicule, piéton, signalisation verticale, etc.) et d’extraire des données situationnelles (interprétation, contexte, circonstance, etc.).

 

Laboratoire

Le sujet de thèse s’inscrit dans le cadre des travaux de recherche du laboratoire CIAD (Connaissance et Intelligence Artificielle Distribuées) sur la perception de l’environnement pour véhicules intelligents et autonomes, par fusion multi-capteurs. Ces travaux de recherche qui ont débuté depuis plus d’une quinzaine d’années, au travers de nombreux projets régionaux, nationaux et internationaux, se poursuivent actuellement notamment dans le cadre du programme CPER Mobilitech (volet véhicule intelligent et autonome). L’objectif de ce programme est d’identifier les verrous majeurs, puis de proposer des solutions à valeur ajoutée face aux différentes contraintes liées au contexte de l’application. Le laboratoire dispose de nombreuses plateformes expérimentales : véhicules automatisés ou non, équipés de capteurs de perception et de localisation, et d’interfaces de communication.

Laboratoire : http://www.ciad-lab.fr/
Université : https://www.utbm.fr/

Description

Le véhicule intelligent et autonome constitue de nos jours un des jalons majeurs pour transformer la mobilité des personnes, et ce en améliorant le confort et la sécurité tout en réduisant l’impact sur l’environnement. Le concept du véhicule intelligent et autonome, qui prend de plus en plus d’intérêt au sein des milieux académiques et industriels, repose, notamment, sur le développement de fonctions avancées d’aide à la conduite et/ou de conduite automatisée. Pour ce faire, une étape primordiale doit être mise en oeuvre, à savoir la perception de l’environnement du véhicule par le biais de différents capteurs (vidéo, télémétrie, etc.). Cette étape de perception a pour objectif : (i) de cartographier de manière dynamique la scène qui entoure le véhicule, mais également, (ii) d’associer une interprétation sémantique aux différentes composantes de la scène.

L’objectif est de segmenter une scène en la décomposant en objets sémantiques (route, véhicule, bâtiment, végétation, véhicule, piéton, signalisation verticale, etc.) et d’extraire des données situationnelles (interprétation, contexte, circonstance, etc.). L’approche proposée consiste à faire coopérer une segmentation intermédiaire de la scène avec un ou plusieurs modèles ontologiques de la même scène. La segmentation intermédiaire peut être obtenue à l’aide de méthodes classiques de traitement d’images ou avec des méthodes plus avancées telles celles issues de l’apprentissage profond. Le processus de coopération peut être considéré à plusieurs niveaux. Le premier niveau consiste, à l’issue du processus de segmentation intermédiaire, à valider et/ou affiner les résultats par le modèle ontologique. Le deuxième niveau de coopération peut se faire au cours du processus de segmentation en intégrant le(s) modèle(s) ontologique(s) dans la stratégie de segmentation.



Profil

- Formation en traitement d'images, informatique ou mathématiques appliquées
- Expériences en vision par ordinateur
- Connaissances en apprentissage profond
- Programmation en C++ et/ou Python


Date de début

Septembre/Octobre 2020


Contacts

- Vincent Hilaire : vincent.hilaire@utbm.fr
- Yassine Ruichek : yassine.ruichek@utbm.fr
- Nathan Crombez : nathan.crombez@utbm.fr

 

Dans cette rubrique

(c) GdR 720 ISIS - CNRS - 2011-2020.