Vous êtes ici : Accueil » Kiosque » Annonce

Identification

Identifiant: 
Mot de passe : 

Mot de passe oublié ?
Détails d'identification oubliés ?

Annonce

15 octobre 2019

Post-doctorant en Perception de scènes pour l’interaction et la navigation sociale


Catégorie : Post-doctorant


 

Post-doctorant (1 an) : Perception de scènes pour l’interaction et la navigation sociale

Lieu : INSA de Rouen Normandie

Laboratoire : Laboratoire d'Informatique, de Traitement de l'Information et des Systèmes - LITIS-EA 4108

Cadre : Projet INCA ((Interactions Naturelles avec des Compagnons Artificiels)

Début : A partir de Novembre 2019

Résumé

La démocratisation de robots assistants interactifs a permis l’émergence de systèmes symbiotiques constitués d’utilisateurs humains, d’agents virtuels et de robots en interactions sociales. Cependant deux verrous majeurs restent à solutionner : d’une part la reconnaissance de l’activité humaine demeure imprécise, tant au niveau opérationnel (localisation, cartographie, identification d’objets et d’utilisateurs) que cognitif (reconnaissance et suivi d’intention), et d’autre part l’interaction passe par des vecteurs différents qu’il faut adapter en fonction du contexte, de l’utilisateur et de la situation. Le projet INCA vise à développer les connaissances liées aux compagnons artificiels (robots de service et d’assistance et agents virtuels) en se concentrant sur les interactions sociales. Notre objectif est de développer de nouveaux modèles et algorithmes pour des compagnons intelligents capables de (1) percevoir et se représenter un environnement (réel, virtuel ou mixte) constitué d’objets, robots et utilisateurs ; (2) interagir avec les utilisateurs de façon naturelle pour évaluer leurs besoins, leurs préférences et développer leur engagement ; (3) apprendre des modèles de comportement des utilisateurs et (4) générer des réponses sémantiquement adéquates et socialement adaptées.

 

La personne recruter travaillera à ce qu’un robot puisse reconnaître le contenu physique de la scène qui l’entoure, s’y localiser, identifier et localiser les objets statiques et dynamiques (utilisateurs et autres robots) et enfin prédire le mouvement des éléments dynamiques. Pour cela, l’intégration de données issues de plusieurs capteurs devrait permettre la construction d’un modèle fiable pour cartographier un environnement inconnu et estimer la position d’un robot. Dans un premier temps, des techniques de VSLAM (Visual Simultaneous Localization And Mapping) (Saputra 2018), basées sur des observateurs non linéaire de type “high gain observer” (Thammabanvong et al, 2018) seront exploitées pour cartographier la scène. Les régions (ou points) d’intérêt détectés peuvent alors être exploitées pour détecter les obstacles que le robot est susceptible de rencontrer. Afin de distinguer objets statiques et dynamiques, des méthodes de séparation du fond de la scène de son contenu (Kajo et al, 2018) peuvent être utilisées. Enfin, des techniques récentes de type Flownet 2.0 (Eddy et al, 2017), basées sur le flot optique pour la prédiction du mouvement d’une séquence vidéo, devraient permettre de prédire le mouvement futur d’un objet dynamique et d’appréhender son comportement.

Profil du candidat : le candidat devra avoir de solides compétences en robotique mobile et en techniques de navigation (Perception, VSLAM, OrbSLAM, Flot Optique,stéréovision...) et une grande capacité de programmation sous ROS ou tout autre langage de programmation compatible avec la robotique. Des compétences en machine learning et Deep learning seront très appréciées.

 

Durée et rémunération :1 an et 2480 euros environ

 

Position ouverte partir du 1er Novembre

Dans cette rubrique

(c) GdR 720 ISIS - CNRS - 2011-2020.