Vous êtes ici : Accueil » Kiosque » Annonce

Identification

Identifiant: 
Mot de passe : 

Mot de passe oublié ?
Détails d'identification oubliés ?

Annonce

18 juin 2020

CentraleSupelec : Machine Learning et Deep : détection multimodale du stress (image, audio, texte)


Catégorie : Doctorant


Equipe FAST

L’équipe FAST (seules les publies sont à jour, site en reconstruction : http://www.rennes.supelec.fr/ren/rd/fast/fast_accueil.php) de CentraleSupélec, est intégrée dans le Département Image de l’Unité Mixte de Recherche IETR (Institut d’Electronique et de Télécommunications de Rennes, UMR6164). Nous travaillons depuis une quinzaine d’années en analyse et synthèse de visages : lecture labiale, modèles déformables, clonage de visage, animation d’avatars, direction du regard, émotion et interaction. Depuis quelques années nous nous sommes focalisé dans les techniques d’apprentissage profond (GAN, Auto-encodeurs, Bert) sur des signaux multimodaux (image, son, texte).

L’équipe a remporté plusieurs challenges internationaux :

- 1ière place en analyse de micro-expressions sur le visage (FERA 2011)

- 1ière et 2ième places en reconnaissance d’émotions (AVEC 2012).

- 1er place en détection de micro-expressions (Face and Gesture 2019)

Les travaux de recherche de l’équipe ont permis la création de trois start-up qui restent des partenaires privilégiés (Dynamixyz, 3DSoundLabs et Immersive Therapy).

 

Problématique

L’objectif de cette thèse est de parvenir à identifier les variations de stress chez des personnes présentant leur profil au moyen de courtes vidéo dans le cadre de la recherche d’emploi. Cette proposition de thèse se fait au sein de la chaire Randstad/CentraleSupélec

https://www.centralesupelec.fr/fr/randstad-et-centralesupelec-sassocient-pour-creer-une-chaire-sur-lintelligence-artificielle-et-le

Contexte scientifique

Les travaux de l’équipe menés ces dernières années en analyse et synthèse des émotions multimodales ont abouti à une représentation des émotions personnalisée. Il s’agit d’un espace réduit produit pour l’image par des outils de génération d’image (GAN), pour le texte par des outils de traitement du langage naturel (de type Word2Vect), et pour l’audio par des Variational AutoEncodeur.

Nous souhaitons, au travers de cette thèse, analyser les vidéos pour faire un retour permettant au candidat(e)s de maîtriser leur stress. Il s’agit donc de réaliser la fusion des trois modalités et de concevoir des approches de type Deep Learning pour détecter le stress sur l’image, dans le son et dans le texte.

 

Candidature (CV et lettre de motivation) à adresser à  : renaud.seguier@centralesupelec.fr

 

Dans cette rubrique

(c) GdR 720 ISIS - CNRS - 2011-2020.