Vous êtes ici : Accueil » Kiosque » Annonce

Identification

Identifiant: 
Mot de passe : 

Mot de passe oublié ?
Détails d'identification oubliés ?

Annonce

18 octobre 2018

Détection et représentation de mouvement humain en vidéo pour l’analyse de comportement


Catégorie : Stagiaire


 

De très nombreuses recherches ont permis d’objectiver l’existence d’une équivalence fonctionnelle entre la production et la perception des mouvements biologiques (Grézès & Decety, 2001). En lien avec ces données, des chercheurs se sont intéressés à l’observation d’action comme technique d’apprentissage ou de rééducation de comportements moteurs.Afin d’analyser précisément les mécanismes mis en jeu dans l’observation d’action, une des approches utilisées consiste à présenter les actions sous la forme d’une séquence animée de points représentant les articulations d’une personne en mouvement (Technique du point-light display, Johansson, 1973). Cependant, les techniques utilisées pour réaliser ces séquences (utilisation d’une vingtaine de caméras infra-rouge et de marqueurs placés sur le corps des participants, Vicon, Qualisis) sont parfois difficiles à mettre en œuvre dans le cadre de la rééducation ou de l’entrainement sportif. Il serait donc important de développer des techniques alternatives plus intelligentes.

 

Le sujet de stage consiste à développer un module capable de présenter le mouvement humain en vidéo en utilisant des techniques de vision par ordinateur et d’apprentissage automatique (Ge et al., 2018).Le module doit détecter automatiquement, à partir de captures vidéo classiques réalisées dans des conditions standards, la posture humaine, identifier les points d’intérêt du corps (i.e. articulations d’intérêt) comme la tête, les épaules, les coudes, etc. et représenter les mouvements sous forme de séquences animées de ces points d’intérêt du corps humain.

Le module développé sera intégré au logiciel PLAViMoP( https://plavimop.prd.fr/fr/software) (Decatoire et al., 2018) déjà existant.

A terme, ce projet permettra de faciliter les études utilisant l’observation d’action dans le domaine de la santé ou de la performance sportive. Il permettra aussi d’améliorer les algorithmes de reconnaissance automatique de mouvement utilisés par exemple pour détecter des comportements anomaux (malaise, chute, etc.).

Mots clefs : Détection de mouvement, apprentissage automatique, vidéo, séquences animées de points, posture humaine

 

Références

Decatoire, A., Beauprez, S. A., Pylouster, J., Lacouture, P., Blandin, Y., & Bidet-Ildei, C. (2018). PLAViMoP: How to standardize and simplify the use of point-light displays. Behavior Research Methods.

Grézès, J., & Decety, J. (2001). Functional anatomy of execution, mental simulation, observation, and verb generation of actions: a meta-analysis. Human Brain Mapping, 12(1), 1–19.

Johansson, G. (1973). Visual perception of biological motion and a model for its analysis. Perception & Psychophysics, 14, 201–211.

GE, Liuhao, LIANG, Hui, YUAN, Junsong, et al. Robust 3D Hand Pose Estimation From Single Depth Images Using Multi-View CNNs. IEEE Transactions on Image Processing, 2018, vol. 27, no 9, p. 4422-4.

Structures d’accueil : Laboratoire Xlim et laboratoire CeRCA, université de Poitiers

Candidature: Envoyer votre candidature, CV et lettre de motivation, par mail à olfa.ben.ahmed@univ-poitiers.fr (Maitre de conférences à Univer

 



[1]

 

Dans cette rubrique

(c) GdR 720 ISIS - CNRS - 2011-2018.