Vous êtes ici : Accueil » Réunions » Réunion

Identification

Identifiant: 
Mot de passe : 

Mot de passe oublié ?
Détails d'identification oubliés ?

Journée Action "Visage, geste, action et comportement"

Nous vous rappelons que, afin de garantir l'accès de tous les inscrits aux salles de réunion, l'inscription aux réunions est gratuite mais obligatoire.

S'inscrire à la réunion.

Inscriptions

17 personnes membres du GdR ISIS, et 6 personnes non membres du GdR, sont inscrits à cette réunion.
Capacité de la salle : 0 personnes.

Réunion d'animation en visio-conférence

La réunion aura lieu en visioconférence. Cependant pour des raisons techniques liées au nombre de connexions simultanées, l'inscription aux réunions est gratuite, mais obligatoire.

Les identifiants de connexion sont communiquées par mail aux inscrits la veille ou le matin de la réunion.

Annonce

Résumé

L'objectif de cette journée est de présenter des travaux concernant l'extraction du mouvement humain (visage, mains, corps, gestes) à partir de séquences vidéo, et son analyse à plus haut niveau (tâches, comportement), notamment pour des applications interactives ou de surveillance (video-surveillance, health monitoring, ...). Les travaux présentés pourront être d'ordre méthodologiques (incluant les méthodes par apprentissage) et/ou applicatifs.

La journée inclura deux conférences invitées  :

Elle se poursuivra par des communications pour lesquelles nous lançons un appel à contribution sur l'ensemble des thèmes de l'action  :

Appel à contributions

Les personnes souhaitant présenter leurs travaux à cette journée sont invitées à envoyer, par e-mail, leur proposition (titre et résumé de 1 page maximum) aux organisateurs avant le 11 décembre 2020.

Orateurs invités

Mohamed Daoudi, IMT Lille Douai/ CRIStAL (UMR 9189)

Titre  : Geometric and Deep learning approaches for Dynamic Facial Expression Analysis and Generation

Résumé  : Cette présentation décrit les possibilités apportées par l'exploitation des outils issus de la géométrie Riemannienne et les techniques d'apprentissage profond en reconnaissance et génération des expressions faciales. Nous proposons une nouvelle approche pour la reconnaissance des expressions faciales à l'aide de descripteurs appelés Deep covariance. La solution est basée sur l'idée d'encoder les caractéristiques locales et globales du réseau neuronal convolutif extraites d'images fixes dans des matrices de covariance locales et globales. Ensuite nous analyserons la dynamique des expressions faciales dans l'espace des matrices symétriques définies positives. Nous proposons aussi une nouvelle approche pour générer des vidéos des six expressions faciales à partir d'une image neutre d'un visage. Nous exploiterons la géométrie du visage en modélisant le mouvement des points de repère (landmarks) du visage sous la forme de courbes encodées par des points dans une hypersphère. En proposant une version conditionnelle du réseau antagoniste génératif (GAN) de Wasserstein pour la génération de mouvements sur l'hypersphère, nous apprenons la distribution de la dynamique des expressions faciales des différentes classes, à partir de laquelle nous synthétisons de nouveaux mouvements d'expressions faciales.

Efstratios Gavves, QUVA Lab, University of Amsterdam

Titre  : The Machine Learning of Time: Past and Future

Résumé : Visual artificial intelligence automatically interprets what happens in visual data like videos. Today's research strives with queries like: 'Is this person playing basketball?; 'Find the location of the brain stroke'; or 'Track the glacier fractures in satellite footage'. All these queries are about visual observations already taken place. Today's algorithms focus on explaining past visual observations. Naturally, not all queries are about the past: 'Will this person draw something in or out of their pocket?; 'Where will the tumour be in 5 seconds given breathing patterns and moving organs?; or, 'How will the glacier fracture given the current motion and melting patterns?. For these queries and all others, the next generation of visual algorithms must expect what happens next given past visual observations. Visual artificial intelligence must also be able to prevent before the fact, rather than explain only after it. In this talk, I will present my vision on what these algorithms should look like, and investigate possible synergies with other fields of science, like biomedical research, astronomy and others. Furthermore, I will present some recent works and applications in this direction within my lab and spinoff.

Organisateurs

Programme

Résumés des contributions

Date : 2021-01-12

Lieu : Visio-conférence


Thèmes scientifiques :
A - Méthodes et modèles en traitement de signal
B - Image et Vision
C - Algorithme-architecture en traitement du signal et des images

(c) GdR 720 ISIS - CNRS - 2011-2020.