Vous êtes ici : Accueil » Thèmes » Thème T » Actions

Identification

Identifiant: 
Mot de passe : 

Mot de passe oublié ?
Détails d'identification oubliés ?

Actions spécifiques

Afin de répondre aux grands enjeux scientifiques du thème T, des actions spécifiques seront menées autour des thématiques suivantes.

Action "Apprentissage des représentations, Deep learning"

Animateurs : Christian Wolf (MCF HDR, LIRIS, Lyon), Nicolas Thome (PR, CNAM, Paris)

L'objectif de l'apprentissage de représentations (surtout connu par son anglicisme Deep Learning) est l'apprentissage automatique, à partir de données diverses, de modèles hiérarchiques et basés sur des nivaux d'abstractions. Contrairement aux modèles classiques, les caractéristiques/représentations sont apprises à partir de données et non pas conçues manuellement à partir de connaissances de métiers. L'apprentissage à partir de grandes masses de données étiquetées est actuellement la norme. Diminuer la dépendance des données est un enjeu essentiel. Entre autres, cette action s'intéresse aux verrous scientifiques suivants:

Cette action interagira fortement avec les autres actions du Thème T et des autres thèmes. 

Action "Vision, robotique et apprentissage" - Co-animation ISIS/Robotique

Animateurs : David Filiat (PU, ENSTA ParisTech), Christian Wolf (MCF HDR, LIRIS, Lyon)

La vision par ordinateur et la robotique partagent un passé commun qui remonte à la naissance de ces deux domaines. En effet, parmi l'ensemble des capteurs dont peut disposer un robot moderne, la vision peut répondre aux exigences liées à un grand nombre de problèmes applicatifs, par exemple en navigation, en manipulation ou dans les cas où la présence d'humains est un facteur important. Les tendances actuelles montrent que les liens entre les deux domaines se resserrent pour plusieurs raisons: (i) d'un point de vue méthodologique, l'émergence de l'apprentissage profond a permis de faire des liens nouveaux entre la perception et le contrôle (Deep Reinforcement Learning par exemple), et (ii) d'un point de vue applicatif, la maturation de certaines thématiques telles que les véhicules autonomes et les UAV, gourmandes en technologies de perception, renforce les liens avec la vision.

Cette action sera co-animée par les GdRs Robotique et ISIS. Elle s'intéressera aux aspects liant la robotique, l'image et le signal, et l'apprentissage automatique. Un accent particulier est mis sur les boucles perception/action, notamment sur la modélisation par MDP/POMDP et l'apprentissage par renforcement (profond). Elle couvre un champ divers d'applications autour de la robotique humanoïde, mobile, industrielle, des véhicules autonomes ou des drones. Parmi les thèmes abordés, nous proposons par exemple :

Action "Modélisation et optimisation à l'interface signal/apprentissage" (action transverse A+T)

Animateurs : Valentin Emiya (MCF, LIF, Marseille), Caroline Chaux (CR CNRS, I2M, Marseille), Konstantin Usevich (CR CNRS, CRAN, Nancy)

Cette action, commune avec le Thème A, consiste à encourager les rapprochements et discussions entre les communautés de l'apprentissage automatique et du traitement du signal. Ces deux disciplines partagent en effet nombre de fondamentaux, dont des modèles et méthodes d'optimisation. Une description détaillée de l'action est donnée ici.

Le Thème T structurera en particulier l'organisation des journées autour des thématiques suivantes :

Action "Vision 3D, géométrie et apprentissage" (action transverse B+T)

Animateurs : Vincent Lepetit (PU, LABRI, Bordeaux), Adrien Bartoli (PU, Institut Pascal, Clermont-Ferrand)

Cette action Vision 3D et Apprentissage s'intéressera à la reconstruction 3D d'un objet ou d'une scène rigide ou déformable (SfM, NRSfM - MVS), au recalage d'images multimodales (RGB, RGB-D, depth), au calcul de pose d'un objet ou d'une scène rigide ou déformable (pose, SfT) à partir de modèles texturés ou non-texturés. 

Complémentaires aux approches classiques basées sur la géométrie (voir la description de cette action transverse dans le Thème B), aujourd'hui les méthodes d'apprentissage profond peuvent également être développées en vision 3D et font l'objet de nombreux travaux. A l'heure actuelle, les algorithmes sont capables de prédire d'importantes quantités de cartes de profondeur et de normales à partir d'une seule image. Il est aujourd'hui intéressant d'utiliser ces données pour généraliser les approches sur des données temporelles. De la même manière, l'étude du concept du self-learning, où l'apprentissage est effectué grâce à une tâche secondaire différente de la tâche primaire de reconstruction 3D, peut être fort utile dans le cas où les données d'apprentissage ne sont pas disponibles. Enfin, les algorithmes de SLAM récents se concentrent sur l'association d'un label sémantique sur chaque objet tout en reconstruisant la scène de manière automatique. Ce sujet de recherche récent et prometteur alliant reconstruction 3D et reconnaissance d'objet sera également étudié ici. Ainsi, dans cette action, il s'agit d'étudier les techniques géométriques de vision 3D en tenant compte de la spécificité des données (multi-modales, dynamiques, déformables) et d'utiliser, dans une certaine mesure, les méthodes d'apprentissage en vision 3D de manière conjointe à la géométrie. 

Action "Visages, gestes, activités et comportements" (action transverse B+T)

Animateurs : Catherine Achard (MCF, ISIR, Paris), Olivier Alata (PU, LHC, St. Etienne), Christophe Ducottet (PR, LHC, St. Etienne)

Cette action concerne l'extraction du mouvement humain (visage, mains, corps, gestes) à partir de séquences vidéo, et son analyse à plus haut niveau (tâches, comportement), notamment pour des applications interactives ou de surveillance. Une attention particulière sera portée aux données hétérogènes (couleur, thermique, 3D, etc.) et/ou acquises dans des situations non contraintes.

Elle s'intéressera notamment à la prédiction de posture 2D ou 3D de la main ou du corps avec des approches utilisant l'apprentissage profond, à la modélisation statistique de gestes, à la modélisation du visage (forme, apparence, émotion), et à la reconnaissance d'activités et de comportements. Des journées thématiques seront éventuellement co-organisées avec le GdR Robotique sur ces sujets.

Dans cette rubrique

(c) GdR 720 ISIS - CNRS - 2011-2020.