Vous êtes ici : Accueil » Kiosque » Annonce

Identification

Identifiant: 
Mot de passe : 

Mot de passe oublié ?
Détails d'identification oubliés ?

Annonce

18 janvier 2019

Apprentissage profond à partir de représentations structurelles d’images


Catégorie : Stagiaire


Stage de recherche niveau M2 (5-6 mois) en vision par ordinateur et apprentissage profond

Lieu :

LaBRI, UMR CNRS 5800, 351 cours de la Libération, 33400 Talence, France

Encadrants :

Michaël Clément / LaBRI / Image et Son (michael.clement@labri.fr)

Rémi Giraud / IMS / Signal et Image (remi.giraud@ims-bordeaux.fr)

Description du sujet

Les récentes avancées liées à l'apprentissage profond (deep learning) et aux réseaux de neurones convolutifs représentent des perspectives prometteuses dans le domaine de la vision par ordinateur [1]. Ces méthodes ont permis d’atteindre des performances remarquables pour diverses problématiques comme la classification d’images, la détection d’objets, ou encore la segmentation sémantique. Cependant, ces stratégies d’apprentissage nécessitent toujours une très grande quantité de données annotées, et le comportement des modèles reste parfois difficilement interprétable.

Parallèlement, les méthodes de partitionnement d’images en régions ont été progressivement introduites. Par exemple, les décompositions en superpixels [2] peuvent être utilisées pour limiter le nombre d'éléments présents dans l’image et ainsi diminuer les temps de calcul. De plus, ces méthodes permettent également d’interpréter le contenu des images d’un point de vue structurel, avec un ensemble de régions de couleurs homogènes, respectant les contours des objets. L’image peut alors être représentée par un graphe relationnel attribué de régions, potentiellement à différentes échelles, qui peut apporter une information complémentaire par rapport aux traitements à l’échelle pixellique des réseaux de neurones.

Ce stage de recherche a pour objectif d’investiguer les possibilités d’interaction entre l’apprentissage profond et les méthodes de représentations structurelles du contenu des images. Certains travaux récents ont déjà pu illustrer l’intérêt des approches par superpixels pour les réseaux de neurones convolutifs, par exemple pour assurer la cohérence de résultats de segmentation [3], ou encore pour la détection d’objets saillants [4]. Cependant, à l’heure actuelle aucune méthode ne prend en compte explicitement les relations spatiales qui existent entre les régions, qui peuvent constituer une information pertinente, se rapprochant de la sémantique de l’image.

En particulier, nous proposons d’étendre nos récents travaux sur l’apprentissage de relations spatiales entre régions [5], notamment afin que le descripteur structurel proposé puisse être intégré au sein d’architectures de réseaux de neurones convolutifs. Une autre piste consisterait à mettre en place un système inspiré des réseaux antagonistes génératifs [6] qui serait capable de capable de générer des configurations spatiales entre différents objets à partir de propositions en langage naturel. Ces travaux de recherche pourront être appliquées à la segmentation et classification de régions dans des images naturelles, ainsi que pour la détection de changements environnementaux à partir de données géospatiales, en lien avec le projet ANR TIMES (2017-2021).

Candidat recherché

Candidat titulaire d'un Master 2 ou d'un diplôme d'ingénieur de grande école, spécialité Informatique / Image / Deep Learning. Des connaissances et expériences solides en traitement d'images et programmation (MATLAB/Python, C/C++) sont demandées. Une bonne expérience de TensorFlow ou PyTorch sera appréciée. La maîtrise de l'anglais scientifique et des qualités rédactionnelles sont également très importantes.

Contact

Pour candidater, envoyer un dossier avec CV, lettre de motivation, relevés de notes, ainsi que toute pièce susceptible de renforcer la candidature (lettre de recommandation, etc). Pour l’envoi des pièces demandées, ou pour toute question sur le sujet : michael.clement@labri.fr

Références

[1] Y. LeCun, Y. Bengio, and G. Hinton. Deep Learning. Nature, 521(7553):436–444, 2015.

[2] D. Stutz, A. Hermans, and B. Leibe. Superpixels: An evaluation of the state-of-the-art. Computer Vision and Image Understanding, 166:1–27, 2018.

[3] C. Farabet, C. Couprie, L. Najman, and Y. LeCun. Learning hierarchical features for scene labeling. IEEE Transactions on Pattern Analysis and Machine Intelligence, 35(8):1915–1929, 2013.

[4] S. He, R. W. Lau, W. Liu, Z. Huang, and Q. Yang. SuperCNN: A superpixelwise convolutional neural network for salient object detection. International journal of computer vision, 115(3):330–344, 2015.

[5] M. Clément, C. Kurtz, and L. Wendling. Learning spatial relations and shapes for structural object description and scene recognition. Pattern Recognition, 84:197–210, 2018.

[6] I. Goodfellow, J. Pouget-Abadie, M. Mirza, B. Xu, D. Warde-Farley, S. Ozair, A. Courville, and Y. Bengio. Generative adversarial nets. In Advances in Neural Information Processing Systems (NIPS), pages 2672–2680, 2014.

Dans cette rubrique

(c) GdR 720 ISIS - CNRS - 2011-2018.