Vous êtes ici : Accueil » Kiosque » Annonce

Identification

Identifiant: 
Mot de passe : 

Mot de passe oublié ?
Détails d'identification oubliés ?

Annonce

20 novembre 2017

Traitement de mammographies par apprentissage profond pour le diagnostic du cancer du sein - Superpixels et apprentissage profond


Catégorie : Stagiaire


Le LaTIM propose un sujet de stage sur le traitement de mammographies par apprentissage profond pour le diagnostic du cancer du sein (superpixels et apprentissage profond).

 

Contexte

Le cancer du sein est le cancer le plus fréquent chez les femmes avec 450000 décès chaque année dans le monde. En France, il représente plus d’un nouveau cas de cancer sur trois et provoque 11 000 décès par an. Le développement du dépistage massif du cancer du sein a permis un diagnostic plus précoce ainsi qu’une prise en charge rapide avec une amélioration significative du taux de survie. Cependant, la proportion de femmes rappelées pour des examens complémentaires après dépistage demeure élevé (environ 100 sur 1000) tandis que seulement 5 d’entre elles sont réellement atteintes. 95 femmes sur 1000 sont donc sujets à un sur-diagnostic et se voient administrer des traitements lourds par erreur [1]. Les techniques de détection assistée par ordinateur développées à ce jour pour améliorer le diagnostic sans avoir recours à de multiples lectures systématiques n’ont pas permis une amélioration significative des mesures de performance [2]. Dans ce contexte, le recours à des techniques automatiques de traitement d’images issues de l’apprentissage profond représente une piste prometteuse pour l’aide au diagnostic du cancer du sein.
 
Le projet s3pCS - Traitement de mammographies multi-vues par décomposition en SuPerPixels et apprentissage Profond pour le diagnostic du Cancer du Sein - dans lequel s’inscrit le stage vise à développer un ensemble de méthodes automatiques dédiées à l’analyse de mammographies par apprentissage profond. En particulier, le projet se décompose autour des axes de recherche suivants : 1) l’apprentissage profond appliqué à des superpixels pour une localisation précise des zones tumorales, 2) l’appariement par apprentissage profond de superpixels décomposant les images issues des examens. Ces deux thématiques visent in fine à réaliser 3) la fusion d’informations pour une segmentation des lésions combinant apprentissage profond et superpixels.

Sujet de stage

L’apprentissage profond a été appliqué à différentes pathologies et modalités avec succès, notamment par l’utilisation de réseaux convolutifs (CNN) qui exploitent de grande bases de données pour l’extraction de descripteurs pertinents et la segmentation [3]. Les CNNs classiques ne sont cependant pas totalement appropriés pour la segmentation de lésions car ils étiquettent indépendamment les pixels via des descripteurs calculés sur des supports fixes (fenêtre centrée autour des pixels). Dépourvue de considérations sémantiques, cette approche conduit à des erreurs de délimitation au niveau des contours de structures.
 
L’offre de stage concerne les axes de recherche 1 et 3 du projet s3pCS. L’objectif du stage est tout d’abord d’étendre les CNNs à un autre support plus large et s’adaptant au contenu de l’image : les superpixels [4, 5]. Ces primitives visuelles sont générées par agrégation de pixels voisins formant, une fois regroupés, des régions homogènes et régulières [6]. Une décomposition en superpixels multi-échelles [7] sera ensuite envisagée pour bénéficier d’informations extraites à différentes résolutions spatiales.
 
A terme, les travaux réalisés auront pour but d’obtenir une méthode automatique de segmentation des structures tumorales par l’intermédiaire de réseaux convolutifs exploitant des superpixels appariés.

Environnement

L’ensemble des développements algorithmiques seront réalisés en langage Python, à l’aide des libraires keras, scikit-learn et scikit-image. Les données exploitées au cours du projet seront issues de bases d’images publiques (DDSM, DeepDream, INBreast). Les activités de recherche réalisés bénéficieront de l’expertise de Mines ParisTech/CMM (Etienne Decencière) et du laboratoire LaTIM UMR-1101 (Gwenolé Quellec, Mathieu Lamard).
— Durée du stage : 6 mois à partir du début d’année 2018 (si possible janvier)
— Lieu du stage : Institut Mines-Télécom Atlantique, Technopôle Brest-Iroise, Brest
— Encadrement : P.-H. Conze (IMT Atlantique), E. Decencière (Mines ParisTech)
— Gratification : environ 550 euros net/mois
— Niveau : Master 2 et/ou dernière année d’école d’ingénieur
— Compétence requises : bonnes connaissances en traitement d’images, notions avancées en machine learning et deep learning, bon niveau de programmation

Candidature

CV, lettre de motivation, notes et lettre de recommandation sont à envoyer à l’adresse suivante : pierre-henri.conze@imt-atlantique.fr.
 
Sujet complet illustré : perso.telecom-bretagne.eu/pierre-henriconze/data/conze-s3pCS-stage-1-master-2018.pdf
 
[1] E. R. Myers, P. Moorman, J. M. Gierisch, L. J. Havrilesky, L. J. Grimm, S. Ghate, B. Davidson, R. C. Mongtomery, M. J. Crowley, D. C. McCrory, et al., “Benefits and harms of breast cancer screening : a systematic review,” JAMA, vol. 314, no. 15, pp. 1615–1634, 2015.
[2] C. D. Lehman, R. D. Wellman, D. S. Buist, K. Kerlikowske, A. N. Tosteson, and D. L. Miglioretti, “Diagnostic accuracy of digital screening mammography with and without computer-aided detection,” JAMA Internal Medicine, vol. 175, no. 11, pp. 1828–1837, 2015.
[3] O. Ronneberger, P. Fischer, and T. Brox, “U-net : Convolutional networks for biomedical image segmentation,” in International Conference on Medical Image Computing and Computer-Assisted Intervention, pp. 234–241, 2015.
[4] S. He, R. W. Lau, W. Liu, Z. Huang, and Q. Yang, “SuperCNN : A superpixel-wise convolutional neural network for salient object detection,” Int. Journal of Computer Vision, vol. 115, no. 3, pp. 330–344, 2015.
[5] C. Shi and C.-M. Pun, “Superpixel-based 3D deep neural networks for hyperspectral image classi- fication,” Pattern Recognition, vol. 74, pp. 600–616, 2018.
[6] V. Machairas, M. Faessel, D. Cárdenas-Peña, T. Chabardes, T. Walter, and E. Decencière, “Waterpixels,” IEEE Transactions on Image Processing, vol. 24, no. 11, pp. 3707–3716, 2015.
[7] P.-H. Conze, V. Noblet, F. Rousseau, F. Heitz, V. de Blasi, R. Memeo, and P. Pessaux, “Scaleadaptive supervoxel-based random forests for liver tumor segmentation in dynamic contrastenhanced CT scans,” International Journal of Computer Assisted Radiology and Surgery, vol. 12, no. 2, pp. 223–233, 2017.

 

Dans cette rubrique

(c) GdR 720 ISIS - CNRS - 2011-2018.