Vous êtes ici : Accueil » Kiosque » Annonce

Identification

Identifiant: 
Mot de passe : 

Mot de passe oublié ?
Détails d'identification oubliés ?

Annonce

20 novembre 2017

Traitement de mammographies par apprentissage profond pour le diagnostic du cancer du sein - Appariement de superpixels par apprentissage profond


Catégorie : Stagiaire


Le LaTIM propose un sujet de stage sur le traitement de mammographies par apprentissage profond pour le diagnostic du cancer du sein (appariement de superpixels par apprentissage profond).

 

Contexte

Le cancer du sein est le cancer le plus fréquent chez les femmes avec 450000 décès chaque année dans le monde. En France, il représente plus d’un nouveau cas de cancer sur trois et provoque 11 000 décès par an. Le développement du dépistage massif du cancer du sein a permis un diagnostic plus précoce ainsi qu’une prise en charge rapide avec une amélioration significative du taux de survie. Cependant, la proportion de femmes rappelées pour des examens complémentaires après dépistage demeure élevé (environ 100 sur 1000) tandis que seulement 5 d’entre elles sont réellement atteintes. 95 femmes sur 1000 sont donc sujets à un sur-diagnostic et se voient administrer des traitements lourds par erreur [1]. Les techniques de détection assistée par ordinateur développées à ce jour pour améliorer le diagnostic sans avoir recours à de multiples lectures systématiques n’ont pas permis une amélioration significative des mesures de performance [2]. Dans ce contexte, le recours à des techniques automatiques de traitement d’images issues de l’apprentissage profond représente une piste prometteuse pour l’aide au diagnostic du cancer du sein.

Le projet s3pCS - Traitement de mammographies multi-vues par décomposition en SuPerPixels et apprentissage Profond pour le diagnostic du Cancer du Sein - dans lequel s’inscrit le stage vise à développer un ensemble de méthodes automatiques dédiées à l’analyse de mammographies par apprentissage profond. En particulier, le projet se décompose autour des axes de recherche suivants : 1) l’apprentissage profond appliqué à des superpixels pour une localisation précise des zones tumorales, 2) l’appariement par apprentissage profond de superpixels décomposant les images issues des examens. Ces deux thématiques visent in fine à réaliser 3) la fusion d’informations pour une segmentation des lésions combinant apprentissage profond et superpixels.

Sujet de stage

L’offre de stage concerne les axes de recherche 2 et 3 du projet s3pCS. La prise en compte de données multi-vues (images cradiocaudales et médiolatérales acquises pour chaque sein) ou longitudinales nécessite une mise en correspondance spatiale de zones anatomiques sémantiquement cohérentes [3]. Celle-ci doit être robuste vis-à-vis de la variabilité importante des structures en termes de déformation et d’aspect. Nous exploiterons une représentation des images en primitives visuelles générées par agrégation de pixels voisins formant, une fois regroupés, des régions homogènes et régulières [4] : les superpixels. Un appariement de superpixels sera réalisé en utilisant des méthodes issues de l’apprentissage profond et sera comparé aux approches basées apprentissage statistique [5, 6]. Pour bénéficier d’informations extraites à différentes résolutions spatiales, une extension à une représentation en superpixels multi-échelles [6] sera considérée. La méthode développée sera appliquée entre mêmes vues d’examens différents puis étendue à l’appariement intra-examen multi-vues. Une comparaison à des approches alternatives de recalage non-rigide dense [7] sera envisagée

A terme, les travaux réalisés auront pour but d’obtenir une méthode automatique de segmentation des structures tumorales par l’intermédiaire de réseaux convolutifs exploitant des superpixels appariés.

Environnement

L’ensemble des développements algorithmiques seront réalisés en langage Python, à l’aide des libraires keras, scikit-learn et scikit-image. Les données exploitées au cours du projet seront issues de bases d’images publiques (DDSM, DeepDream, INBreast). Les activités de recherche réalisés bénéficieront de l’expertise de Mines ParisTech/CMM (Etienne Decencière) et du laboratoire LaTIM UMR-1101 (Gwenolé Quellec, Mathieu Lamard) en segmentation d’images, machine learning, deep learning et morphologie mathématique.

— Durée du stage : 6 mois à partir du début d’année 2018 (si possible janvier)

— Lieu du stage : Institut Mines-Télécom Atlantique, Technopôle Brest-Iroise, Brest

— Encadrement : P.-H. Conze (IMT Atlantique), E. Decencière (Mines ParisTech)

— Gratification : environ 550 euros net/mois

— Niveau : Master 2 et/ou dernière année d’école d’ingénieur

— Compétence requises : bonnes connaissances en traitement d’images, notions avancées en machine learning et deep learning, bon niveau de programmation

Candidature

CV, lettre de motivation, notes et lettre de recommandation sont à envoyer à l’adresse suivante : pierre-henri.conze@imt-atlantique.fr.

Sujet complet illustré : perso.telecom-bretagne.eu/pierre-henriconze/data/conze-s3pCS-stage-2-master-2018.pdf

[1] E. R. Myers, P. Moorman, J. M. Gierisch, L. J. Havrilesky, L. J. Grimm, S. Ghate, B. Davidson, R. C. Mongtomery, M. J. Crowley, D. C. McCrory, et al., “Benefits and harms of breast cancer screening : a systematic review,” JAMA, vol. 314, no. 15, pp. 1615–1634, 2015.

[2] C. D. Lehman, R. D. Wellman, D. S. Buist, K. Kerlikowske, A. N. Tosteson, and D. L. Miglioretti, “Diagnostic accuracy of digital screening mammography with and without computer-aided detection,” JAMA Internal Medicine, vol. 175, no. 11, pp. 1828–1837, 2015.

[3] T. Kooi and N. Karssemeijer, “Classifying symmetrical differences and temporal change for the detection of malignant masses in mammography using deep neural networks,” Journal of Medical Imaging, 2017.

[4] V. Machairas, M. Faessel, D. Cárdenas-Peña, T. Chabardes, T. Walter, and E. Decencière, “Waterpixels,” IEEE Transactions on Image Processing, 2015.

[5] F. Kanavati, T. Tong, K. Misawa, M. Fujiwara, K. Mori, D. Rueckert, and B. Glocker, “Supervoxel classification forests for estimating pairwise image correspondences,” Pattern Recognition, 2017.

[6] P.-H. Conze, F. Tilquin, V. Noblet, F. Rousseau, F. Heitz, and P. Pessaux, “Hierarchical multi-scale supervoxel matching using random forests for automatic semi-dense abdominal image registration,” in IEEE International Symposium on Biomedical Imaging, 2017.

[7] H. Sokooti, B. de Vos, F. Berendsen, B. P. Lelieveldt, I. Išgum, and M. Staring, “Nonrigid image registration using multi-scale 3d convolutional neural networks,” in International Conference on Medical Image Computing and Computer-Assisted Intervention, 2017

 

Dans cette rubrique

(c) GdR 720 ISIS - CNRS - 2011-2018.