Annonce

Les commentaires sont clos.

[Stage M2 recherche] Analyse des réponses d’un réseau de neurones convolutionnel en fonction des valeurs des entrées qui lui sont soumises dans le cadre de la détection de tumeur du cerveau (IRM)

8 December 2022


Catégorie : Stagiaire


Contact

  • Christophe MONTAGNE (MCF Univ. Évry, IBISC équipe IRA2)
  • Dominique FOURER (MCF Univ. Évry, IBISC équipe SIAM)Équipes : IRA2 & SIAM – Laboratoire IBISC

[christophe.montagne, dominique.fourer]@univ-evry.fr

Envoyer CV + notes M1 et M2

Introduction

L’intelligence artificielle, en particulier pour le traitement des images, connaît un essor important à travers l’utilisation du deep learning et des réseaux de neurones convolutionnels (CNN) [1]. Mais il n’est pas toujours aisé de faire un lien entre la nature des entrées soumises au réseau et les résultats obtenus. C’est dans ce contexte que se situe ce sujet de stage. Partant d’un problème applicatif, il se propose d’aller jusqu’à l’analyse de ces liens.

L’an dernier, un premier travail a été mené sur l’insertion de zones d’intérêt dans des images pour faciliter la segmentation d’images IRM [2] dans le cadre de la recherche de tumeurs cérébrales. L’objectif était de voir si la prise en compte d’un processus d’attention visuelle, comme pourrait en fournir un expert, aiderait dans l’analyse de telles images, mais aussi, de manière prospective, dans la segmentation d’images en général. Le stage proposé cette année a pour objectif de finaliser ce travail et de le compléter en analysant comment un réseau de neurones évolue en fonction des différentes entrées qui lui sont proposées.

Contexte

Une architecture basée sur deux réseaux convolutionnels de type UNet [3] a été implémentée. Le premier réseau a en charge la détection d’une fenêtre d’intérêt dans laquelle le second réseau va opérer la segmentation en 3 classes des différents éléments de la tumeur. Plusieurs scénarios ont été envisagés. Si le second réseau travaille toujours selon le même principe, le premier réseau peut être alimenté par des images de natures différentes : images initiales provenant des différents canaux de l’IRM, images initiales sur lesquelles ont été calculées des cartes de saillance [4] ou encore images initiales filtrées, par exemple par une procédure de type Rank Order Coding [5]. A ce jour il reste encore des résultats à obtenir afin de valider la démarche. Une analyse de la variation induite par ces différents types d’entrée dans les résultats est également à réaliser.

Organisation du travail durant le stage

  • Étude bibliographique sur les méthodes d’attention en deep learning et sur les méthodes d’analyse des paramètres des réseaux [6], [7], [8], [9].
  • Prise en main du travail réalisé l’an dernier et finalisation des scénarios non aboutis afin d’obtenir des résultats de référence et à partir des cartes de saillance.
  • Réflexion sur une nouvelle architecture, ou une amélioration de l’architecture existante, permettant de mettre en œuvre la détection de région d’intérêt à partir d’images originales filtrées ou de cartes de saillance calculées sur les images originales.
  • Analyse des résultats obtenus avec deux objectifs. Dans un premier temps mesurer l’apport de cette zone d’intérêt dans l’amélioration des résultats finaux de segmentation. Dans un second temps revenir sur les différents paramètres du réseau d’extraction des zones d’intérêt et relier leurs variations à celles des valeurs de l’entrée (images initiales, carte de saillance, images filtrées…) afin de mieux comprendre le fonctionnement du réseau.

En conclusion, l’aboutissement d’un tel travail devrait permettre d’apprécier si l’intégration de l’expertise humaine, sous forme par exemple de zone d’intérêt acquise via un eye-tracking de l’expert, présente un intérêt pour la segmentation des images. Par ailleurs une limite dans le deep learning peut être le faible nombre des données. L’utilisation d’images pré-traitées peut-il se substituer aux images d’origines en permettant un apprentissage plus rapide et plus efficient ? C’est un des objectifs de l’analyse des paramètres internes du réseau que de conduire à une bonne compréhension du fonctionnement interne de celui-ci.

 

Lieu du stage

Laboratoire IBISC, site Pelvoux

UFR-Sciences et Technologies, Université d’Évry

36, rue du Pelvoux 91000 ÉVRY-COURCOURONNES

Références

[1] Shervin Minaee, Yuri Y Boykov, Fatih Porikli, Antonio J Plaza, Nasser Kehtarnavaz, and Demetri Terzopoulos. Image segmentation using deep learning : A survey. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2021.

[2] Ikram Brahim, Dominique Fourer, Vincent Vigneron, and Hichem Maaref. Deep learning methods for mri brain tumor segmentation : a comparative study. In Proc. IEEE IPTA 2019, Istanbul, Turkey, November 2019. [HAL IBISC]

[3] Olaf Ronneberger, Philipp Fischer, and Thomas Brox. U-Net: Convolutional Networks for Biomedical Image Segmentation, October 2015, Conference: International Conference on Medical Image Computing and Computer-Assisted Intervention, DOI :10.1007/978-3-319-24574-4_28

[4] Radhakrishna Achanta, Sheila Hemami, Francisco Estrada, and Sabine Süsstrunk. Frequency-tuned Salient Region Detection, IEEE Conference on Computer Vision and Pattern Recognition, 2009.

[5] Nefissa Khiari-Hili, Sylvie Lelandais, Christophe Montagne, Corinne Roumes, Kamel Hamrouni, Justin Plantier3. Bio-inspired image enhancement derived from a ‘rank order coding’ model, IET Image Processing pp. 1–9 2016, DOI: 10.1049/iet-ipr.2015.0239. [HAL IBISC]

[6] Pau Rodríguez, Guillem Cucurull, Josep M Gonfaus, F Xavier Roca, and Jordi Gonzalez. Age and gender recognition in the wild with deep attention. Pattern Recognition, 72 :563–571, 2017.

[7] Zhenghao Peng, Quanyi Li, Chunxiao Liu, and Bolei Zhou. Safe driving via expert guided policy optimization. arXiv preprint arXiv :2110.06831, 2021.

[8] Olivier Petit, Nicolas Thome, Clement Rambour, Loic Themyr, Toby Collins, and Luc Soler. U-net transformer : Self and cross attention for medical image segmentation. In International Workshop on Machine Learning in Medical Imaging, pages 267–276. Springer, 2021.

[9] Wenguan Wang, Qiuxia Lai, Huazhu Fu, Jianbing Shen, Haibin Ling, and Ruigang Yang. Salient object detection in the deep learning era : An in-depth survey. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2021.