Vous êtes ici : Accueil » Kiosque » Annonce

Identification

Identifiant: 
Mot de passe : 

Mot de passe oublié ?
Détails d'identification oubliés ?

Annonce

13 septembre 2017

Reconnaissance des types de polype par apprentissage profond en imagerie endoscopique


Catégorie : Doctorant


Contact : Christophe.Tilmant@uca.fr et Adrien.Bartoli@uca.fr ; http://igt.ip.uca.fr/encov/

 

Contexte

La principale cause de décès liée au tractus intestinal est le développement de cellules cancéreuses. Un dépistage précoce et un examen régulier peuvent réduire le risque de mortalité. Plus spécifiquement, les polypes coliques (tumeurs bénignes ou croissances qui apparaissent sur la surface du côlon interne) ont une occurrence élevée et sont connus pour être des précurseurs du développement du cancer du côlon.

L'endoscopie est la méthode la plus courante pour identifier les polypes du côlon. Néanmoins, l'interprétation des images par les spécialistes est limitée en raison de leurs subjectivités et des grandes variations inter-opérateurs (précision de reconnaissance des lésions coliques de 76,5% pour les experts et 72,2% pour les juniors). Les approches informatiques, en particulier l'analyse d'image et l'apprentissage automatique, sont des outils clefs pour proposer une aide au diagnostic, en facilitant l'identification des types de polype.

Dans la littérature, les techniques existantes de diagnostic assisté par ordinateur utilisent généralement des méthodes d'extraction de caractéristiques de couleur, de forme et de texture en combinaison avec des méthodes d'apprentissage automatique pour effectuer la classification des polypes du côlon. Par exemple, l’utilisation des caractéristiques issues d’une transformée d'ondelettes directionnelles [WIM16] a démontré son efficacité avec une précision moyenne de classification de 80,3%. Le point crucial de ces techniques est une caractérisation appropriée des motifs à classer. L’expérience du laboratoire sur ces approches [MES16] présente des résultats de précision moyenne de 82,4%. La méthode proposée utilise les imageries en mode classique (lumière blanche) et en mode NBI (Narrow Band Imaging). Les caractéristiques employées sont de trois types : des descripteurs sur la texture 2D, sur la couleur et des descripteurs de la forme 3D reconstruite par Structure-from-Motion.

Les approches par apprentissage profond (deep learning) forment une bonne alternative pour contourner cette étape d’extraction d’attributs. En se basant sur les mêmes bases de données que [WIM16], une approche utilisant des réseaux profonds pré-entrainés (transfer learning) [RIB16] a amélioré la précision moyenne avec une valeur de 93,6%. L'apprentissage profond prend une place de plus en plus importante dans l'analyse générale des données et a révolutionné les mécanismes de compréhension de l’image par une machine sur ces 5 dernières années. Cette technique est une amélioration des réseaux de neurones artificiels, avec des réseaux constitués de plusieurs couches qui permettent des niveaux plus élevés d'abstraction et des prédictions améliorées à partir des données. En particulier, les réseaux de neurones convolutifs (CNN) se sont avérés être des outils puissants pour des applications en imagerie car les descripteurs génériques extraits des CNN sont extrêmement efficaces pour la reconnaissance.

Lorsque la base de données d’apprentissage est assez grande et diverse, l'approche la plus appropriée serait d'initialiser les poids du CNN de façon aléatoire et de réaliser l’apprentissage sur cette base. Cette stratégie (CNN trained from scratch), bien qu’idéale, n'est pas très utilisée en imagerie médicale en raison de l'absence de grande bases de données médicales annotée et disponible. En effet, le coût et le temps de collecte et d'annotation manuelle des images médicales peuvent être très importants. Les annotations manuelles sont subjectives et variables selon les experts médicaux. Cependant, certaines techniques peuvent aider à la conception des CNN avec des bases de données de petites tailles.

En pratique, l'approche la plus utilisée est l'augmentation des données. Des transformations sont appliquées à l'image en faisant de nouvelles versions pour augmenter le nombre d'échantillons dans la base de données. Ces transformations peuvent être appliquées à la fois à la phase d'entraînement et à la phase de test et peuvent utiliser des stratégies différentes telles que le recadrage, la rotation, la translation et les symétries. Les expériences montrent que l'utilisation de ces techniques peut être efficace pour lutter contre le sur-apprentissage des CNNs et améliorer la reconnaissance et la précision de la classification [CHA14]. Ce type d’approche a été proposé en imagerie endoscopique [VAZ16] en augmentant les données par variations des polypes, de l’arrière-plan (muqueuse), de l’éclairement et des reflets spéculaires.

Une autre alternative consiste à utiliser un CNN off-the-shelf [RAV17]. Dans ce cas, en utilisant un CNN pré-entrainé, la dernière couche linéaire entièrement connectée est supprimée et le CNN pré-entrainé restant est utilisé comme extracteur de caractéristiques pour générer un vecteur de caractéristique pour chaque image d'entrée à partir d'une base de données différente. Ces vecteurs de caractéristiques peuvent être analysés par un nouveau classifieur, tel qu'une machine à vecteur de support (SVM), pour classer correctement les images. Si la base de données d'origine est similaire à la base de données cible, la probabilité que les caractéristiques de haut niveau décrivent correctement l'image est élevée et pertinente pour cette nouvelle base de données. Si la base de données cible est différente de l'original (images naturelles par exemple), il peut être plus approprié d'utiliser les caractéristiques des couches précédentes du CNN.

L’utilisation des méthodes d’apprentissage profond sur des petites bases de données reste encore un verrou scientifique. Nous souhaitons, à travers ce travail de thèse, travailler sur la mise en place d’une technique d’apprentissage d’un CNN adaptée à la classification des polypes en imagerie endoscopique, capable de s’auto-améliorer à mesure que des résultats d’examen viendront compléter la base d’apprentissage.

Objectifs de la thèse

Le thème EnCoV du laboratoire Institut Pascal possède une grande expérience dans le traitement d’images endoscopiques. Lors de travaux récents, une nouvelle méthode a été proposée pour résoudre l’ambiguïté d’échelle de la vision monoculaire de l’acquisition endoscopique [CHA15]. Cela permet d’obtenir une image 2D à une échelle métrique. De plus, d’autres travaux en cours permettent d’estimer une carte de profondeur de ces images. Le couplage de ces deux travaux nous donne accès à une carte de profondeur à l’échelle. L’objectif principal de ce travail consiste à proposer une technique d’apprentissage de CNN pour la reconnaissance de polypes en imagerie endoscopique par l’utilisation de l’augmentation de données. La carte de profondeur à l’échelle permettra de générer un ensemble de nouveaux échantillons à l’aide de vues différentes grâce à la connaissance de la géométrie de la scène. Au cours de l’utilisation de ce nouvel outil d’aide au diagnostic de nouvelles données seront récoltées et il faudra donc proposer également une technique d’apprentissage de CNN centralisée par renforcement et qui se spécialisera de mieux en mieux. Des tests seront également menés à l’aide des partenaires clinique et industriel.

En effet, la mise en place de la collecte des données est primordiale afin d’obtenir des résultats en amélioration. Le partenaire clinique permettra de recueillir l’ensemble des données : les images en multimodalité (lumière blanche et NBI) et les résultats de la biopsie. En ce qui concerne le partenaire industriel, son rôle résidera dans la mise en place d’une transmission d’information et d’un stockage, tous les deux sécurisés, et de l’exploitation industrielle des résultats. En effet, la gestion de cette grande quantité de données potentiellement disponibles requiert une expertise spécifique et adaptée.

Ce travail se réalisera en partenariat avec le service hépatologie-gastroentérologie du CHU de Clermont-Ferrand et avec l’entreprise Yansys qui est spécialiste du développement de solutions logicielles pour la spécialité de la gastroentérologie. Yansys mettra à disposition de l’étudiant(e) des ressources informatiques afin de réaliser les calculs gourmands liés à l’apprentissage profond et l’infrastructure nécessaire à la collecte des données médicales.

Profil du candidat

Formation : Master ou diplôme d'ingénieur

Spécificités souhaitées : Solides connaissances en traitement du signal et des images avec une spécialisation dans l'un ou plusieurs des domaines suivants : Apprentissage, Vision par ordinateur et Informatique.

Bibliographie

[CHA15] F. Chadebecq, C. Tilmant, A. Bartoli, “How big is this neoplasia? Live colonoscopic size measurement using the Infocus-Breakpoint“ Medical Image Analysis, 19 (1), 58-74, 2015.

[CHA14] K. Chatfield, K. Simonyan, A. Vedaldi, A. Zisserman, “Return of the Devil in the Details: Delving Deep into Convolutional Nets,” British Machine Vision Conference, 2014.

[MES16] P. Mesejo, D. Pizarro, A. Abergel, O. Rouquette, S. Beorchia, L. Poincloux, A. Bartoli, “Computer-Aided Classification of Gastrointestinal Lesions in Regular Colonoscopy, “ IEEE Transactions on Medical Imaging, Volume 35(9), Pages 2051 - 2063, 2016

[RAV17] D. Ravì et al., "Deep Learning for Health Informatics," in IEEE Journal of Biomedical and Health Informatics, vol. 21, no. 1, pp. 4-21, Jan. 2017.

[RIB16] E. Ribeiro, A. Uhl, G. Wimmer, and M. Häfner, "Exploring Deep Learning and Transfer Learning for Colonic Polyp Classification, " in Computational and Mathematical Methods in Medicine, vol. 2016, Article ID 6584725, 16 pages, 2016.

[VAZ16] D. Vázquez et al. "A Benchmark for Endoluminal Scene Segmentation of Colonoscopy Images " CoRR abs/1612.00799, 2016.

[WIM16] G. Wimmer, T. Tamaki, J.J.W. Tischendorf, M. Häfner, S. Yoshida, S. Tanaka, A. Uhl, “ Directional wavelet based features for colonic polyp classification,” Medical Image Analysis, Volume 31, July 2016, Pages 16-36, ISSN 1361-8415.

 

Dans cette rubrique

(c) GdR 720 ISIS - CNRS - 2011-2015.