Vous êtes ici : Accueil » Kiosque » Annonce

Identification

Identifiant: 
Mot de passe : 

Mot de passe oublié ?
Détails d'identification oubliés ?

Annonce

9 janvier 2018

Reconnaissance des formes pour l’inspection des tunnels


Catégorie : Doctorant


Proposition de thèse au laboratoire de Strasbourg du Cerema Est, à partir de la rentrée 2018, en collaboration avec le laboratoire iCube. Co-encadrement P. Charbonnier (Cerema), F. Heitz (iCube) : l’objectif de la thèse est de mettre au point des outils automatisés de détection visuelle de défauts des voûtes et murs de tunnels, par analyse d’images (complétées de données 3D) en utilisant des méthodes de reconnaissance des formes par apprentissage statistique (machine learning). Sélection sur dossier/entretiens : candidatures jusqu'au 21 février 2018.

 

Description du projet de thèse

L’objectif de la thèse est de mettre au point des outils automatisés de détection visuelle de défauts des voûtes et murs de tunnels, par analyse d’images (complétées de données 3D) en utilisant des méthodes de reconnaissance des formes par apprentissage statistique (machine learning).

Maintenir les tunnels (routiers, canaux, ferroviaires) en bon état représente un impératif de sécurité, un enjeu économique et une question de préservation du patrimoine. Aussi, il est nécessaire de procéder à des visites d’inspection régulières pour détecterd’éventuelles dégradations. Confiée à des agents spécialisés intervenant sur site, cette tâche est longue et fastidieuse, parfois dangereuse ; ellenécessite souvent une fermeture de l’ouvrage. C’est pourquoi le Cerema et ses partenaires, tels le Centre d’Étude des Tunnels (Cetu) mettent au point des outils automatisés d’inspection visuelle hors-lignedes tunnels, à partir d’images et de données 3D issues d’appareils d’acquisition spécialisés [1].

Il n’existe que très peu de travaux sur la détection automatique de défauts dans les tunnels par analyse d’images, et ils sont souvent limités à la détection de fissures sur béton. Les études préliminairesmenées par l’équipe[2] ont montré la faisabilité de la détection d’un certain nombre de dégradationssur de la maçonnerie et des murs en béton grâce à des techniques d’apprentissage (forêts d’arbres aléatoires [3][4]). Dans le cadre de la thèse proposée, il s’agira de mettre au point des méthodes applicables à une typologie plus importante de défauts, dans différentstypes de tunnels. Un des points clefs sera le choix des caractéristiques extraites des images et utilisées par l’algorithme de classification, pour lequell’utilisation des techniques d’apprentissage profond (deep learning [5][6]) devra être évaluée. Les apports de la 3D (cartes locales de profondeur) et de la redondance observable dans des séquences d’images seront également étudiés. Il s’agira aussi de mettre en place une procédure d’apprentissage qui puisse se généraliser ou se transférer [7] facilement à des tunnels nouveaux. Enfin, les méthodes proposées feront l’objet d’évaluations systématiques sur des séquences de données réelles en lien avec des spécialistes de l’inspection des tunnels.

Quelques références des encadrants dans ce domaine :

  1. P. CHARBONNIER, P. Foucher, P. Chavant, V. Muzet, D. Prybyla, T. Perrin, J.L. Albert, P. Grussenmeyer, S. Guillemin, et M. Koehl. An image-based inspection system for canal-tunnel heritage. International Journal of Heritage in the Digital Era, 3(1) :197–214, 2014. Soumission sur invitation, numéro spécial (CIPA2013 Best Paper Award).
  2. P. Foucher, M. D. Bah, P. Charbonnier, C. Boulogne, et C. Larive. Classification automatique de défauts sur des images de tunnels par forêts d’arbres aléatoires. Dans Congrès national sur la Reconnaissance de Formes et l’Intelligence Artificielle (RFIA), Clermont-Ferrand, juin 2016. http://rfia2016.iut-auvergne.com/media/articles/P21.pdf
  3. P-H. Conze, V. Noblet, F. Rousseau, F. Heitz, V. de Blasi, R. Memeo, P. Pessaux. Scale-Adaptive Supervoxel-based Random Forests for Liver Tumor Segmentation in Dynamic Contrast-Enhanced CT Scans, International Journal of Computer Assisted Radiology and Surgery, International Journal of Computer Assisted Radiology and Surgery, Springer-Verlag, 12(2):223-233, février 2017.

Références :

  1. A. Criminisi et al. Decision Forests: A Unified Framework for Classification, Regression, Density Estimation, Manifold Learning and Semi-Supervised Learning. Foundations and Trends in Computer Graphics and Vision, 7(2–3):81–227, 2011.
  2. I. Goodfellow, Y. Bengio and A. Courville, Deep Learning, MIT Press, novembre 2016, http://www.deeplearningbook.org/
  3. M. Nielsen, Neural Networks and Deep Learning, décembre 2017, http://neuralnetworksanddeeplearning.com/
  4. S. Ruder, Transfer Learning – Machine Learning's Next Frontier, mars 2017, http://ruder.io/transfer-learning/

Compétences souhaitées

Les candidat(e)s devront avoir une solide formation en traitement d’images, avec des connaissances en reconnaissance des formes, apprentissage et classification, statistiques et calcul scientifique, ainsi qu’une bonne expérience en programmation scientifique (Matlab, Python, C++, C). La maîtrise du français et de l’anglais (oral et écrit) est indispensable.

Conditions d’accueil du projet de thèse

Équipe d’encadrement du projet de thèse

Le/la doctorant(e) sera accueilli(e) au sein du groupe Méthodes Physiques du Laboratoire de Strasbourg du Cerema, dont le responsable est Pierre Charbonnier. Le projet se déroulera sous la co-direction de Fabrice Heitz (PR, laboratoire iCube – UMR 7357 Unistra-CNRS) et de Pierre Charbonnier (DR, Cerema Est). Le projet sera co-encadré par Philippe Foucher, chargé de recherche dans l’équipe Cerema.

Modalités de candidature

Le/la candidat(e) intéressé(e) est invité(e) à contacter au plus tôt le directeur de thèse Cerema :

Pierre CHARBONNIER, Cerema Est/Laboratoire de Strasbourg, 11 rue Jean Mentelin, B.P. 9, 67380 STRASBOURG
pierre.charbonnier@cerema.fr, Tel : 03 88 77 46 44

Le/la candidat(e) devra lui transmettre un dossier complet par messagerie électronique avant le 21 février 2018. Ce dossier devra contenir les documents suivants :

Dans cette rubrique

(c) GdR 720 ISIS - CNRS - 2011-2018.