Vous êtes ici : Accueil » Kiosque » Annonce

Identification

Identifiant: 
Mot de passe : 

Mot de passe oublié ?
Détails d'identification oubliés ?

Annonce

30 novembre 2018

Détection par « deep learning » de l’orientation d’un copépode à partir d’une seule prise de vue et d’un modèle tridimensionnel


Catégorie : Stagiaire


 

Stage Master 2

ProjetDétection par « deep learning » de l’orientation d’un copépode à partir d’une seule prise de vue et d’un modèle tridimensionnel

Mots-clésClassification/régression, apprentissage supervisé, réseaux de neurones convolutionnels, modèle tridimensionnel, projection 3-D → 2-D, biologie marine, zooplancton

 

  • Encadrement

    • Eric Debreuve

    • Chercheur CNRS en traitement et analyse d’image et apprentissage statistique

    • eric.debreuve@i3s.unice.fr

  • Au sein de l’équipe Morpheme

    • Inria Sophia Antipolis-Méditerranée + CNRS délégation Côte d’Azur + Université Côte d’Azur

    • http://team.inria.fr/morpheme

       

  • Collaborations

    • Jean-Olivier Irisson, Enseignant-chercheur en écologie numérique, Sorbonne Université/LOV

    • Frédéric Maps, Enseignant-chercheur en écologie marine, Université Laval (Québec)

 

Stage Master 2

ProjetDétection par « deep learning » de l’orientation d’un copépode à partir d’une seule prise de vue et d’un modèle tridimensionnel

Mots-clésClassification/régression, apprentissage supervisé, réseaux de neurones convolutionnels, modèle tridimensionnel, projection 3-D → 2-D, biologie marine, zooplancton

 

Contexte académique

 

Conditions

 

Contexte environnemental et biologique

Dans le cadre du projet Sentinelle Nord de l'Université Laval, Québec (Canada), l’équipe Morpheme et l’équipe PEPS2 participent au développement de méthodes de classification automatique du zooplancton des mers polaires par traits fonctionnels (par opposition à la classification selon une taxonomie génétique par exemple). Ces méthodes sont destinées à servir d’outil aux chercheurs en biologie et écologie marines dans l’étude de l’impact des activités humaines sur les régions polaires. Le plancton, dans son ensemble, est à la base de la chaîne alimentaire de la faune marine, et le phytoplancton participe de manière déterminante à la régulation de la quantité de CO2 dans l’atmosphère. On comprend pourquoi l’étude de l’évolution des populations de ces organismes est fondamentale, notamment dans les régions polaires fragilisées par le changement climatique.

 

Description du projet

La reconnaissance automatique d’objets tridimensionnels à partir d’une image (bidimensionnelle donc) pose le problème de la variabilité de l’apparence selon le point de vue de la prise d’image. Autrement dit, dans le contexte de la classification automatique d’images, deux images d’un même objet prises sous des angles différents peuvent aisément être classées dans des classes différents, sauf évidemment si l’ensemble d’apprentissage contenait suffisamment de points de vue différents pour chaque objets. Cette contrainte sur l’ensemble d’apprentissage n’étant en principe pas satisfaite dans des applications réelles, on recourt à la « data augmentation ». Toutefois, les déformations introduites ne sont pas vraiment réalistes3 et leur ampleur est trop limitée pour couvrir l’ensemble des points de vue si l’échantillonnage des points de vue parmi les images dont on dispose est réduit. Une solution naturelle est de prendre en compte le point de vue pour la classification. En quelque sorte, si on connaît la direction de prise de vue, on peut déduire d’où sont issues sur l’objet les caractéristiques extraites de l’image (par le biais d’un modèle 3-D de l’objet) et comment elle ont été « déformées » par cette direction par rapport à une vue dans une direction choisie comme standard. La tâche de classification devient ainsi indépendante du point de vue. Or pour connaître le point de vue d’une image, il faut savoir ce qui y est représenté, autrement dit il faut connaître la classe. Les problèmes de classification et d’estimation de point de vue ne sont donc pas solubles indépendamment l’un de l’autre. Des recherches ont déjà été menées pour les résoudre conjointement grâce à des réseaux de neurones convolutionnels. Toutefois, à notre connaissance, pas dans le cas d’objets déformables et translucides comme c’est le cas du zooplancton. Pour aborder ce contexte plus délicat, nous souhaitons d’abord étudier la faisabilité de la détermination du point de vue sachant la classe. Pour cela, nous utiliserons une base de données de copépodes, une sous-classe des crustacés pour laquelle il existe des modèles 3-D (voir Figure 1).

 

Figure 1 : A gauche, photographie d’un copépode ; à droite, un modèle 3-D

(sources : Sorbonne Université, CNRS ;

arcticcurrents.wordpress.com/2013/03/27/silver-linings-and-the-design-process).

Il s’agira donc de créer une base de données synthétique d’images de copépodes par projection réaliste4 d’un modèle 3-D et de proposer un réseau de neurones convolutionnel (en choisissant parmi les réseaux existants, voire en s’en inspirant pour proposer une variante) permettant d’estimer automatiquement le point de vue. Le réseau sera alors validé sur des images réelles sous le contrôle d’experts en biologie marine. L’extension à la classification et estimation du point de vue conjointes se fera dans un contexte « one-class classification », c’est-à-dire pour classer/estimer le point de vue en copépode+point de vue versus non-copépode+point de vue (pour cette seconde classe, le point de vue ne sera bien sûr pas fiable et n’aura en fait pas d’intérêt). Le passage à classes multiples+point de vue pourra être envisagé selon l’avancement du projet.

 

Compétences souhaitées

Liens

 

1Proche Nice, Antibes, Cannes

2PEPS : Processus dans les Écosystèmes Pélagiques, Laboratoire d'Océanographie de Villefranche-sur-Mer (LOV)

3Elles ne s’appuient pas sur la nature projective 3-D → 2-D de la formation des images.

4Il faudra définir les ingrédients de ce réalisme

 

Dans cette rubrique

(c) GdR 720 ISIS - CNRS - 2011-2018.