Annonce

Les commentaires sont clos.

Stage M2 : Système de reconnaissance et d’analyse du comportement des primates à partir de séquences vidéos

6 December 2021


Catégorie : Stagiaire


Offre de stage de M2 recherche
en
Computer Vision / Pattern recognition / Machine learning

 

 

Système de reconnaissance et d’analyse

du comportement des primates à partir de séquences vidéos

 

Cette offre de stage s’inscrit dans le cadre d’un projet de recherche pluridisciplinaire mené conjointement par le laboratoire PRISME de l’université d’Orléans, le Muséum National d’Histoire Naturelle (MNHN) et l’INRAe sur l’analyse et la reconnaissance automatique du comportement et des émotions des primates

 

Encadrement:

Le stage sera encadré par Xavier Desquesnes (xavier.desquesnes@univ-orleans.fr – PRISME) et Audrey Maille (MNHN).

 

Contact:

Envoyer une lettre de motivation et un CV à xavier.desquesnes@univ-orleans.fr

Dates :

Début du stage à partir de mars 2022 pour une durée de 5 mois.

 

Lieux :

Le stagiaire sera basé à l’IUT de l’Indre (Châteauroux - 36).

Il pourra être amené à se déplacer sur les lieux d’expérimentation (Réserve zoologique de la Haute-Touche), ainsi que dans les locaux des partenaires du projet (Tours, Bourges, Orléans, Châteauroux, Paris)

 

Présentation du contexte :

Depuis toujours, les interactions entre les humains et les animaux sont nombreuses. Pourtant nous éprouvons toujours des difficultés à percevoir correctement et à interpréter les comportements ou émotions de ces derniers. C'est en particulier le cas des visiteurs d'un parc animalier interprétant bien souvent à tord, les actions ou mimiques des primates qu'ils sont venus observer.

Pour réduire la barrière qui existe encore entre l'homme et l'animal, on peut imaginer un outil de traduction automatique, décrivant à l'homme qui le regarde, la signification des gestes ou les émotions du primate. De nombreux verrous technologiques ont été levés cette dernière décennie (notamment en vision par ordinateur), rendant envisageable la création d'un tel outil dans les années à venir.

C’est dans ce contexte, qu’est né le projet MicMac initiant une nouvelle collaboration entre les éthologues du MNHN et de l’INRAé, spécialistes des primates, et les chercheurs du laboratoire PRISME (Université d’Orléans), spécialisés en vision par ordinateur.

 

L’objectif de ce stage sera de réaliser un travail préliminaire à la conception d’un tel traducteur. Tout particulièrement pour les tâches de détection et de suivi automatique des primates dans des vidéos.

 

Travail à réaliser par le stagiaire :


Le stagiaire devra notamment réaliser une étude des approches de suivi et de classification d’objets (ici les primates) à partir de séquences vidéos.

 

Les méthodes retenues seront ensuite implémentées et testées sur une base de données expertisée, puis en situation réelle à la réserve zoologique de la Haute-Touche.

Profil et compétences recherchées :

Nous recherchons un candidat actuellement inscrit en Master 2 recherche ou ingénieur grandes écoles en informatique, mathématiques appliquées ou sciences des données possédant des compétences fortes en vision par ordinateur, traitement d’images, apprentissage profond et programmation (langages Python et/ou C++).

Une expérience préalable dans l’utilisation de réseaux profonds constituerait un atout majeur. Des connaissances de base en vision par ordinateur sont, par ailleurs, plus que nécessaires.

Le candidat retenu rejoindra une équipe interdisciplinaire comprenant des chercheurs français et étrangers en traitement d’image et vision par ordinateur.

Niveau de français requis:

Avancé: Vous pouvez parler la langue de manière plus complexe, spontanée et sur des sujets variés



Niveau d'anglais requis:

Intermédiaire supérieur: Vous pouvez utiliser la langue de manière efficace et vous exprimer précisément.

Références bibliographiques :

 

[1] MITTEK, Mateusz, PSOTA, Eric T., PÉREZ, Lance C., et al. Health monitoring of group-housed pigs using depth-enabled multiobject tracking. In : Proceedings of Int Conf Pattern Recognit, Workshop on Visual observation and analysis of Vertebrate And Insect Behavior. 2016.

[2] MATTHEWS, Stephen G., MILLER, Amy L., PLÖTZ, Thomas, et al. Automated tracking to measure behavioural changes in pigs for health and welfare monitoring. Scientific reports, 2017, vol. 7, no 1, p. 17582.

[3] ZHANG, Lei, GRAY, Helen, YE, Xujiong, et al. Automatic Individual Pig Detection and Tracking in Pig Farms. Sensors, 2019, vol. 19, no 5, p. 1188

[4] ANDREW, William, GREATWOOD, Colin, et BURGHARDT, Tilo. Visual localisation and individual identification of Holstein Friesian cattle via deep learning. In : Proceedings of the IEEE International Conference on Computer Vision. 2017. p. 2850-2859.

[5] OHAYON, Shay, AVNI, Ofer, TAYLOR, Adam L., et al. Automated multi-day tracking of marked mice for the analysis of social behaviour. Journal of neuroscience methods, 2013, vol. 219, no 1, p. 10-19.

[6] DE CHAUMONT, Fabrice, EY, Elodie, TORQUET, Nicolas, et al. Live Mouse Tracker: real-time behavioral analysis of groups of mice. BioRxiv, 2018, p. 345132.

[7] MA, Jiayi, CHEN, Chen, LI, Chang, et al. Infrared and visible image fusion via gradient transfer and total variation minimization. Information Fusion, 2016, vol. 31, p. 100-109.

[8] CHEN, Chen, JAFARI, Roozbeh, et KEHTARNAVAZ, Nasser. A survey of depth and inertial sensor fusion for human action recognition. Multimedia Tools and Applications, 2017, vol. 76, no 3, p. 4405-4425.

[9] S. Vishwakarma et A. Agrawal, « A survey on activity recognition and behavior understanding in video surveillance », The Visual Computer, vol. 29, no 10, p. 983 1009, 2013.

[10] YIN, Jiale, LIU, Lei, LI, He, et al. The infrared moving object detection and security detection related algorithms based on W4 and frame difference. Infrared Physics & Technology, 2016, vol. 77, p. 302-315.

[11] VAROL, Gül, LAPTEV, Ivan, et SCHMID, Cordelia. Long-term temporal convolutions for action recognition. IEEE transactions on pattern analysis and machine intelligence, 2018, vol. 40, no 6, p. 1510-1517. [12] JI, Shuiwang, XU, Wei, YANG, Ming, et al. 3D Convolutional Neural Networks for Human Action Recognition. In : ICML. 2010. p. 6.

[13]. Fréret S., Talbot J., Fatet A., et al. 2015. Evaluation d'un collier accéléromètre pour la détection automatisée des chaleurs indites par traitement hormonal chez des chèvres Alpines dessaisonnées et en bâtiment. Renc. Rech. Rum. 2015, 22, 207-210.

[14]. Guinamard C. Un outil d'aide au gardiennage associant un GPS et un accéléromètre, qu'en disent les éleveurs ? Renc. Rech. Rum. 2018. 24.

[15] Alhamada M., Debus N., Lurette A., Bocquier F., 2016. Validation of automated electronic oestrus detection in sheep as an alternative to visual observation. Small Ruminant Research, 134: 97 -104.

[16] Fréret S., Le Danvic C., Lurette A., et al., 2018. Gestion de la reproduction en élevages ovins et caprins, conventionnels et biologiques : état des lieux des pratiques dans six bassins de production, proposition de nouveaux outils et évaluation de leur acceptabilité (projet REPROBIO). Innovations Agronomiques 63, 243-255