Vous êtes ici : Accueil » Kiosque » Annonce

Identification

Identifiant: 
Mot de passe : 

Mot de passe oublié ?
Détails d'identification oubliés ?

Annonce

6 décembre 2019

Analyse du comportement animal à partir de séquences vidéo [PRISME/INRA/Zoo Beauval)


Catégorie : Stagiaire


Cette offre de stage s’inscrit dans le cadre d’un projet de recherche pluridisciplinaire mené conjointement par le laboratoire PRISME de l’université d’Orléans et l’INRA sur l’analyse et la reconnaissance automatique du comportement animal dans un contexte d’élevage ou de préservation, à partir de vidéo (projet AniMov).

Le projet prévoit également un financement pour un contrat doctoral (3 ans) qui pourra être établi dans la continuité du stage, en fonction des résultats obtenus.

 

Analyse du comportement animal à partir des séquences vidéo

Cette offre de stage s’inscrit dans le cadre d’un projet de recherche pluridisciplinaire mené conjointement par le laboratoire PRISME de l’université d’Orléans et l’INRA sur l’analyse et la reconnaissance automatique du comportement animal dans un contexte d’élevage ou de préservation, à partir de vidéo (projet AniMov).

Le projet prévoit également un financement pour un contrat doctoral (3 ans) qui pourra être établi dans la continuité du stage, en fonction des résultats obtenus.

Encadrement :

Le stage sera encadré par Xavier Desquesnes (xavier.desquesnes@univ-orleans.fr), en collaboration avec Bruno Émile (bruno.emile@univ-orleans.fr) et Sylvie Treuillet (sylvie.treuillet@univ-orleans.fr). Tous trois sont membres de l’axe Image-Vision du laboratoire Prisme de l’université d’Orléans

Dates :

Début du stage à partir de mars 2020 pour une durée de 5 mois.

Présentation du contexte :

Éleveurs agricoles et soigneurs en parc animalier partagent un même besoin d'observations et de surveillance quant aux animaux dont ils ont la charge. Un éleveur de chèvres, par exemple, veut connaître le comportement des animaux afin de disposer d'indicateurs précis pour piloter l'alimentation et la reproduction du troupeau. Il souhaite également prévenir une situation anormale (agressivité, maladie, etc.). De même, un soigneur veut connaître le comportement des animaux dont il s'occupe, tout particulièrement la nuit lorsque l'observation directe n'est plus possible. L'observation permanente et directe des animaux 24/24 par un humain n'est évidemment pas envisageable pour des raisons de coût mais également d'altération du comportement des animaux. La présence humaine influence le comportement animal et interdit bien souvent d'observer certaines situations spécifiques.

Dans ce contexte, l'objectif du projet est de développer et mettre en œuvre un système de vision permettant d'analyser le comportement animal pour détecter les cycles d'activité et les situations anormales. Le système d'analyse automatique envisagé repose sur un ensemble de caméras placées dans l'enclos de l'animal ou le bâtiment d'élevage pour l'acquisition de vidéos. Un système de reconnaissance et de suivi des individus (pour caractériser le ou les animaux et leur

comportement), ainsi qu'un système de classification et d'analyse permettant de générer des indicateurs ou alertes à destination de l'éleveur/soigneur. Un tel système permettra donc à la fois un suivi instantané et permanent des animaux (détection de situations anormales, alertes) mais également un suivi sur le long terme offrant une aide au pilotage et à la décision. La méthodologie et des outils de suivi développés dans un cadre général seront spécialisés selon les applications.

Le projet prévoit des tests en situation réelle dans le cadre de deux exploitations : la ferme expérimentale de l'INRA Bourges et le ZooParc de Beauval. Selon l'exploitation, le système permettra de :

- Reconnaître les cycles d'activité (alimentation, sommeil, agitation, etc.)

- Reconnaître un événement de reproduction : chaleurs, saillies, mise bas imminente.

- Détecter un comportement anormal pouvant suggérer une blessure ou maladie.

- Reconnaître un animal en situation de stress ou présentant un comportement agressif

Travail à réaliser par le stagiaire :

Le stagiaire interviendra en amont de ce projet avec pour tâches de :

- proposer une architecture matérielle pour le système de vision à partir d’une évaluation des contraintes d’acquisition propres aux bâtiments d’élevage (luminosité, poussière, surface, etc.) et aux scénarios (types d’animaux, comportement recherchés). Cette architecture comprend le choix des capteurs (caméra couleur, infrarouge, profondeur, etc.), leur positionnement, ainsi que le choix du type d’unité de calcul (embarqué ou distant). Pour cette tâche, le stagiaire pourra s’appuyer sur l’état de l’art du domaine ainsi que sur l’expertise des partenaires industriels du projet.

- réaliser une étude de l’état de l’art pour la mise au point d’une chaîne de traitement pour la caractérisation des scènes et l'extraction d'indicateurs du comportement. En particulier, le stagiaire devra s’intéresser aux récentes innovations en terme de tracking et réseaux profonds.

Lieux :

Le stagiaire sera basé à l’IUT de l’Indre (Châteauroux - 36). Il sera amené à se déplacer sur les différents lieux d’expérimentation (INRA Bourges, Zoo Parc de Beauval), ainsi que dans les locaux des partenaires du projet (Tours, Bourges, Orléans, Châteauroux)

Profil et compétences recherchées :

Nous recherchons un candidat actuellement inscrit en Master 2 recherche ou ingénieur grandes écoles en informatique, mathématiques appliquées ou sciences des données possédant des compétences fortes en vision par ordinateur, traitement d’images, apprentissage profond et programmation (langages C++ et Python). Une expérience préalable dans l’utilisation de réseaux profonds constituerait un atout majeur. Des connaissances de base en vision par ordinateur sont, par ailleurs, plus que nécessaires. Le candidat retenu rejoindra une équipe interdisciplinaire comprenant des chercheurs français et étrangers en traitement d’image et vision par ordinateur.

Niveau de français requis:

Avancé: Vous pouvez parler la langue de manière plus complexe, spontanée et sur des sujets variés

Niveau d'anglais requis:

Intermédiaire supérieur: Vous pouvez utiliser la langue de manière efficace et vous exprimer précisément.

Références bibliographiques :

[1] MITTEK, Mateusz, PSOTA, Eric T., PÉREZ, Lance C., et al. Health monitoring of group-housed pigs using depth-enabled multiobject tracking. In : Proceedings of Int Conf Pattern Recognit, Workshop on Visual observation and analysis of Vertebrate And Insect Behavior. 2016.

[2] MATTHEWS, Stephen G., MILLER, Amy L., PLÖTZ, Thomas, et al. Automated tracking to measure behavioural changes in pigs for health and welfare monitoring. Scientific reports, 2017, vol. 7, no 1, p. 17582.

[3] ZHANG, Lei, GRAY, Helen, YE, Xujiong, et al. Automatic Individual Pig Detection and Tracking in Pig Farms. Sensors, 2019, vol. 19, no 5, p. 1188

[4] ANDREW, William, GREATWOOD, Colin, et BURGHARDT, Tilo. Visual localisation and individual identification of Holstein Friesian cattle via deep learning. In : Proceedings of the IEEE International Conference on Computer Vision. 2017. p. 2850-2859.

[5] OHAYON, Shay, AVNI, Ofer, TAYLOR, Adam L., et al. Automated multi-day tracking of marked mice for the analysis of social behaviour. Journal of neuroscience methods, 2013, vol. 219, no 1, p. 10-19.

[6] DE CHAUMONT, Fabrice, EY, Elodie, TORQUET, Nicolas, et al. Live Mouse Tracker: real-time behavioral analysis of groups of mice. BioRxiv, 2018, p. 345132.

[7] MA, Jiayi, CHEN, Chen, LI, Chang, et al. Infrared and visible image fusion via gradient transfer and total variation minimization. Information Fusion, 2016, vol. 31, p. 100-109.

[8] CHEN, Chen, JAFARI, Roozbeh, et KEHTARNAVAZ, Nasser. A survey of depth and inertial sensor fusion for human action recognition. Multimedia Tools and Applications, 2017, vol. 76, no 3, p. 4405-4425.

[9] S. Vishwakarma et A. Agrawal, « A survey on activity recognition and behavior understanding in video surveillance », The Visual Computer, vol. 29, no 10, p. 983 1009, 2013.

[10] YIN, Jiale, LIU, Lei, LI, He, et al. The infrared moving object detection and security detection related algorithms based on W4 and frame difference. Infrared Physics & Technology, 2016, vol. 77, p. 302-315.

[11] VAROL, Gül, LAPTEV, Ivan, et SCHMID, Cordelia. Long-term temporal convolutions for action recognition. IEEE transactions on pattern analysis and machine intelligence, 2018, vol. 40, no 6, p. 1510-1517. [12] JI, Shuiwang, XU, Wei, YANG, Ming, et al. 3D Convolutional Neural Networks for Human Action Recognition. In : ICML. 2010. p. 6.

[13]. Fréret S., Talbot J., Fatet A., et al. 2015. Evaluation d'un collier accéléromètre pour la détection automatisée des chaleurs indites par traitement hormonal chez des chèvres Alpines dessaisonnées et en bâtiment. Renc. Rech. Rum. 2015, 22, 207-210.

[14]. Guinamard C. Un outil d'aide au gardiennage associant un GPS et un accéléromètre, qu'en disent les éleveurs ? Renc. Rech. Rum. 2018. 24.

[15] Alhamada M., Debus N., Lurette A., Bocquier F., 2016. Validation of automated electronic oestrus detection in sheep as an alternative to visual observation. Small Ruminant Research, 134: 97 -104.

[16] Fréret S., Le Danvic C., Lurette A., et al., 2018. Gestion de la reproduction en élevages ovins et caprins, conventionnels et biologiques : état des lieux des pratiques dans six bassins de production, proposition de nouveaux outils et évaluation de leur acceptabilité (projet REPROBIO). Innovations Agronomiques 63, 243-255

 

Dans cette rubrique

(c) GdR 720 ISIS - CNRS - 2011-2020.