Vous êtes ici : Accueil » Kiosque » Annonce

Identification

Identifiant: 
Mot de passe : 

Mot de passe oublié ?
Détails d'identification oubliés ?

Annonce

16 juillet 2019

Thèse : Analyse du comportement animal à partir de vidéo


Catégorie : Doctorant


Titre : Analyse vidéo pour la détection, le suivi et la reconnaissance du comportement pour l’animal en situation d’élevage.

Encadrement : La thèse sera dirigée par Bruno Émile (IUT de l’Indre) et encadrée par Xavier Desquesnes (IUT de l’Indre) et Sylvie Treuillet (Polytech’Orléans). Tous trois sont membres de l’axe Image-Vision du laboratoire Prisme de l’université d’Orléans

Contact : Pour toute question ou déposer une candidature, merci de contacter Xavier Desquesnes : xavier.desquesnes@univ-orleans.fr

Financement : Cette thèse est financée dans le cadre du projet AniMov : projet d’intérêt régional soutenu par la Région Centre Val de Loire.

Date de commencement du contrat doctoral : Fin 2019.


Présentation du projet doctoral :

Ce projet doctoral s’inscrit dans le cadre d’un projet de recherche pluridisciplinaire mené conjointement par le laboratoire PRISME de l’université d’Orléans et l’INRA sur l’analyse et la reconnaissance automatique du comportement animal en situation d’élevage à partir de vidéo.

Éleveurs agricoles et soigneurs en parc animalier partagent un même besoin d'observations et de surveillance quant aux animaux dont ils ont la charge. Un éleveur de chèvres, par exemple, veut connaître le comportement des animaux afin de disposer d'indicateurs précis pour piloter l'alimentation et la reproduction du troupeau. Il souhaite également prévenir une situation anormale (agressivité, maladie, etc.). De même, un soigneur veut connaître le comportement des animaux dont il s'occupe, tout particulièrement la nuit lorsque l'observation directe n'est plus possible. L'observation permanente et directe des animaux 24/24 par un humain n'est évidemment pas envisageable pour des raisons de coût mais également d'altération du comportement des animaux. La présence humaine influence le comportement animal et interdit bien souvent d'observer certaines situations spécifiques.

Dans ce contexte, l'objectif du projet est de développer et mettre en œuvre un système de vision permettant d'analyser le comportement animal pour détecter les cycles d'activité et les situations anormales. Le système d'analyse automatique envisagé repose sur un ensemble de caméras placées dans l'enclos de l'animal ou le bâtiment d'élevage pour l'acquisition de vidéos. Un système de reconnaissance et de suivi des individus (pour caractériser le ou les animaux et leur comportement), ainsi qu'un système de classification et d'analyse permettant de générer des indicateurs ou alertes à destination de l'éleveur/soigneur. Un tel système permettra donc à la fois un suivi instantané et permanent des animaux (détection de situations anormales, alertes) mais également un suivi sur le long terme offrant une aide au pilotage et à la décision. La méthodologie et des outils de suivi développés dans un cadre général seront spécialisés selon les applications.

Le projet prévoit des tests en situation réelle dans le cadre de deux exploitations : la ferme expérimentale de l'INRA Bourges et le ZooParc de Beauval. Selon l'exploitation, le système permettra de :

- Reconnaître les cycles d'activité (alimentation, sommeil, agitation, etc.)

- Reconnaître un événement de reproduction : chaleurs, saillies, mise bas imminente.

- Détecter un comportement anormal pouvant suggérer une blessure ou maladie.

- Reconnaître un animal en situation de stress ou présentant un comportement agressif.

Tâches du doctorant et résultats attendus : Au sein de ce projet, le doctorant sera en charge de la partie vision et intelligence artificielle. Il aura pour tâches de :

 

- proposer une architecture matérielle pour le système de vision à partir d’une évaluation des contraintes d’acquisition propres aux bâtiments d’élevage (luminosité, poussière, surface, etc.) et aux scénarios (types d’animaux, comportement recherchés). Cette architecture comprend le choix des capteurs (caméra couleur, infrarouge, profondeur, etc.), leur positionnement, ainsi que le choix du type d’unité de calcul (embarqué ou distant). Pour cette tâche, le doctorant pourra s’appuyer sur l’état de l’art du domaine ainsi que sur l’expertise des partenaires industriels du projet.

- participer à l’acquisition de bases de tests en conditions réelles, sur différents sites et avec différentes espèces animales. Cette tâche inclus l’installation et le calibrage des capteurs caméra.

- développer et tester une chaîne de traitement pour la caractérisation des scènes et l'extraction d'indicateurs du comportement. Cette tâche, qui sera la tâche principale du doctorant, sera décomposée en trois sous-tâches correspondant aux principaux objectifs scientifiques de ce projet (détection des animaux, caractérisation des comportements et reconnaissance et analyse du comportement) et une quatrième sous-tâche consacrée à l'évaluation de la méthode proposée. Cette tâche sera réalisée à partir de la base de test, expertisée et annotées par les partenaires du projets.

- partager les résultats de ses recherches via le biais de publications scientifiques et d’opérations de vulgarisation scientifique.

 

Lieux :

Le doctorant sera basé à l’IUT de l’Indre (Châteauroux). Il sera amené à se déplacer sur les différents lieux d’expérimentation (INRA Bourges, Zoo Parc de Beauval), ainsi que dans les locaux des partenaires du projet (Tours, Bourges, Orléans, Châteauroux)

Profil et compétences recherchées :

Nous recherchons un candidat ingénieur grandes écoles ou Master 2 en informatique, mathématiques appliquées ou sciences des données possédant des compétences fortes en vision par ordinateur, traitement d’images, apprentissage profond et programmation (langages C++ et Python). Une expérience préalable dans l’utilisation de réseaux profonds constituerait un atout majeur. Des connaissances de base en vision par ordinateur sont, par ailleurs, plus que nécessaires. Le candidat retenu rejoindra une équipe interdisciplinaire comprenant des chercheurs français et étrangers en traitement d’image et vision par ordinateur.

Niveau de français requis: Avancé: Vous pouvez parler la langue de manière plus complexe, spontanée et sur des sujets varié

Niveau d'anglais requis:Intermédiaire supérieur: Vous pouvez utiliser la langue de manière efficace et vous exprimer précisément.

 

Références bibliographiques :

[1] MITTEK, Mateusz, PSOTA, Eric T., PÉREZ, Lance C., et al. Health monitoring of group-housed pigs using depth-enabled multiobject tracking. In : Proceedings of Int Conf Pattern Recognit, Workshop on Visual observation and analysis of Vertebrate And Insect Behavior. 2016.

[2] MATTHEWS, Stephen G., MILLER, Amy L., PLÖTZ, Thomas, et al. Automated tracking to measure behavioural changes in pigs for health and welfare monitoring. Scientific reports, 2017, vol. 7, no 1, p. 17582.

[3] ZHANG, Lei, GRAY, Helen, YE, Xujiong, et al. Automatic Individual Pig Detection and Tracking in Pig Farms. Sensors, 2019, vol. 19, no 5, p. 1188

[4] ANDREW, William, GREATWOOD, Colin, et BURGHARDT, Tilo. Visual localisation and individual identification of Holstein Friesian cattle via deep learning. In : Proceedings of the IEEE International Conference on Computer Vision. 2017. p. 2850-2859.

[5] OHAYON, Shay, AVNI, Ofer, TAYLOR, Adam L., et al. Automated multi-day tracking of marked mice for the analysis of social behaviour. Journal of neuroscience methods, 2013, vol. 219, no 1, p. 10-19.

[6] DE CHAUMONT, Fabrice, EY, Elodie, TORQUET, Nicolas, et al. Live Mouse Tracker: real-time behavioral analysis of groups of mice. BioRxiv, 2018, p. 345132.

[7] MA, Jiayi, CHEN, Chen, LI, Chang, et al. Infrared and visible image fusion via gradient transfer and total variation minimization. Information Fusion, 2016, vol. 31, p. 100-109.

[8] CHEN, Chen, JAFARI, Roozbeh, et KEHTARNAVAZ, Nasser. A survey of depth and inertial sensor fusion for human action recognition. Multimedia Tools and Applications, 2017, vol. 76, no 3, p. 4405-4425.

[9] S. Vishwakarma et A. Agrawal, « A survey on activity recognition and behavior understanding in video surveillance », The Visual Computer, vol. 29, no 10, p. 983 1009, 2013.

[10] YIN, Jiale, LIU, Lei, LI, He, et al. The infrared moving object detection and security detection related algorithms based on W4 and frame difference. Infrared Physics & Technology, 2016, vol. 77, p. 302-315.

[11] VAROL, Gül, LAPTEV, Ivan, et SCHMID, Cordelia. Long-term temporal convolutions for action recognition. IEEE transactions on pattern analysis and machine intelligence, 2018, vol. 40, no 6, p. 1510-1517. [12] JI, Shuiwang, XU, Wei, YANG, Ming, et al. 3D Convolutional Neural Networks for Human Action Recognition. In : ICML. 2010. p. 6.

[13]. Fréret S., Talbot J., Fatet A., et al. 2015. Evaluation d'un collier accéléromètre pour la détection automatisée des chaleurs indites par traitement hormonal chez des chèvres Alpines dessaisonnées et en bâtiment. Renc. Rech. Rum. 2015, 22, 207-210.

[14]. Guinamard C. Un outil d'aide au gardiennage associant un GPS et un accéléromètre, qu'en disent les éleveurs ? Renc. Rech. Rum. 2018. 24.

[15] Alhamada M., Debus N., Lurette A., Bocquier F., 2016. Validation of automated electronic oestrus detection in sheep as an alternative to visual observation. Small Ruminant Research, 134: 97 -104.

[16] Fréret S., Le Danvic C., Lurette A., et al., 2018. Gestion de la reproduction en élevages ovins et caprins, conventionnels et biologiques : état des lieux des pratiques dans six bassins de production, proposition de nouveaux outils et évaluation de leur acceptabilité (projet REPROBIO). Innovations Agronomiques 63, 243-255

 

Dans cette rubrique

(c) GdR 720 ISIS - CNRS - 2011-2019.