Annonce

Les commentaires sont clos.

Stage master 2 : Détection d'objets few-shot par visual transformers sur des images Aériennes

5 Janvier 2023


Catégorie : Stagiaire


Profil du candidat(e) :

Vous êtes issu(e) d'une formation (Master 2) en sciences de données (traitement du signal des images, informatique avec une dominante en intelligence artificielle/apprentissage/machine learning, mathématiques appliquées) et vous êtes à l’aise en développement informatique (Python/ framework Pytorch, Tensorflow). Vous maitrisez le traitement d’images et les techniques d’intelligence artificielle (Deep learning …). Vous êtes à l'aise en Anglais aussi bien à l'écrit qu'à l'oral. Vous êtes motivé (e) et curieux (se) de nature, dans ce cas venez participer à la création du LabCom IRISER.

Durée du stage : 5 mois

Date de début prévue : 01/03/2023

Date limite de dépôt : 1/02/2023

Contact : Anissa MOKRAOUI (L2TI), Pierre LE JEUNE (L2TI, COSE)

Courriel : labcom.iriser@univ-paris13.fr

Dossier de candidature : CV, lettre de motivation, relevés de notes, au moins une lettre de recommandation (merci d’indiquer la référence d’offre de stage dans le sujet de votre courriel).

 

Ce stage s’inscrit dans le cadre du LabCom IRISER, Laboratoire Commun en « Intelligence, ReconnaIssance, SurveillancE Réactive » (https://www-l2ti.univ-paris13.fr/iriser/) financé par l’ANR. Le LabCom IRISER vise à proposer, à maîtriser de bout en bout le comportement et les performances des systèmes intelligents voire embarqués destinés à la vision artificielle pour l’analyse rapide et automatisée des images/vidéos (de très grandes tailles, multispectrales géoréférencées de hautes résolutions) capturées à bord des aéronefs de COSE en s’appuyant sur des stratégies de traitement de l’information visuelle et d’apprentissage automatique. Nous souhaitons recruter un stagiaire de master en recherche et développement en vision par ordinateur sur une durée de 5 mois.

Description succincte du projet scientifique

La détection d’objets dans des images est une tâche difficile, mais réalisable avec des techniques basées sur le deep learning [1]. À condition de disposer d’une base de donnée suffisamment grande et annotée, des performances satisfaisantes peuvent être atteinte. Lorsque cela n’est pas le cas, il devient alors très difficile d’automatiser la détection. Les Transformers ont révolutionné le traitement du langage [2] et sont en passe de révolutionner le traitement d'image [3]. Récemment, des méthodes de détection se sont basées dessus et ont atteint des performances compétitives [4]. L'objectif premier du stage sera de se familiariser avec ces méthodes et de les évaluer sur des images aériennes. Dans un deuxième temps, le stage se portera sur l'amélioration de ces méthodes pour la détection de petits objets. Cela passera par l'adoption de fonctions de coût plus adaptées [5], mais aussi par des modifications d'architecture et de stratégie d'entraînement.

Mots clefs :

Détection d’objets, Few-shot learning, Transformers, Deep learning.

References

[1]Shaoqing Ren, Kaiming He, Ross Girshick, and Jian Sun. Faster r-cnn: Towards real-time object detection with region proposal networks. Advances in neural information processing systems, 28:91-99, 2015.

[2]Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is all you need. In Advances in neural information processing systems, pages 5998-6008, 2017.

[3]Alexey Dosovitskiy, Lucas Beyer, Alexander Kolesnikov, Dirk Weissenborn, Xiaohua Zhai, Thomas Unterthiner, Mostafa Dehghani, Matthias Minderer, Georg Heigold, Sylvain Gelly, et al. An image is worth 16x16 words: Transformers for image recognition at scale. arXiv preprint arXiv:2010.11929, 2020.

[4]Nicolas Carion, Francisco Massa, Gabriel Synnaeve, Nicolas Usunier, Alexander Kirillov, and Sergey Zagoruyko. End-to-end object detection with transformers. In European Conf.on Computer Vision, pages 213-229. Springer, 2020.

[5]Gongjie Zhang, Zhipeng Luo, Kaiwen Cui, and Shijian Lu. Meta-detr: Few-shot object detection via unified image-level meta-learning. arXiv preprint arXiv:2103.11731, 2021.