Annonce

Les commentaires sont clos.

Couplage des approches sémantiques et spatiales pour la détection d'objets saillants dans les images aériennes : application à la navigation autonome sans GNSS

16 December 2022


Catégorie : Stagiaire


Institut de Recherche de l’Ecole Navale (IRENav – EA 3634)

 

Profil du candidat

Bac+5 - Master 2 ou école d’ingénieur.

 

Période – durée du stage

03/2023à 09/2023 (6 mois) – possibilité de s’adapter à la date du stage de l’étudiant.

 

Salaire

Environ 600€/mois.

 

Compétences souhaitées (une ou plusieurs parmi la liste)

Intelligence artificielle, représentation des connaissances, planification automatique, logiques, traitement d’image.

 

Perspectives

Possibilités de poursuite en thèse en septembre 2023 (financement acquis de l’Agence de l’Innovation de Défense (AID)).

 

Avantages

-Trajets par bateau gratuits de Brest à Lanvéoc (Finistère) ;

-Subvention pour les déjeuners (prix du repas d’environ 2€).

 

Contexte

Le contexte du projet dans lequel s’inscrit le stage est de proposer une alternative de positionnement opérationnel d’un drone à partir d’images vidéo. Cette approche sera fondée sur l’embarquement de connaissances (environnementales, planification de mission) qui permettront d’évaluer les erreurs de positionnement du drone et de décider en temps réel du déroulement de la mission pour adapter la trajectoire de navigation en fonction des informations provenant essentiellement de l’analyse des images capturées par le drone, en plus des données des capteurs (altimètre, IMU, etc.), des conditions météorologiques, etc.

 

Problématique

Le projet dans lequel s’inscrit le stage a pour objectif de développer une preuve de concept de navigation par corrélation de terrain utilisant l’imagerie dans le domaine visible [1,2], en l’absence de GNSS ou de perturbation GNSS et cela grâce aux techniques de vision par ordinateur et d’intelligence artificielle (IA). L’IA sera utilisée pour la représentation sémantique de l’environnement et de la mission, ainsi que pour le traitement des images acquises par le drone à des fins d’identification des objets nécessaires au positionnement opérationnel du drone. Le postulat de base consiste à asservir la trajectoire de navigation « réelle » réalisée par le drone pendant la mission à la trajectoire de navigation « planifiée » lors de la phase de préparation de mission. L’approche proposée sera la plus générique possible afin de transposer la technologie proposée en navigation aérienne à la navigation terrestre ou maritime.

 

Travail demandé

Selon du profil et les compétences du candidat (orientés « représentation des connaissances » (1) ou « traitement d’image » (2)), les résultats attendus de ce stage seront, soit :

1.La conception de deux modèles sémantiques, l’un nécessaire pour le suivi de trajectoire, l’autre pour la gestion de la mission offrant au système des capacités de raisonnement à partir des faits/instances. Les instances seront d’une part celles issues de la préparation de mission, identifiées comme saillantes (objets ou structures saillants) dans la planification et embarquées dans le drone [3,4], et d’autre part celles extraites par traitements d’images puis comparées à celles embarquées.

2.La mise en œuvre d’une méthode d’identification d’objets remarquables dans les images par une approche fondée soit sur les points caractéristiques d’une image (voir algorithmes SIFT, SURF, etc.) [5], soit sur un réseau de neurones convolutif. D’une part, cette méthode pourra être associée aux bases de connaissances précédemment définies puis évaluer en termes d’efficacité et de robustesse. D’autre part, cette méthode pourra être intégrée à un prototype de simulation de comportement de vols des drones basé sur ROS (Robot Operating System).

 

Environnement de travail et encadrement

Le stage s’effectuera dans les locaux de l’Ecole navale (Lanvéoc, Finistère) au sein de l’équipe MoTIM (Modélisation et de Traitement de l’Information Maritime). L’encadrement sera assuré par :

- Marisel OLIVARES-AMARO, marisnel.olivares@ecole-navale.fr ;

- Eric SAUX, eric.saux@ecole-navale.fr ;

- Jean-Jacques SZKOLNIK, jj.szkolnik@ecole-navale.fr ;

- José-Luis VILCHIS-MEDINA, jl.vilchis_medina@ecole-navale.fr .

 

Bibliographie

[1] G. Balamurugan, J. Valarmathi and V. P. S. Naidu, Survey on UAV navigation in GPS denied environments, 2016 International Conference on Signal Processing, Communication, Power and Embedded System (SCOPES), 2016, pp. 198-204, doi: 10.1109/SCOPES.2016.7955787.

[2] Chen C, Tian Y, Lin L, Chen S, Li H, Wang Y, Su K. Obtaining World Coordinate Information of UAV in GNSS Denied Environments. Sensors (Basel). 2020 Apr 15;20(8):2241. doi: 10.3390/s20082241.

[3] Gayathri, R., and V. Uma. Ontology based knowledge representation technique, domain modeling languages and planners for robotic path planning: A survey, ICT Express, Volume 4, Issue 2, June 2018, Pages 69-74.

[4] Li X, Bilbao S, Martín-Wanton T, Bastos J, Rodriguez J. SWARMs Ontology: A Common Information Model for the Cooperation of Underwater Robots. Sensors (Basel). 2017 Mar 11;17(3):569. doi: 10.3390/s17030569.

[5]Mistry, Darshana & Banerjee, Asim. (2017). Comparison of Feature Detection and Matching Approaches: SIFT and SURF. GRD Journals- Global Research and Development Journal for Engineering. 2. 7-13.