Annonce

Les commentaires sont clos.

Nouvelles méthodes de fusion spectro-spatio-temporelle d’images Sentinel-2 et Sentinel-3

21 Novembre 2021


Catégorie : Stagiaire


Nous proposons un stage de Master 2 ou PFE de 6 mois dans le domaine du traitement de séries temporelles d'images satellitaires.

 

Contexte :

Ce stage s'inscrit dans le cadre des activités conjointes des laboratoires LISIC (EA 4491, Calais) - plus particulièrement les activités de l'équipe SPeciFI dans l'antenne de Saint-Omer du LISIC - et LOG (UMR 8187, Wimereux) - plus particulièrement les activités de l'équipe TELHYD du LOG - autour de l'imagerie satellitaire pour l'observation marine côtière, dans le cadre de la Structure Fédérative de Recherche "Campus de la Mer" et du projet TOSCA OSYNICO financé par le CNES. En particulier, dans le cadre de ces projets initiés en 2020, le LISIC développe des méthodes à la frontière entre traitement du signal et des images et intelligence artificielle appliquées aux données satellitaires (images multi- ou hyper-spectrales). Le LOG s'intéresse à l’analyse théorique et l’observation de processus physiques afin de comprendre et prévoir leurs impacts sur l’environnement marin, d’un point de vue de la biologie ou de la biogéochimie.

Description du sujet :

L’observation satellitaire de notre planète connaît depuis plusieurs décennies d'importantes avancées instrumentales, avec des développements conséquents que ce soit en terme de résolution spatiale (par exemple en télédétection de la couleur de l’eau à haute résolution spatiale 10-60 m) et en terme de résolution spectrale (imagerie hyper-spectrale). Une image Multi-Spectrale (MS) ou Hyper-Spectrale (HS) consiste en un cube de données dont deux axes décrivent les variations spatiales et un axe décrit les variations spectrales. La principale différence entre une image HS et une image MS réside dans le nombre très réduit de bandes spectrales observées dans cette dernière. L'ajout de bandes spectrales dans une image HS se fait au détriment de sa résolution spatiale, qui est plus faible. Ainsi, aujourd'hui, notre planète est observée à la fois par des imageurs MS ayant une très bonne résolution spatiale mais une faible résolution spectrale et par des imageurs HS ayant une très bonne résolution spectrale mais une faible résolution spatiale (et un ensemble d'imageurs aux propriétés intermédiaires).

La fusion d'images satellitaires MS et HS permet d'améliorer les résolutions spectrale, spatiale voire temporelle de ces images d'origine. De nouvelles techniques de fusion d’images émergent constamment, faisant passer de pan-sharpening (fusion d’images panchromatiques et multi-spectrales) à la fusion spectro-spatio-temporelle de données provenant de différents capteurs et plates-formes. Cependant, l'application de la fusion d'images satellitaires dans le domaine de l'observation %de l’océan et de la mer (
des environnements marins et des zones côtières % )
reste encore limitée. Le nombre et la complexité des différentes techniques disponibles aujourd'hui peuvent être accablants, empêchant ainsi les utilisateurs d'exploiter pleinement le potentiel des produits de fusion spectro-spatio-temporelle des images tels que la fusion des images provenant de Sentinel-3 et Sentinel-2. Ainsi, plusieurs techniques de fusion de données (aussi connues sous le nom de multi-sharpening) ont été proposées ces dernières années pour créer de nouvelles images combinant la bonne résolution spatiale des image MS avec la bonne résolution spectrale des images HS [1].

Dans le cadre de ce stage, nous nous intéressons à l'observation marine côtière via les données des satellites Sentinel-2 et Sentinel-3. Les images obtenues par ces deux satellites permettent d'étudier la couleur de l'océan, c'est-à-dire la répartition spatiale et temporelle de la concentration en phytoplancton, en matière en suspension et en matière organique. Les données Sentinel-2 consistent en des cubes avec 13 bandes spectrales pour une résolution spatiale variant de 10 à 60~m en fonction des bandes, acquises tous les 5 jours environ. Les données Sentinel-3 sont des cubes avec 21 bandes spectrales pour une résolution spatiale de 300~m, acquises tous les jours. En observation marine, pour comprendre les phénomènes complexes qui se passent en milieu côtier, il est nécessaire que les données à disposition combinent :

  • une bonne résolution spectrale pour mieux analyser le milieu biogéochimique (chlorophylle, particules en suspension, etc) ;
  • une bonne résolution spatiale pour mieux appréhender les phénomènes de répartition de ce milieu qui sont beaucoup plus complexes en milieu côtier qu'en pleine mer ;
  • une courte période d'acquisition de ces images pour repérer des phénomènes très concentrés dans le temps (blooms de phytoplanctons par exemple).

Aucune donnée satellitaire ne permet aujourd'hui de respecter ces trois contraintes.

Dans le cadre de ce stage, nous proposons de traiter conjointement les séries temporelles de données Sentinel-2 et Sentinel-3, afin de générer une nouvelle série temporelle de cubes de données obtenues par multi-sharpening, permettant d'obtenir des images avec la résolution temporelle de Sentinel-3 (une image par jour), le nombre de bandes spectrales de Sentinel-3 et la résolution spatiale de Sentinel-2. Cela permettra de mieux caractériser la couleur des eaux côtières. Les méthodes envisagées feront appel à un formalise de type apprentissage profond et étendront les derniers travaux de l'équipe à ce sujet [2-4]. Les approches seront validées par des comparaisons avec des données in situ et sur des scénarios spécifiques, co-construits avec les partenaires du LOG.

Le stage pourra être poursuivi par la préparation d'une thèse dans le domaine de la factorisation matricielle et/ou de l'apprentissage profond (sous réserve d'obtention d'un financement : ce point sera défini durant le stage).

Mots clés :

Imagerie multi- et hyper-spectrale, multi-sharpening, réseaux de neurones profonds, séries temporelles

Encadrement :

Le stage aura lieu dans la nouvelle antenne de Longuenesse du LISIC, dédiée actuellement à l'imagerie hyperspectrale. Cette antenne, créée récemment, compte à ce jour 5 chercheurs permanents, 1 chercheur post-doctorant et 4 doctorants. Le stagaire sera encadré par Ahed Alboody, Mattthieu Puigt et Gilles Roussel qui apporteront leur expertise respective en traitement des images MS/HS et en machine learning (deep learning, factorisation matricielle, optimisation) pour l'imagerie satellitaire.

De nombreux échanges auront lieu avec le LOG, situé à Wimereux (et plus particulièrement avec Cédric Jamet et Vincent Vantrepotte). Le LOG apportera ses compétences sur la couleur de l'océan, notamment sur l'analyse des images fusionnées et leur validation. Le LOG fournira les mesures in-situ de validation et des images dans des zones côtières d'intérêt (Manche orientale, Guyane, Cambodge, Vietnam).

Ces deux laboratoires sont situés au coeur du Parc naturel régional des caps et marais d'Opale, à proximité directe de Lille, de l'Angleterre, de la Belgique et de l'Europe du Nord (Amsterdam à 4h de route de Longuenesse).

Candidater :

Issu(e) d'une filière scientifique en sciences de données (traitement du signal et des images, informatique avec une dominante en intelligence artificielle/apprentissage/machine learning, mathématiques appliquées), vous êtes curieux(se) et très à l'aise en programmation (Matlab, Python, Tensorflow). Vous lisez et parlez avec aisance l'anglais courant. Bien que non-obligatoire, une première expérience en factorisation de données (matrices ou tenseurs, séparation de sources, apprentissage de dictionnaire) ou en deep learning sera appréciée.

Pour candidater, merci d'envoyer un courriel à (ahed.alboody, matthieu.puigt, gilles.roussel) [at] univ-littoral.fr en y annexant les documents pouvant supporter votre candidature :

  • votre CV,
  • une lettre de motivation,
  • vos relevés de notes de Licence 3, Master 1, Master 2 (si ces dernières sont disponibles) ou d'Ecole d'Ingénieurs (première à troisième année),
  • deux lettres de recommandation ou les noms et moyens de contact de deux référents académiques.

Références :

[1] Laetitia Loncan, Luis B De Almeida, José M Bioucas-Dias, Xavier Briottet, Jocelyn Chanussot, Nicolas Dobigeon, Sophie Fabre, Wenzhi Liao, Giorgio A Licciardi, Miguel Simoes, et al. Hyperspectral pansharpening :A review. IEEE Geoscience and remote sensing magazine, 3(3) :27–46, 2015.

[2] Ahed Alboody, Matthieu Puigt, Gilles Roussel, Vincent Vantrepotte, C ́edric Jamet, and Trung Kien Tran.Experimental comparison of multi-sharpening methods applied to Sentinel-2 MSI and Sentinel-3 OLCI images. In Proc. IEEE WHISPERS’21, 2021.

[3] Cheick Tidiani Cissé, Ahed Alboody, Matthieu Puigt, Gilles Roussel, Vincent Vantrepotte, Cédric Jamet, and Trung Kien Tran. A new deep learning method for multispectral image time series completion using hyperspectral data. submitted.

[4] Ahed Alboody, Matthieu Puigt, Gilles Roussel, Vincent Vantrepotte, Cédric Jamet, and Trung Kien Tran. Multi-scale deep learning model for spatio-spectral fusion of hyperspectral and multi-spectral remote sensing images. submitted