Vous êtes ici : Accueil » Kiosque » Annonce

Identification

Identifiant: 
Mot de passe : 

Mot de passe oublié ?
Détails d'identification oubliés ?

Annonce

11 décembre 2018

UrbaRiskLab : Analyse automatisée des vitesses d’écoulements d’eau à partir de vidéos amateurs lors de crues majeures


Catégorie : Stagiaire


UrbaRiskLab : Analyse automatisée des vitesses d’écoulements d’eau à partir de vidéos amateurs lors de crues majeures

Les images des rivières en crues, filmées par des amateurs, sont désormais courantes. La systématisation de leur interprétation donnerait accès à une nouvelle source d’information précieuse qui enrichirait grandement les connaissances encore très parcellaires sur les écoulements en rivières lors des crues exceptionnelles : vitesses et répartition des écoulements permettant de calibrer de modèles numériques hydrauliques, estimations de débits permettant de documenter et de cartographier l’aléa des crues.

Ce stage de Master vise à tester des premières approches visant à exploiter les informations contenues dans les images afin de déterminer l’échelle et l’angle de prise de vue des images de manière automatique, sans avoir à se rendre sur le terrain. Si la technique de traitement automatisée des films amateurs s’avérait fructueuse, elle permettrait aussi le développement de la science participative dans le domaine des crues. Il serait possible par exemple d’imaginer à terme le développement d’applications pour les smartphones pour le traitement en temps réel des prises de vue.

Durée : jusqu'à 6 mois

Gratification habituelle : ~550€/mois

Ce stage de Master est susceptible de déboucher sur une thèse de doctorat.

Responsable(s) du stage et contact

Eva Dokladalova (eva.dokladalova@esiee.fr)
Eric GAUME (eric.gaume@ifsttar.fr)

Equipes de recherche ou laboratoire concernés

ESIEE, Laboratoire d’informatique Gaspar Monge
IFSTTAR, département géotechnique, environnement, risques naturels et sciences de la Terre

 

UrbaRiskLab : proposition de sujet de stage M2

Analyse automatisée des vitesses d’écoulements
d’eau à partir de vidéos amateurs lors de crues majeures

Contexte :

L’évaluation des vitesses d’écoulement dans les rivières lors des crues à partir de vidéos grâce à la méthode dite de LSPIV (Large scale particle image velocimetry) s’est développée depuis une quinzaine d’années et les travaux précurseurs de Creutin et al. [4]. Cette technique sans contact et peu couteuse permet d’envisager de réaliser des estimations de débits relativement fiables dans des rivières en crues, notamment lorsque d’autres techniques de mesures ne peuvent pas être mises en œuvre. Quelques applications ont démontré de plus, que la technique LSPIV pouvait être utilisée pour estimer des débits à partir d’images prises par des amateurs lors de crues exceptionnelles sur des sites non instrumentés. Des algorithmes dédiés au traitement des vidéos pour évaluer des vitesses de surfaces ont été proposés et certains sont diffusés librement : Fudaa LSPIV [3] ou RIVeR [7]). Le traitement des vidéos nécessite cependant de connaître l’échelle et le point de vue des images afin de redresser les prises de vue. Il est pour cela nécessaire de géo-référencer un certain nombre de points de repère – au moins 4, à partir de mesures réalisées sur site. Cette étape, aujourd’hui indispensable, contraint fortement l’application de la technique de LSPIV, et le nombre de cas d’application documentés reste aujourd’hui limité.

 

Les images rivières en crues, filmées par des amateurs sont désormais courantes. La systématisation de leur interprétation donnerait accès à une nouvelle source d’information précieuse qui enrichirait grandement les connaissances encore très parcellaires sur les écoulements en rivières lors des crues exceptionnelles : vitesses et répartition des écoulements permettant de calibrer de modèles numériques hydrauliques, estimations de débits permettant de documenter et de cartographier l’aléa des crues. Si la technique de traitement automatisée des films amateurs s’avérait fructueuse, elle permettrait aussi le développement de la science participative dans le domaine des crues. Il serait possible par exemple d’imaginer à terme le développement d’applications pour les smartphones pour le traitement en temps réel des prises de vue.

Le stage de Master vise à tester des premières approches visant à exploiter les informations contenues dans les images afin de déterminer l’échelle et l’angle de prise de vue des images de manière automatique, sans avoir à se rendre sur le terrain.

Objectifs du stage :

Deux approches seront testées durant le stage :

1.Utilisation des techniques d’intelligence artificielle pour la reconnaissance d’objets (voitures, piétons, portes, fenêtres, garde-corps) dont la taille est connue au moins de manière approchées. Des algorithmes de reconnaissance automatique d’objets sont aujourd’hui disponibles et relativement fiables [8]. Une fois les objets identifiés, il s’agira dans le stage de proposer des approches permettant d’exploiter ces objets et leurs dimensions de référence (échelle, angle de rotation) pour évaluer leur distance par rapport à la caméra et éventuellement l’angle de prise de vue [5, 6].

2.Choix et exploitation des techniques permettant d’extraire des informations tridimensionnelles à partir des mouvements de la caméra [1,2, 10].

Les deux approches seront testées sur des séquences de prises de vues connues et documentées. es traitements proposés devront intégrer l’évaluation des incertitudes dans la reconstitution de l’échelle et de l’angle de prise de vue des images et donc dans le redressement des images et l’évaluation des champs de vitesse d’écoulement de l’eau.

Organisation de travail :

1.Étude de l’état de l’art, analyse des besoins des techniques LSPIV

2.Définition des objets-références, identification de la méthode appropriée de leur détection dans des séquences vidéo des crues choisies

3.Compléter l’étape 2 par une approche par estimation de profondeur/distance de la caméra pour préciser des estimations tridimensionnelles

4.Évaluer l’approche finale retenue, créer des vidéos de démonstration

5.Écrire un rapport technique

Références :

1. Benjamin Ummenhofer, Huizhong Zhou, Jonas Uhrig, Nikolaus Mayer, Eddy Ilg, Alexey Dosovitskiy, Thomas Brox: DeMoN: Depth and Motion Network for Learning Monocular, Journal CoRR, 2016
2. Clément Pinard, Laure Chevalley, Antoine Manzanera, David Filliat End-to-end depth from motion with stabilized monocular videos, SPRS Annals of the Photogrammetry, Remote Sensing and Spatial Information Sciences, Volume IV-2/W3, 2017 International Conference on Unmanned Aerial Vehicles in Geomatics, 4-7 September 2017, Bonn, Germany
3. Dramais G. et al., 2011. Advantages of a mobile LSPIV method for measuring flood discharges and improving stage-discharge curves. Journal of Hydro-environment research. doi:10.1016/j.jher.2010.12.005
4. Creutin et al., 2003. River gauging using PIV techniques: a proof of concept experiment on the Iowa River. Journal of hydrology. doi:10.1016/S0022-1694(03)00081-7
5. Hautiére et al 2006. Automatic fog detection and estimation of visibility distance through use of an onboard camera: Machine Vision and Applications 2006 17: https://doi.org/10.1007/s00138-005-0011-1
6. Momeni-K., Mahdi et al. 2012. Height Estimation from a Single Camera View. VISAPP 2012.
7. Patalano Aet al., 2017. Rectification of Image Velocity Results (RIVeR): A simple and user-friendly toolbox for large scale water surface Particle Image Velocimetry (PIV) and Particle Tracking Velocimetry (PTV). Computers and Geosciences. doi :10.1016/j.cageo.2017.07.009
8. Redmon et al. 2016. You Only Look Once: Unified, Real-Time Object Detection : The IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2016, pp. 779-788
9. Tauro et al., 2017. Streamflow Observations From Cameras: Large-Scale Particle Image Velocimetry or Particle Tracking Velocimetry? Water Resources Research. doi :10.1002/2017WR020848
10. Ventura J. et al. 2014, Global Localization from Monocular SLAM on a Mobile Phone; in IEEE Transactions on Visualization and Computer Graphics, vol. 20, no. 4, pp. 531-539, April 2014.

Durée : jusqu'à 6 mois

Gratification habituelle : ~550 €/mois

Ce stage de Master est susceptible de déboucher sur une thèse de doctorat.

Responsable(s) du stage et contacts

Eva Dokladalova (eva.dokladalova@esiee.fr)
Eric GAUME (eric.gaume@ifsttar.fr)

Equipes de recherche impliqués :

Laboratoire d'Informatique Gaspard-Monge UMR 8049. Cité Descartes, Bâtiment Copernic - 5, bd Descartes Champs sur Marne 77454 Marne-la-Vallée Cedex
IFSTTAR, département géotechnique, environnement, risques naturels et sciences de la Terre, 4-20 Boulevard Newton, 77420 Champs-sur-Marne

Ce stage de Master est susceptible de déboucher sur une thèse de doctorat.

Dans cette rubrique

(c) GdR 720 ISIS - CNRS - 2011-2018.