Vous êtes ici : Accueil » Kiosque » Annonce

Identification

Identifiant: 
Mot de passe : 

Mot de passe oublié ?
Détails d'identification oubliés ?

Annonce

11 janvier 2017

Stage M2/ingénieur : Segmentation semi-automatique des séquences vidéo 3D pour réalité augmentée


Catégorie : Stagiaire


Grâce aux avancées technologiques dans le domaine des capteurs d'image, accompagnés de développement d'une puissance de calcul des nouveaux processeurs, les applications 3D se démocratisent, y compris dans les appareils mobiles et embarqués. Les dispositifs classiques de vision reposent sur une approche par stéréo-vision ou vision active, cependant de nouveau systèmes émergent visant la réduction de consommation énergétique, portabilité du système et facilité d'utilisation. Ces derniers systèmes peuvent être représentés par les caméra 3D à 1 œil (www.cyclopus.net) qui en plus cherche à améliorer la robustesse de fonctionnement à la fois à l'intérieur et à l'extérieur (conditions de luminosité varient).

Dans ce contexte, le stage proposé consiste en recherche et développement des algorithmes de segmentation des séquences vidéo 3D acquises par ce nouveau dispositif. Les applications sont liées au domaine de réalité augmentée où la qualité de segmentation est critique pour rendre la perception des séquences naturelle et sans artefacts. Lors du stage, une attention particulière doit être apportée à une précision de détection des contours d’objets segmentés. Ainsi les comparaisons d'efficacité du filtrage temporel/spatial des séquences vidéo devraient être réalisées. Le stage devrait également aboutir à une première proposition d'une approche pour l'automatisation du paramétrage des algorithmes de filtrage et de segmentation pour minimiser l'interaction possible avec l'utilisateur.

Lors du stage, les différentes étapes seront réalisées :

  • études bibliographiques et veille technologiques des techniques existantes de traitement images/vidéo sur le sujet de segmentation et filtrage temporel/spatial
  • analyse comparative de ces techniques
  • création des nouveaux algorithmes, amélioration et optimisation des algorithmes existantes pour augmenter leur performance
  • automatisation du paramétrage, tests exhaustifs sur les données réelles de la camera, etc.

Il est prévu de réaliser des applications de démonstration des différents cas d’usages du prototype fonctionnel. En cas de résultats intéressants et en fonction de leur qualité, il est possible d'envisager une communication sur des exposition (e.g., Laval Virtual, Augmented Wrols Expo), dépôt de brevet et/ou une publication.

Lieu de travail : Ile-de-France
Spécialité : Vision par ordinateur / 3D / Réalité Augmentée / Réalité Virtuelle
Durée du stage : de 4 à 6 mois
Début de stage : janvier-avril 2017

Profil de candidat :

Envoyez des candidatures à :

stages@cyclopus.net

et Eva Dokladalova (e.dokladalova@esiee.fr), Thierry Grandpierre (t.grandpierre@esiee.fr)

ESIEE Paris, Laboratoire d'Informatique Gaspard-Monge, UMR 8049

Cité Descartes, Bâtiment Copernic - 5, bd Descartes
Champs sur Marne 77454 Marne-la-Vallée Cedex 2

 

Dans cette rubrique

(c) GdR 720 ISIS - CNRS - 2011-2015.