Vous êtes ici : Accueil » Kiosque » Annonce

Identification

Identifiant: 
Mot de passe : 

Mot de passe oublié ?
Détails d'identification oubliés ?

Annonce

29 avril 2020

Réseaux de neurones convolutionnels intervallistes -- représentation et apprentissage. Application à l'apprentissage de manipulation dextre par une main robotique.


Catégorie : Doctorant


Le candidat recruté devra avoir des compétences dans les domaines suivant :
- traitement du signal et des images
- mathématiques et statistiques
- informatique
- apprentissage
- notion de robotique
 
The recruited candidate should have skills in the following areas:
- signal and image processing
- mathematics and statistics
- computer science
- automatic learning
- notion of robotics
 

Présentation du problème

 

Depuis une dizaine d'années, l'intérêt de la communauté robotique pour les réseaux de neurones convolutionnels (CNN) ne cesse de croître du à leur extraordinaire capacité d'apprentissage automatique. Ces réseaux de neurones se démarquent de leurs ancêtres des années 90' par leur grand nombre de paramètres (des milliers et parfois même des millions) qui leur donnent beaucoup de liberté et leur permettent de s'adapter à une variété d'ensembles de données complexes. Ce changement d'échelle a été rendu possible par l'accroissement exponentiel des capacités de calcul et la sophistication des cartes graphiques GPU.

 

Cependant, ce grand avantage devient une faiblesse potentielle. Le manque de contrôle sur le processus d'apprentissage peut conduire à un sur-apprentissage : le réseau de neurones est alors si étroitement adapté à l'ensemble d'entraînement qu'il lui est difficile de généraliser c'est à dire de faire des prédictions correctes à partir de nouvelles données. Ce problème est classique dans les systèmes d'apprentissage automatique mais il est plus simple à contourner lorsque le nombre de paramètres à ajuster est réduit. Pour les CNN, comprendre les origines de ce problème et trouver des moyens de l'empêcher de se produire est donc essentiel.

 

La méthode actuellement utilisée pour réduire ce phénomène consiste à faire du ``dropout'' (littéralement du décrochage) qui consiste à perturber le réseau pendant la phase d'apprentissage en déconnectant aléatoirement certains neurones soit pendant la phase de propagation avant, soit pendant la phase de propagation arrière.

Cette méthode force les neurones à ne pas être trop interdépendants.

Une autre façon de réduire le sur-apprentissage consiste à imposer une régularité au réseau (on dit ``régulariser''). La régularisation s'ajoute à la phase d'apprentissage pour pénaliser des représentations trop complexes.

 

Proposition de thèse

 

Ce que nous proposons dans ce travail de thèse, c'est d'explorer une voie en rupture complète avec les méthodes traditionnelles.

 

Une des causes potentielles du sur-apprentissage vient de la façon dont les paramètres du réseau sont représentés.

On peut considérer l'apprentissage comme la résolution itérative d'un problème inverse, c'est à dire l'ajustement d'un grand nombre de paramètres sur la base de couple entrée-sortie. X étant les entrées et Y les sorties du réseau, on cherche à ajuster les paramètres P du réseau tels que Y soit le plus proche possible de ƒ(X,P), ƒ étant la fonction "réseau".

En déconvolution, qui est un autre problème inverse, ce sur-apprentissage porte le nom de phénomène de Gibbs et apparait aux points de discontinuité du signal à reconstruire par déconvolution. Nous avons pu constater une très forte réduction de ce phénomène lorsque la déconvolution est réalisée alors que le signal à reconstruire est représenté de façon intervalliste [1]

 

Il serait donc interessant d'explorer cette voie pour les systèmes à apprentissage tels que les réseaux de neurones convolutionnels.

Cette recherche est particulièrement cohérente avec des travaux précédents de l'équipe encadrante sur l'imprécision en traitement du signal et plus précisément sur la représentation de la convolution en cas d'imprécision des valeurs du noyau de convolution.

 

Application à un problème de robotique

 

Cette application s'inscrit dans un projet plus vaste visant à permettre à un robot humanoïde de faire du modelage [2].

 

Nous souhaiterions, dans cette application, permettre au robot, sur la base d'une visualisation, de savoir quel geste faire pour modifier un tas de sable en connaissant l'état final auquel il doit arriver.

Dans cette application, les gestes du robot sont simplifiés. Il ne peut réaliser qu'un nombre fini de gestes simples – tels que pousser avec un doigt, balayer avec la paume, etc. – à des endroits qui seront définis par le planificateur de tâche.

La tâche du réseau de neurones consistera alors à comparer l'image courante et l'image de référence pour estimer quel geste faire pour rapprocher l'image courante du tas de sable de l'image de référence.

 

L'apprentissage se fera sur la base d'images réalisées par des opérateurs humains.

 

[1] O. Strauss, A. Rico – Towards interval-based non-additive deconvolution in signal processing

– Soft computing, Springer-Verlag, 16 (5) (2012), 809-820.

 

[2] A. Cherubini, V. Ortenzi, A. Cosgun, R. Lee, P. Corke – Model-free vision-based shaping of deformable plastic materials – Int. Journal of Robotics Research, 2020 (to appear).

 


Presentation of the problem

 

For the past ten years, the interest of the robotics community in convolutional neural networks (CNN) has grown steadily due to their extraordinary capacity for automatic learning. These neural networks differ from their ancestors of the 90s by their huge number of parameters (thousands and sometimes even millions) which give them a lot of freedom and allow them to adapt to a variety of complex data sets. This change of scale has been made possible by the exponential increase in computing capacities and the sophistication of GPU graphics cards.

 

However, this great advantage becomes a potential weakness. The lack of control over the learning process can lead to overfitting: the neural network is then so closely adapted to the training set that it is difficult to generalize, i.e. make correct predictions from new data. This problem is classic in machine learning systems but it is easier to work around when the number of parameters to be adjusted is reduced. For CNNs, understanding the origins of this problem and finding ways to prevent it from happening is therefore essential.

 

The method currently used to reduce this phenomenon consists is called dropout. It consists of disturbing the network during the learning phase by randomly disconnecting certain neurons either during the forward propagation phase or during the rear propagation phase. This method forces the neurons not to be too interdependent. Another way to reduce overfitting is to impose a regularity on the network (i.e. regularize). Regularization is added to the learning phase to penalize overly complex representations.

 

Thesis proposal

 

What we are proposing in this thesis work is to walk out of the beaten tracks and follow a path that breaks completely with traditional methods.

 

One of the potential causes of overfitting comes from the way network parameters are represented.

We can consider learning as the iterative resolution of an inverse problem, i.e. the adjustment of a large number of parameters on the basis of input-output torque. X being the inputs and Y the outputs of the network, we seek for adjusting the parameters P of the network such that Y is as close as possible to ƒ(X,P), ƒ being the network function.

In deconvolution, which is another inverse problem, this over-learning is called « Gibbs phenomenon » and appears at the discontinuity points of the signal to be reconstructed by deconvolution. We have been able to note a very strong reduction of this phenomenon when the deconvolution is carried out while the signal to be reconstructed is interval-valued [1].

 

It would therefore be interesting to explore this path for learning systems such as convolutional neural networks.

This research is particularly consistent with previous work achieved by the supervisory team on imprecision in signal processing and more precisely on the representation of convolution in the event of imprecise convolution kernel.

 

Application to a robotics problem

 

This application is part of a larger project to allow a humanoid robot to do modeling [2].

 

We would like, in this application, to allow the robot, on the basis of a visualization, to know what gesture to make to modify a pile of sand by knowing the final state to which it must arrive.

In this application, the robot's gestures are simplified. It can only perform a finite number of simple gestures – such as pushing with a finger, sweeping with the palm, etc. – at locations to be defined by the task planner.

The task of the neural network will then consist in comparing the current image and the reference image to estimate which gesture to make to bring the current image of the heap of sand closer to the reference image.

 

Learning will be based on images made by human operators.

 

[1] O. Strauss, A. Rico – Towards interval-based non-additive deconvolution in signal processing

– Soft computing, Springer-Verlag, 16 (5) (2012), 809-820.

[2] A. Cherubini, V. Ortenzi, A. Cosgun, R. Lee, P. Corke – Model-free vision-based shaping of deformable plastic materials – Int. Journal of Robotics Research, 2020 (to appear).

 

 

Dans cette rubrique

(c) GdR 720 ISIS - CNRS - 2011-2020.