Vous êtes ici : Accueil » Kiosque » Annonce

Identification

Identifiant: 
Mot de passe : 

Mot de passe oublié ?
Détails d'identification oubliés ?

Annonce

2 avril 2021

Prédiction avec Markov triplets comme alternatives rapides aux réseaux de neurones dynamiques


Catégorie : Doctorant


Questions et candidatures (CV et lettre de motivation) à adresser avant le 30 avril 2021 aux directeurs de la thèse :

 

Thèse de l’Ecole Doctorale Mathématiques Hadamard, Institut Polytechnique de Paris - Université Paris-Saclay.

Financement acquit.

 

Contexte

Les modèles de Markov cachés (MMC) sont couramment utilisés dans les problèmes les plus divers depuis leur introduction dans les années 1960. Leur succès est dû à leur simplicité jointe à une extraordinaire robustesse. Pour une séquence des données observées y=(y1, …, yN), le problème est de rechercher une séquence inobservée x=(x1, …, xN) liée de manière stochastique à la première. On distingue trois types de problèmes :

(i) restauration : on cherche la séquence x à partir de la séquence y ;

(ii) filtrage : on cherche séquentiellement chaque xn à partir de (y1, …, yN);

(iii) prédiction : on cherche xn+k, et/ou yn+k, à partir de (y1, …, yN).

Lorsque la séquence cachée est discrète, les trois problèmes sont résolus ; lorsqu’elle est continue les solutions analytiques optimales et rapides ne sont possibles que dans les cas gaussiens. On doit alors faire appel à des approximations, dont celles particulaires qui sont asymptotiquement optimales mais peuvent présenter les coûts rédhibitoires.

Malgré leurs extraordinaires qualités, les MMCachés s’avèrent trop simples dans un certain nombre de situations, et ils ont été étendus dans différentes directions. Nous nous intéressons dans ce projet aux modèles de Markov Couples (MMCouples [1-3]) et aux modèles de Markov triplets (MMTriplets [4]). Un MMCouple est défini par la markovianité du couple (x, y). Un MMCachés est donné par la loi markovienne p(x) et p(y|x)simple ; p(x, y) est alors de Markov et MMCaché est ainsi un cas particulier de MMCouple. Offrant les mêmes possibilités de traitements que les MMCachés, les MMCouples sont plus précis au niveau de la modélisation et permettent d’améliorer, parfois sensiblement, les résultats obtenus avec les MMCachés [3]. Dans un MMTriplets, on considère x et y comme ci-dessus et on introduit un troisième processus r=(r1, …, rN) – qui peut avoir une signification physique ou pas –, et on admet que le triplet (x, r, y) est markovien. Du point de vue mathématique les MMCouples et les MMTriplets ne sont pas très différents ; en effet, dans un MMTriplet, le couple (x, r) est une séquence cachée et donc, en posant v=(x, r) le couple (v, y) est un MMCouple. Cependant, la famille des lois p(x, y) obtenue par des MMTriplets est extrêmement riche car r peut être quelconque.

Dans le cas de x discret, l’introduction de r discret et son interprétation comme changement de régime, à des instants aléatoires, des lois conditionnelles du MMCouple p(x, y) permet de traiter des données non stationnaires. Il a également été remarqué que les modèles semi-markoviens cachés sont des MMTriplets particuliers, ce qui permet des extensions de ces derniers dans diverses directions [5].

Le cas de x continu et r discret est particulièrement intéressant. Dans les modèles (x, r, y) classiques, on suppose le processus caché (x, r) markovien ; les calculs récursifs rapides ne sont alors pas possibles, même dans les cas les plus simples. Considérer la markovianité du triplet (x, r, y) dans toute sa généralité révèle alors tout son intérêt. Il existe en effet une sous-famille de cas, dans laquelle (r, y) est de Markov, qui permet le filtrage exact optimal aussi rapide que le filtrage de Kalman [6-8]. En résumé, les modèles de Markov couples et triplets améliorent toujours, parfois fortement, les résultats de restauration ou de filtrage obtenus avec les MMCachés. Cependant, à part [9], il n’existe pas, à notre connaissance, d’études les appliquant à de problèmes de prédiction, cf. point (iii) ci-dessus. Nous conjecturons que les aptitudes des modèles couples et triplets à améliorer les résultats des MMCachés en segmentation et filtrage seront conservées dans les problèmes de prédiction, ce qui est à l’origine du présent projet de thèse.

 

Objectifs

Le projet comporte trois volets :

  1. Études, théoriques ou fondées sur les simulations, des apports des modèles couples et triplets par rapport aux modèles cachés dans la prédiction. On abordera les modèles couples dans les cas discret et continu ; et les modèles triplets dans les cas discret, continu, et mixte ;
  2. Le deuxième volet concerne les comparaisons avec les méthodes issues de l’apprentissage automatique et de l’apprentissage profond. De manière générale, les MMCachés ont été écartés, pour des raisons qui se sont récemment relevées quelque peu injustifiées, de certaines applications comme celles en Traitement de Langage Naturel (NLP). En effet, il a été montré récemment que les problèmes ne venaient pas des MMCachés en tant que modèle, mais de la manière dont les probabilités d’intérêt étaient calculées ; en modifiant les calculs, on peut utiliser les MMCachés de manière analogue à celle employée dans les réseaux de neurones dynamiques (RND) [10]. Cela ouvre des perspectives d’un retour des modèles de Markov en apprentissage automatique. On testera les meilleures approches de la prédiction mises en évidence dans le volet précédent avec les méthodes actuelles de prédictions de type RND. A priori, la grande rapidité des méthodes markoviennes devrait être un atout non négligeable.
  3. En situations réelles les modèles de Markov cachés sont généralement considérés comme performants pour la prédiction à court-terme, limitée à quelques échantillons. Citons, par exemple, le domaine du trafic routier [11] ou bien celui de la prévision de la puissance énergétique générée par le vent [12]. Dès lors que l'on cherche à prédire à plus long terme, les méthodes récentes fondées sur les réseaux de neurones profonds sont en général privilégiées. En particulier, citons le modèle « Long-Short Term Memory » (LSTM [F]), récemment utilisé pour prédire la demande en électricité dans différents contextes [14-16]. Comparer, en situations réelles, les prédictions fondées sur LSTM avec celles utilisant les MMCouples et les MMTriplets font également partie des objectifs du projet de thèse.

Bibliographie

[1] W. Pieczynski, Pairwise Markov chains, IEEE Trans. on Pattern Analysis and Machine Intelligence, Vol. 25, No. 5, pp. 634-639, 2003.
[2] S. Derrode and W. Pieczynski, Signal and image segmentation using Pairwise Markov Chains, IEEE Trans. on Signal Processing, Vol. 52, No. 9, pp. 2477-2489, 2004.
[3] I. Gorynin, H. Gangloff, E. Monfrini, and W. Pieczynski, Assessing the segmentation performance of pairwise and triplet Markov models, Signal Processing, Vol. 145, pp. 183-192, April 2018.
[4] W. Pieczynski, C. Hulard, and T. Veit, Triplet Markov Chains in hidden signal restoration, SPIE’s International Symposium on Remote Sensing, September 22-27, Crete, Greece, 2002
[5] J. Lapuyade-Lahorgue and W. Pieczynski, Unsupervised segmentation of hidden semi-Markov non-stationary chains, Signal Processing, Vol. 92, No. 1, pp. 29–42, January 2012.
[6] W. Pieczynski, Exact filtering in conditionally Markov switching hidden linear models, Comptes Rendus Mathematique, Vol. 349, No. 9-10, pp. 587-590, May 2011.
[7] I. Gorynin, S. Derrode, E. Monfini, and W. Pieczynski, Fast filtering in switching approximations of non-linear Markov systems with applications to stochastic volatility, IEEE Trans. on Automatic Control, Vol. 62, No. 2, pp. 853-862, February 2017.
[8] F. Zheng, S. Derrode, and W. Pieczynski, Semi-supervised optimal recursive filtering and smoothing in non-Gaussian Markov switching models, Signal Processing, No. 171, June, 2020.
[9] I. Gorynin, E. Monfrini, and W. Pieczynski, Pairwise Markov models for stock index forecasting, 25th European Signal Processing Conf. (EUSIPCO 2017), Kos Island, Greece, August 28 - September 2, 2017.
[10] E. Azeraf, E. Monfrini, E. Vignon, and W. Pieczynski, Introducing the Hidden Neural Markov chain framework, 13th Int. Conf. on Agents and Artificial Intelligence (ICAART 2021), Vienna, Austria, February4-6, 2021
[11] Yan Qi, Sherif Ishak, A Hidden Markov Model for short term prediction of traffic conditions on freeways, Transportation Research Part C: Emerging Technologies, Volume 43, Part 1, 2014, Pages 95-111.
[12] A. Carpinone, M. Giorgio, R. Langella, A. Testa, Markov chain modeling for very-short-term wind power forecasting, Electric Power Systems Research, Volume 122, 2015, Pages 152-158.
[13] Sepp Hochreiter; Jürgen Schmidhuber (1997). "Long short-term memory". Neural Computation. 9 (8): 1735–1780. doi:10.1162/neco.1997.9.8.1735. PMID 9377276. S2CID 1915014.
[14] Choi, E.; Cho, S.; Kim, D.K. Power Demand Forecasting using Long Short-Term Memory (LSTM) Deep-Learning Model for Monitoring Energy Sustainability. Sustainability 2020, 12, 1109.
[15] Son, H.; Kim, C. A Deep Learning Approach to Forecasting Monthly Demand for Residential–Sector Electricity. Sustainability 2020, 12, 3103.
[16] Cheng Y., Xu C., Mashima D., Thing V.L.L., Wu Y. (2017) PowerLSTM: Power Demand Forecasting Using Long Short-Term Memory Neural Network. In: Cong G., Peng WC., Zhang W., Li C., Sun A. (eds) Advanced Data Mining and Applications. ADMA 2017. Lecture Notes in Computer Science, vol 10604. Springer, Cham.
 

Dans cette rubrique

(c) GdR 720 ISIS - CNRS - 2011-2020.