Vous êtes ici : Accueil » Kiosque » Annonce

Identification

Identifiant: 
Mot de passe : 

Mot de passe oublié ?
Détails d'identification oubliés ?

Annonce

24 janvier 2020

Thèse: Attaques Side-Channel contre la confidentialité des modèles de Machine Learning embarqués : attaques, protections, évaluation


Catégorie : Doctorant


Le CEA LETI propose un sujet de thèse pour 2020 sur le sujet de l'attaque par canaux cachés de la confidentialité des réseaux de neurones embarqués.

La thèse se déroulera majoritairement dans l'équipe commune de recherche entre le CEA et l'Ecole des Mines de Saint-Etienne (ISMIN, Gardanne) au Centre de Microélectronique de Provence à Gardanne (13). Des déplacements sur Grenoble (CEA LETI) sont à prévoir.

Directeur de Thèse : Jean-Baptiste Rigaud, Ecole des Mines de Saint Etienne (ISMIN, Gardanne)

Encadrant CEA : Pierre-Alain Moellic, CEA Tech, (Gardanne)

Sujet et contacts (Fr): https://academicpositions.fr/ad/cea-tech/2020/phd-attaque-side-channel-contre-la-confidentialite-des-modeles-de-machine-learning-embarques-attaques-protection-evaluation/139004

Sujet et contact (Eng): https://academicpositions.fr/ad/cea-tech/2020/phd-position-side-channel-analysis-against-the-confidentiality-of-embedded-neural-networks-attack-protection-evaluation/139014

 

Objectif et contexte
Une des tendances majeures de l’Intelligence Artificielle aujourd’hui est le déploiement massif des systèmes de Machine Learning sur une multitude de plateformes embarquées. La majorité des fabricants de semi-conducteurs proposent des produits « compatibles A.I. », principalement pour des réseaux de neurones pour de l’inférence (voir chez ST, ARM...).
Outre les problématiques propres aux contraintes (mémoire, énergie, précision) des plateformes matérielles, la sécurité est un des grands freins au déploiement de ces systèmes. De nombreux travaux soulèvent des menaces aux impacts désastreux pour leur développement, comme les « adversarial examples » ou le « membership inference ».
 
Néanmoins, ces travaux considèrent les algorithmes de ML selon un point de vue purement théorique sans prendre en considérations les particularités de leur implémentation matérielle. De plus, des études plus poussées sont indispensables sur les attaques physiques (side-channel et injection de fautes). En considérant une surface d’attaque regroupant les aspects algorithmiques et matériels, la thèse propose d’analyser des menaces de type Side-Channel Analysis (SCA) ciblant la confidentialité des données d’apprentissage et des modèles (reverse engineering) des systèmes embarqués de Machine Learning et le développement de protections efficaces.
 
Objectifs
Quelques travaux commencent à s’intéresser aux attaques physiques contre des réseaux de neurones embarqués mais avec des architectures très simples sur des microcontrôleurs 8-bit, ou FPGA ou en pure simulation. Ces travaux ne proposent pas encore des liens entre les modèles de fautes ou les fuites mises en évidence et les failles algorithmiques. En se basant sur l’expérience d’autres systèmes critiques (e.g., module cryptographique), la philosophie de la thèse sera de considérer conjointement le monde algorithmique et le monde physique pour mieux appréhender la complexité des menaces et développer des protections appropriées. Aussi, la thèse s’intéressera aux questions scientifiques suivantes :
Cette thèse s’interfacera avec celle de Rémi BERHNARD (CEA, 2018-2021) portant sur les attaques algorithmiques et permettra de couvrir une surface d’attaque plus vaste et plus représentatives des futures menaces visant les systèmes embarqués basés sur du Machine Learning.
 

Dans cette rubrique

(c) GdR 720 ISIS - CNRS - 2011-2020.