4 mars 2016 | Posted in:Réunions

5e édition des journées NeuroSTIC – 23 et 24 juin 2016 – Inria Montbonnot

2014-05-09 22.18.36

Cette année, les journées NeuroSTIC se dérouleront dans les locaux de l’INRIA à Grenoble. À cette occasion une session In’Tech dédiée aux systèmes neuro-inspirés sera proposée.

Convaincus que les questions scientifiques dans ce domaine se trouvent à la croisée de nombreuses disciplines, nous proposons un programme mêlant neurosciences, informatique, sciences cognitives, traitement du signal et électronique. Nous vous attendons nombreux pour participer aux échanges.

Les Rencontres Inria Industrie Régionales, appelées Séminaires In’Tech en Rhône-Alpes, ont pour vocation d’être un lieu de rencontre entre start-ups, industriels et chercheurs. L’objectif de ces séminaires est, autour d’un thème précis, d’identifier les tendances technologiques, de favoriser les échanges d’informations entre les différents acteurs de l’écosystème et de stimuler l’émergence de nouvelles collaborations.

Vous trouverez ci-dessous :

Les organisateurs,

avec le soutien de l’INRIA et du CNRS à travers les GDR BioComp, ISIS, SoC/SiP et Robotique.

Martial Mermillod – Laboratoire de Psychologie et NeuroCognition (UMR CNRS 5105), Université Grenoble-Alpes.

Benoît Miramond – Laboratoire d’Electronique, Antennes et Telecommunications (UMR CNRS 7248), Université Nice Sophia Antipolis

Vincent Gripon – Telecom Bretagne, Institut Mines-Telecom


Formulaire d’inscription

 

Les inscriptions sont ouvertes depuis le 18 avril 2016.
Les inscriptions sont gratuites mais obligatoires pour des raisons de sécurité.

Les personnes non-inscrites ne pourront pas participer.

Inscription en-ligne en suivant le lien : Inscriptions.

16 juin : Il ne reste plus de places pour l’édition 2016.


Programme

 

Jour 1 – Jeudi 23 juin

Session Session Interdisciplinaire

9h30 – 9h40 :     Introduction jour 1

9h40 – 10h20 : Cordelia Schmid, Inria (PDF)

Human action recognition with convolutional neural networks

10h20 – 10h40 : Mathieu Thevenin, CEA  (PDF)

A sequential bayesian bio-inspired approach for fast radionuclide identification

  10h40 – 11h10 : Pause – Posters

11h10 – 11h50 : Bruno Poucet, LNC  (PDF)

Y a-t’il un pilote dans le cerveau ? Données récentes sur les bases neuronales de l’orientation spatiale

  11h50 – 12h30 : Kamel Mekhnacha, Probayes  (PDF)

Des réseaux de neurones embarqués pour la conduite autonome en zones urbaines

  12h30 – 14h00 :   Buffet et présentation des stands

 

Session Applications

13h50 – 14h20 : Camille Couprie, FACEBOOK  (PDF)

Vers des réseaux de convolution moins supervisés

14h20 – 14h50 : Olivier Brousse, Global Sensing Technologies (PDF)

Low Power Recognition Accelerator

14h50 – 15h10 : Ramesh Caussy, Partnering Robotics (ANNULE)

Robotique neuro-inspirée : des leviers pertinents d’une nouvelle dynamique de services en grands environnements dynamiques

15h10 – 15h30 : Pause – Posters

15h30 – 16h : Rodolphe Héliot, Schneider  (PDF)

Vos neurones ont de l’énergie ! ou bien l’inverse ?

16h  – 16h30 : Naila Murray, Xerox Research (PDF)

Quand les données massives ne sont pas massives : l’usage des réseaux profonds (deep nets) quand les données sont peu abondantes

16h30  –  17h10 : François Courteille, NVIDIA (PDF)

Deep Learning et architecture NVIDIA: de la recherche au déploiement sur des systèmes embarqués

17h10 : Espace stands

Cocktail  apéritif

 

Jour 2 – Vendredi 24 juin

Session Interdisciplinaire

9h30 – 9h40 :     Introduction jour 2

9h40 – 10h20 : Georges Malliaras, Mines St-Étienne (PDF)

L’électronique organique : un outil pour interfacer le cerveau ?

10h20 – 11h00 : Stéphane Rousset, LPNC (PDF)

Consolidation mnésique par attracteurs auto-générés

11h00 – 11h20 : Pause-Posters

11h20 – 12h30 : Groupe de travail – Discussion

12h30 – 14h00 :   Buffet et présentation des stands

Session Traitement de signal et Neurosciences

14h00 – 14h40 :     Stéphane Mallat, ENS (PDF)

Apprentissage en Grande Dimension et Réseaux de Neurones Profonds

14h40 – 15h20 :     Bertrand Thirion, NeuroSpin (PDF)

Lerning representations from  functional brain images

15h20 – 15h40 : Pause – Posters

15h40 – 16h20 : Nicolas Farrugia, Lab-STICC (PDF)

Décomposition des dynamiques spatio-temporelles de la connectivité cérébrale fonctionnelle

Haut de page


Résumés

 

Cordelia Schmid

Human action recognition with convolutional neural networks
Recently, convolutional neural networks have demonstrated excellent performance in computer vision. In this talk we present some recent results for human action recognition in videos relying on CNN based representations.  We, first, introduce a pose-based convolutional neural network descriptor for action recognition, which aggregates motion and appearance information along tracks of human body parts. Next, we propose  an approach for spatio-temporal action localization in realistic videos. The approach first detects proposals described by CNNs at the frame-level and then tracks high-scoring proposals in the video. Our tracker relies  simultaneously on instance-level and class-level detectors. Action are localized in time with a sliding window approach at the track level. Finally, we show how to extend this method to weakly supervised learning of actions, which allows to  scale to large amounts of data without manual annotation.

 

Mathieu Thevenin, CEA

A sequential bayesian bio-inspired approach for fast radionuclide identification

 

Bruno Poucet, LNC

Y a-t’il un pilote dans le cerveau ? Données récentes sur les bases neuronales de l’orientation spatiale

Comment notre cerveau code-t’il l’espace ? Au cours des dernières décennies, les recherches sur les bases cérébrales de l’orientation spatiale chez l’animal sont à la base de découvertes étonnantes. En effet, ces études ont révélé l’existence d’un système neuronal dédié au codage de l’espace, contenant de multiples populations neuronales codant l’emplacement, la direction, ou le mouvement de l’animal. Grâce aux progrès récents en neuro-imagerie, les études réalisées chez le sujet humain révèlent un système aux propriétés comparables, montrant qu’il existe bien un pilote dans notre cerveau.

 

Kamel Mekhnacha, Probayes

Des réseaux de neurones embarqués pour la conduite autonome en zones urbaines

Les réseaux profonds entrainés sur de grandes bases de données annotées (e.g., ImageNet, MS COCO) ont permis une avancée certaine dans la fiabilité de la reconnaissance visuelle pour les applications de conduite automatique. Toutefois, les exigences en termes de robustesse combinées au besoin de performances calculatoires permettant d’embarquer ces modèles restent un challenge.

Dans cet exposé, je décrirai notre travail pour l’implémentation de ces algorithmes sur une carte NVIDIA Jetson pour une application de conduite automobile dans un environnement urbain nécessitant la détection de multiples classes d’objets (piéton, vélo, moto, voiture, bus, etc).

 

Camille Couprie, Facebook

Vers des réseaux de convolution moins supervisés

Les réseaux de neurones convolutifs connaissent depuis quelques années un franc succès dans de nombreuses applications de reconnaissance visuelle. A travers deux exemples applicatifs, l’un pour la segmentation sémantique (étiquetage de chaque pixel des images par une catégorie sémantique), le second pour la prédiction d’images suivantes dans les vidéos, nous reviendrons sur un succès de l’apprentissage supervisé (challenge Coco) et nous présenterons une voie possible de recherche à poursuivre vers l’apprentissage non supervisé, utilisant notamment des réseaux adversaires.

 

Olivier Brousse, Global Sensing Technologies – CEA DACLE

Low Power Recognition Accelerator

Visual recognition of familiar objects in natural environments is easily done by a human subject. Executing the same task on a « classical » computer requires complex and costly algorithms in terms of computing power. Thus, « Neuro-Inspired » approaches, based on models from biology, can be good candidates to reduce computational complexity. In this context, the Hmax model proposed by T. Serre, built on work of T. Poggio, shows that the recognition of an object in the visual cortex mobilizes V1, V2 and V4 areas. From the computational point of view, V1 corresponds to the area of the directional filters (for example Gabor or wavelet filters). This information is then processed in the V2 area in order to obtain local maxima which are then sent to a classifier such as an artificial neural network. This neural processing module corresponds to V4 area of the visual cortex and is intended to categorize objects in a scene.

To realize autonomous vision systems embedding such processing (with focus on low-power consumption), a new Neural Processor architecture named NeuroDSP was investigated. It is based on clusters of 32 elementary processors working in parallel. Implementation of this new processor has been considered using TSMC 45nm ASIC technology.

We introduce how to optimize Hmax to decrease the amount of calculations and implement it on the proposed architecture. Finally, we describe the implementation of the optimized Hmax model using the new NeuroDSP accelerator in the context of industrial applications.

 

Ramesh Caussy, Partnering Robotics

Robotique neuro-inspirée : des leviers pertinents d’une nouvelle dynamique de services en grands environnements dynamiques

Les prochaines vagues de services de robotiques vont reposer sur des capacités nouvelles qu’offrent les robots autonomes mobiles. Les nouvelles capacités de navigation et d’interactions en grands environnements stimulent les possibilités de services inédits et challenge des services de données qui reposent essentiellement aujourd’hui sur des dispositifs fixes. Ces points seront illustrés à partir du robot Diya One qui est dédié aux environnements intérieurs.

 

Rodolphe Héliot, Schneider Electric

Vos neurones ont de l’énergie ! ou bien l’inverse ?

En tant que spécialiste mondial de la gestion de l’énergie, Schneider apporte à ses clients de nouveaux produits et services leur permettant d’améliorer leur efficacité opérationnelle. Nous présenterons tout d’abord l’architecture système d’une offre connectée, nécessaire au déploiement de telles applications. Surtout, nous nous attacherons à détailler les besoins matériels et algorithmiques sous-jacents, avec un focus particulier sur les problématiques d’apprentissage et d’optimisation.

 

Naila Murray, Xerox Research

Quand les données massives ne sont pas massives : l’usage des réseaux profonds (deep nets) quand les données sont peu abondantes

Les grandes bases de données annotées comme ImageNet ont été essentielles pour le succès phénoménal des réseaux profonds (deep nets) sur une variété de tâches de vision par ordinateur, parmi lesquelles la catégorisation d’images, la détection d’objets et la segmentation sémantique. Toutefois, il existe peu de bases de données pour ces tâches car il est très couteux de les construire et cela nécessite une campagne d’annotation complexe. Ce problème est particulièrement présent dans les applications industrielles où il n’y a typiquement pas beaucoup de données relatives à un problème spécifique. Par conséquent, les efforts de recherche dédiés à résoudre ce problème sont croissants dans la communauté de chercheurs en vision par ordinateur. Dans cet exposé, je décrirai notre travail dans ce sens à XRCE, et démontrerai que l’adaptation à d’autres domaines, l’exploration de données, et la synthèse de données peuvent êtres des outils efficaces dans ces situations, intéressantes pour Xerox, où les données sont peu abondantes.

 

Vincent Nguyen, NVIDIA

Deep Learning et architecture NVIDIA: de la recherche au déploiement sur des systèmes embarqués

La conception et la fabrication de machines autonomes requiert des capacités de calculs importantes, tant pour la conception que pour le déploiement. NVIDIA par l’intermédiaire de l’architecture CUDA rend disponible ces capacités de calculs sur l’ensemble de ses produits, permettant la conception de machines autonomes de plus en plus puissantes, que ce soit pour la médecine, les drones, la robotique industrielle ou la ville intelligente. Nous démontrerons en particulier l’application des réseaux neuronaux profonds sur des produits concrets, depuis la phase de formation des réseaux, utilisant la plateforme DIGITS, jusqu’à leur déploiement sur des systèmes embarqués à faible consommation

Haut de page
Georges Malliaras, Mines St-Étienne

L’électronique organique : un outil pour interfacer le cerveau ?

De nos jours, un des principaux verrous technologiques et scientifiques réside dans la complexité d’interfacer le cerveau humain avec l’électronique existante. Interfacer l’outil d’ingénierie humain le plus avancé avec la création de la nature la plus élaborée permettrait une meilleure compréhension des mécanismes de fonctionnement du cerveau humain et de produire de nouveaux outils pour le diagnostic et le traitement de nombreuses pathologies telles que l’épilepsie ou la maladie de Parkinson. Cependant, les solutions actuelles sont limitées par les propriétés des matériaux en contact avec le tissu humain qui permettent la traduction des signaux entre les interfaces biotique/abiotique. L’émergence de l’électronique organique a mis en évidence la disponibilité de nouveaux matériaux présentant simultanément des propriétés uniques telles que flexibilité, conduction ionique et électronique, biocompatibilité, ou la possibilité d’administrer des traitements médicaux. Je présenterai des exemples de dispositifs organiques permettant l’enregistrement et la stimulation de l’activité neuronale, en mettant en évidence le lien entre les propriétés des matériaux et les performances des dispositifs. Je montrerai que les matériaux organiques électroniques sont les parfaits candidats pour la conception de dispositifs biomédicaux permettant l’étude et une meilleure compréhension et de la physiologie et pathologie cérébrale, et qu’ils peuvent être utilisés pour développer de nouvelles thérapies.

 

Stéphane Rousset, LPNC

Consolidation mnésique par attracteurs auto-générés

Les réseaux de neurones artificiels à mémorisation parallèle et distribuée présentent un oubli catastrophique des anciennes informations lorsque de nouvelles informations sont apprises. La solution généralement adoptée est de continuer à faire apprendre les anciens exemples lors de nouveaux apprentissages, ceci afin qu’ils continuent à contraindre les poids de connexions. Une solution peut cependant être apportée en utilisant des pseudo-exemples issus de valeurs aléatoires présentées en entrée du réseau et traitées de manière récursive par ses parties auto-associatives. Les attracteurs ainsi obtenus constituent des pseudo-exemples qui représentent les connaissances du réseau et permettent ainsi de se passer des anciens exemples pour éviter l’oubli. Nous étudierons comment cette solution : a) permet de réduire réellement l’oubli catastrophique b) permet d’optimiser le transfert de connaissances entre problèmes appris par un réseau artificiel c) permet de mettre à jours un type d’information qui d’une part est captée par l’être humain et d’autre part, pour les systèmes artificiels, est de fait spécifiquement captée par les réseaux de neurones.

 

Stéphane Mallat, ENS

Apprentissage en Grande Dimension et Réseaux de Neurones Profonds

Les problèmes de classification et de régression nécessitent
d’approximer des fonctions dans des espaces de très grande dimension.
Eviter la malédiction de la dimensionnalité ouvre de nombreuses
questions en statistiques, probabilités, analyse harmonique et géométrie.
Récemment, les réseaux de neurones convolutionels ont obtenus des
résultats spectaculaires pour l’analyse d’images, la compréhension de la
parole, l’analyse de langage et naturels et de nombreux autres
problèmes. Nous décrirons leur architecture pour analyser leurs
propriétés mathématiques, avec de nombreuses questions ouvertes. Ces
architectures implémentent des contractions multi-échelles où les
ondelettes jouent un rôle important. Des applications seront montrées
pour la classification d’images et de sons, ainsi que pour la régression
d’énergies en chimie quantique.

 

Bertrand Thirion, NeuroSpin

Lerning representations from  functional brain images.

Functional neuroimaging offers a unique view on brain functional  organization, which is broadly characterized by two features: the  segregation of brain territories into functionally specialized regions,  and the integration of these regions into networks of coherent activity.  Functional imaging yields a spatially resolved, yet noisy view of this organization. To extract information from these data, a first strategy is to rely on supervised classification settings, where signal patterns are used to predict the experimental task performed by the subject during a given experiment, which is a proxy for the cognitive or mental state of this subject. We show how to generalize this setting to a large set of experimental conditions, which allows a shift from low-dimensional output classification settings, that probe few cognitive dimensions, to much higher dimensional settings, up to the extent of ‘zero-shot  learning’, where some aspects of an unseen experimental condition can be  predicted from a reference database. We will discuss the challenges posed by these analytic approaches, with an emphasis on computational aspects, and how the use of non-labelled  data can be further used to improve the model learned from brain  activity data.

 

Nicolas Farrugia, Lab-STICC

Décomposition des dynamiques spatio-temporelles de la connectivité cérébrale fonctionnelle

Le cerveau ne se repose jamais. Même lorsque nous ne prenons part à aucune activité particulière, on observe une remarquable co-activation des zones du cerveau pourtant spatialement éloignées, formant ce que l’on appelle des réseaux de connectivité fonctionnelle. Ces réseaux sont largement étudiés car si leur structure et activation reflètent certaines fonctions cognitives telles que l’attention à un stimulus externe ou la reflexion sur soi, l’intégrité de ces réseaux semble liée à certaines pathologies du cerveau. De nombreuses approches ont permis de caractériser les états stables de ces réseaux de connectivité sur des périodes temporelles de plusieurs minutes grace à l’IRM fonctionnelle. Plus récemment, de nouvelles méthodes sont apparues afin de comprendre l’évolution temporelle de ces réseaux de connectivité, notamment par l’utilisation de fenêtres glissantes afin d’obtenir la connectivité à des instants successifs, suivi d’un partitionnement en K-moyennes, permettant d’identifier des états de connectivités. Nous proposons d’étendre cette approche en utilisant l’apprentissage de dictionnaire avec contrainte de sparsité sur des séquences temporelles de connectivité. La technique proposée effectue une décomposition en composantes spatio-temporelles de connectivité. Nous montrerons l’avantage de notre technique par rapport aux approches classiques afin d’identifier les dynamiques spatio-temporelles de la connectivité cérébrale fonctionnelle.

 

Haut de page


Modes d’accès à l’INRIA Monbonnot

 

Tous les détails en suivant ce lien.

Localisation

Inria Grenoble – Rhône-Alpes
Inovallée
655 avenue de l’Europe
38330 Montbonnot

Tél. 04 76 61 52 00
Fax. 04 76 61 52 52

En avion

Vous avez le choix entre les aéroports Lyon-Saint-Exupéry ou Genève-Cointrin.

En train

De Paris, vous pouvez prendre le TGV de Paris « Gare de Lyon » jusqu’à la gare de Grenoble (durée environ 3 heures).

En taxi depuis Grenoble

Le taxi depuis Grenoble centre (ou gare) coûtera environ 20 euros. En fonction du trafic, il faut compter entre 15 et 30 min pour arriver à l’institut.

En tramway/bus depuis Grenoble gare

  • Ligne Express 1 Voiron/Grenoble/Lumbin – arrêt Pré de l’eau, puis ligne 6070 direction Gières – arrêt Inria.
  • En tram puis bus : Prendre le tram B , jusqu’au campus de Grenoble arrêt « Condillac Université », puis le bus 6070 (direction « Bernin »), jusqu’à l’arrêt « Inria ».

En tramway/bus et TER depuis la vallée du Grésivaudan

  • Ligne Express 1 Lumbin/Grenoble/Voiron – arrêt Pré de l’eau, puis ligne 6070 direction Gières – arrêt Inria.
  • TER Chambéry/Grenoble jusqu’à la gare de Grenoble Universités Gières, puis ligne 6070 (direction « Bernin ») – arrêt Inria.

En voiture

Depuis l’aéroport Lyon-Saint Exupéry (ou depuis Lyon), empruntez l’autoroute A43 direction Chambery-Grenoble puis l’autoroute A41 direction Grenoble.
Puis, en arrivant à Grenoble, suivre l’autoroute A41 direction Chambéry et prendre la sortie 25 en direction de Montbonnot. Enfin, suivre le fléchage Inria puis Inria parking. L’entrée principale d’Inria se trouve au milieu du bâtiment entre deux petits bassins.