Réunion

Les commentaires sont clos.

IA et réseaux de neurones profonds, ouvrir la boite noire : du modèle explicable à la synthèse et présentation d'explications en signal et image.

Date : 13-03-2023
Lieu : CNAM Paris

Thèmes scientifiques :
  • B - Image et Vision
  • T - Apprentissage pour l'analyse du signal et des images

Nous vous rappelons que, afin de garantir l'accès de tous les inscrits aux salles de réunion, l'inscription aux réunions est gratuite mais obligatoire.


S'inscrire à la réunion.

Inscriptions

71 personnes membres du GdR ISIS, et 21 personnes non membres du GdR, sont inscrits à cette réunion.

Capacité de la salle : 90 personnes.

Annonce

Journée commune du GDR ISIS, Thème B, Thème T, du GDR IGRV, du GDR IA et du Club EEA

13 mars 2023, CNAM Paris

Les réseaux de neurones profonds poursuivent leur progression tant sur les plans théoriques qu'applicatifs. L'usage de ces outils dans des applications critiques (conduite autonome, robotique, diagnostic médical), leur complexité et leur certification par des instances de régulation incitent néanmoins à progresser sur l'interprétabilité de ces modèles et l'explication de leurs prédictions.

Ces dernières années, de nombreuses directions de recherche se sont développées sur ce thème. On peut distinguer deux grandes familles d'approches. En premier lieu, les méthodes « post-hoc » permettant d'extraire des explications à partir de modèles déjà entraînés telles que GradCam, SHAP, Lime, FEM, etc.. Une autre approche consiste à intégrer directement des contraintes d'explicabilité intrinsèques dès la conception du modèle, par la détection d'attributs composants les concepts cibles, de prototypes ou encore l'introduction de contraintes liées à des modèles physiques.

Les travaux aussi bien théoriques qu'applicatifs s'intéressent à la pertinence de ces méthodes, leur applicabilité et leur robustesse. Notamment, la question d'évaluation des méthodes d'explication est importante dans la communauté.

La présentation des explications à l'utilisateur via des outils de visualisation de l'information est de plus une problématique complémentaire importante impactant l'utilisabilité de ces approches.

Nous proposons donc une nouvelle réunion sur l'explicabilité des modèles décisionnels en image et signal. Elle vise à partager les connaissances et retours d'expérience sur les différentes approches théoriques et méthodologiques permettant d'aller vers la transparence, la robustesse et l'équité des modèles obtenus par apprentissage automatique et les réseaux de neurones profonds en particulier.

Organisateurs :

GDR-ISIS

  • Alexandre Benoit : alexandre.benoit@univ-smb.fr
  • Nicolas Audebert : nicolas.audebert@cnam.f
  • Jenny Benois-Pineau : jenny.benois-pineau@u-bordeaux.fr
  • Nicolas Thome : nicolas.thome@cnam.fr
  • Herve Le Borgne : herve.le-borgne@cea.fr

GDR-IGRV

  • Romain Vuillemot : romain.vuillemot@ec-lyon.fr
  • Romain Bourqui : romain.bourqui@u-bordeaux.fr

GDR-IA

  • Meghyn Bienvenu : meghyn.bienvenu@u-bordeaux.fr
  • Wassila Ouerdane : wassila.ouerdane@centralesupelec.fr
  • Sébastien Destercke: sebastien.destercke@hds.utc.fr

Club EEA

  • Kacem Chehdi : kacem.chehdi@univ-rennes1.fr
  • Mai Nguyen-Verger : mai.nguyen-verger@cyu.fr

Propositions des exposés

A envoyer aux organisateurs de la journée.

Capacité d'inscription y compris les exposants est de 90 personnes

Les inscriptions


Le nombre des places est limité. Les inscriptions seront traitées au fil de l'eau avec la clôture pour des catégories suivantes :

  • les membres du GDR-ISIS y compris le club EEA - 50 places le quota est atteint
  • les membres du GDR IA - 20 places
  • les membres du GDR IGRV - 20 places

Important : pour les collègues membres du GDR IA ou GDR IGRV il est nécessaire de s'inscrire sur le site GDR-ISIS en tant que non-membres, et INDIQUER LEUR GDR D'APPARTENANCE (GDR-IA ou GDR-IGRV).

Programme

Matinée (10h-12h45): Conférences invitées, 30 min/présentation

10h00 - 11h00

Conférence invitée 1 : Damien Garreau (Univ. Côte d'Azur, GDR-ISIS): A Sea of Words: An In-Depth Analysis of Anchors for Text Data

Conférence invitée 2 : Jean-Philippe Poli (CEA LIST, GDR-IA): "Apprentissage de relations floues pour l'annotation sémantique d'images explicable".

11h00 - 11h15 Pause café, échanges

11h15 - 12h15

Conférence invitée 3: Kacem Chehdi (Univ. Rennes1, Club EEA): "Les vrais faux échantillons d'apprentissage dans les systèmes décisionnels. Quid de l'explicabilité ".

Conférence Invitée 4: Georges Quénot (LIG, GDR-ISIS): "Analyse des approches basées sur des concepts pour la justification des résultats de recherche dans les collections vidéo"

12h45-14h Pause déjeuner

Après midi (14h00 - 16h30), exposés, durée 20 min + 5 min questions (propositions à transmettre aux organisateurs)

Résumés des contributions

Conférence invitée 1 : A Sea of Words: An In-Depth Analysis of Anchors for Text Data

Damien Garreau (Univ. Côte d'Azur, GDR-ISIS)

Anchors [Ribeiro et al. (2018)] is a post-hoc, rule-based interpretability method. For text data, it proposes to explain a decision by highlighting a small set of words (an anchor) such that the model to explain has similar outputs when they are present in a document. In this talk, I will present the first theoretical analysis of Anchors, considering that the search for the best anchor is exhaustive. I will show how one can use this analysis to gain insights on the behavior of Anchors on simple models, including elementary if-then rules and linear classifiers.