Making AI Understandable for Humans: the Plausibility of Attention-Based Explanations in Natural Language Processing

Type de soutenance
Thèse
Date de début
Lieu
IRISA Rennes
Salle
Métivier
Orateur
Duc Hau NGUYEN [Linkmédia]
Département principal
Sujet

Initialement conçue pour expliquer des modèles d’apprentissage profond, l’intelligence artificielle explicable (XAI) devrait également proposer des explications accessibles pour assister des utilisateurs finaux dans leurs domaines d’expertise. Cette thèse explore, dans le cadre du traitement automatique des langues, le potentiel de l’utilisation du mécanisme d’attention – composant crucial des architectures neuronales récentes – à fournir des explications plausibles et aisément compréhensibles par les utilisateurs des décisions prises par un modèle. Nous montrons tout d’abord que l’attention a tendance à être répartie sur l’ensemble des mots des énoncés, rendant les explications peu plausibles. Inspiré par les spécificités d’annotations d’humains cherchant à justifier des décisions, nous proposons une première stratégie de filtrage morphosyntaxique qui concentre l’attention sur les seuls noms, verbes et adjectifs des énoncés. Afin d’obtenir une solution plus généralisable et non dépendante de caractéristiques de jeux de données particuliers, nous introduisons ensuite trois stratégies de régularisation dans la phase d’apprentissage, reposant soit sur un critère d’entropie, soit sur des approches supervisées ou non-supervisées. Notre thèse révèle enfin que les architectures profondes qui permettent une contextualisation de la représentation des mots des énoncés ont tendance à pénaliser l’explicabilité de l’attention du fait de leur convergence au sein de l’espace des représentations. En minimisant l’influence de la contextualisation sur les mots, le mécanisme d’attention peut s’approcher plus efficacement d’explications produites par des humains.

 
 
**ATTENTION dans le cadre du plan VIGIPIRATE : l’accès du public à cette soutenance est contraint à une inscription préalable obligatoire auprès de Sabrina Ysope [gwenaelle [*] lannecatinria [*] fr (sabrina[dot]ysope[at]inria[dot]fr)]
L’accès ne sera pas autorisé sans inscription préalable. Par ailleurs, les visiteurs ne porteront ni bagage ni sac.**
Composition du jury
Rapporteurs:
- Christophe CERISARA Chargé de recherche, CNRS, HDR, Loria (France),
- Xavier TANNIER Professeur des universités, Sorbonne Université, Limics (France)

Examinateurs:
- Christophe CERISARA Chargé de recherche, CNRS, HDR, Loria (France)
- Emmanuel MORIN Professeur des universités, Nantes Université, LS2N (France)
- Xavier TANNIER Professeur des universités, Sorbonne Université, Limics (France)
- Guillaume GRAVIER Directeur de recherche, CNRS, IRISA (Directeur de thèse)
- Pascale SÉBILLOT Professeure des universités, INSA Rennes, IRISA (Co-directeur de thèse)