Table des matières

Introduction
Systèmes de dialogue : principes généraux
Introduction
1 Transcription: modélisation statistique du langage
 1.1 Principes généraux
 1.2 Modélisation acoustique
 1.3 Modélisation statistique du langage
 1.4 Modèle N-grammes à base de classes
 1.5 Le lissage
  1.5.1 Principe
  1.5.2 Décompte
  1.5.3 Redistribution
  1.5.4 Lissage par repli (backing-off )
 1.6 Combinaison des modèles acoustiques et des modèles de langage
  1.6.1 Fudge factor
  1.6.2 Pénalité linguistique
  1.6.3 Utilisation des logarithmes
 1.7 Espace de recherche et graphe de mots
2 Module de compréhension
 2.1 Rôle du module de compréhension
 2.2 Analyse sémantique
 2.3 Analyse en compréhension
  2.3.1 Analyse fondée sur la grammaire de cas
  2.3.2 Template Matcher
  2.3.3 DELPHI
  2.3.4 Phoenix
  2.3.5 TINA
  2.3.6 CHRONUS
  2.3.7 CHANEL
  2.3.8 Le HUM
  2.3.9 Le HVS
 2.4 Coopération transcription/compréhension
  2.4.1 Architecture deux passes
  2.4.2 Architecture une passe
3 Outils
 3.1 Introduction
 3.2 Les langages formels
  3.2.1 Introduction
  3.2.2 Définition
  3.2.3 Les langages réguliers
  3.2.4 Expressions régulières
 3.3 Grammaires formelles
  3.3.1 Définition
  3.3.2 Classification de Chomsky
 3.4 Automates À États Fini
  3.4.1 Définition
  3.4.2 Définition d’un FSM et algorithmes associés
 3.5 Méthodes de classification
  3.5.1 Les arbres de décision sémantique
  3.5.2 Les algorithmes de Boosting
  3.5.3 Les Machines à Vecteur de Support, SVMs
Contribution
Introduction
4 Description des données expérimentales
 4.1 Application AGS
  4.1.1 Données d’apprentissage
  4.1.2 Données de test
 4.2 Application PlanResto
  4.2.1 Données d’apprentissage
  4.2.2 Données de développement
  4.2.3 Données de test
  4.2.4 Jeu d’étiquettes conceptuelles utilisé
 4.3 Évaluation de la qualité de la reconnaissance
  4.3.1 Le Taux d’Erreurs Mot
  4.3.2 Le Taux d’Erreurs Concept, CER
  4.3.3 Taux d’Erreurs en Compréhension
5 Stratégie de décodage conceptuel
 5.1 Résumé
 5.2 Introduction
 5.3 Architecture proposée
 5.4 Les entités conceptuelles
  5.4.1 Représentation des concepts
 5.5 Modèle conceptuel: un transducteur Mots/Concepts
  5.5.1 Outil utilisé : AT&T FSM Library
  5.5.2 Construction de MC
  5.5.3 Optimisation du modèle Filler No 1
  5.5.4 Optimisation du modèle Filler No 2
  5.5.5 Optimisation du modèle Filler No 3
  5.5.6 Élimination des redondances et ambiguïtés intra-concept
  5.5.7 Élimination des ambiguïtés inter-concepts
 5.6 Processus de décodage
  5.6.1 Graphe de mots vers graphe de concepts
  5.6.2 Application de relations sémantiques
  5.6.3 Liste des N-meilleures structurée des interprétations sémantiques
 5.7 Intérêt de la liste structurée
 5.8 Conclusion
6 Mesures de confiance
 6.1 Introduction
 6.2 Consensus de décodages en parallèle
  6.2.1 Introduction
  6.2.2 Augmentation de données par projection dans un espace réduit
  6.2.3 Augmentation de données par similarité
  6.2.4 Évaluation
  6.2.5 Raisonnement sur des situations de consensus
 6.3 CONS(LM):une mesure linguistique
  6.3.1 Variante : critère de consistance sur des étiquettes morpho-syntaxiques
  6.3.2 La dépréciation des Tri-grammes peu plausibles
 6.4 Mesure de confiance acoustique conceptuelle
  6.4.1 Probabilité au niveau des mots
  6.4.2 Probabilité au niveau conceptuel
 6.5 Mesure de confiance conceptuelle
  6.5.1 Introduction
  6.5.2 Méthodes de classification textuelle
  6.5.3 Quelques résultats
 6.6 Conclusion
7 Stratégie de validation
 7.1 Stratégie par arbre de décision
 7.2 DU1 : validation d’interprétation conceptuelle
  7.2.1 Objectif
  7.2.2 Règle de décision consensuelle avec situations de confiance
 7.3 DU2 : validation conceptuelle
  7.3.1 Objectif
  7.3.2 Mesures de confiance
  7.3.3 Application de méthodes de classification avec score de confiance
  7.3.4 Validation de consensus
 7.4 Résultats de la stratégie
 7.5 Correction d’erreurs
  7.5.1 Correction d’erreurs basée sur des règles
  7.5.2 Corrections d’erreurs basées sur un arbre de décision
 7.6 Conclusion
8 Bilan
Bibliographie