Next: Extensions possibles
Up: Conclusions générales
Previous: Conclusions générales
  Contents
  Index
Le travail présenté dans cette thèse peut être récapitulé comme
suit. Nous avons proposé une méthodologie pour évaluer automatiquement
la qualité des flux multimédias temps réel, tenant compte du fait qu'il
y a beaucoup de facteurs affectant la qualité, notamment les
déformations dues au codage et la transmission en temps réel sur des
réseaux de paquet. Le but de cette méthode est de dépasser les
limites des techniques disponibles dans la littérature. Les
avantages de notre méthode sont les suivantes : (i) les résultats obtenus se corrèlent
bien avec la perception humaine car notre procédé est établi
partiellement en utilisant des données subjectives ; (ii) elle est
rapide en terme de temps de calcul, car un réseau de neurones simple
(RN) est employé pour mesurer la qualité ; (iii) il n' y a aucun besoin d'accéder aux signaux originaux du multimédia, qui servent seulement pendant la phase de développement à identifier quelques facteurs objectifs qui sont employés pour permettre au RN d'apprendre la relation entre les signaux originaux et traités en se basant sur ces facteurs objectifs ; (iv) beaucoup de facteurs qui ne peuvent pas être pris en considération par les méthodes traditionnelles peuvent être facilement inclus (par exemple, le débit d'images ou l'utilisation de FEC).
Nous avons employé notre méthode avec succès pour évaluer la qualité en temps réel de la parole en tenant compte de plusieurs paramètres de codage et de réseau. Les paramètres considérés sont : le taux de perte, la distribution de perte, l'intervalle de mise en paquet, plusieurs codecs et l'effet de la langue.
Nous avons suivi la même approche pour évaluer la qualité de la
vidéo. Les paramètres considérés sont : le taux de perte, la
distribution de perte, le débit, le débit d'images, et le type de codage
pour le codec H.263. L'application de notre technique aux flux vidéo a
mené à des résultats semblables à ceux obtenus dans le cas de la parole.
Les caractéristiques mentionnées ci-dessus de notre méthodologie
permettent de l'employer en temps réel avec un temps de calcul négligeable. Le fait que la qualité puisse être mesurée avec une grande confiance, sans avoir accès aux signaux originaux, permet de développer des nouveaux protocoles du réseau de transmission.
Comme exemple de tels protocoles, nous avons conçu un nouveau protocole
de contrôle de débit. Ce mécanisme combine une évaluation en temps réel
de la qualité de multimédia avec un contrôleur de débit
TCP-Friendly. Il permet de fournir une meilleure qualité de
multimédia et d'économiser la largeur de bande pour une situation donnée
de réseau (en déterminant le débit de transmission exact à employer, au
lieu de donner juste une borne supérieure). En se basant sur la qualité
mesurée par le RN et sur les états de réseau (valeurs données par un
contrôleur TCP-Friendly), le contrôleur décide des paramètres qui devraient être modifiés pour réaliser cette tâche.
Avant de mettre en application ce protocole, il est nécessaire de
comprendre l'impact des paramètres, a priori importants, sur la qualité du multimédia. Les
conditions à respecter sont que la qualité doit bien se corréler avec la perception humaine et que l'analyse doit inclure l'effet combiné de tous les paramètres influant la qualité à la fois. Deux solutions possibles existent pour répondre à ces exigences : en utilisant les essais subjectifs de qualité ou celle de mesures objectives. Malheureusement, la première solution n'est pas pratique car elle est très chère et difficile à effectuer. En outre, pour atteindre un niveau minimum de précision, un nombre énorme d'évaluations est nécessaire. En ce qui concerne la seconde, la complexité du problème fait qu'il n'existe pas de telle mesure objective.
Notre méthode fournit un RN prenant en entrée plusieurs paramètres ayant une influence sur la qualité, et il est alors aisé de réaliser des études sur l'effet combiné de ces paramètres. Nous avons développé de telles études dans cette thèse.
Dans notre travail, nous avons employé deux types de RN, à savoir les RN
artificiels (ANN) et les RN aléatoires (RNN). Nous recommandons
l'utilisation des RNN car ils offrent quelques avantages. Cette
recommandation se base sur de nombreuses expériences que nous avons
effectuées pour comparer les performances de ces outils. Parmi ces
avantages, nous pouvons mentionner ce qui suit : (i) les RNN peuvent
capter avec plus de précision la relation non linéaire entre la qualité
et les paramètres ; (ii) les RNN ne souffrent pas trop du problème
de surentraînement ; (iii) dans la phase d'exécution, les RNN sont
beaucoup plus rapides que les ANN à architecture égale.
L'algorithme disponible d'apprentissage d'un RNN (de type gradient descente) peut être trop lent pour converger à une précision minimale. Par exemple, dans le problème de la vidéo, pour atteindre une erreur quadratique moyenne de 0,0025, il prend environ 5000 itérations dans 16 heures sur une station de travail standard.
Ce problème nous a motivés pour explorer des nouvelles techniques d'apprentissage pour les RNN. Ceci nous a menés à proposer deux nouveaux algorithmes. Le premier est basé sur la méthode de
Levenberg-Marquardt pour les ANN, l'une des plus
puissantes pour les ANN (temps requis pour
converger, précision, nombre d'itérations, ...). Le second est
une amélioration de la méthode générale de
Levenberg-Marquardt pour les réseaux de type feedforward. Il
s'agit d'une technique adaptative pour accélérer le processus
d'apprentissage en ajoutant l'information des dérivés d'ordre 2
dans la fonction de coût. Nous avons étudié ces deux algorithmes et nous
avons fourni les étapes et la dérivation mathématique à employer avec un RNN. Nous avons trouvé que ces deux algorithmes surpassent l'algorithme de base. Pour le problème de la vidéo discuté dans ce document et la même architecture, le deuxième algorithme proposé a pris seulement 7 itérations en moins d'une minute pour arriver à la même erreur. Nous avons évalué leurs performances pour d'autres problèmes et nous avons également fourni quelques variantes des deux techniques.
Nous avons également présenté un nouveau modèle pour la prédiction du trafic qui se sert de la périodicité à longue portée et à courte portée du processus du trafic pour fournir un modèle plus réaliste. Les modèles existants se concentrent seulement sur l'information à courte portée tout en négligeant l'information à longue portée.
Next: Extensions possibles
Up: Conclusions générales
Previous: Conclusions générales
  Contents
  Index
Samir Mohamed
2003-01-08