Next: Comportement de réseaux de
Up: Résultats
Previous: Résultats
  Contents
  Index
Nous avons employé l'architecture dite feedforward à trois couches. Le
nombre de neurones dans la couche d'entrée est égal au nombre de
paramètres choisis (cinq). Il y a seulement une seule sortie du RN, qui
est la valeur du MOS correspondant. L'algorithme d'apprentissage pour
l'ANN est le célèbre ``Backpropagation''. Pour le RNN, nous avons
employé l'algorithme proposé par Gelenbe [47] ainsi que d'autres
algorithmes que nous avons développés. Nous avons remarqué qu'à
précision identique, le nombre d'itérations exigés par ces nouveaux
algorithmes est plus faible que pour l'algorithme de base (le gradient). Le nombre de neurones cachés est de 5 pour le RNN et de 4 pour l'ANN.
Après la mise en uvre de l'expérience de MOS pour les 94
échantillons, nous avons divisé notre base de données (BD) en deux parties : une contenant 80 échantillons (les premiers dans le tableau 6.2) pour entraîner les RN, et l'autre contenant 14 autres échantillons pour la phase de validation. Après l'apprentissage de deux RN, nous comparons les valeurs réelles de la qualité contre celles prédites par les RN. Nous avons obtenu un facteur de corrélation de 0,9801, et une erreur quadratique moyenne de 0,108 ; c.-à-d., le RN s'adapte tout à fait bien à la manière dont les humains ont évalué la qualité de la vidéo. Le résultat est montré sur les figures 6.3 et 6(a).
Il faut noter que pour le nombre optimal de neurones cachés pour un ANN
et un RNN, les précisions obtenues sont presque les mêmes. Cependant, un
ANN peut être surentraîné facilement. Dans ce cas, l'ANN ne généralise
pas bien pour les échantillons non vus pendant la phase d'apprentissage.
Next: Comportement de réseaux de
Up: Résultats
Previous: Résultats
  Contents
  Index
Samir Mohamed
2003-01-08