Ce travail de thèse s’inscrit dans la problématique de l’adaptation d’un système d’analyse aux évolutions continues des données d’apprentissage. Ce nouveau type d'apprentissage, dit sur flux de données, impose des contraintes nouvelles telles que l’impossibilité de sauvegarder les données indéfiniment, ainsi que la nécessité d’adapter le modèle lors de l’évolution des données au cours du temps. Plus particulièrement, cette thèse s'intéresse à l'apprentissage en environnement non stationnaire des systèmes d'inférence floue évolutifs - SIF. Elle propose une formalisation du problème d'apprentissage avec l'identification des différents dilemmes associés : stabilité, plasticité, irréversibilité, etc. Le concept d'anticipation y est défini, avec la proposition d'une nouvelle architecture de SIF appelée Parallel Fuzzy Inference System – ParaFIS. Celui-ci anticipe en parallèle plusieurs versions dérivées d'un même modèle de classification, chacune basée sur des hypothèses différentes quant à l'évolution du flux de données. Nous montrons que l'anticipation apporte un gain de réactivité suite à une dérive, et permet de contourner le problème d'irréversibilité de l'apprentissage. Plusieurs stratégies d'apprentissage de ParaFIS sont présentées et étudiées en considérant différents mécanismes d'adaptation à une dérive (oubli continu, ou basé détection, évolution de la structure, etc.). Les stratégies de ParaFIS apportent des réponses différentes mais complémentaires selon les types de dérives rencontrées dans le flux de données.
Lionel Prevost, Professeur des universités, ESIA de Paris
Nicolas Ragot, Maître de conférences, Univ. De Tours
Vincent Lemaire, Docteur, HDR chercheur à Orange&Labs, Lannion
Eric Anquetil, Professeur des universités, INSA Rennes
Nathalie Girard, Maître de conférences, Univ. Rennes 1