Certaines techniques dites d’apprentissage machine (machine learning) sont de plus en plus employées pour concevoir des modèles mathématiques et informatiques à fonction soit de prédiction soit de décision. Dans des contextes de diagnostic médical ou de décision juridique, en particulier, il est demandé que ces modèles - ou bien les algorithmes associés ou encore leurs résultats - soient, dit-on, explicables. Parallèlement, dans ce sous-domaine de la philosophie des sciences nommé « épistémologie des modèles », il est devenu d’usage de distinguer les modèles utilisés dans les sciences au regard de leurs différentes fonctions de connaissance, selon qu’ils décrivent, prédisent, servent à comprendre, expliquent, etc. Dans cette conférence - qui présentera une partie des travaux que j’ai commencé à mener en collaboration avec Christophe Denis (LIP6, équipe ACASA) - je montrerai qu’il est possible et utile d’appliquer certaines analyses de cette épistémologie classificatrice des modèles au cas particulier des modèles à apprentissage machine. En revenant sur ce qu’il faut entendre derrière cette demande d’explication, ainsi que sur la différence entre expliquer le modèle et expliquer par le modèle, comme enfin sur le rapport entre explication et causalité, j’essaierai d’apporter quelques éclairages nouveaux sur un sujet controversé. Ce sujet est controversé car il mêle la pensée mathématique et informatique non seulement à l’IA, mais aussi à l’épistémologie des modèles comme à l’épistémologie des mathématiques appliquées.
Séminaire DKM : Apprentissage machine et explicabilité : un regard issu de l'épistémologie comparée des modèles
Séminaire
Date de début
Date de fin
Lieu
IRISA Rennes
Salle
Petri-Turing
Orateur
Franck Varenne
Département principal