[an error occurred while processing this directive]

Olivier Kermorgant

| Coordonnées | Cursus | Recherches | Publications | Logiciels | Enseignements |

Coordonnées


Cette page n'est plus maintenue
Olivier Kermorgant est maintenant maitre de conférence à l'université de Strasbourg (lien)

photo

Cursus

J'ai obtenu en 2004 le diplôme de l'École Centrale Paris. J'ai ensuite intégré le centre d'Arcelor Research à Metz où j'ai effectué des travaux d'innovation et d'optimisation du process de galvanisation et du train à bandes, ainsi que de la recherche générale en planification expérimentale.

Depuis Octobre 2008 je prépare une thèse intitulée "Fusion d'informations multi-capteurs en asservissement visuel" dans l'équipe Lagadic, sous la direction de François Chaumette dans le cadre de l'ANR Scuav. L'objectif de cette thèse est la conception d'une loi de commande permettant la fusion des informations provenant de différents capteurs. L'originalité de l'approche est de fusionner directement au niveau de la commande, et non en reconstituant l'état du robot. Une première étape est d'assurer un bon calibrage du robot et de ses capteurs, avant d'exhiber un principe général pour la loi de commande. Les applications portent sur l'asservissement visuel, avec des extensions à la coopération multi-caméra, l'évitement de butées articulaires et l'asservissement visuel hybride.

Plus d'informations dans mon curriculum vitae.

Thématiques de recherche

Auto-calibrage de capteur en ligne

Le principe est d'appliquer le formalisme du modèle cinématique du capteur, qui relie les variations du signal à la vitesse de l'effecteur du robot. Durant une tâche quelconque, ces grandeurs sont reliées par la matrice d'interaction du capteur (qui dépend des paramètres intrinsèques) et par une matrice de changement de repère de torseur (qui dépend des paramètres extrinsèques). Le jacobien du modèle cinématique peut s'exprimer analytiquement, ce qui permet de déterminer les paramètres du capteur avec les informations utilisées pour réaliser une tâche.

IEEE ICRA'2010

Fusion bas niveau

Principe

La fusion bas niveau est l'intégration de données provenant de différents capteurs directement dans la commande. Sans reconstruire d'états et en restant dans l'espace des données capteurs, la consigne de vitesse est calculée pour minimiser l'erreur globale sur l'ensemble de ses composantes. L'utilisation de mesures différentes au sein d'un même vecteur n'est pas nouveau : l'asservissement visuel 2D1/2 utilise déjà ce formalisme. Son extension à plusieurs capteurs conduit à différentes applications.

Coopération multi-caméras

Une situation connue utilisant plusieurs capteurs est la coopération entre deux caméras, l'une embarquée et l'autre déportée. La caméra embarquée observe un objet fixe tandis que la caméra déportée observe une mire fixée sur l'effecteur du robot. Les deux schémas peuvent être regroupés en un seul, permettant ainsi d'étudier le comportement de la fusion bas niveau.

IEEE ICRA'2011

Évitement de butées articulaires

En considérant la mesure de position des articulations comme des informations capteur, le formalisme de la fusion bas niveau permet une nouvelle approche de l'évitement de butées notamment pour les tâches de rang plein. Les validations sont réalisées sur le robot Viper à 6 degrés de liberté.

IEEE/RSJ IROS'2011

Asservissement visuel hybride

Une approche similaire à l'évitement de butées conduit à une nouvelle solution pour le problème de la visibilité en asservissement visuel 3D. Pendant une telle tâche, des informations 2D sont prises en compte dans la loi de commande afin d'éviter que l'objet ne sorte de l'image. Le comportement obtenu est très proche de la trajectoire rectiligne.

IEEE/RSJ IROS'2011

Publications

Liste complète (et fichiers postcript ou pdf si disponibles)

Enseignements

[an error occurred while processing this directive]