Logo LVSN
EnglishAccueil
A proposPersonnesRecherchePublicationsEvenementsProfil
A propos
Séminaires


Les Séminaires CerVIM, Université Laval ont lieu le vendredi à 11h00.
Veuillez consulter le programme pour plus de détails.

 

 

 

 

CERVIM

REPARTI

MIVIM

17-04-2009

Philippe Giguère
Étudiant au doctorat, Mobile Robotics Lab


Apprentissage non-supervisé en présence de continuités, dans un contexte de perception artificielle en robotique mobile



Résumé

La robotique mobile connait, depuis quelques années, un essor important tant au niveau de la recherche pure que de son applicabilité dans la société. Aussi, avec l’augmentation de la qualité des produits développés grâce à cette recherche, de plus en plus d’applications concrètes émergent: drones de surveillances, robots démineurs, véhicules sous-marins automatisés. L’avenir de la robotique mobile repose en parti sur la capacité de ces systèmes à bien reconnaître et identifier leur environnement immédiat. Mes travaux de recherches s’inscrivent dans cette foulée, et s’orientent autour de la perception artificielle par des systèmes intelligents déployés en milieu réel.

Dans cette présentation, je vais parler d’une nouvelle technique d’apprentissage non-supervisé (clustering) développé pour des systèmes présentant des continuités temporelles ou spatiales. Cette technique consiste à entraîner un classifieur quelconque (k-plus proches voisins, classifieur linéaire, gaussiennes). L’entraînement consiste à trouver les paramètres du classifieur minimisant une fonction objective. Cette fonction objective prend en entrée les probabilités calculées par le classifieur, ainsi que le nombre de classes désirées. Elle pénalise les solutions qui varient rapidement dans le temps, ou qui ne discrimine pas suffisamment (i.e. peu de variance dans ces probabilités). Contrairement à d’autres méthodes, aucun paramètre de régularisation n’est nécessaire.

Je vais aussi présenter trois exemples concrets où cette technique fut employée avec succès, afin d’apprendre automatiquement à reconnaître différents types de surfaces ou terrains. Le premier exemple est celui d’un robot marcheur qui utilise ses capteurs internes (accéléromètres, gyroscopes, etc.) pour l’identification. Le deuxième exemple est un robot commercial, dérivé du célèbre Roomba de iRobot, auquel nous avons greffé un capteur tactile sensible aux textures. Le dernier exemple sera un robot nageur qui utilise une caméra pour apprendre à différentier l’apparence du sable et d’un récif de corail.


À NOTER que ce séminaire de 40 minutes sera donné à 13h30 dans la salle PLT-3775.

Les séminaires du LVSN ont habituellement lieu le vendredi à 11h30 dans la salle PLT-3775.




     
   
   

©2002-. Laboratoire de Vision et Systèmes Numériques. Tous droits réservés