Logo LVSN
EnglishAccueil
A proposPersonnesRecherchePublicationsEvenementsProfil
A propos

 

 

 

 

REPARTI

MIVIM

Positionnement Efficace et Fiable de Caméra pour Applications Interactives
Doctorat
Jean-Nicolas Ouellet
Patrick Hébert (Directeur)
Problème:

Dans les 20 dernières années, la reconstruction 3D d’objets et de scènes à partir d’images a évolué de façon significative. Il est présentement possible de retrouver la forme d’une grande variété d’objets avec une précision sous-millimétrique. Cette technologie basée sur la vision a contribué à plusieurs domaines tels que l’inspection industrielle, le prototypage, l’archéologie, le design et l’art, etc.

Présentement, le défi auquel font face les ingénieurs consiste à améliorer la flexibilité de ces systèmes d’acquisition 3D. Relever ce défi demande de revoir des problèmes fondamentaux de vision. Un système flexible doit être auto-positionné directement à partir du contenu des images. Généralement, des centaines, voire des milliers d’images sont intégrées et la précision du positionnement doit être constante tout au long de l’acquisition. Ceci suggère une méthode entièrement automatique couplée à un système de diagnostic de la qualité de la position.

Motivation:

Le but de ce projet est de retrouver la position d’une caméra évoluant dans une scène de façon précise et efficace directement à partir des images capturées. Ceci sera accompli en exploitant des points naturellement présents dans la scène. Un système de diagnostique évaluera la qualité des positions estimées et suggérera l’ajout de cibles artificielles lorsque nécessaire. Ce projet fait parti d’un plus grand projet dont l’objectif est de réaliser un senseur capable de retrouver la surface d’objets en même temps qu’un modèle photo-réaliste de son apparence.

Approche:

La position de la caméra est obtenue à partir de points images mis en correspondance entre les images. Pour obtenir une position précise, il est essentiel que les points correspondants entre les images correspondent aussi exactement au même point physique de la scène. Après une analyse des biais affectant les détecteurs déjà existants, une méthode minimisant leurs effets sera proposée. Après avoir analysé la détection de points stables par rapport au point de vue, la mise en correspondance entre les images sera étudiée.

La mise en correspondance est généralement faite en comparant la région locale dans le voisinage du point. Pour être robuste aux déformations de perspectives du contenu de l’image, un vecteur descripteur est extrait de la texture local. Par exemple, un descripteur pourrait être un histogramme des niveaux d’intensité. La région doit contenir suffisamment d’information pour obtenir un vecteur discriminant. La plupart des détecteur de points retourne le centre de régions [SIFT,SURF], ou un point coin-jonction [Harris,Forstner]. Les détecteurs de régions identifient des points dans des régions riches en détails, permettant d’extraire des descripteurs très distincts. Par contre, la détection du centre est biaisée sous les changements de point de vue. À l’inverse, les détecteurs de jonctions identifient des points dont le voisinage est pauvre en détails. Par contre, la position d’une jonction est très précise et stable face au changement de point de vue. Nous croyons qu’il n’y a pas de compromis à faire entre obtenir un point associé à un descripteur discriminant, et un point précis. La complémentarité de ces deux types de détecteurs sera étudiée.

Pendant l’acquisition, l’analyse de l’évolution de la position 3D des points détectés permettra de d’évaluer la fiabilité d’un point en plus de fournir un diagnostique du positionnement. De plus, un modèle de l’apparence multi-vue des points sera construit pour permettre la reconnaissance des points déjà observés ayant disparus du champ de vue de la caméra. La reconnaissance de ces points est importante pour prévenir l’accumulation d’erreur dans la position de la caméra.

Calendrier: 2004-2008
Dernière modification: Apr 2 2008 11:38AM par jouellet

     
   
   

©2002-. Laboratoire de Vision et Systèmes Numériques. Tous droits réservés