|
|
|
Analyse et évaluation d’images d’objets multi-parties en vue d’en extraire la silhouette |
Maîtrise |
Jean-François Bernier |
Robert Bergevin (Directeur) |
|
Problème: Une image 2D est constituée de bien des pixels, représentation des textures ou des limites d’un objet. Ceci forme un ensemble de frontières d’où un cerveau humain peut aisément en reconnaître la forme principale d’une image, mais pas un ordinateur. On se base donc sur le fait que l’on désire trouver le plus bel objet multi-parties de la scène à partir d’un modèle simplifié de celle-ci, afin d’en diminuer les possibilités : toutes les frontières approximées par des droites et des arcs de cercles. |
Motivation: Résoudre un problème aussi général que de trouver un bel objet dans une scène ouvrira la porte à de nouvelles méthodes de résolution de problèmes. Les différentes recherches sur les caractéristiques communes à des contours, sur l’ordonnancement de parties de contour et sur la complétion de figures partielles vont toutes dans cette même direction et peuvent toutes se résoudre, du moins partiellement, avec le travail ici présenté.
De plus, le fait de localiser un objet dans une scène permet ensuite d’effectuer d’autres traitements sur l’objet dans le monde réel. Si l’ordinateur reconnaît une zone d’intérêt, tous les algorithmes de traitement présent pourront y être appliqués, sans avoir à être dans un environnement hyper contrôlé (arrière-plan d’une couleur connue, éclairage prédéterminé, objets à analyser déjà prévus, etc.) |
Approche: L’approche qui sera ici utilisée consistera en le choix d’images de départ à traiter, puis en la génération la plus efficace que possible des sous-ensembles sur lesquels on devra appliquer des critères d’évaluation. Ceci peut inclure, par exemple, des algorithmes de prétraitement et des reconnaissances de formes. Une note est attribuée à chaque sous-ensemble pour ainsi les classer dans un ordre logique. D’une manière plus pratique, la génération s’effectuera tout d’abord à l’aide de l’algorithme du GraphSearch, désirant ainsi avoir la possibilité de générer l’ensemble complet des solutions, mais en restreignant la recherche par application de contraintes dès que l’on sait que la suite sera non valide.
Les travaux de ce domaine sont divisés en deux approches différentes : l’analyse de bas ou de haut niveau, c’est à dire le traitement des pixels un à un dans le but d’en découvrir certaines caractéristiques communes, ou le traitement des pixels comme faisant partie d’un tout et de tenter d’en soutirer les formes. Chacune de ces études démarre à un niveau de l’échelle et y reste jusqu’aux résultats. Ici, la méthode utilisée permettra de commencer une analyse de bas niveau, pixel à pixel, mais aussi de résumer et grouper ces pixels en ensembles, de manière à permettre une étude à un niveau plus élevé (par paire d’ensembles par exemple). Finalement, des critères globaux d’évaluations seront appliqués sur l’ensemble total des regroupements de pixels, terminant ainsi l’ascension dans l’échelle de complexité. |
Défis: Deux défis majeurs sont présents dans cette recherche :
1) La bonne utilisation de critères efficaces permettant de discerner parfaitement une forme d’une autre. On pourrait considérer des critères de qualité tels quantité de bruit, angles de suivi, espace entre les contours, etc.
2) La combinatoire explosive des possibilités de choix de sous-ensembles. Si, par exemple, une image contient 100 primitives modélisant les contours, et que chaque primitive possède deux extrémités, imaginez le nombre de cas à traiter pour l’ordre dans lequel on parcourt toutes les primitives! Il est donc obligatoire d’éliminer la majorité des possibilités via certains traitements. Ainsi, l’idée générale est d’avoir un algorithme ayant la possibilité de générer l’arbre de toutes les solutions possibles, et d’élaguer cet arbre selon certains critères et contraintes.
|
|
Résultats attendus: En théorie, on s’attendrait à obtenir des silhouettes plus ou moins complètes de l’objet principal de l’image. Il est fort possible que le résultat contienne différents éléments non désirés, mais il sera toujours possible par la suite d’appliquer d’autres critères jusqu’à ce qu’on obtienne quelque chose de quasi-parfait!
On tentera de faire des rapprochements entre les méthodes déjà existantes et celles ici abordés. Des comparaisons de temps de calculs, de difficultés considérées et d’espace mémoire nécessaire s’en suivront.
|
Calendrier: septembre 2004 - septembre 2006 |
|
|
Dernière modification: 2007/10/01 par jfbernie |
|
|