Logo LVSN
EnglishAccueil
A proposPersonnesRecherchePublicationsEvenementsProfil
A propos

 

 

 

 

CERVIM

REPARTI

MIVIM

Fusion des informations d’un capteur hybride (infrarouge et visible) dans le contexte de la détection et de la surveillance de piétons.
Maîtrise
Hélène Torresan
Xavier Maldague (Directeur)
Patrick Hébert (Codirecteur)
Problème: La détection du mouvement humain est devenue de plus en plus importante au cours des dernières années. De nombreuses applications au niveau de la sécurité et de la surveillance sont en pleine émergence. Le but de ce projet est de développer un prototype combinant un capteur visible et infrarouge permettant de détecter et suivre des piétons dans le temps. Plus spécifiquement, la démonstration sera réalisée dans un environnement où circulent de un à trois piétons dans une plage de distance variant de 9 à 21 mètres à l’intérieur d’une scène affectée par diverses conditions d’éclairage et atmosphériques comme le vent, la neige, la nuit et le jour.
Motivation: L’ajout d’un capteur infrarouge est susceptible d’apporter des informations complémentaires aux images acquises dans la bande du visible. Les images visibles offrent un contenu riche où la détection d’humains peut cependant être limitée par un changement au niveau des conditions d’éclairage. Les images infrarouges permettent généralement d’obtenir un meilleur contraste entre l’humain et son environnement mais demeurent peu robustes aux changements de température et au vent. Une fusion intelligente des informations provenant des deux capteurs pourrait donc permettre de diminuer les fausses alarmes et les piétons non détectés afin d’augmenter les performances d’un système de détection et de suivi d’humains dans le temps.
Approche: La détection de piétons est un processus qui englobe plusieurs étapes interdépendantes. La qualité des étapes d’acquisition des données, de localisation des zones de mouvement, de classification et suivi dans le temps est cruciale pour une détection plus robuste. L’étape d’acquisition des données nécessite la constitution d’une base de données regroupant des séquences d’images visibles et infrarouges acquises sous différentes conditions climatiques et d’éclairage. Les séquences d’images doivent être synchronisées, corrigées et calibrées géométriquement et en température. L’étape d’extraction et de suivi dans le temps des régions d’intérêt exploite le mouvement et s’effectue indépendamment pour chacune des séquences. Un appariement des régions d’intérêt est développé et exploite les contraintes épipolaires. Finalement pour l’étape de classification, des paramètres critiques caractérisant la présence d’humains sont déterminés sur la base de caractéristiques de température, géométrie et ratios comparés au reste de l’environnement.
Défis: La détection et le suivi d’humains dans des environnements intérieur et extérieur pose de nombreux défis. Des algorithmes de traitement pour la détection d’humains existent déjà au laboratoire de vision et systèmes numériques et fonctionnent pour des images visibles (extraction des régions d’intérêt, étalonnage géométrique). Un des défis est d’adaper ces algorithmes pour le traitement des images infrarouges. Ensuite, les limites respectives des deux capteurs doivent être clairement identifiées afin d’en extraire les informations complémentaires. Le plus grand défi reste cependant de développer et de proposer une méthode de fusion intelligente permettant d’améliorer la robustesse de la détection d’humains en diminuant les fausses alarmes et les piétons non détectés.
Applications: Les applications d’un capteur visible pour un système de détection et de suivi de piétons sont déjà très nombreuses et peuvent être utiles dans plusieurs environnements publics (stationnement, aéroports, etc). Avec l’ajout d’un capteur infrarouge, de tels systèmes deviennent plus robustes et fonctionnent également sous différentes conditions d’éclairage et climatiques, de nuit comme de jour, en été comme en hiver.
Calendrier: septembre 2002- décembre 2004
Dernière modification: 2007/09/28 par torresan

     
   
   

©2002-. Laboratoire de Vision et Systèmes Numériques. Tous droits réservés