|
Séminaires |
|
15-04-2011 Équipe TAO Laboratoire de Recherche en Informatique, Université Paris Sud Optimisation Stochastique et InvariancesRésumé Dans le contexte de l'optimisation en boite noire, on souhaite trouver la valeur minimale d'une fonction dont les propriétés sont inconnues. Bien souvent, les difficultés sont multiples : bruit, non-convexité, mauvais conditionnement et non-séparabilité. Malgré tout, il est possible de cumuler les invariances pour se ramener à un problème plus simple. Avec cette présentation nous verrons 1/ comment les algorithmes à estimation de distribution (issus des algorithmes évolutionnaires) peuvent être adaptés avec un gradient naturel et 2/ comment cette méthode qui généralise plusieurs algorithmes connus (CMA-ES, CEM et PBIL) met en pratique des principes d'invariance pour aborder les problèmes les plus difficiles. mots clés: optimisation, invariances, algorithmes évolutionnaires, gradient naturel.
|
||||
©2002-. Laboratoire de Vision et Systèmes Numériques. Tous droits réservés |