Mutant-UCB: entre bandits et algorithme évolutionnaire, une approche pour la sélection de modèles
Julie Keisler  1, 2@  , Margaux Brégère  2, 3@  
1 : Centre de Recherche en Informatique, Signal et Automatique de Lille - UMR 9189
Université de Lille : UMR9189, Centrale Lille : UMR9189, Centre National de la Recherche Scientifique : UMR9189, Centrale Lille, Université de Lille, Centre National de la Recherche Scientifique
2 : Optimisation, Simulation, Risque et Statistiques pour les Marchés de l'Energie
EDF R&D
3 : Laboratoire de Probabilités, Statistique et Modélisation
Sorbonne Université, Centre National de la Recherche Scientifique, Université Paris Cité, Sorbonne Université : UMR_8001, Centre National de la Recherche Scientifique : UMR_8001, Université Paris Cité : UMR_8001

Nous présentons la sélection de modèles comme un problème de bandits avec
un nombre infini de bras (infinite-armed bandit). Les modèles sont les bras du problème de
bandit sous-jacent, et le choix d'un bras correspond à un entraînement partiel du modèle
(allocation de ressources). La récompense est la performance du modèle sélectionné après
son entraînement partiel. Sélectionner le meilleur modèle revient à identifier le meilleur bras
(best-arm identification). On définit alors le regret comme l'écart entre la performance du
modèle optimal et celle du modèle finalement choisi. En partant de cette modélisation, nous
proposons un nouvel algorithme, appelé Mutant-UCB, qui géralise l'algorithme UCB-E
(développé par Audibert et al. 2010) au problème de bandit stochastique avec un nombre de
bras infini, et y incorpore des opérateurs des algorithmes évolutionnaires. Nous avons testé
cet algorithme pour optimiser des réseaux de neurones (architectures et hyperparamètres) sur
trois jeux de données de classification d'images. Notre algorithme se réle plus performant
que l'état de l'art sur chacun de ces jeux de données ce qui montre que cette approche hybride
est pertinente.



  • Poster
Personnes connectées : 3 Vie privée
Chargement...