GEV-Extremal random forest
Mahutin Lucien Vidagbandji  1, *@  , Alexandre Berred  1, *@  , Cyrille Bertelle  2, *@  , Laurent Amanton  2, *@  
1 : Laboratoire de Mathématiques Appliquées du Havre
Université Le Havre Normandie
2 : Laboratoire d'Informatique, du Traitement de l'Information et des Systèmes
Université Le Havre Normandie, Université de Rouen Normandie, Institut national des sciences appliquées Rouen Normandie
* : Auteur correspondant

La régression quantile est une méthode statistique couramment utilisée dans l'analyse de régression. Contrairement à la régression classique, qui se concentre sur la prédiction de la moyenne conditionnelle d'une variable dépendante en fonction des variables indépendantes, la régression quantile vise plutôt à prédire les quantiles conditionnels. Les méthodes classiques de régression quantile rencontrent des défis, particulièrement lorsque le quantile d'intérêt est extrême, en raison du nombre limité de données disponibles dans la queue de la distribution, ou lorsque la fonction quantile est complexe. Dans le cadre de cette étude, nous proposons une méthode de régression quantile extrême basée sur la théorie des valeurs extrêmes et l'apprentissage statistique pour surmonter ces défis. Conformément à l'approche de maxima de bloc (BM) de la théorie des valeurs extrêmes, nous approchons la distribution conditionnelle des BM par la distribution des valeurs extrêmes généralisée, dont les paramètres dépendent des covariables. Pour estimer ces paramètres, nous utilisons une méthode basée sur les forêts aléatoires généralisées. Les résultats obtenus à partir d'applications sur des données simulées mettent en évidence que notre méthode est compétitive avec d'autres approches de régression quantile.



  • Poster
Personnes connectées : 2 Vie privée
Chargement...