A non asymptotic analysis of the first component PLS regression
Luca Castelli  1@  , Clément Marteau  1, *@  , Irène Gannaz  2, *@  
1 : Institut Camille Jordan
Ecole Centrale de Lyon, Université Claude Bernard Lyon 1, Institut National des Sciences Appliquées de Lyon, Université Jean Monnet - Saint-Etienne, Centre National de la Recherche Scientifique
2 : Laboratoire des sciences pour la conception, lóptimisation et la production
Institut polytechnique de Grenoble - Grenoble Institute of Technology, Université Grenoble Alpes, Centre National de la Recherche Scientifique : UMR5272, Centre National de la Recherche Scientifique, Institut Polytechnique de Grenoble - Grenoble Institute of Technology
* : Auteur correspondant

La régression PLS (Partial Least Squares) est une méthode statistique permettant de travailler dans un cadre de grande dimension.
Cette méthode projette les covariables sur un sous-espace bien choisi, considérant les corrélations successives avec la variable à expliquer dans le but d'améliorer la qualité de prédiction.
Nous nous focaliserons sur le cas de la projection sur une composante, qui fournit un cadre utile pour comprendre le mécanisme sous-jacent. Malgré sa simplicité apparente, ce cadre présente de nombreux défis statistiques. En particulier, la non-linéarité de l'estimateur correspondant exige une attention particulière.

Nous fournissons une borne non asymptotique sur la perte quadratique en prédiction avec grande probabilité. Nous montrons que la qualité de l'estimation PLS dépend de l'inverse de l'inertie relative de la composante par rapport à la variance des covariables. Nous étendons ces résultats à l'approche Sparse PLS. En particulier, nous présentons des bornes supérieures similaires à celles obtenues avec l'algorithme LASSO, avec une contrainte supplémentaire sur les valeurs propres restreintes de la matrice de design.



  • Poster
Personnes connectées : 8 Vie privée
Chargement...