Cette présentation aborde deux aspects clés de l'adaptation de domaine non supervisée : le Label Shift et son extension, l'open set label shift. Le Label Shift postule que la divergence entre les ensembles d'entraînement et de test réside uniquement dans la distribution des labels, tandis que l'open set label shift permet l'émergence de nouvelles classes dans la cible, tout en maintenant les distributions conditionnelles des classes invariantes. L'accent est mis sur l'estimation des proportions des labels dans l'échantillon test, un problème appelé quantification dans la littérature. S'appuyant sur des travaux antérieurs utilisant un embedding des classes via un classifier ou par des méthodes à noyaux, nous proposons d'utiliser la distance de Mahalanobis en estimant les matrices de covariances des différentes classes afin d'exploiter toute l'information disponible et non plus simplement les moyennes des embeddings. Dans cette présentation, nous mettons en avant deux théorèmes de consistance de cette méthode dans les deux contextes étudiés et appuyons nos résultats par des expériences numériques.
- Poster