L'inférence conformelle permet de construire des ensembles de prédiction en régression ou en classification et de faire de la détection de nouveautés via des méthodes issues de l'apprentissage. Cette approche permet de quantifier l'incertitude des procédures d'apprentissage. Les $p$-valeurs conformelles sont les outils de base de l'inférence conformelle, d'où l'importance d'une étude théorique de ces objets. Prendre $m$ décisions, ou bien construire $m$ régions de prédiction ou de confiance, demande de comprendre la loi des $p$-valeurs conformelles sous l'hypothèse classique d'échangeabilité. Même si les lois marginales sont connues, la loi jointe reste inconnue dans la littérature et on propose ici son étude. On présente la loi jointe des $p$-valeurs sous différents aspects: séquentiel avec les urnes de P\`olya, bayésien avec une variable latente de Dirichlet, ainsi qu'explicite via une formule combinatoire. In fine, on montre une inégalité de concentration de type DKW pour la fonction de répartition empirique des $p$-valeurs conformelles. Ce résumé reprend l'article "Transductive conformal inference with adaptive scores" de U. Gazin, G. Blanchard et E. Roquain en se focalisant sur les propriétés théoriques des $p$-valeurs conformelles.
- Poster