Modèles de Markov dérivants pour l'apprentissage de l'escalade
Emmanouil Kalligeris * , Vlad Barbu  1, *@  , Guillaume Hacques * , Ludovic Seifert * , Nicolas Vergne  2, *@  
1 : Laboratoire de Mathématiques Raphaël Salem
Université Rouen Normandie, CNRS UMR 6085
2 : Laboratoire de Mathématiques Raphaël Salem
Université Rouen Normandie, CNRS UMR 6085
* : Auteur correspondant

Cette recherche explore la dynamique de l'apprentissage à long terme de l'escalade en utilisant des modèles de Markov dérivants. L'escalade implique des prises de décisions complexes qui exigent une coordination visuo-motrice efficace et une exploration attentive de l'environnement. Les modèles de Markov dérivants représentent une catégorie de processus de Markov contraints hétérogènes adaptés à la modélisation de données présentant une certaine hétérogénéité. En appliquant ces modèles aux données réelles de compétences visuo-motrices, notre objectif est de dévoiler la dynamique persistante de l'apprentissage de l'escalade. Pour ce faire, nous conduisons une étude de cas réelle, fournissant des résultats qui (i) contribuent à la compréhension de l'acquisition de compétences dans des environnements physiquement contraints et (ii) offrent un aperçu du rôle crucial de l'exploration et de la coordination visuo-motrice dans le processus d'apprentissage.



  • Poster
Personnes connectées : 4 Vie privée
Chargement...