Effet de la complexité du réseau LSTM sur l'explicabilité en Maintenance Prédictive
Mouhamadou Lamine Ndao  1, 2, *@  , Genane Youness  1, 2, *@  , Ndèye Niang  2@  , Gilbert Saporta  2@  
1 : CESI-LINEACT
CESI LINEACT
2 : CEDRIC. Méthodes statistiques de data-mining et apprentissage
Centre d\'études et de recherche en informatique et communications, Centre d\'études et de recherche en informatique et communications, Centre d\'études et de recherche en informatique et communications, Centre d'études et de recherche en informatique et communications
* : Auteur correspondant

La nature complexe des données en maintenance prédictive impose souvent l'utilisation de modèles d'apprentissage profonds. Malgré leur efficacité dans la prédiction du RUL (durée de vie résiduelle des machines), ces « boites noires » fournissent des résultats qui ne sont pas directement compréhensibles. Ainsi, des méthodes XAI post hoc sont généralement utilisées pour les expliquer. La modélisation inclut habituellement le choix de la complexité du modèle telle que la profondeur du réseau. Par ailleurs, on pourrait se demander si une complexité élevée du modèle ne freine pas la capacité des méthodes XAI dans l'explication des prédictions. Cette étude examine l'effet de la profondeur du réseau LSTM sur la qualité des explications des méthodes XAI, post hoc, locales, LIME, SHAP et L2X, utilisant huit métriques d'évaluation. Les résultats obtenus montrent que la qualité des explications peut suivre une certaine tendance en fonction de la complexité du réseau et selon la propriété de l'explication évaluée. Ces résultats ont montré également le manque de concordance entre les métriques d'évaluation, impliquant ainsi un besoin de cadre consensuel plus fiable dans l'évaluation des méthodes XAI.



  • Poster
Personnes connectées : 6 Vie privée
Chargement...