Tremplin Carnot Interfaces | Modèles probabilistes : une aide à la prise de décision dans le cadre du monitoring ou d’un diagnostic
1324
post-template-default,single,single-post,postid-1324,single-format-standard,qode-quick-links-1.0,ajax_fade,page_not_loaded,,qode_grid_1300,footer_responsive_adv,qode-content-sidebar-responsive,qode-child-theme-ver-1.0.0,qode-theme-ver-11.2,qode-theme-bridge,wpb-js-composer js-comp-ver-5.2.1,vc_responsive
 

Modèles probabilistes : une aide à la prise de décision dans le cadre du monitoring ou d’un diagnostic

Modèles probabilistes : une aide à la prise de décision dans le cadre du monitoring ou d’un diagnostic

Pierre Henri Wuillemin est maître de conférence au LIP6 au sein de l’équipe Décision. Ses travaux portent sur les modèles probabilistes qui s’appliquent à des problèmes décisionnels comme le monitoring ou le diagnostic en passant par les agents virtuels (chatbot). Il nous explique en quoi consistent ses recherches et comment elles s’orientent vers l’applicatif.

Présentez-nous vos travaux et votre équipe au sein du LIP6

Décision est une équipe dont les travaux se situent à l’intersection entre mathématiques de la décision, optimisation mathématique et Intelligence Artificielle, particulièrement dans ce que cette dernière apporte comme problématiques complexes impliquant de s’adapter à des contextes extrêmement combinatoires. Dans cette équipe, deux chercheurs permanents (Christophe Gonzales et moi-même) et leurs doctorants s’intéressent particulièrement aux modèles probabilistes complexes que sont les réseaux Bayésiens.

L’inférence concerne l’estimation de probabilité de certains évènements, tenant compte de l’ensemble des informations du contexte. L’inférence est une tâche difficile, extrêmement combinatoire. On utilise ces algorithmes dans des domaines très variées : le diagnostic (médical ou auto-diagnostic pour des systèmes autonomes), la prévision (de série temporelles, en génétique, en traitement du signal, monitoring), pour la modélisation de l’utilisateur ou du joueur (Intelligent Tutoring Systems, chatbots), etc…  Plusieurs collaborations avec EDF ont eu trait à l’analyse du risque à l’aide de modèles graphiques. Par ailleurs, nous participons actuellement à une ANR (SunStone) où il s’agit pour nous d’aider à prévoir la demande pour des réseaux de chaleur (solaires avec stockage intersaisonnier).

L’apprentissage consiste à obtenir la structure graphique ainsi que les paramètres à partir de base de données. Des contraintes différentes (données temporelles, données online, valeurs manquantes, bases de grande taille, etc.) impliquent évidemment des algorithmes spécifiques. Nous travaillons, par exemple, sur la détection d’anomalie dans des signaux temporels multi-dimensionnels.  Ces apprentissages sont capables également d’intégrer des savoirs d’experts en même temps que des données statistiques, propriété importante dans des domaines d’application où les données sont rares (par exemple, nous travaillons sur l’intégration de données ontologiques avec l’INRA).

L’aspect graphique du modèle appris fait des réseaux Bayésiens un modèle dit ‘boîte blanche’ : c’est un outil intéressant pour la mise en place d’un dialogue entre chercheurs et experts. L’expert peut s’approprier le modèle, en tirer de nouvelles connaissances qualitatives ou quantitatives ; ce qui permet d’aller vers l’explication des processus d’estimation et de décision automatiques proposés par l’outil. Dans ce cadre, les modèles et analyses causales qui s’appuient sur les modèles graphiques nous intéressent également beaucoup.

Enfin, des domaines d’applications actuels (principalement dans le cadre de collaboration avec engie, l’IRSN ou Airbus) nécessitent l’utilisation de tels modèles mais sur des variables continues. L’utilisation de variables continues transforme énormément l’ensemble des méthodes et algorithmes du domaine.

Par ailleurs, nous développons notre propre librairie en open source (cf. agrum.org ) accessible en python (pyAgrum) et que nous sommes assez heureux de voir utilisée par de nombreux chercheurs et analystes.

 

 

Pourquoi est-il intéressant pour vous de travailler avec les entreprises dans le cadre de vos recherches ?

Nous avons actuellement trois thèses dont deux CIFRE (chez IBM et au sein d’une start-up) et la troisième dans le cadre d’un projet ANR. Cela et le nombre croissant de possibles collaborations industrielles démontrent le dynamisme de ce secteur autant en recherche que pour les domaines applicatifs. Les sujets d’applications sont nombreux et de plus en plus variés : marketing, économie, bioinformatique mais aussi processus industriels. L’échange entre recherche et application est essentiel car ce travail en commun apporte souvent autant de résultats pratiques que de nouveaux questionnements théoriques.

Comment envisagez-vous l’avenir de votre domaine de recherche ?

Les modèles graphiques probabilistes sont déjà très présents (il y en a dans tous les téléphones portables par exemple), et nous ne voyons pas cette tendance s’inverser, bien au contraire. En effet, on remarque clairement une démocratisation croissante de l’utilisation des raisonnements et de la prise de décision probabiliste, ce qui amène à des domaines d’application originaux pour les réseaux bayésiens, comme l’architecture, la gestion de l’énergie, etc… Mise à part cette utilisation croissante des outils classiques, de nouvelles approches comme l’analyse causale probabilistes (calcul de probabilité par intervention) vont certainement émerger dans les années qui viennent. Cette question est l’une des révolutions du 21ème siècle selon de Dr. Pearl (prix Turing 2011) qui propose un cadre de raisonnement et de calcul causal basé sur de tels modèles. En effet, l’impact causal (par exemple dans le domaine environnemental) sera un thème majeur dans les années à venir. De même, les problématiques d’explicabilité des décisions automatiques (particulièrement dans des cadres juridiques, éthiques) vont certainement prendre de l’ampleur.