|
|
InvitésSébastien Destercke, HEUDIASYC, CompiègneImprécision et apprentissage automatique : une visite guidéeLe traitement ou la quantification d’incertitude dans les problèmes d’apprentissage automatique est un besoin qui arrive régulièrement (on peut penser aux problèmes où les décisions sont critiques). Dans cet exposé, je m’intéresserai au traitement de l’imprécision dans les problèmes d’apprentissage, notamment au moyen d’approches probabilistes imprecises. Après avoir rappelé les principaux aspects des approches probabilistes imprécises, je m’intéresserai à deux problèmes distincts : d’une part la production de prédictions imprécises, en discutant diverses approches permettant d’obtenir ces Courte biographie : Apres un diplôme d’ingénieur de la faculté polytechnique de Mons, j’ai obtenu ma thèse en 2008 à l’université Paul Sabatier sous la direction de Didier Dubois, avec le titre ”Représentation et combinaison d’informations incertaines : nouveaux résultats avec applications aux études de sˆureté ”. Cette dernière était financée par l’Institut de Radioprotection de Sureté nucléaire, et co-encadrée par Eric Chojnacki. J’ai ensuite été ingénieur de recherche CIRAD au sein de l’equipe Ingéenierie des Agropolymères et Technologies Emergentes, avant de rejoindre le laboratoire Heudiasyc en tant que chargé de recherche CNRS en 2011. Mes thématiques de recherche concernent principalement la modélisation de l’incertitude et du raisonnement dans l’incertain en presence d’imprécision, que ce soit dans des domaines comme l’analyse de risque, l’aide à la décision, la fusion d’information ou encore l’apprentissage automatique. Marie-Jeanne Lesot, LIP6, Sorbonne UniversitéXAI centrée utilisateur : un domaine d’application naturel pour la logique floue Au delà de la question de la performance des méthodes d’apprentissage automatique, il est devenu crucial d’augmenter la lisibilité des résultats obtenus pour permettre aux utilisateurs de les comprendre et les interpréter. Cette problématique est désignée par le terme IA explicable (eXplainable Artificial Intelligence, XAI), et dite "centrée utilisateur" lorsqu’elle s’attache à placer l’utilisateur au coeur de la conception des méthodes de génération d’explications. Depuis leur introduction par Zadeh, la théorie des sous-ensembles flous et la logique floue ont eu pour objectif de fournir une interface entre les méthodes numériques et les utilisateurs, ce qui en fait des outils naturels pour le domaine de l’IA explicable. Cet exposé propose d’illustrer leur pertinence en considérant trois exemples, les variables linguistiques, le raisonnement flou et la richesse des opérateurs d’agrégation, pour différentes tˆaches relevant de l’IA explicable centrée utilisateur : la compréhension des données elles-mêmes, la détection personnalisée d’exceptions interprétable par design et la génération d’explications contrastives. L’exposé mettra également en avant quelques points d’attention nécessaires Courte biographie : Marie-Jeanne Lesot a obtenu sa thèse en 2005 et son habilitation à diriger des recherches en 2013 à l’université Pierre et Marie Curie (Paris-VI). Elle a effectué un stage post-doctoral d’un an à l’université Otto-von-Guericke (Magdeburg, Allemagne). Depuis 2006, elle est membre de l’équipe Learning and Fuzzy Intelligent systems (LFI) du LIP6, à Patrice Perny, LIP6, Sorbonne Université (*)Modélisation des préférences et apprentissage de mesures non-additives pour l'évaluation et la décision.Les modèles développés en théorie de la décision permettent de décrire, expliquer ou prédire des comportements humains dans des tâches d’évaluation ou de décision, mais aussi d’aider un ou plusieurs individus à effectuer un choix pertinent compte-tenu de leurs préférences, ou encore de donner à des machines la capacité de prendre de manière autonome mais controlée des décisions sophistiquées dans des environnements complexes. Une des spécificités de la théorie de la décision est de proposer des modèles vérifiant des propriétés normatives garantissant la cohérence interne du système de valeur modélisé et des décisions qui en résultent. Un des challenges actuels est de produire des modèles suffisamment expressifs pour rendre compte d’une diversité de comportements possibles mais en même temps suffisamment simples pour rester interprétables et permettre l'explication des évaluations ou des décisions. Dans cette perspective nous nous intéressons dans cet exposé à l’apprentissage de fonctions d’agrégation fondées sur une mesure non-additive pour modéliser des interactions entre critères et des non-linéarités dans l'agrégation (modèle multilinéaire, intégrale de Choquet, utilités additivement décomposables). Nous discuterons notamment l’apprentissage de représentations parcimonieuses de mesures non-additives dans ces modèles et par ailleurs l’apprentissage actif de ces modèles pour une approche interactive de la décision intégrant apprentissage et optimisation. Ces travaux concernent la décision multi-attributs ou multicritère, mais aussi la décision collective et la décision dans l’incertain. |
Personnes connectées : 3 | Vie privée |