Invités

Sébastien Destercke, HEUDIASYC, Compiègne

Imprécision et apprentissage automatique : une visite guidée

Le traitement ou la quantification d’incertitude dans les problèmes d’apprentissage automatique est un besoin qui arrive régulièrement (on peut penser aux problèmes où les décisions sont critiques). Dans cet exposé, je m’intéresserai au traitement de l’imprécision dans les problèmes d’apprentissage, notamment au moyen d’approches probabilistes imprecises. Après avoir rappelé les principaux aspects des approches probabilistes imprécises, je m’intéresserai à deux problèmes distincts : d’une part la production de prédictions imprécises, en discutant diverses approches permettant d’obtenir ces
dernières et les difficultés associées à l’obtention de telles predictions ; d’autre part l’intégration de données incertaines, dont l’incertitude est décrite par des probabilités imprécises, et l’intérêt que peut présenter une telle intégration, notamment pour les problèmes d’apprentissage collaboratif.

Courte biographie : Apres un diplôme d’ingénieur de la faculté polytechnique de Mons, j’ai obtenu ma thèse en 2008 à l’université Paul Sabatier sous la direction de Didier Dubois, avec le titre ”Représentation et combinaison d’informations incertaines : nouveaux résultats avec applications aux études de sˆureté ”. Cette dernière était financée par l’Institut de Radioprotection de Sureté nucléaire, et co-encadrée par Eric Chojnacki. J’ai ensuite été ingénieur de recherche CIRAD au sein de l’equipe Ingéenierie des Agropolymères et Technologies Emergentes, avant de rejoindre le laboratoire Heudiasyc en tant que chargé de recherche CNRS en 2011. Mes thématiques de recherche concernent principalement la modélisation de l’incertitude et du raisonnement dans l’incertain en presence d’imprécision, que ce soit dans des domaines comme l’analyse de risque, l’aide à la décision, la fusion d’information ou encore l’apprentissage automatique.

Marie-Jeanne Lesot, LIP6, Sorbonne Université

XAI centrée utilisateur : un domaine d’application naturel pour la logique floue

 Au delà de la question de la performance des méthodes d’apprentissage automatique, il est devenu crucial d’augmenter la lisibilité des résultats obtenus pour permettre aux utilisateurs de les comprendre et les interpréter. Cette problématique est désignée par le terme IA explicable (eXplainable Artificial Intelligence, XAI), et dite "centrée utilisateur" lorsqu’elle s’attache à placer l’utilisateur au coeur de la conception des méthodes de génération d’explications. Depuis leur introduction par Zadeh, la théorie des sous-ensembles flous et la logique floue ont eu pour objectif de fournir une interface entre les méthodes numériques et les utilisateurs, ce qui en fait des outils naturels pour le domaine de l’IA explicable. Cet exposé propose d’illustrer leur pertinence en considérant trois exemples, les variables linguistiques, le raisonnement flou et la richesse des opérateurs d’agrégation, pour différentes tˆaches relevant de l’IA explicable centrée utilisateur : la compréhension des données elles-mêmes, la détection personnalisée d’exceptions interprétable par design et la génération d’explications contrastives. L’exposé mettra également en avant quelques points d’attention nécessaires
pour garantir l’interprétabilité des approches floues et des résultats qu’elles fournissent.

Courte biographie : Marie-Jeanne Lesot a obtenu sa thèse en 2005 et son habilitation à diriger des recherches en 2013 à l’université Pierre et Marie Curie (Paris-VI). Elle a effectué un stage post-doctoral d’un an à l’université Otto-von-Guericke (Magdeburg, Allemagne). Depuis 2006, elle est membre de l’équipe Learning and Fuzzy Intelligent systems (LFI) du LIP6, à
Sorbonne Université. Ses thématiques de recherche se placent dans le cadre de l’intelligence artificielle et l’apprentisage automatique tenant compte d’un objectif d’interprétation et favorisant l’intégration de sémantique à différents niveaux : la représentation des données, les connaissances qui en sont extraites ainsi que les outils d’extraction. Elles s’inscrivent en
cela dans le contexte aujourd’hui appelé eXplainable Artificial Intelligence, XAI. Elles incluent les mesures de similarité, le clustering flou, les résumés linguistiques, la cotation d’information et la génération d’explications, notamment sous la forme d’exemples contre-factuels.

Patrice Perny, LIP6, Sorbonne Université (*)

Modélisation des préférences et apprentissage de mesures non-additives pour l'évaluation et la décision.

Les modèles développés en théorie de la décision permettent de décrire, expliquer ou prédire des comportements humains dans des tâches d’évaluation ou de décision, mais aussi d’aider un ou plusieurs individus à effectuer un choix pertinent compte-tenu de leurs préférences, ou encore de donner à des machines la capacité de prendre de manière autonome mais controlée des décisions sophistiquées dans des environnements complexes. Une des spécificités de la théorie de la décision est de proposer des modèles vérifiant des propriétés normatives garantissant la cohérence interne du système de valeur modélisé et des décisions qui en résultent. Un des challenges actuels est de produire des modèles suffisamment expressifs pour rendre compte d’une diversité de comportements possibles mais en même temps suffisamment simples pour rester interprétables et permettre l'explication des évaluations ou des décisions. Dans cette perspective nous nous intéressons dans cet exposé à l’apprentissage de fonctions d’agrégation fondées sur une mesure non-additive pour modéliser des interactions entre critères et des non-linéarités dans l'agrégation (modèle multilinéaire, intégrale de Choquet, utilités additivement décomposables). Nous discuterons notamment l’apprentissage de représentations parcimonieuses de mesures non-additives dans ces modèles et par ailleurs l’apprentissage actif de ces modèles pour une approche interactive de la décision intégrant apprentissage et optimisation. Ces travaux concernent la décision multi-attributs ou multicritère, mais aussi la décision collective et la décision dans l’incertain.

(*) Les travaux présentés résultent de collaborations avec Margot Hérin, Nataliya Sokolovska et Nawal Benabbou.

Courte biographie : Patrice Perny est professeur d'informatique à Sorbonne Université (Paris, France), chercheur au LIP6 où il est responsable de l'équipe Décision depuis une vingtaine d'année. Il a une formation en mathématiques, informatique et recherche opérationnelle et a soutenu son doctorat en 1992 à l'université Paris Dauphine et son habilitation à diriger les recherches en 2000 à l'université Pierre et Marie Curie. Ses thèmes de recherche concernent la théorie algorithmique de la décision, l'intelligence artificielle, la recherche opérationnelle et les systèmes de décision. Ses contributions concernent la modélisation des préférences, l'apprentissage de modèles de décision, l'optimisation multi-objectifs, la décision et l'optimisation dans l'incertain et de risque, la décision collective et le choix social. Il travaille sur l'élaboration de modèles de préférences pour la prise de décision, et sur le développement d'algorithmes permettant la détermination rapide des solutions préférées dans des problèmes de décision combinatoires. Les applications potentielles concernent les systèmes d'aide à la décision (préparation rationnelle de décisions humaines importantes) et la prise de décision automatique (agents de décision autonomes). Il a publié  plus d'une centaine d'articles dans des revues et conférences internationales majeures d'intelligence artificielle et de recherche opérationnelle et participé à de nombreux ouvrages collectifs sur la décision en IA/RO.

Personnes connectées : 3 Vie privée
Chargement...