Séminaires équipe CID
- 22/04/2025 – Anh Vu TUAN
Maximality and E‑admissibility are arguably two of the most important criteria in decision-making with imprecise probability. However, their application in optimization remains limited. In my thesis, I apply these criteria to a broad class of optimization problems with uncertain objectives, aiming to compare and select non-dominated solutions. The main contribution is that these solutions can be characterized using well-known concepts in optimization, which in turn lead to several computationally tractable results. - 25/03/2025 – Eric WÜRBEL
« Evaluation expériementale des opérateurs de changement de croyance » - 11/02/2025 – Mélina VERGER
Ma thèse a consisté à quantifier, qualifier et réduire l’iniquité algorithmique issue des modèles d’apprentissage automatique. En éducation, de tels modèles sont utilisés dans le but d’améliorer l’expérience d’apprentissage humain (e.g., prédire le décrochage scolaire, personnaliser les contenus pédagogiques). Or, ces modèles fondés sur les données présentent des biais, souvent en défaveur de groupes historiquement défavorisés.
Ainsi, j’ai conçu une mesure interprétable, MADD, pour approfondir l’évaluation de ces iniquités. De plus, j’ai développé une méthode de réduction de l’iniquité utilisant la MADD, ainsi que de nouvelles méthodes d’évaluation pour prendre en compte ce qu’on appelle les « discriminations intersectionnelles ».
Des expériences menées dans divers contextes éducatifs et démographiques (Afrique, Philippines, Haïti, Royaume-Uni, France) ont permis de révéler des iniquités algorithmiques non détectées par les méthodes existantes. Enfin, une librairie Python, maddlib, a été créée pour utiliser toutes ces méthodes facilement.
08/10/2024 – Jürgen Landes : Assessing Inference to the Best Explanation Posteriors for the Estimation of Economic Agent-Based Models
- Explanatory relationships between data and hypotheses have been suggested to play a role in the formation of posterior probabilities. This suggestion was tested in a toy environment and supported by simulations by Glass. We here put forward a variety of inference to the best explanation approaches for determining posterior probabilities by intertwining Bayesian and inference to the best explanation approaches. We then simulate their performances for estimation of parameters in the Brock and Hommes agent based model. We find that performances depend on circumstances and the evaluation metric. However, most of the time our suggested approaches outperform the Bayesian approach.
12/09/2024 – Visit of JC Schoemann, lecturer at Stellenbosch University in South Africa
Part 1 – Introduction, purpose of visit and overview of research:
I will first introduce Stellenbosch University and our research lab, including a brief overview of some past projects. I will then elaborate on the purpose of my visit, before providing a one-slide summary of three personal projects, namely degenerate Gaussian distributions, locally adaptive Bayesian optimization and multi-agent reinforcement learning. This will be followed by a research proposal into a unification of model- and data-based approaches for autonomous driving.
Part 2 – Degenerate Gaussians, Bayesian optimization and reinforcement learning:
This talk will be divided into three sections to address the topics that I already introduced briefly. The first will look at extending the capabilities of Gaussian inference to settings where the covariance matrix is singular. The second improves on Bayesian optimization using Gaussian processes and results in a black box optimization algorithm that performs very well compared to the current state of the art. Finally, I will discuss reinforcement learning in the context of multi-player strategy games with partial information and limited communication.
19/09/2024 Kim-Dung Tran: Tensor Decomposition and Its Applications in Machine Learning
In multilinear algebra, whose basic role is played by the concepts of a tensor product, a tensor on a vector space and a multilinear form, a tensor decomposition (TD) is any scheme for expressing “data tensor” (M‑way array) as a sequence of elementary operations acting on others, often simpler tensors. TD has found promising applications in different domains and recently been conjectured as a key player in shaping a next generation of deep learning techniques. Concisely, under certain conditions, a given family of neural networks can be approximated/expressed using a family of tensorized neural networks with possibly much smaller numbers of parameters. In this project, we aim to develop scalable probabilistic classifiers for high dimensional objects such as images, video and speech; and scalable ensemble learning methods for high-dimensional objects. Furthermore, we incorporate the achieved results into the development of “probabilistic multi-dimensional classification”, which is an on-going project at the Heudiasyc laboratory.
02/07/2024 – SYRI and CID Collaborative Workshop
- Statistical guarantees for object detection
- Harnessing Superclasses for Learning from Hierarchical Databases
- Enhancing Localization through Perception: Applications of Vector Maps
- Introduction à des architectures de réseaux de neurone de traitement des événements
- Estimations d’incertitudes pour le calibrage entre capteurs par apprentissage profond
- Présentation de début de thèse: Estimation de l’incertitude et de l’intégrité pour les systèmes de perception basés sur l’apprentissage automatique
30/05/2024 – Nicolas Schreuder : Fairness in machine learning: a study of the Demographic Parity constraint
In various domains, statistical algorithms trained on personal data take pivotal decisions which influence our lives on a daily basis. Recent studies show that a naive use of these algorithms in sensitive domains may lead to unfair and discriminating decisions, often inheriting or even amplifying biases present in data. In the first part of the talk, I will introduce and discuss the question of fairness in machine learning through concrete examples of biases coming from the data and/or from the algorithms. In a second part, I will demonstrate how statistical learning theory can help us better understand and overcome some of those biases. In particular, I will present a selection of recent results from two of my papers on the Demographic Parity constraint, a popular fairness constraint. In particular I will describe an interesting link between this constraint and optimal transport theory.
28/05/2024 – Ulisses Braga-Neto : Recent Progress in Training PDE-Constrained Deep Neural Networks
Scientific machine learning (SciML) is a promising new field that combines scientific computation and machine learning to achieve results that neither one can separately. PDE-constrained deep neural networks are a core SciML technology, which has been deployed in a variety of scientific and engineering problems with remarkable success. The best-known algorithm in this class is the so-called physics-informed neural network (PINN). However, PINNs are based on minimizing a complex multi-objective loss function, which often makes training these networks difficult. In this talk, we present new approaches that can address this issue. The first is the Self-Adaptive PINN (SA-PINN), which weights each data point in the multi-objective loss function, in such a way that the weight increases if the corresponding loss increases. Another approach we have proposed is the characteristic-informed neural network (CINN), which completely does away with the multi-objective loss function, by imbedding a hyperbolic PDE in the neural network architecture itself. We also show how particle swarm optimization can be used to train PINNs with quantified uncertainty and briefly describe an adaptive artificial viscosity approach to dealing with PDEs with shocks. Finally, we intend to describe briefly ongoing activities and multidisciplinary research efforts at the SciML Lab of the Texas A&M Institute of Data Science (TAMIDS).
17/05/2024 – Mohamed-Amine Abrache
« Innovations dans les Environnements Informatiques d’Apprentissage : De l’Optimisation de l’Évaluation par les Pairs à l’Usage de la Réalité Virtuelle«
Cette présentation met en lumière des travaux de recherche portant sur des approches innovantes pour la répartition des tâches d’évaluation par les pairs dans les environnements d’apprentissage informatisés, utilisant des techniques d’apprentissage automatique et d’optimisation combinatoire. Un projet complémentaire sera également abordé, traitant de la conception d’un agent d’intervention pédagogique visant à stimuler la motivation des apprenants par l’analyse des traces d’apprentissage. Enfin, la présentation se conclura par des résultats concernant le développement d’une plateforme d’apprentissage virtuel dédiée à l’application de protocoles d’expérimentation animale. Ces travaux illustrent le potentiel des technologies éducatives pour l’apprentissage et la formation.
16/05/2024 – Cédric Buron : Prendre une décision: de la prescription à la modélisation
Comment prenons-nous des décisions ? Cette question peut être posée sous plusieurs angles. Dans ce séminaire, nous aborderons plusieurs manières de voir cette problématique. Nous aborderons dans un premier temps des approches prescriptives, normatives, s’appuyant sur des notions de mathématiques et présupposant une certaine rationalité de la part des agents, soit pour un concepteur d’un mécanisme afin de créer une incitation à agir selon une certaine stratégie à l’aide des mécanismes d’incitation, soit au contraire pour trouver la stratégie optimale étant donné un certain cadre d’action grâce à la théorie des jeux computationnelle, à travers l’exemple de la négociation automatique. Nous nous intéresserons ensuite à la construction de cette rationalité à partir de l’expertise humaine au moyen d’outils issus de l’aide à la décision multicritères avant de remettre en cause la notion même de rationalité en présentant des projets de modélisation de comportements humains à la frontière des sciences humaines et sociales, en particulier dans des cas où le présupposé de rationalité mathématique ne s’applique pas.
10/05/2024 – Raidi Ktari
« Toward credible belief base revision«
This presentation deals with belief base revision, a form of belief change which consists in restoring consistency with the intention of incorporating a new piece of information from the environment, while minimally modifying the agent’s belief state represented by a finite set of propositional formulas. In an effort to guarantee more reliability and rationality for real applications while performing revision, we come up with the idea of credible belief base revision. We define two new formula-based revision operators using tools offered by evidence theory (also known as Belief Function Theory). These operators stem from consistent sub-bases maximal with respect to credibility instead of set inclusion or cardinality.
07/05/2024 – Jinfeng Zhong
« When factorization meets argumentation: towards argumentative explanations for recommendations«
Existing recommender systems frequently utilize factorization-based models, which are known for their efficiency in predicting ratings. However, the explicit semantics of the latent factors they learn are not always clear, complicating the task of explaining the recommendations. In contrast, argumentation-based methods have emerged as a significant tool in the realm of explainable artificial intelligence. In response, we propose a novel framework that synergizes factorization-based methods with argumentation frameworks (AFs). The integration of AFs provides clear semantics at each stage of the framework, enabling it to produce easily understandable explanations for its recommendations. In this framework, for every user-item interaction, an AF is defined in which the features of items are considered as arguments, and the users » ratings towards these features determine the strength of these arguments. This perspective allows our framework to treat feature attribution as a structured argumentation procedure, where each calculation is marked with explicit semantics, enhancing its inherent interpretability. Additionally, our framework seamlessly incorporates side information, such as user contexts, leading to more accurate predictions. We anticipate at least three practical applications for our framework: creating explanation templates, providing interactive explanations, and generating contrastive explanations. Through testing on real-world datasets, we have found that our framework, along with its variants, not only surpasses existing argumentation-based methods but also competes effectively with current context-free and context-aware methods.
06/05/2024 – Ikram Chraibi Kaadoud
« Comprendre le comportement des systèmes complexes en utilisant l’interprétabilité et l’explicabilité«
Au cours du processus d’apprentissage, un humain développe une représentation mentale de la tâche qu’il est en train d’apprendre, tandis qu’un algorithme d’apprentissage automatique développe une représentation latente.
Avec chaque donnée traitée ou nouveau stimulus, cette représentation et ses informations associées évoluent : elle peut être modifiée ou consolidée. Cependant, elle reste toujours implicite.
Dans cette présentation, j’introduis une méthodologie pour extraire la représentation latente et les états latents associés à un système donné à partir de données séquentielles sous la forme d’un automate à états finis sur deux cas d’utilisation différents : les réseaux récurrents avec LSTM dans le contexte de la modélisation cognitive des connaissances d’experts, et les agents autonomes dans le contexte de la robotique développementale.
Ce travail, à l’origine dans le domaine de l’interprétabilité des réseaux de neurones récurrents, a été étendu et adapté au domaine de l’explicabilité pour fournir des explications locales du comportement de systèmes complexes, c’est-à-dire une installation avec des capteurs, sur des plages de temps déterminées à partir de données hétérogènes.
Dans le cadre de ce travail, j’aborderai également des questions liées à l’IA explicable, à l’acceptabilité des explications, à l’interaction homme-machine, à la modélisation cognitive et à la robotique développementale.
16/01/2024 – Ismaïl Baaj
« On the handling of inconscient systems of fuzzy relational equations«
Dans cette présentation, j’étudie les systèmes d’équations relationnelles floues incompatibles, qui se répartissent en deux classes : ceux basés sur la composition max‑T, où T est une t‑norme parmi le minimum, le produit ou la t‑norme de Lukasiewicz, et ceux basés sur la composition min->, où -> est un implicateur résiduel parmi l’implication de Gödel, l’implication de Goguen ou l’implication de Lukasiewicz. Pour traiter l’incompatibilité de ces systèmes, j’établis des formules analytiques explicites pour calculer la distance de Tchebyshev (définie par la norme L‑infini) entre le second membre du système incompatible et l’ensemble des seconds membres des systèmes compatibles définis avec la même matrice : celle du système incompatible. L’étape principale pour obtenir ces formules consiste à montrer que la distance de Tchebyshev est déterminée par une inégalité vectorielle. Les formules obtenues m’ont permis d’étudier l’ensemble des approximations de Tchebyshev du second membre d’un système incompatible, les solutions approximatives d’un système incompatible et les sous-systèmes compatibles maximaux d’un système incompatible. Ces outils peuvent être utiles pour des applications basées sur les systèmes d’équations relationnelles floues, telles que les mémoires associatives ou l’apprentissage des paramètres des règles d’un système à base de règles possibilistes.
- 28/02/2023 - Quentin Cappart (MCF Plytechnique Montréal)
« Learning to bound using decision diagrams and reinforcement learning » - 19/06/2023 – Maxime Vaillant, Hugo Martin (étudiants master UTC, stages Orange Labs)
« Spiking Neural Networks: an introduction » - 5/09/2023 – Yara Maher Gomaa
« Introduction to PhD Thesis:Gamified E‑Learning Systems Based on Ontologies: Teaching Perspective - 12/09/2023 – Jürgen Landes (MCF université de Milan)
« An Objective Bayesian Approach to KR » - 26/09/2023 – Elise Perrotin (postdoc au CRIL à Lens sur la logique épistémique)
« Lightweight epistemic logic, planning, and more » - 26/10/2023- Insaf Setitra
« Apprentissage automatique, apprentissage profond et vision par ordinateur et leurs applications » - 31/10/2023 – Nacira Abbas
« Formal Concept Analysis for Discovering Link Keys in the Web of Data » - 7/11/2023 – Alessandro Leite
« Leveraging Evolutionary-based Approaches for Interpretable Machine Learning » - 14/11/2023 – Malika Ben Khalifa
« Dealing with uncertainty in fake reviews detection within the belief function » - 16/11/2023 – Ikram Chraibi Kaadoud
« Comprendre le comportement des systèmes complexes en utilisant l’interprétabilité et l’explicabilité » - 27/11/2023 – Jürgen Landes (MCF université de Milan)
« The Quest for Good Information » - 21/11/2023 – Soundouss Messoudi
« Conformal uncertainty sets using foundation models »
Professeur à l’Université de Compiègne, Heudiasyc
Le mercredi 22 janvier à 14H, en amphithéatre Bessel
Abstract:
The Dempster-Shafer theory of belief functions is a formal framework for modeling and reasoning with uncertainty. It is based on the representation of independent pieces of evidence by belief functions, and on their combination by an operator called Dempster’s rule. In this talk, we show that the weighted sum and softmax operations performed in logistic regression classifiers and, for instance, in the output layer of feedforward neural networks can be interpreted in terms of evidence aggregation using Dempster’s rule of combination. From that perspective, the output probabilities computed by such classifiers (including also support vector machines) can be seen as being derived from some belief functions, which can be laid bare and used for decision making or classifier fusion. This finding suggests that the links between machine learning and belief functions are closer than is usually assumed, and that Dempster-Shafer theory provides a suitable framework for developing new machine learning algorithms.
Directeur de Recherche CNRS, CRIL (Centre de Recherche en Informatique de Lens)
Le mardi 3 décembre 2019 à 14H, en GI 16
Résumé: Nous présentons la plate-forme www.coscinus.org. Cette plate-forme permet, à partir de l’analyse des données issues de DBLP, de déterminer des proximités entre supports de publication (conférences et journaux) en informatique, et de faire apparaître des domaines de la discipline en réalisant un partitionnement des supports. L’idée étant que deux supports sont considérés comme proches si de nombreux auteurs publient conjointement dans ces deux supports. On peut donc obtenir une carte de la discipline basée uniquement sur les habitudes de publication des auteurs. Nous présentons ensuite un outil permettant d’identifier des experts dans un domaine (plus exactement nous identifions les auteurs qui publient le plus dans le voisinage d’un support donné), ainsi qu’un outil permettant d’identifier des experts correspondant à un auteur donné. Ce dernier outil peut être vu comme un cas particulier d’une problématique plus générale qui est d’identifier quels sont les meilleurs éléments, étant donné un élément cible.
Sébastien Destercke
GI42, 14h
Heudiasyc Laboratory
This seminar will contain two short talks, recently given in different conferences.
The first talk will concern an imprecise probabilistic model to navigate through an uncertain occupation grid, with an illustrative application to autonomous vehicles.
The second talk will concern the problem of predicting a set of clusterings from a relational matrix where information on the possible relations are provided by scores.
Doctorante, centre LGI2P (Laboratoire de Génie Informatique et d’Ingénierie de Production)
Le mercredi 16 Octobre 2019 à 10h30, en GI 42
Résumé: Besides ecological issues, the recycling of plastics involves economic incentives that encourage industrial firms to invest in the field. Some of them have focused on the waste sorting phase by designing optical devices able to discriminate on-line between plastic categories. To achieve both ecological and economic objectives, sorting errors must be minimized to avoid serious recycling problems and significant quality degradation of the final recycled product. Even with the most recent acquisition technologies based on spectral imaging, plastic recognition remains a tough task due to the presence of imprecision and uncertainty, e.g. variability in measurement due to atmospheric disturbances, ageing of plastics, black or dark-coloured materials etc. The enhancement of recent sorting techniques based on classification algorithms has led to quite good performance results, however the remaining errors have serious consequences for such applications. We propose an imprecise classification algorithm to minimize the sorting errors of standard classifiers when dealing with incomplete data, by both integrating the processing of classification doubt and hesitation in the decision process and improving the classification performances. To this end, we propose a relabelling procedure that enables better representation of the imprecision of the learning data, and we introduce the belief functions framework to represent the posterior probability provided by a classifier. Finally, the performances of our approach compared to existing imprecise classifiers is illustrated on the sorting problem of four plastic categories from mid-wavelength infrared spectra acquired in an industrial context.
Doctorant, CRIL (Centre de recherche en Informatique de Lens)
Le mardi 1er Octobre 2019 à 14h, en GI 41
Résumé: Modéliser l’intention permet d’expliquer les décisions prises par des agents. Dans ce travail, nous proposons une modélisation de l’intention dans des jeux épistémiques représentés en logique épistémique dynamique. Étant données une propriété et une suite d’actions déjà réalisée par un joueur dans un tel jeu, nous proposons une méthode capable de déterminer si le joueur a eu l’intention d’obtenir cette propriété.
Un exemple de l’utilisation de cette méthode est donné en utilisant une version simplifiée du jeu collaboratif Hanabi.
Doctorant, Université de Technologie de Compiègne
Le lundi 16 septembre 2019 à 11h, en GI 42
Résumé: Ce séminaire présentera les derniers travaux de thèse de Yonatan, portant notamment sur les problèmes d’apprentissage de modèles prudents à sorties structurées, notamment pour les problèmes de prédictions de rangement ou multi-étiquettes.
Maître de conférence, Université d’Artois
Le lundi 16 septembre 2019 à 14h, en GI 42
Résumé: La fusion d’informations est un processus dont l’objectif est d’extraire une connaissance véridique et aussi fine que possible à propos d’une entité d’intérêt, étant donné des informations incertaines provenant de sources de qualité variable. Dans un premier temps, nous verrons que la théorie des fonctions de croyance est particulièrement adaptée à ce problème. Une approche générale pour la fusion fondée sur une modélisation des connaissances sur la qualité des sources sera notamment présentée, ainsi que quelques résultats associés dont une nouvelle décomposition canonique des fonctions de croyance. Dans un deuxième temps, le problème de la comparaison d’informations incertaines sera abordé. Une généralisation de la notion de spécialisation, qui étend l’inclusion entre ensembles aux fonctions de croyance et qui permet donc la comparaison de leur contenu informationnel, sera présentée. Cette généralisation constitue un moyen d’étendre toute relation entre ensembles aux fonctions de croyance. Enfin, quelques exemples issus d’applications viendront illustrer ces diverses contributions.
Doctorant, Université de Technologie de Compiègne
Le mardi 28 mai 2019 à 14h, en GI 42
Résumé: Nous présentons un modèle statistique basé sur le Latent Block Model (LBM, une méthode de coclustering) pour réaliser une recommandation sociale. Le modèle utilise des variables latentes pour
modéliser un processus de manquement de donnée de type Not Missing At Random (NMAR)
Post-doctorant, IMT Lille Douai
Le mercredi 22 mai à 14h, en GI42
Abstract: Dans cet exposé décomposé en deux parties, je présenterai mes travaux autour de la Satisfiabilité en logique propositionnelle et de la fouille de données, en faisant ressortir les liens pouvant exister entre-elles.
Dans la première partie, je commencerai par introduire brièvement le problème de la Satisfiabilité propositionnelle qui est un problème fondamental en théorie de la complexité. Ensuite, je montrerai comment introduire un point de vue basé sur les préférences des utilisateurs dans la résolution SAT à partir d’une stratégie de suppression de clauses apprises (explications des différents conflits) fondée sur une
relation de dominance entre clauses apprises.
Dans la deuxième partie, je me focaliserai tout d’abord sur le problème de fouille de motifs graduels. Les motifs graduels qui modélisent les co-variations complexes d’attributs de la forme « plus/moins A, plus/moins B »; jouent un rôle primordial dans plusieurs applications du monde réel où le volume de données numériques à gérer est important, c’est le cas de données biologiques ou de données médicales. Ces motifs peuvent constituer un moyen de prendre en compte l’incertitude dans les co-variations de valeurs d’attributs. Par la suite, je présenterai une nouvelle formulation du problème de fouille de motifs graduels comme une tâche de fouille de motifs séquentiels. Cette réduction originale permet d’exploiter les algorithmes de fouille de motifs séquentiels pour extraire les motifs graduels et de surmonter quelques limitations des approches de la littérature.
Enfin, je montrerai à travers une modélisation par contraintes du problème de fouille de motifs graduels comment rechercher les motifs graduels en utilisant la Satisfiabilité Propositionnelle.
Chercheur post-doctoral, Université du Luxembourg, Faculty of Science, Technology and Communication
Le mardi 21 mai 2019 à 14h, en GI 42
Résumé: Les logiques non-monotones et les logiques des conditionnels ont été développées par les chercheurs en IA pour rendre compte du raisonnement en situation d’incertitude. La base de connaissance contient des énoncés conditionnels (« si… alors … ») exprimant des règles générales sujettes à exceptions. On s’intéresse ici aux logiques des conditionnels dans leur version dite « déontique », où le conditionnel exprime une obligation. Le modèle est de type qualitatif ou ordinal, et repose sur l’usage d’une relation de préférence comparant deux alternatives. Cette approche de type qualitative se veut « généraliser » l’approche de type quantitative, reposant sur la manipulation de nombres, ou d’utilités.
Dans cet exposé, je présenterai le résultat d’un projet qui vise à identifier les différentes axiomatiques que l’on obtient en jouant sur deux facteurs. Tout d’abord, on peut faire varier les propriétés de la relation de préférence: réflexivité, transitivité, totalité, limit assumption. Ensuite, on peut jouer sur la distinction (faîte en théorie du choix rationnel) entre élément maximal et élément optimal.
Si le temps le permet, je décrirais également un travail en cours d’automatisation de ces logiques via Isabelle/HOL–collaboration avec C. Benzmueller (Université Libre de Berlin)
Post-doctorant, Nutriomics laboratory
Le jeudi 16 mai à 14h, en GI42
Abstract: Le modèle additif constitue le vaisseau amiral des procédures visant à agréger des points de vues multiples, voire conflictuels, que ce soit en décision multicritères, en choix social, ou en apprentissage automatique. Sa simplicité technique incite à penser qu’il s’agit d’un modèle « interprétable ». Nous chercherons à réaliser ce potentiel, en allant jusqu’à l’interprétation, de cette procédure d’agrégation des préférences, dans un cadre robuste vis-à-vis de l’aspect incomplet de l’information.
Bibliographie:
Belahcene, Khaled, et al. Explaining robust additive utility models by sequences of preference swaps. Theory and Decision 82.2 (2017): 151–183.
Belahcene, Khaled, et al. Comparing options with argument schemes powered by cancellation. IJCAI 2019
Chercheur post-doctoral, Ecole Nationale d’Ingénieurs de Brest, Lab-STICC
Le mardi 14 mai 2019 à 14h, en GI 42
Résumé: Answer Set Programming (ASP) est une forme de programmation déclarative orientée vers les problèmes de recherche difficiles (principalement NP-difficiles). ASP a été utilisé avec succès dans des domaines tels que la représentation des connaissances (KR), la programmation logique et le raisonnement automatique. Dans cet exposé, je présenterai plusieurs extensions d’ASP qui permettent d’utiliser ce formalisme pour représenter et raisonner sur différents types de scénarios tels que robotique, réalité virtuelle, intégration des connaîsances, planification, diagnose, systèmes biologiques ou scénarios contenant des informations incertaines.
Abstract: Answer Set Programming (ASP) is a form of declarative programming oriented towards difficult (primarily NP-hard) search problems. ASP has been successfully used in areas such as Knowledge Representation (KR), Logic Programming and Automated Reasoning. In this talk I will present several recent of ASP that allow using this formalism for representing and reasoning on different types of scenarios such as robotics, virtual reality, knowledge integration, planning, diagnosis, biological systems or scenarios with uncertain information.
Professeur, Université d’Évry Val d’Essonne, Laboratoire de Mathématiques et Modélisation d’Évry
Le mardi 9 Avril à 15h, en GI 42
Abstract: The behavior of ecological systems mainly relies on the interactions between the species it involves. In many situations, these interactions are not observed and have to be inferred from species abundance data. To be relevant, any reconstruction network methodology needs to handle count data and to account for possible environmental effects. It also needs to distinguish between direct and indirect interactions and graphical models provide a convenient framework for this purpose.
We introduce a generic statistical model for network reconstruction based on abundance data. The model includes fixed effects to account for environmental covariates and sampling efforts, and correlated random effects to encode species interactions. The inferred network is obtained by averaging over all possible tree-shaped (and therefore sparse) networks, in a computationally efficient manner. An output of the procedure is the probability for each edge to be part of the underlying network.
A simulation study shows that the proposed methodology compares well with state-of-art approaches, even when the underlying network strongly differs from a tree. The analysis of two data sets highlights the influence of covariates on the inferred network.
Professeur, Kansas University, School of business
Le mardi 2 Avril à 14h, en amphi Gauss
Abstract: I will present some of the theory and applications of graphical models using Dempster-Shafer’s (DS) belief function theory. To emphasize the commonalities with probabilistic graphical models, I will first describe the abstract framework of valuation-based systems, which includes probability theory and DS belief function theory. Next, I will describe the basics of DS belief function theory, and illustrate the definitions using the captain’s problem from Almond’s 1995 monograph titled « Graphical Belief Modeling. » Using the captain’s problem, I will describe local computation in computing marginals of joint belief function. This algorithm is implemented in Belief Function Machine (BFM), an open source Matlab code for constructing/solving graphical models in DS belief functions. I will demonstrate the use of BFM in solving the Captain’s problem, the chest clinic Bayes net example from Lauritzen-Spiegelhalter’s 1988 article in JRSS, and a large communication network reliability example described in Haenni-Lehmann’s 2002 article in IJAR.
Post-doctorante, Université d’Edimburgh, School of informatics
Le mardi 26 mars à 14h, en GI 42
Abstract: Large-scale probabilistic representations, including statistical knowledge bases and graphical models, are increasingly in demand. They are built by mining massive sources of structured and unstructured data, the latter often derived from natural language processing techniques. The very nature of the enterprise makes the extracted representations probabilistic. In particular, inducing relations and facts from noisy and incomplete sources via statistical machine learning models means that the labels are either already probabilistic, or that probabilities approximate confidence. While the progress is impressive, extracted representations essentially enforce the closed-world assumption, which means that all facts in the database are accorded the corresponding probability, but all other facts have probability zero. The CWA is deeply problematic in most machine learning contexts. A principled solution is needed for representing incomplete and indeterminate knowledge in such models, imprecise probability models such as credal networks being an example. In this work, we are interested in the foundational problem of learning such open-world probabilistic models. However, since exact inference in probabilistic graphical models is intractable, the paradigm of tractable learning has emerged to learn data structures (such as arithmetic circuits) that support efficient probabilistic querying. We show here how the computational machinery underlying tractable learning and inference has to be generalised for imprecise probabilities. Our empirical evaluations demonstrate that our regime is also effective.
Post-doctorant, Nutriomics laboratory
Le mardi 12 mars à 14h, en amphi Gauss (bâtiment G du centre de recherche)
Abstract: Nous cherchons à équiper un processus d’aide à la décision d’outils permettant de répondre aux exigences de redevabilité. Nous faisons l’hypothèse d’un processus dialectique entre parties prenantes de la décision, ce qui permet d’envisager l’acquisition d’information sur les préférences ainsi que la possibilité d’interroger le bien-fondé ou la loyauté de la procédure de décision/recommandation, voire d’en contester les effets. Techniquement, nous proposons d’étudier l’espace des versions d’un modèle d’agrégation des préférences issu de la Théorie de la décision, et de formuler le problème inverse correspondant. Nous verrons comment cette formulation permet de représenter l’inférence robuste à l’aide de schémas d’arguments, et ainsi produire des explications des recommandations, si possible correctes, complètes, facile à calculer et à comprendre. Nous illustrerons cette approche dans le cadre d’une procédure collective de tri par approbation.
Post-doctorant, Université de Technologie de Compiègne, Heudiasyc (équipe CID)
Le mardi 5 mars en GI42, à 14h
Abstract:
Imprecise choice functions constitute a very general and simple mathematical framework for modelling choice under uncertainty. In particular, they represent the set-valued choices that typically arise from applying decision rules to imprecise-probabilistic uncertainty models. Choice functions can be given a clear behavioural interpretation in terms of attitudes towards gambling. I will introduce choice functions as a tool to model uncertainty, and connect them with other, less general, belief models used in the theory of imprecise probabilities, such as sets of desirable gambles, and sets of probabilities.
Professeur, Chef du Département Informatique à l’Université de Greenwich
Le mardi 26 février dans l’amphi du Centre d’Innovation, à 14h
Résumé :
Les techniques de Narration Interactive se sont développées depuis les années 2000 principalement dans le but de fournir un contenu narratif plus évolué aux médias interactifs, pour des applications plus ludiques qu’éducatives. Avec le développement de représentations des connaissances plus sophistiquées et d’approches plus cognitives de la narration, il existe de nouvelles opportunités pour utiliser des techniques narratives dans le cadre de la simulation et de la formation. Cette tendance rejoint au niveau narratif le développement du domaine des « Jeux Sérieux ». Nous présentons plusieurs exemples d’utilisation de techniques narratives dans des applications non ludiques, basées sur une utilisation de techniques de planification par operateurs ou par tâches.
Dans le domaine de la formation ou de l’éducation des patients, la conversion de modèles en connaissances en fragments narratifs scénarisés peut être utilisée pour créer une diversité de situations résultant de l’interaction entre des connaissances génériques et des données personnelles. Nous présenterons également une approche cognitive de la narration qui vise à contrôler le phénomène de compréhension narratif, et qui a pu être utilisée pour explorer la compréhension causale chez l’enfant.
Le mardi 8 janvier en GI42, à 14h
Résumé :
The purpose here is to deal with non-observed dyads during the sampling of a network and consecutive issues in the Stochastic Block Model (SBM) inference. We’ll review sampling designs and recover Missing At Random (MAR) and Not Missing At Random (NMAR) conditions for SBM. We’ll introduce several variants of the variational EM (VEM) algorithm for inferring the SBM under various sampling designs (MAR and NMAR). Model selection criteria based on Integrated Classification Likelihood (ICL) are derived for selecting both the number of blocks and the sampling design. We’ll investigate the accuracy and the range of applicability of these algorithms with simulations. We’ll finally explore one real-world networks from biology (protein-protein interaction network), where the interpretations considerably depends on the sampling designs considered.
Destercke Sébastien
Chercheur CNRS au laboratoire Heudiasyc
Le mardi 22 janvier 2018 à 14h en GI16
Résumé :
In this talk, we will present a generic mean to handle preferences of an individual user tainted with uncertainty, with belief functions used as an uncertainty model. We will illustrate the approach on a classical weighted average. We will discuss the potential interests of such an appraoch, as well as its possible limits.
Maître de conférence à l’ENSMM de Besançon
Le jeudi 20 décembre en GI42, à 11h
« Monitoring of engineered systems »
Résumé :
The presentation will first start with a global view of some monitoring methodologies developed in our team to detect and track a degradation on engineered systems. Illustrations will concern turbofan engines, rolling bearings, milling and carbon pipes.
The methodologies rely on pattern recognition algorithms dedicated to those applications and fed by time-series and by a priori knowledge. One of the common points of those algorithms concerns the management of uncertainty and for that we used different formalisms:
- belief functions applied to online learning with evolving models,
- computational geometry based on polygons for similarity based monitoring and prognostics,
- and consensus clustering in unsupervised learning for reverse engineering.
The second part will be dedicated to Evidential Hidden Markov Models for the statistical representation of time-series using belief functions. Inference and learning in those models will be detailed and discussed.
Maître de conférence à Écoles de Saint-Cyr Coëtquidan
Le mardi 18 décembre 2018 en Amphi Gauss, à 14h
Résumé :
Le premier jeu à avoir utilisé la planification comme IA pour ses personnages non joueurs est First Encounter Assault Recon (F.E.A.R) en 2005. Le résultat était saisissant et a incité à se poser une question : Peut-on planifier en temps réel des centaines d’IAs dans un jeu ou une simulation tactique ? La réponse, en cours de développement et pour l’instant positive, se base sur un planificateur de type STRIPS et la programmation GPU. Cependant, la planification ne s’arrête pas là. Avec la bonne modélisation, elle pourrait permettre de déstructurer un champ de bataille ou encore proposer une séquence de courtes simulations immersives, les deux situations ayant un but formateur.
Maître de conférence à l’université d’Artois
Le mardi 4 décembre en GI42, à 14h
Résumé :
Considerable attention has recently been devoted to the problem of automatically extending knowledge bases by applying some form of inductive reasoning. While the vast majority of existing work is centred around so-called knowledge graphs, in this talk I will consider a setting where the input consists of a set of (existential) rules. I will present some Bayesian models to find plausible missing rules which are inspired by cognitive models for category based induction. Unlike many existing approaches, we learn rules by directly exploiting regularities in the given rule base, and do not require that a database with concept and relation instances is given. As a result, the proposed methods can be applied to a wide variety of ontologies.
Xuhong (Jacques) Li
Doctorant au laboratoire Heudiasyc
Le mardi 16 octobre 2018 à 14h30 en GI42
Résumé :
In inductive transfer learning, fine-tuning pre-trained convolutional networks substantially outperforms training from scratch. When using fine-tuning, the underlying assumption is that the pre-trained model extracts generic features, which are at least partially relevant for solving the target task, but would be difficult to extract from the limited amount of data available on the target task. However, besides the initialization with the pre-trained model and the early stopping, there is no mechanism in fine-tuning for retaining the features learned on the source task. In this paper, we investigate several regularization schemes that explicitly promote the similarity of the final solution with the initial model. We show the benefit of having an explicit inductive bias towards the initial model. We eventually recommend that the baseline protocol for transfer learning should rely on a simple $L^2$ penalty using the pre-trained model as a reference.
Yonatan Alarcon
Doctorant au laboratoire Heudiasyc
Le mardi 16 octobre 2018 à 14h00 en GI42
Résumé :
Dans cette présentation, nous présenterons des premiers résultats concernant l’extension de l’analyse linéaire discriminante imprécise (une méthode classique d’apprentissage) au cas imprécis, qui permet de produire des prédictions prudentes en cas de manque d’information et/ou d’informations conflictuelles quand à la vraie classe.
Cesar Tacla
Professeur à Universidade Tecnologica Federal Do Parana
Le jeudi 4 octobre 2018 à 10h en GI42
Résumé :
La première partie concerne les concepts fondamentaux de l’argumentation.
Ensuite, je présente un usage de l’argumentation rhétorique qui englobe appels, menaces et récompenses dans des dialogues entre agents. Il s’agit d’un modèle pour le calcul de la force de arguments basé sur l’état de l’objectif que l’émetteur veut attaquer/faire avancer et sur la crédibilité de l’émetteur pour accomplir ses menaces, récompenses et appellations.
Le deuxième usage concerne la prise de décision consensuelle. Des agents veulent choisir une option entre plusieurs options envisageables (par exemple, quel langage de programmation pour un certain projet). Chaque agent a sa propre base de croyances qui peuvent amener a des arguments contradictoires lorsque ils dialoguent a propos d’une option (ex. langage X). A partir d’un dialogue il est possible de construire un graphe d’attaques entre les arguments. L’option choisie est celle qui a le support des arguments les plus forts: ceux qui gardent des informations les plus répandues parmi les agents.
Ines Couso
Le vendredi 28 september 2018 à 11h en GI42
Professeur à l’Université d’Oviedo
Résumé :
Imprecise Dirichlet Process-based tests (IDP-tests, for short) have been recently introduced in the literature by Benavoli et al. Those tests overcome the problem of deciding how to select a single prior in Bayesian hypothesis testing, in the absence of prior information. They make use of a “near-ignorance” model, that behaves a priori as a vacuous model for some basic inferences, but it provides non-vacuous posterior inferences. The authors performed an empirical study comparing the behaviour of a classical frequentist test and its IDP-based counterpart. They concluded that IDP-based test are capable of isolating instances (samples) where the frequentist test is virtually “guessing at random”. We perform additional empirical studies that aim at shedding more light on the issue. We consider in particular the Wilcoxon rank sum test, and its IDP-based extension. We show that the upper and lower posterior probabilities can be expressed as tail probabilities based on the value of the U statistic, and that therefore there is a one-to-one correspondence between those upper and lower probabilities and the p‑value of the frequentist test. We construct an imprecise frequentist-based test that reproduces the same decision rule as the the IDP test. It considers a neighbourhood around the U‑statistic value. If all the values in the neighbourhood belong to the rejection zone (resp. to the acceptance region), the null hypothesis is rejected (resp. accepted). Otherwise, the judgement is suspended. This construction puts a step forward in the reconciliation between frequentist and Bayesian hypothesis testing: this kind of imprecisiation over the set of priors seems to produce similar effects on the decision mechanisn as an imprecisiation of data around the observations.
Cassio P. de Campos
Professeur à l’université d’Utrecht
Le vendredi 28 septembre 2018 à 10h en GI42
Summary :
Sum-product networks are an increasingly popular family of probabilistic graphical models for which marginal inference can be performed in polynomial time. They have been shown to achieve state-of-the-art performance in several tasks. When learning sum-product networks from scarce data, the obtained model may be prone to robustness issues. In particular, small variations of parameters could lead to different conclusions. We discuss the characteristics of sum-product networks as classifiers and study the robustness of them with respect to their parameters. Using a robustness measure to identify (possibly) unreliable decisions, we build a hierarchical approach where the classification task is deferred to another model if the outcome is deemed unreliable. We apply this approach on benchmark classification tasks and experiments show that the robustness measure can be a meaningful manner to improve classification accuracy.
Destercke Sébastien
Chercheur CNRS au laboratoire Heudiasyc
Le mardi 10 juillet 2018 à 14h en GI42
Résumé :
In this talk, we will be interested in the problem of ordinal regression, i.e., in predicting discretely, ordered values (such as rating scores of websites, severity levels of diseases, degradation levels of components , evaluation levels of papers, …) from a given set of attributes and training data. More particularly, we will be interested in the problem of producing cautious predictions (i.e. sets of possible values rather than single ones) when information does not allow us to make precise ones. We propose to do so by considering an imprecise probabilitistic setting, the basics of which we will recall.
We will then present two strategies to perform ordinal regression, based on binary decompositions of the initial problem: the first one based on a tree decomposition, the second on a cumulative decomposition.
Lingxue Yang
Doctorante en informatique aux laboratoires Heudiasyc et Costech
Le lundi 11 juin 2018 à 9h30 en CR C.203 (bâtiment C, UTC)
Résumé :
In recent years, the advances made in computer technology have made human-computer interaction (HCI) penetrated into almost all areas of human activities. As the carrier of the interaction between human and information, the user interface is a key part that influences the systems and human performance. Especially for business software such as analytic applications behind which there are complicated logics. Therefore, the improper information design and interface design will hinder users’ understanding, learning and the use of the interactive systems, causing cognitive barriers, such as memory overload. Interaction design is closely related to human cognition. In analytic applications, the user’s main task is to acquire the useful information that allows him/her to identify the root causes of a business question for decision making. It requires a large number of storage of human working memory to process the information needed for completing an analytical task. As the working memory is limited in capacity, not all the information can be stored in once. Our working memory only stores the most recent information for the current activated task. One consequence is that when the task is interrupted or suspended, to handle a secondary task (interrupting task), the working memory will free up some space for processing the information needed for this secondary task. When the user returns to the primary task (interrupted task), he/she has to recall the released information. It takes time, overcharges the working memory and consumes much mental effort of the user. The result is the loss of time, and reduced task performance. Therefore, it is necessary to design user interface and interaction considering these limits of working memory. The research of analytic provenance focuses on retrieving users’ interaction history, reinstating their reasoning process so that they can quickly resume an interrupted or suspended task. The designed tools through analytic provenance serve as an external memory. Lenay’s two modes of interaction: “put down” and “in hand” allow us to address this problem in two perspectives: memory substitution (put down) and memory supplementation (in hand). Memory substitution considers a memory tool as an object in the environment. Memory supplementation sees a memory tool as a coupling device between the user and the task, and it extends the user’s capability of perceiving the problem-solving as a supplementation of their perceptual systems. The existing solutions are more about the design for the former one, they lack a consideration for the latter one. In this research, we try to pose a problem which may improve design considerations in resolving the imbalance between user interface and human cognition from the memory supplementation point of view. We have developed a tool, based on a “history path”, using the concept of analytic provenance. It permits to show, in a specific window of the user interface, some of the steps of a previous resolution task that a user has performed during previous experience (or to simulate a resolution task interruption). We have set up a simple (minimalist) problem-solving task the resolution of which was recorded (screen, voice, eyes movements, time of resolution, etc.), to test if it is possible to design a tool for memory supplementation. We experiment two different tools, based on two history path representations, a static one, and a dynamic one. The static history path shows, at the same time, all the attemps made during a previous experience to resolve a given task. The dynamic history path shows only the attemps of the previous experience, which are close to the current task resolution step. We will present the first results of this experience, which aim at evaluating to what extent a static history path or a dynamic history path can help the user for tasks resolution.
Maitre de conférences en informatique au laboratoire CRIL, de l’Université d’Artois
Le mardi 22 mai 2018 à 14h en GI042 (bâtiment Blaise Pascal, UTC)
Résumé :
Nous présentons dans cet exposé différents formalismes que nous avons créés, utilisés ou enrichis dans le cadre de recherches académiques ou dans des projets plus appliqués. Ces formalismes ont comme point commun de permettre de mieux prendre en compte les concepts de fiabilité de l’information, d’évolution du monde, d’inférence plausible, de fusion et de révision ou encore de prise de décision. Nous faisons tout d’abord un tour d’horizon des différentes méthodes abordées, leurs éventuels liens et plusieurs applications possibles. Puis, nous nous intéressons plus particulièrement aux problèmes d’incomparabilité et d’incommensurabilité dans le cadre de logiques pondérées et leur application à la révision, à la fusion de croyances et aux logiques de description légères. Nous présentons plus en détail des généralisations de la logique possibiliste aux ordres partiels et aux intervalles. Nous nous intéressons ensuite à nos travaux concernant le General Game Playing. L’objectif de ce dernier est de développer des programmes capables de jouer de manière convaincante à n’importe quel jeu sans intervention humaine. Nous présentons nos résultats basés sur les réseaux de contraintes stochastiques. Enfin, nous présentons succinctement divers travaux en cours et perspectives, dont certains directement liés à la préservation du patrimoine immatériel de l’humanité et plus spécifiquement aux marionnettes sur eau du Vietnam.
Maitre de conférences en informatique au laboratoire GREYC, de l’Université de Caen Normandie
Le mardi 15 mai 2018 à 10h30 en GI042 (bâtiment Blaise Pascal, UTC)
Partie 1
Résumé :
La programmation par contrainte (PPC) offre un cadre générique et flexible pour résoudre des problèmes d’optimisation sous contraintes. L’utilisation de la PPC pour exprimer des problèmes de fouille de données possède de nombreux avantages. Le premier est d’offrir à l’utilisateur un moyen simple et déclaratif pour modéliser ses problèmes. Le second est de proposer une approche générique de résolution qui permet à l’utilisateur de ne plus devoir se préoccuper de l’écriture d’un algorithme spécifique pour chaque tâche de fouille. Dans cette première partie de l’exposé je présenterai de manière succincte quelques contributions concernant les apports de la PPC pour la fouille de données orientée motifs et plus particulièrement sur l’extraction de motifs séquentiels et de motifs Pareto.
Partie 2
Résumé :
Un problème récurrent en extraction de motifs est la sélection de motifs pertinents parmi le grand ensemble de motifs découverts. Pour réduire le nombre de motifs extraits et donc de faciliter l’analyse du résultat de la fouille est l’extraction de motifs de plus haut niveau reposant sur des caractéristiques qui impliquent plusieurs motifs locaux. Ces motifs sont appelés ensembles de motifs ou pattern sets. Extraire le meilleur ensemble de motifs relativement à une mesure donnée permet de mieux cibler le processus d’extraction vers les meilleurs motifs mais rend la tâche plus ardue, notamment en raison de la taille importante de l’espace de recherche et le manque de techniques d’élagage efficaces pour ce type de problèmes. La plupart des approches existantes (souvent heuristiques) sacrifient la preuve d’optimalité au détriment de solutions approchées. Toutefois, la qualité de solutions obtenues par ces approches reste très variable.
La PLNE (Programmation Linéaire en Nombres Entiers) est un au cadre générique qui procure un haut niveau de flexibilité et d’expressivité pour composer différentes types de contraintes. L’utilisation de la PLNE pour la modélisation de tâches d’optimisation en fouille de données est un domaine qui a été très peu exploré.
Dans cette seconde partie de l’exposé, je vais montrer comment la PLNE peut être utilisée pour modéliser différentes contraintes portant sur des ensembles de motifs. Outre le cadre général de l’extraction d’ensembles de motifs, je vais illustrer l’intérêt de cette approche sur un problème bien connu en fouille de données: le clustering conceptuel. Enfin, je terminerai par quelques résultats récents sur l’utilisation des moyennes ordonnées pondérées (communément appelées OWA pour Ordered Weighted) afin de trouver un équilibre optimal sur la taille des clusters du clustering conceptuel.
Maitre de conférences au LIP6 de l’UPMC
Le jeudi 12 avril 2018 à 14 h en GI042 (Bâtiment Blaise Pascal, université de technologie de Compiègne).
Partie 1 : Une introduction à la théorie de la décision algorithmique
Résumé :
La théorie de la décision algorithmique porte sur l’étude sous l’angle algorithmique de problèmes issus de la théorie de la décision, de la théorie des jeux et de la théorie du choix social. La plupart des travaux réalisés dans ces domaines jusqu’à récemment focalisaient principalement sur des résultats de caractérisation, l’aspect computationnel (i.e., la calculabilité effective des concepts
introduits) étant souvent laissé au second plan. C’est ce deuxième aspect qui fait la spécificité de la théorie de la décision algorithmique, et qui est étudié par une communauté d’informaticiens en intelligence artificielle et en recherche opérationnelle depuis un peu plus d’une dizaine d’années. Une brève introduction à ce domaine sera proposée lors de cet exposé.
Partie 2 : Quelques contributions en théorie de la décision algorithmique
Résumé :
Lors de cet exposé, je présenterai quelques contributions récentes en décision séquentielle dans l’incertain lorsque les préférences suivent un modèle alternatif à l’utilité espérée, et j’aborderai également quelques problématiques en décision collective
Chargé de recherche à l’IFSTTAR
Le mardi 20 mars 2018 à 14 h en GI042 (Bâtiment Blaise Pascal, université de technologie Compiègne)
Résumé :
Partie 1: Analyse exploratoire de traces numériques de mobilité. Quelques résultats sur les systèmes de vélos en libre service et de transports en Commun.
Les systèmes de mobilités modernes génèrent un nombre important de traces numériques qu’il convient d’analyser pour comprendre et optimiser le fonctionnement de ces systèmes. Ces données se distingues des sources classiquement utilisées pour appréhender les comportement de mobilité et leur évolution (enquête globale transport, enquête ménage déplacement) et nécessite donc des méthodes nouvelles pour essayer de tirer partie de l’information qu’elles recèlent. Après avoir présenté ce contexte générale et les particularités des traces numériques par rapport aux données d’enquête classiques, nous détaillerons différents travaux exploratoires menés dans ce contexte pour mieux cerner ces nouvelles sources et leurs potentialités. Nous verrons en particulier comment les données de stocks des systèmes de Vélos en Libre Service (VLS) peuvent être mobilisées pour résumer le comportement de ces systèmes et faciliter leurs comparaisons. Nous présenterons également des travaux d’analyse exploratoire et de visualisation des données de flux voyageurs. Celles-ci offrent en effet, des perspectives intéressantes pour l’analyse fine des usages et de la dynamique des origines / destinations effectuées par les usagers de transport en commun. Nous présenterons des résultats sur l’exploration de ces données massives aussi bien dans le contexte des VLS que dans celui des transports en commun (métro / RER).
Partie 2: Modèle de mélange et données de comptage, sélection de modèle, régularisation et estimation.
Dans cette présentation, nous nous intéresserons aux méthodologies utilisées pour déterminer le nombre de composantes d’un modèle de mélange lorsque les données sont des données de comptage. Nous nous intéresserons plus particulièrement aux modèles utilisés pour analyser des graphes (Stochastic Block Model et variante) où les comptages correspondent à des nombres d’interaction entre paire d’objet , ou des « textes » (Mixture of Unigram et Poisson mixture) où les comptages correspondent au nombre d’occurrences d’un mot. Nous verrons comment le problème d’estimation du nombre de composantes est traité classiquement dans un cadre fréquentiste et Bayésien aux travers de critères tels que BIC ou ICL. Une attention particulière sera portée aux aspects algorithmiques du problème où l’on discutera des avantages et inconvénients des solutions classiques basées sur l’utilisation de l’algorithme EM et des variantes variationnelles ou bien sur des approches de type MCMC. Nous présenterons dans ce contexte un algorithme d’estimation conjointe de la partition des données et du nombre de composantes basé sur l’optimisation gloutonne d’un critère Bayésien correspondant à L’ICL exacte. Ce critère peut en effet être calculé de manière exacte pour cette famille de modèle lorsque les lois a priori sur les paramètres sont adéquatement choisies. Nous verrons ensuite comment cette approche peut être étendue pour extraire une structure hiérarchique de solutions imbriquées lorsque l’on fait varier le degré de régularisation.
Maître de conférences au LAMSADE, université Paris
Le lundi 12 mars 2018, à 14 h en GI042 (Bâtiment Blaise Pascal, université de technologie Compiègne)
Résumé :
Partie 1: Présentation générale des travaux de recherche autour des préférences dans les modèles décisionnels.
Les préférences sont au coeur des modèles décisionnels (decision collective, multicritère ou dans l’incertain) et apparaissent dans les différents étapes des processus décisionnels (definition/description du problème, modélisation, résolution et validation/argumentation).
Dans cette première partie de l’exposé je vous parlerai de mes travaux de recherche qui concernent ces différents étapes (avec des résultats théoriques mais aussi avec des applications industriels):
- définition/description du problème:
apport des travaux expérimentaux pour mieux comprendre le comportement des décideurs et utilisation de leur résultats pour trouver des modèles adaptés.
Exemples des processus d’élicitation/apprentissage des préférences.
- modélisation :
comment obtenir un cadre général pour la modélisation des préférences ? Comment representer d’une manière compacte les préférences ?
- résolution :
comment se servir des logiques non classiques ou une modélisation par satisfaction de contraintes pour l’agrégation des préférences ?
- application industriel: trouver la nouvelle ligne grande vitesse entre Paris-Normandie (projet avec la SNCF Réseau)
Partie 2: Résultats sur la partie modélisation des préférences
Quand on travaille avec des décideurs/experts on s’aperçoit rapidement que les orders totaux ou les préordres totaux que l’on utilise souvent dans des approches formels apparaissent très forts/contraignants pour représenter leur préférences. Pour cela des structures de préférences
plus souples ont été proposées dans la littérature. Les semiordres, les ordres d’intervalles ou les ordres partiels sont les plus connus. Ces structures de préférences « sophistiquées » ont été étudiées par différents chercheurs venant de différents domains de recherche et manquaient un cadre général unificateur. Je vous présenterai donc un cadre que nous avons défini qui donne un language commun à ces structures et qui nous aident à en proposer de nouvelles. Le cadre se base sur une axiomatisation simple et couvre la majorité des structures de préférences connues dans la littérature.
Références de la partie 2 :
M. Öztürk, Coherence conditions for preference modeling with ordered points, Journal of Mathematical Psychology, Volume 79, 2017, pages 44–52.
M. Öztürk , M. Pirlot et A. Tsoukiàs, Representing preferences using intervals, Artificial Intelligence Journal, 175, pages 1194–1222, 2011
Elsa NEGRE
Maître de conférences HDR, UMR Lamsade, Université Paris Dauphine
Le mardi 6 février 2018 à 14 h en GI042(Bâtiment Blaise Pascal, université de technologie Compiègne)
Résumé :
Nos travaux s’articulent autour de l’extraction et de l’analyse de données issues de sources hétérogènes pour les rendre facilement accessibles et exploitables par les utilisateurs/décideurs. En effet, il devient de plus en plus difficile de savoir quelles sont les données à rechercher et où les trouver lorsque la masse de données/informations s’accroît. Des techniques informatiques existent pour faciliter cette recherche et permettre une extraction pertinente des données/informations. L’une d’entre elles est la recommandation qui guide l’utilisateur lors de son exploration, en cherchant pour lui les informations susceptibles d’être pertinentes. Un enjeu intéressant est de proposer un système de recommandation capable de s’adapter à différents cas d’applications, avec de bonnes performances du point de vue de l’utilisateur/décideur et palliant certains manques des systèmes de recommandation existants. Dans le cadre de nos travaux, l’ensemble des données à explorer peut provenir de différents domaines (les environnements de travail collaboratif, les plateformes d’apprentissage en ligne, les entrepôts de données, les villes intelligentes, les systèmes d’alertes précoces, …) et l’utilisateur à aider peut être un individu isolé ou une entité multiple à visée publique. Conscients que la masse de données/informations à explorer dans de tels cas peut être très importante, complexe et variée, il nous est apparu nécessaire de proposer des systèmes de recommandation appropriés pour y faire face. Nous proposons donc une approche générique de recommandation, en rupture complète avec les travaux existants, que nous instancions pour permettre de recommander soit des éléments, soit des utilisateurs, sous forme de recommandations individuelles ou à visée publique dans différents domaines. Puis, nous nous intéressons à l’évaluation des (systèmes de) recommandations. Afin d’assurer la pertinence des recommandations du point de vue de l’utilisateur/décideur, nous proposons des méthodes pour évaluer subjectivement d’une part le système de recommandation et d’autre part les recommandations retournées. Enfin, malgré de bonnes performances, parfois, les recommandations ne sont pas considérées comme suffisamment pertinentes. Nous proposons donc des techniques pour améliorer les (systèmes de) recommandations. Elles concernent l’amélioration des données d’entrée, le démarrage à froid et l’ajout de données/sources externes (notamment le contexte de l’utilisateur/décideur). Nos propositions ont été validées par la participation à différents projets ainsi que le co-encadrement de thèses de Doctorat et le suivi de travaux de Master Recherche.
Mots clés : Systèmes de recommandation, Analyse de données, Aide à la décision, Systèmes d’Information
Jonathan DEKHTIAR
Doctorant au laboratoire Roberval, UTC
Le mardi 30 janvier 2018 à 10h15 en GI042 (Bâtiment Blaise Pascal, université de technologie Compiègne)
Résumé :
The manufacturing industry is always trying to automate many of its engineering tasks and workflows. Applying Machine/Deep Learning in such an industrial context is challenging for different reasons : Contrary to the GAFAM (Google, Apple, Facebook, Amazon, Microsoft) and BATX (Baidu, Alibaba, Tencent and Xiaomi), the manufacturing industry use on a day-to-day basis highly complex data which comes, most of the time, in proprietary formats (e.g. 3D Models). Moreover, data are not available in large quantities (impossibility to rely on a big data scale) and most of the time in insufficient quantities to train any Deep Learning model to perform any computer vision task. However, Machine Learning can still be applied using various tips and tricks, frequently with good results. Transfer Learning is one effective solution, nevertheless this presentation will not focus on the latter which is already well covered in the literature [Y. Bengio, 2012] – [M. Oquab, 2014]. Inspired by research in anomaly detection for neuro-imagery [K. Wang, 2016] – [T. Schlegel, 2017] and for patrol robots [W. Lawson, 2017], we have studied the effectiveness of Deep Generative Networks and Deep Auto Encoder, namely GANs (Generative Adversarial Networks) and VAE (Variational AutoEncoders). This presentation aims to present the specificities and basics of GANs/VAEs and an overview of the whole process we developed with a limited amount of data (1000 images) and obtain 92% of accuracy and 85% of IOU (Intersection over Union) for the machined surface defect localisation. The proposed approach is able to adapt itself without any change in the structure or hyper-parameter settings to different industrial situations offered by the challenge dataset provided by DAGM 2007. In summary, the strength of the proposed solution is the following : Highly adaptable with limited re-engineering costs, reduced training time (+/- 3 hours on one GPU), Weakly Supervised Approach thus having a very reduced deployment cost.
Professeur des universités à l’Université de Paris Sud, Polytech Paris Sud.
Le mardi 3 Mars à 14H, en GI 42
Abstract:
The Dempster-Shafer theory of belief functions is a formal framework for modeling and reasoning with uncertainty. It is based on the representation of independent pieces of evidence by belief functions, and on their combination by an operator called Dempster’s rule. In this talk, we show that the weighted sum and softmax operations performed in logistic regression classifiers and, for instance, in the output layer of feedforward neural networks can be interpreted in terms of evidence aggregation using Dempster’s rule of combination. From that perspective, the output probabilities computed by such classifiers (including also support vector machines) can be seen as being derived from some belief functions, which can be laid bare and used for decision making or classifier fusion. This finding suggests that the links between machine learning and belief functions are closer than is usually assumed, and that Dempster-Shafer theory provides a suitable framework for developing new machine learning algorithms.
08/10/2024 – Jürgen Landes : Assessing Inference to the Best Explanation Posteriors for the Estimation of Economic Agent-Based Models
- Explanatory relationships between data and hypotheses have been suggested to play a role in the formation of posterior probabilities. This suggestion was tested in a toy environment and supported by simulations by Glass. We here put forward a variety of inference to the best explanation approaches for determining posterior probabilities by intertwining Bayesian and inference to the best explanation approaches. We then simulate their performances for estimation of parameters in the Brock and Hommes agent based model. We find that performances depend on circumstances and the evaluation metric. However, most of the time our suggested approaches outperform the Bayesian approach.
12/09/2024 – Visit of JC Schoemann, lecturer at Stellenbosch University in South Africa
Part 1 – Introduction, purpose of visit and overview of research:
I will first introduce Stellenbosch University and our research lab, including a brief overview of some past projects. I will then elaborate on the purpose of my visit, before providing a one-slide summary of three personal projects, namely degenerate Gaussian distributions, locally adaptive Bayesian optimization and multi-agent reinforcement learning. This will be followed by a research proposal into a unification of model- and data-based approaches for autonomous driving.
Part 2 – Degenerate Gaussians, Bayesian optimization and reinforcement learning:
This talk will be divided into three sections to address the topics that I already introduced briefly. The first will look at extending the capabilities of Gaussian inference to settings where the covariance matrix is singular. The second improves on Bayesian optimization using Gaussian processes and results in a black box optimization algorithm that performs very well compared to the current state of the art. Finally, I will discuss reinforcement learning in the context of multi-player strategy games with partial information and limited communication.
19/09/2024 Kim-Dung Tran: Tensor Decomposition and Its Applications in Machine Learning
In multilinear algebra, whose basic role is played by the concepts of a tensor product, a tensor on a vector space and a multilinear form, a tensor decomposition (TD) is any scheme for expressing “data tensor” (M‑way array) as a sequence of elementary operations acting on others, often simpler tensors. TD has found promising applications in different domains and recently been conjectured as a key player in shaping a next generation of deep learning techniques. Concisely, under certain conditions, a given family of neural networks can be approximated/expressed using a family of tensorized neural networks with possibly much smaller numbers of parameters. In this project, we aim to develop scalable probabilistic classifiers for high dimensional objects such as images, video and speech; and scalable ensemble learning methods for high-dimensional objects. Furthermore, we incorporate the achieved results into the development of “probabilistic multi-dimensional classification”, which is an on-going project at the Heudiasyc laboratory.
02/07/2024 – SYRI and CID Collaborative Workshop
- Statistical guarantees for object detection
- Harnessing Superclasses for Learning from Hierarchical Databases
- Enhancing Localization through Perception: Applications of Vector Maps
- Introduction à des architectures de réseaux de neurone de traitement des événements
- Estimations d’incertitudes pour le calibrage entre capteurs par apprentissage profond
- Présentation de début de thèse: Estimation de l’incertitude et de l’intégrité pour les systèmes de perception basés sur l’apprentissage automatique
30/05/2024 – Nicolas Schreuder : Fairness in machine learning: a study of the Demographic Parity constraint
In various domains, statistical algorithms trained on personal data take pivotal decisions which influence our lives on a daily basis. Recent studies show that a naive use of these algorithms in sensitive domains may lead to unfair and discriminating decisions, often inheriting or even amplifying biases present in data. In the first part of the talk, I will introduce and discuss the question of fairness in machine learning through concrete examples of biases coming from the data and/or from the algorithms. In a second part, I will demonstrate how statistical learning theory can help us better understand and overcome some of those biases. In particular, I will present a selection of recent results from two of my papers on the Demographic Parity constraint, a popular fairness constraint. In particular I will describe an interesting link between this constraint and optimal transport theory.
28/05/2024 – Ulisses Braga-Neto : Recent Progress in Training PDE-Constrained Deep Neural Networks
Scientific machine learning (SciML) is a promising new field that combines scientific computation and machine learning to achieve results that neither one can separately. PDE-constrained deep neural networks are a core SciML technology, which has been deployed in a variety of scientific and engineering problems with remarkable success. The best-known algorithm in this class is the so-called physics-informed neural network (PINN). However, PINNs are based on minimizing a complex multi-objective loss function, which often makes training these networks difficult. In this talk, we present new approaches that can address this issue. The first is the Self-Adaptive PINN (SA-PINN), which weights each data point in the multi-objective loss function, in such a way that the weight increases if the corresponding loss increases. Another approach we have proposed is the characteristic-informed neural network (CINN), which completely does away with the multi-objective loss function, by imbedding a hyperbolic PDE in the neural network architecture itself. We also show how particle swarm optimization can be used to train PINNs with quantified uncertainty and briefly describe an adaptive artificial viscosity approach to dealing with PDEs with shocks. Finally, we intend to describe briefly ongoing activities and multidisciplinary research efforts at the SciML Lab of the Texas A&M Institute of Data Science (TAMIDS).
17/05/2024 – Mohamed-Amine Abrache
« Innovations dans les Environnements Informatiques d’Apprentissage : De l’Optimisation de l’Évaluation par les Pairs à l’Usage de la Réalité Virtuelle«
Cette présentation met en lumière des travaux de recherche portant sur des approches innovantes pour la répartition des tâches d’évaluation par les pairs dans les environnements d’apprentissage informatisés, utilisant des techniques d’apprentissage automatique et d’optimisation combinatoire. Un projet complémentaire sera également abordé, traitant de la conception d’un agent d’intervention pédagogique visant à stimuler la motivation des apprenants par l’analyse des traces d’apprentissage. Enfin, la présentation se conclura par des résultats concernant le développement d’une plateforme d’apprentissage virtuel dédiée à l’application de protocoles d’expérimentation animale. Ces travaux illustrent le potentiel des technologies éducatives pour l’apprentissage et la formation.
16/05/2024 – Cédric Buron : Prendre une décision: de la prescription à la modélisation
Comment prenons-nous des décisions ? Cette question peut être posée sous plusieurs angles. Dans ce séminaire, nous aborderons plusieurs manières de voir cette problématique. Nous aborderons dans un premier temps des approches prescriptives, normatives, s’appuyant sur des notions de mathématiques et présupposant une certaine rationalité de la part des agents, soit pour un concepteur d’un mécanisme afin de créer une incitation à agir selon une certaine stratégie à l’aide des mécanismes d’incitation, soit au contraire pour trouver la stratégie optimale étant donné un certain cadre d’action grâce à la théorie des jeux computationnelle, à travers l’exemple de la négociation automatique. Nous nous intéresserons ensuite à la construction de cette rationalité à partir de l’expertise humaine au moyen d’outils issus de l’aide à la décision multicritères avant de remettre en cause la notion même de rationalité en présentant des projets de modélisation de comportements humains à la frontière des sciences humaines et sociales, en particulier dans des cas où le présupposé de rationalité mathématique ne s’applique pas.
10/05/2024 – Raidi Ktari
« Toward credible belief base revision«
This presentation deals with belief base revision, a form of belief change which consists in restoring consistency with the intention of incorporating a new piece of information from the environment, while minimally modifying the agent’s belief state represented by a finite set of propositional formulas. In an effort to guarantee more reliability and rationality for real applications while performing revision, we come up with the idea of credible belief base revision. We define two new formula-based revision operators using tools offered by evidence theory (also known as Belief Function Theory). These operators stem from consistent sub-bases maximal with respect to credibility instead of set inclusion or cardinality.
07/05/2024 – Jinfeng Zhong
« When factorization meets argumentation: towards argumentative explanations for recommendations«
Existing recommender systems frequently utilize factorization-based models, which are known for their efficiency in predicting ratings. However, the explicit semantics of the latent factors they learn are not always clear, complicating the task of explaining the recommendations. In contrast, argumentation-based methods have emerged as a significant tool in the realm of explainable artificial intelligence. In response, we propose a novel framework that synergizes factorization-based methods with argumentation frameworks (AFs). The integration of AFs provides clear semantics at each stage of the framework, enabling it to produce easily understandable explanations for its recommendations. In this framework, for every user-item interaction, an AF is defined in which the features of items are considered as arguments, and the users » ratings towards these features determine the strength of these arguments. This perspective allows our framework to treat feature attribution as a structured argumentation procedure, where each calculation is marked with explicit semantics, enhancing its inherent interpretability. Additionally, our framework seamlessly incorporates side information, such as user contexts, leading to more accurate predictions. We anticipate at least three practical applications for our framework: creating explanation templates, providing interactive explanations, and generating contrastive explanations. Through testing on real-world datasets, we have found that our framework, along with its variants, not only surpasses existing argumentation-based methods but also competes effectively with current context-free and context-aware methods.
06/05/2024 – Ikram Chraibi Kaadoud
« Comprendre le comportement des systèmes complexes en utilisant l’interprétabilité et l’explicabilité«
Au cours du processus d’apprentissage, un humain développe une représentation mentale de la tâche qu’il est en train d’apprendre, tandis qu’un algorithme d’apprentissage automatique développe une représentation latente.
Avec chaque donnée traitée ou nouveau stimulus, cette représentation et ses informations associées évoluent : elle peut être modifiée ou consolidée. Cependant, elle reste toujours implicite.
Dans cette présentation, j’introduis une méthodologie pour extraire la représentation latente et les états latents associés à un système donné à partir de données séquentielles sous la forme d’un automate à états finis sur deux cas d’utilisation différents : les réseaux récurrents avec LSTM dans le contexte de la modélisation cognitive des connaissances d’experts, et les agents autonomes dans le contexte de la robotique développementale.
Ce travail, à l’origine dans le domaine de l’interprétabilité des réseaux de neurones récurrents, a été étendu et adapté au domaine de l’explicabilité pour fournir des explications locales du comportement de systèmes complexes, c’est-à-dire une installation avec des capteurs, sur des plages de temps déterminées à partir de données hétérogènes.
Dans le cadre de ce travail, j’aborderai également des questions liées à l’IA explicable, à l’acceptabilité des explications, à l’interaction homme-machine, à la modélisation cognitive et à la robotique développementale.
16/01/2024 – Ismaïl Baaj
« On the handling of inconscient systems of fuzzy relational equations«
Dans cette présentation, j’étudie les systèmes d’équations relationnelles floues incompatibles, qui se répartissent en deux classes : ceux basés sur la composition max‑T, où T est une t‑norme parmi le minimum, le produit ou la t‑norme de Lukasiewicz, et ceux basés sur la composition min->, où -> est un implicateur résiduel parmi l’implication de Gödel, l’implication de Goguen ou l’implication de Lukasiewicz. Pour traiter l’incompatibilité de ces systèmes, j’établis des formules analytiques explicites pour calculer la distance de Tchebyshev (définie par la norme L‑infini) entre le second membre du système incompatible et l’ensemble des seconds membres des systèmes compatibles définis avec la même matrice : celle du système incompatible. L’étape principale pour obtenir ces formules consiste à montrer que la distance de Tchebyshev est déterminée par une inégalité vectorielle. Les formules obtenues m’ont permis d’étudier l’ensemble des approximations de Tchebyshev du second membre d’un système incompatible, les solutions approximatives d’un système incompatible et les sous-systèmes compatibles maximaux d’un système incompatible. Ces outils peuvent être utiles pour des applications basées sur les systèmes d’équations relationnelles floues, telles que les mémoires associatives ou l’apprentissage des paramètres des règles d’un système à base de règles possibilistes.
- 28/02/2023 - Quentin Cappart (MCF Plytechnique Montréal)
« Learning to bound using decision diagrams and reinforcement learning » - 19/06/2023 – Maxime Vaillant, Hugo Martin (étudiants master UTC, stages Orange Labs)
« Spiking Neural Networks: an introduction » - 5/09/2023 – Yara Maher Gomaa
« Introduction to PhD Thesis:Gamified E‑Learning Systems Based on Ontologies: Teaching Perspective - 12/09/2023 – Jürgen Landes (MCF université de Milan)
« An Objective Bayesian Approach to KR » - 26/09/2023 – Elise Perrotin (postdoc au CRIL à Lens sur la logique épistémique)
« Lightweight epistemic logic, planning, and more » - 26/10/2023- Insaf Setitra
« Apprentissage automatique, apprentissage profond et vision par ordinateur et leurs applications » - 31/10/2023 – Nacira Abbas
« Formal Concept Analysis for Discovering Link Keys in the Web of Data » - 7/11/2023 – Alessandro Leite
« Leveraging Evolutionary-based Approaches for Interpretable Machine Learning » - 14/11/2023 – Malika Ben Khalifa
« Dealing with uncertainty in fake reviews detection within the belief function » - 16/11/2023 – Ikram Chraibi Kaadoud
« Comprendre le comportement des systèmes complexes en utilisant l’interprétabilité et l’explicabilité » - 27/11/2023 – Jürgen Landes (MCF université de Milan)
« The Quest for Good Information » - 21/11/2023 – Soundouss Messoudi
« Conformal uncertainty sets using foundation models »
Professeur à l’Université de Compiègne, Heudiasyc
Le mercredi 22 janvier à 14H, en amphithéatre Bessel
Abstract:
The Dempster-Shafer theory of belief functions is a formal framework for modeling and reasoning with uncertainty. It is based on the representation of independent pieces of evidence by belief functions, and on their combination by an operator called Dempster’s rule. In this talk, we show that the weighted sum and softmax operations performed in logistic regression classifiers and, for instance, in the output layer of feedforward neural networks can be interpreted in terms of evidence aggregation using Dempster’s rule of combination. From that perspective, the output probabilities computed by such classifiers (including also support vector machines) can be seen as being derived from some belief functions, which can be laid bare and used for decision making or classifier fusion. This finding suggests that the links between machine learning and belief functions are closer than is usually assumed, and that Dempster-Shafer theory provides a suitable framework for developing new machine learning algorithms.
Directeur de Recherche CNRS, CRIL (Centre de Recherche en Informatique de Lens)
Le mardi 3 décembre 2019 à 14H, en GI 16
Résumé: Nous présentons la plate-forme www.coscinus.org. Cette plate-forme permet, à partir de l’analyse des données issues de DBLP, de déterminer des proximités entre supports de publication (conférences et journaux) en informatique, et de faire apparaître des domaines de la discipline en réalisant un partitionnement des supports. L’idée étant que deux supports sont considérés comme proches si de nombreux auteurs publient conjointement dans ces deux supports. On peut donc obtenir une carte de la discipline basée uniquement sur les habitudes de publication des auteurs. Nous présentons ensuite un outil permettant d’identifier des experts dans un domaine (plus exactement nous identifions les auteurs qui publient le plus dans le voisinage d’un support donné), ainsi qu’un outil permettant d’identifier des experts correspondant à un auteur donné. Ce dernier outil peut être vu comme un cas particulier d’une problématique plus générale qui est d’identifier quels sont les meilleurs éléments, étant donné un élément cible.
Sébastien Destercke
GI42, 14h
Heudiasyc Laboratory
This seminar will contain two short talks, recently given in different conferences.
The first talk will concern an imprecise probabilistic model to navigate through an uncertain occupation grid, with an illustrative application to autonomous vehicles.
The second talk will concern the problem of predicting a set of clusterings from a relational matrix where information on the possible relations are provided by scores.
Doctorante, centre LGI2P (Laboratoire de Génie Informatique et d’Ingénierie de Production)
Le mercredi 16 Octobre 2019 à 10h30, en GI 42
Résumé: Besides ecological issues, the recycling of plastics involves economic incentives that encourage industrial firms to invest in the field. Some of them have focused on the waste sorting phase by designing optical devices able to discriminate on-line between plastic categories. To achieve both ecological and economic objectives, sorting errors must be minimized to avoid serious recycling problems and significant quality degradation of the final recycled product. Even with the most recent acquisition technologies based on spectral imaging, plastic recognition remains a tough task due to the presence of imprecision and uncertainty, e.g. variability in measurement due to atmospheric disturbances, ageing of plastics, black or dark-coloured materials etc. The enhancement of recent sorting techniques based on classification algorithms has led to quite good performance results, however the remaining errors have serious consequences for such applications. We propose an imprecise classification algorithm to minimize the sorting errors of standard classifiers when dealing with incomplete data, by both integrating the processing of classification doubt and hesitation in the decision process and improving the classification performances. To this end, we propose a relabelling procedure that enables better representation of the imprecision of the learning data, and we introduce the belief functions framework to represent the posterior probability provided by a classifier. Finally, the performances of our approach compared to existing imprecise classifiers is illustrated on the sorting problem of four plastic categories from mid-wavelength infrared spectra acquired in an industrial context.
Doctorant, CRIL (Centre de recherche en Informatique de Lens)
Le mardi 1er Octobre 2019 à 14h, en GI 41
Résumé: Modéliser l’intention permet d’expliquer les décisions prises par des agents. Dans ce travail, nous proposons une modélisation de l’intention dans des jeux épistémiques représentés en logique épistémique dynamique. Étant données une propriété et une suite d’actions déjà réalisée par un joueur dans un tel jeu, nous proposons une méthode capable de déterminer si le joueur a eu l’intention d’obtenir cette propriété.
Un exemple de l’utilisation de cette méthode est donné en utilisant une version simplifiée du jeu collaboratif Hanabi.
Doctorant, Université de Technologie de Compiègne
Le lundi 16 septembre 2019 à 11h, en GI 42
Résumé: Ce séminaire présentera les derniers travaux de thèse de Yonatan, portant notamment sur les problèmes d’apprentissage de modèles prudents à sorties structurées, notamment pour les problèmes de prédictions de rangement ou multi-étiquettes.
Maître de conférence, Université d’Artois
Le lundi 16 septembre 2019 à 14h, en GI 42
Résumé: La fusion d’informations est un processus dont l’objectif est d’extraire une connaissance véridique et aussi fine que possible à propos d’une entité d’intérêt, étant donné des informations incertaines provenant de sources de qualité variable. Dans un premier temps, nous verrons que la théorie des fonctions de croyance est particulièrement adaptée à ce problème. Une approche générale pour la fusion fondée sur une modélisation des connaissances sur la qualité des sources sera notamment présentée, ainsi que quelques résultats associés dont une nouvelle décomposition canonique des fonctions de croyance. Dans un deuxième temps, le problème de la comparaison d’informations incertaines sera abordé. Une généralisation de la notion de spécialisation, qui étend l’inclusion entre ensembles aux fonctions de croyance et qui permet donc la comparaison de leur contenu informationnel, sera présentée. Cette généralisation constitue un moyen d’étendre toute relation entre ensembles aux fonctions de croyance. Enfin, quelques exemples issus d’applications viendront illustrer ces diverses contributions.
Doctorant, Université de Technologie de Compiègne
Le mardi 28 mai 2019 à 14h, en GI 42
Résumé: Nous présentons un modèle statistique basé sur le Latent Block Model (LBM, une méthode de coclustering) pour réaliser une recommandation sociale. Le modèle utilise des variables latentes pour
modéliser un processus de manquement de donnée de type Not Missing At Random (NMAR)
Post-doctorant, IMT Lille Douai
Le mercredi 22 mai à 14h, en GI42
Abstract: Dans cet exposé décomposé en deux parties, je présenterai mes travaux autour de la Satisfiabilité en logique propositionnelle et de la fouille de données, en faisant ressortir les liens pouvant exister entre-elles.
Dans la première partie, je commencerai par introduire brièvement le problème de la Satisfiabilité propositionnelle qui est un problème fondamental en théorie de la complexité. Ensuite, je montrerai comment introduire un point de vue basé sur les préférences des utilisateurs dans la résolution SAT à partir d’une stratégie de suppression de clauses apprises (explications des différents conflits) fondée sur une
relation de dominance entre clauses apprises.
Dans la deuxième partie, je me focaliserai tout d’abord sur le problème de fouille de motifs graduels. Les motifs graduels qui modélisent les co-variations complexes d’attributs de la forme « plus/moins A, plus/moins B »; jouent un rôle primordial dans plusieurs applications du monde réel où le volume de données numériques à gérer est important, c’est le cas de données biologiques ou de données médicales. Ces motifs peuvent constituer un moyen de prendre en compte l’incertitude dans les co-variations de valeurs d’attributs. Par la suite, je présenterai une nouvelle formulation du problème de fouille de motifs graduels comme une tâche de fouille de motifs séquentiels. Cette réduction originale permet d’exploiter les algorithmes de fouille de motifs séquentiels pour extraire les motifs graduels et de surmonter quelques limitations des approches de la littérature.
Enfin, je montrerai à travers une modélisation par contraintes du problème de fouille de motifs graduels comment rechercher les motifs graduels en utilisant la Satisfiabilité Propositionnelle.
Chercheur post-doctoral, Université du Luxembourg, Faculty of Science, Technology and Communication
Le mardi 21 mai 2019 à 14h, en GI 42
Résumé: Les logiques non-monotones et les logiques des conditionnels ont été développées par les chercheurs en IA pour rendre compte du raisonnement en situation d’incertitude. La base de connaissance contient des énoncés conditionnels (« si… alors … ») exprimant des règles générales sujettes à exceptions. On s’intéresse ici aux logiques des conditionnels dans leur version dite « déontique », où le conditionnel exprime une obligation. Le modèle est de type qualitatif ou ordinal, et repose sur l’usage d’une relation de préférence comparant deux alternatives. Cette approche de type qualitative se veut « généraliser » l’approche de type quantitative, reposant sur la manipulation de nombres, ou d’utilités.
Dans cet exposé, je présenterai le résultat d’un projet qui vise à identifier les différentes axiomatiques que l’on obtient en jouant sur deux facteurs. Tout d’abord, on peut faire varier les propriétés de la relation de préférence: réflexivité, transitivité, totalité, limit assumption. Ensuite, on peut jouer sur la distinction (faîte en théorie du choix rationnel) entre élément maximal et élément optimal.
Si le temps le permet, je décrirais également un travail en cours d’automatisation de ces logiques via Isabelle/HOL–collaboration avec C. Benzmueller (Université Libre de Berlin)
Post-doctorant, Nutriomics laboratory
Le jeudi 16 mai à 14h, en GI42
Abstract: Le modèle additif constitue le vaisseau amiral des procédures visant à agréger des points de vues multiples, voire conflictuels, que ce soit en décision multicritères, en choix social, ou en apprentissage automatique. Sa simplicité technique incite à penser qu’il s’agit d’un modèle « interprétable ». Nous chercherons à réaliser ce potentiel, en allant jusqu’à l’interprétation, de cette procédure d’agrégation des préférences, dans un cadre robuste vis-à-vis de l’aspect incomplet de l’information.
Bibliographie:
Belahcene, Khaled, et al. Explaining robust additive utility models by sequences of preference swaps. Theory and Decision 82.2 (2017): 151–183.
Belahcene, Khaled, et al. Comparing options with argument schemes powered by cancellation. IJCAI 2019
Chercheur post-doctoral, Ecole Nationale d’Ingénieurs de Brest, Lab-STICC
Le mardi 14 mai 2019 à 14h, en GI 42
Résumé: Answer Set Programming (ASP) est une forme de programmation déclarative orientée vers les problèmes de recherche difficiles (principalement NP-difficiles). ASP a été utilisé avec succès dans des domaines tels que la représentation des connaissances (KR), la programmation logique et le raisonnement automatique. Dans cet exposé, je présenterai plusieurs extensions d’ASP qui permettent d’utiliser ce formalisme pour représenter et raisonner sur différents types de scénarios tels que robotique, réalité virtuelle, intégration des connaîsances, planification, diagnose, systèmes biologiques ou scénarios contenant des informations incertaines.
Abstract: Answer Set Programming (ASP) is a form of declarative programming oriented towards difficult (primarily NP-hard) search problems. ASP has been successfully used in areas such as Knowledge Representation (KR), Logic Programming and Automated Reasoning. In this talk I will present several recent of ASP that allow using this formalism for representing and reasoning on different types of scenarios such as robotics, virtual reality, knowledge integration, planning, diagnosis, biological systems or scenarios with uncertain information.
Professeur, Université d’Évry Val d’Essonne, Laboratoire de Mathématiques et Modélisation d’Évry
Le mardi 9 Avril à 15h, en GI 42
Abstract: The behavior of ecological systems mainly relies on the interactions between the species it involves. In many situations, these interactions are not observed and have to be inferred from species abundance data. To be relevant, any reconstruction network methodology needs to handle count data and to account for possible environmental effects. It also needs to distinguish between direct and indirect interactions and graphical models provide a convenient framework for this purpose.
We introduce a generic statistical model for network reconstruction based on abundance data. The model includes fixed effects to account for environmental covariates and sampling efforts, and correlated random effects to encode species interactions. The inferred network is obtained by averaging over all possible tree-shaped (and therefore sparse) networks, in a computationally efficient manner. An output of the procedure is the probability for each edge to be part of the underlying network.
A simulation study shows that the proposed methodology compares well with state-of-art approaches, even when the underlying network strongly differs from a tree. The analysis of two data sets highlights the influence of covariates on the inferred network.
Professeur, Kansas University, School of business
Le mardi 2 Avril à 14h, en amphi Gauss
Abstract: I will present some of the theory and applications of graphical models using Dempster-Shafer’s (DS) belief function theory. To emphasize the commonalities with probabilistic graphical models, I will first describe the abstract framework of valuation-based systems, which includes probability theory and DS belief function theory. Next, I will describe the basics of DS belief function theory, and illustrate the definitions using the captain’s problem from Almond’s 1995 monograph titled « Graphical Belief Modeling. » Using the captain’s problem, I will describe local computation in computing marginals of joint belief function. This algorithm is implemented in Belief Function Machine (BFM), an open source Matlab code for constructing/solving graphical models in DS belief functions. I will demonstrate the use of BFM in solving the Captain’s problem, the chest clinic Bayes net example from Lauritzen-Spiegelhalter’s 1988 article in JRSS, and a large communication network reliability example described in Haenni-Lehmann’s 2002 article in IJAR.
Post-doctorante, Université d’Edimburgh, School of informatics
Le mardi 26 mars à 14h, en GI 42
Abstract: Large-scale probabilistic representations, including statistical knowledge bases and graphical models, are increasingly in demand. They are built by mining massive sources of structured and unstructured data, the latter often derived from natural language processing techniques. The very nature of the enterprise makes the extracted representations probabilistic. In particular, inducing relations and facts from noisy and incomplete sources via statistical machine learning models means that the labels are either already probabilistic, or that probabilities approximate confidence. While the progress is impressive, extracted representations essentially enforce the closed-world assumption, which means that all facts in the database are accorded the corresponding probability, but all other facts have probability zero. The CWA is deeply problematic in most machine learning contexts. A principled solution is needed for representing incomplete and indeterminate knowledge in such models, imprecise probability models such as credal networks being an example. In this work, we are interested in the foundational problem of learning such open-world probabilistic models. However, since exact inference in probabilistic graphical models is intractable, the paradigm of tractable learning has emerged to learn data structures (such as arithmetic circuits) that support efficient probabilistic querying. We show here how the computational machinery underlying tractable learning and inference has to be generalised for imprecise probabilities. Our empirical evaluations demonstrate that our regime is also effective.
Post-doctorant, Nutriomics laboratory
Le mardi 12 mars à 14h, en amphi Gauss (bâtiment G du centre de recherche)
Abstract: Nous cherchons à équiper un processus d’aide à la décision d’outils permettant de répondre aux exigences de redevabilité. Nous faisons l’hypothèse d’un processus dialectique entre parties prenantes de la décision, ce qui permet d’envisager l’acquisition d’information sur les préférences ainsi que la possibilité d’interroger le bien-fondé ou la loyauté de la procédure de décision/recommandation, voire d’en contester les effets. Techniquement, nous proposons d’étudier l’espace des versions d’un modèle d’agrégation des préférences issu de la Théorie de la décision, et de formuler le problème inverse correspondant. Nous verrons comment cette formulation permet de représenter l’inférence robuste à l’aide de schémas d’arguments, et ainsi produire des explications des recommandations, si possible correctes, complètes, facile à calculer et à comprendre. Nous illustrerons cette approche dans le cadre d’une procédure collective de tri par approbation.
Post-doctorant, Université de Technologie de Compiègne, Heudiasyc (équipe CID)
Le mardi 5 mars en GI42, à 14h
Abstract:
Imprecise choice functions constitute a very general and simple mathematical framework for modelling choice under uncertainty. In particular, they represent the set-valued choices that typically arise from applying decision rules to imprecise-probabilistic uncertainty models. Choice functions can be given a clear behavioural interpretation in terms of attitudes towards gambling. I will introduce choice functions as a tool to model uncertainty, and connect them with other, less general, belief models used in the theory of imprecise probabilities, such as sets of desirable gambles, and sets of probabilities.
Professeur, Chef du Département Informatique à l’Université de Greenwich
Le mardi 26 février dans l’amphi du Centre d’Innovation, à 14h
Résumé :
Les techniques de Narration Interactive se sont développées depuis les années 2000 principalement dans le but de fournir un contenu narratif plus évolué aux médias interactifs, pour des applications plus ludiques qu’éducatives. Avec le développement de représentations des connaissances plus sophistiquées et d’approches plus cognitives de la narration, il existe de nouvelles opportunités pour utiliser des techniques narratives dans le cadre de la simulation et de la formation. Cette tendance rejoint au niveau narratif le développement du domaine des « Jeux Sérieux ». Nous présentons plusieurs exemples d’utilisation de techniques narratives dans des applications non ludiques, basées sur une utilisation de techniques de planification par operateurs ou par tâches.
Dans le domaine de la formation ou de l’éducation des patients, la conversion de modèles en connaissances en fragments narratifs scénarisés peut être utilisée pour créer une diversité de situations résultant de l’interaction entre des connaissances génériques et des données personnelles. Nous présenterons également une approche cognitive de la narration qui vise à contrôler le phénomène de compréhension narratif, et qui a pu être utilisée pour explorer la compréhension causale chez l’enfant.
Le mardi 8 janvier en GI42, à 14h
Résumé :
The purpose here is to deal with non-observed dyads during the sampling of a network and consecutive issues in the Stochastic Block Model (SBM) inference. We’ll review sampling designs and recover Missing At Random (MAR) and Not Missing At Random (NMAR) conditions for SBM. We’ll introduce several variants of the variational EM (VEM) algorithm for inferring the SBM under various sampling designs (MAR and NMAR). Model selection criteria based on Integrated Classification Likelihood (ICL) are derived for selecting both the number of blocks and the sampling design. We’ll investigate the accuracy and the range of applicability of these algorithms with simulations. We’ll finally explore one real-world networks from biology (protein-protein interaction network), where the interpretations considerably depends on the sampling designs considered.
Destercke Sébastien
Chercheur CNRS au laboratoire Heudiasyc
Le mardi 22 janvier 2018 à 14h en GI16
Résumé :
In this talk, we will present a generic mean to handle preferences of an individual user tainted with uncertainty, with belief functions used as an uncertainty model. We will illustrate the approach on a classical weighted average. We will discuss the potential interests of such an appraoch, as well as its possible limits.
Maître de conférence à l’ENSMM de Besançon
Le jeudi 20 décembre en GI42, à 11h
« Monitoring of engineered systems »
Résumé :
The presentation will first start with a global view of some monitoring methodologies developed in our team to detect and track a degradation on engineered systems. Illustrations will concern turbofan engines, rolling bearings, milling and carbon pipes.
The methodologies rely on pattern recognition algorithms dedicated to those applications and fed by time-series and by a priori knowledge. One of the common points of those algorithms concerns the management of uncertainty and for that we used different formalisms:
- belief functions applied to online learning with evolving models,
- computational geometry based on polygons for similarity based monitoring and prognostics,
- and consensus clustering in unsupervised learning for reverse engineering.
The second part will be dedicated to Evidential Hidden Markov Models for the statistical representation of time-series using belief functions. Inference and learning in those models will be detailed and discussed.
Maître de conférence à Écoles de Saint-Cyr Coëtquidan
Le mardi 18 décembre 2018 en Amphi Gauss, à 14h
Résumé :
Le premier jeu à avoir utilisé la planification comme IA pour ses personnages non joueurs est First Encounter Assault Recon (F.E.A.R) en 2005. Le résultat était saisissant et a incité à se poser une question : Peut-on planifier en temps réel des centaines d’IAs dans un jeu ou une simulation tactique ? La réponse, en cours de développement et pour l’instant positive, se base sur un planificateur de type STRIPS et la programmation GPU. Cependant, la planification ne s’arrête pas là. Avec la bonne modélisation, elle pourrait permettre de déstructurer un champ de bataille ou encore proposer une séquence de courtes simulations immersives, les deux situations ayant un but formateur.
Maître de conférence à l’université d’Artois
Le mardi 4 décembre en GI42, à 14h
Résumé :
Considerable attention has recently been devoted to the problem of automatically extending knowledge bases by applying some form of inductive reasoning. While the vast majority of existing work is centred around so-called knowledge graphs, in this talk I will consider a setting where the input consists of a set of (existential) rules. I will present some Bayesian models to find plausible missing rules which are inspired by cognitive models for category based induction. Unlike many existing approaches, we learn rules by directly exploiting regularities in the given rule base, and do not require that a database with concept and relation instances is given. As a result, the proposed methods can be applied to a wide variety of ontologies.
Xuhong (Jacques) Li
Doctorant au laboratoire Heudiasyc
Le mardi 16 octobre 2018 à 14h30 en GI42
Résumé :
In inductive transfer learning, fine-tuning pre-trained convolutional networks substantially outperforms training from scratch. When using fine-tuning, the underlying assumption is that the pre-trained model extracts generic features, which are at least partially relevant for solving the target task, but would be difficult to extract from the limited amount of data available on the target task. However, besides the initialization with the pre-trained model and the early stopping, there is no mechanism in fine-tuning for retaining the features learned on the source task. In this paper, we investigate several regularization schemes that explicitly promote the similarity of the final solution with the initial model. We show the benefit of having an explicit inductive bias towards the initial model. We eventually recommend that the baseline protocol for transfer learning should rely on a simple $L^2$ penalty using the pre-trained model as a reference.
Yonatan Alarcon
Doctorant au laboratoire Heudiasyc
Le mardi 16 octobre 2018 à 14h00 en GI42
Résumé :
Dans cette présentation, nous présenterons des premiers résultats concernant l’extension de l’analyse linéaire discriminante imprécise (une méthode classique d’apprentissage) au cas imprécis, qui permet de produire des prédictions prudentes en cas de manque d’information et/ou d’informations conflictuelles quand à la vraie classe.
Cesar Tacla
Professeur à Universidade Tecnologica Federal Do Parana
Le jeudi 4 octobre 2018 à 10h en GI42
Résumé :
La première partie concerne les concepts fondamentaux de l’argumentation.
Ensuite, je présente un usage de l’argumentation rhétorique qui englobe appels, menaces et récompenses dans des dialogues entre agents. Il s’agit d’un modèle pour le calcul de la force de arguments basé sur l’état de l’objectif que l’émetteur veut attaquer/faire avancer et sur la crédibilité de l’émetteur pour accomplir ses menaces, récompenses et appellations.
Le deuxième usage concerne la prise de décision consensuelle. Des agents veulent choisir une option entre plusieurs options envisageables (par exemple, quel langage de programmation pour un certain projet). Chaque agent a sa propre base de croyances qui peuvent amener a des arguments contradictoires lorsque ils dialoguent a propos d’une option (ex. langage X). A partir d’un dialogue il est possible de construire un graphe d’attaques entre les arguments. L’option choisie est celle qui a le support des arguments les plus forts: ceux qui gardent des informations les plus répandues parmi les agents.
Ines Couso
Le vendredi 28 september 2018 à 11h en GI42
Professeur à l’Université d’Oviedo
Résumé :
Imprecise Dirichlet Process-based tests (IDP-tests, for short) have been recently introduced in the literature by Benavoli et al. Those tests overcome the problem of deciding how to select a single prior in Bayesian hypothesis testing, in the absence of prior information. They make use of a “near-ignorance” model, that behaves a priori as a vacuous model for some basic inferences, but it provides non-vacuous posterior inferences. The authors performed an empirical study comparing the behaviour of a classical frequentist test and its IDP-based counterpart. They concluded that IDP-based test are capable of isolating instances (samples) where the frequentist test is virtually “guessing at random”. We perform additional empirical studies that aim at shedding more light on the issue. We consider in particular the Wilcoxon rank sum test, and its IDP-based extension. We show that the upper and lower posterior probabilities can be expressed as tail probabilities based on the value of the U statistic, and that therefore there is a one-to-one correspondence between those upper and lower probabilities and the p‑value of the frequentist test. We construct an imprecise frequentist-based test that reproduces the same decision rule as the the IDP test. It considers a neighbourhood around the U‑statistic value. If all the values in the neighbourhood belong to the rejection zone (resp. to the acceptance region), the null hypothesis is rejected (resp. accepted). Otherwise, the judgement is suspended. This construction puts a step forward in the reconciliation between frequentist and Bayesian hypothesis testing: this kind of imprecisiation over the set of priors seems to produce similar effects on the decision mechanisn as an imprecisiation of data around the observations.
Cassio P. de Campos
Professeur à l’université d’Utrecht
Le vendredi 28 septembre 2018 à 10h en GI42
Summary :
Sum-product networks are an increasingly popular family of probabilistic graphical models for which marginal inference can be performed in polynomial time. They have been shown to achieve state-of-the-art performance in several tasks. When learning sum-product networks from scarce data, the obtained model may be prone to robustness issues. In particular, small variations of parameters could lead to different conclusions. We discuss the characteristics of sum-product networks as classifiers and study the robustness of them with respect to their parameters. Using a robustness measure to identify (possibly) unreliable decisions, we build a hierarchical approach where the classification task is deferred to another model if the outcome is deemed unreliable. We apply this approach on benchmark classification tasks and experiments show that the robustness measure can be a meaningful manner to improve classification accuracy.
Destercke Sébastien
Chercheur CNRS au laboratoire Heudiasyc
Le mardi 10 juillet 2018 à 14h en GI42
Résumé :
In this talk, we will be interested in the problem of ordinal regression, i.e., in predicting discretely, ordered values (such as rating scores of websites, severity levels of diseases, degradation levels of components , evaluation levels of papers, …) from a given set of attributes and training data. More particularly, we will be interested in the problem of producing cautious predictions (i.e. sets of possible values rather than single ones) when information does not allow us to make precise ones. We propose to do so by considering an imprecise probabilitistic setting, the basics of which we will recall.
We will then present two strategies to perform ordinal regression, based on binary decompositions of the initial problem: the first one based on a tree decomposition, the second on a cumulative decomposition.
Lingxue Yang
Doctorante en informatique aux laboratoires Heudiasyc et Costech
Le lundi 11 juin 2018 à 9h30 en CR C.203 (bâtiment C, UTC)
Résumé :
In recent years, the advances made in computer technology have made human-computer interaction (HCI) penetrated into almost all areas of human activities. As the carrier of the interaction between human and information, the user interface is a key part that influences the systems and human performance. Especially for business software such as analytic applications behind which there are complicated logics. Therefore, the improper information design and interface design will hinder users’ understanding, learning and the use of the interactive systems, causing cognitive barriers, such as memory overload. Interaction design is closely related to human cognition. In analytic applications, the user’s main task is to acquire the useful information that allows him/her to identify the root causes of a business question for decision making. It requires a large number of storage of human working memory to process the information needed for completing an analytical task. As the working memory is limited in capacity, not all the information can be stored in once. Our working memory only stores the most recent information for the current activated task. One consequence is that when the task is interrupted or suspended, to handle a secondary task (interrupting task), the working memory will free up some space for processing the information needed for this secondary task. When the user returns to the primary task (interrupted task), he/she has to recall the released information. It takes time, overcharges the working memory and consumes much mental effort of the user. The result is the loss of time, and reduced task performance. Therefore, it is necessary to design user interface and interaction considering these limits of working memory. The research of analytic provenance focuses on retrieving users’ interaction history, reinstating their reasoning process so that they can quickly resume an interrupted or suspended task. The designed tools through analytic provenance serve as an external memory. Lenay’s two modes of interaction: “put down” and “in hand” allow us to address this problem in two perspectives: memory substitution (put down) and memory supplementation (in hand). Memory substitution considers a memory tool as an object in the environment. Memory supplementation sees a memory tool as a coupling device between the user and the task, and it extends the user’s capability of perceiving the problem-solving as a supplementation of their perceptual systems. The existing solutions are more about the design for the former one, they lack a consideration for the latter one. In this research, we try to pose a problem which may improve design considerations in resolving the imbalance between user interface and human cognition from the memory supplementation point of view. We have developed a tool, based on a “history path”, using the concept of analytic provenance. It permits to show, in a specific window of the user interface, some of the steps of a previous resolution task that a user has performed during previous experience (or to simulate a resolution task interruption). We have set up a simple (minimalist) problem-solving task the resolution of which was recorded (screen, voice, eyes movements, time of resolution, etc.), to test if it is possible to design a tool for memory supplementation. We experiment two different tools, based on two history path representations, a static one, and a dynamic one. The static history path shows, at the same time, all the attemps made during a previous experience to resolve a given task. The dynamic history path shows only the attemps of the previous experience, which are close to the current task resolution step. We will present the first results of this experience, which aim at evaluating to what extent a static history path or a dynamic history path can help the user for tasks resolution.
Maitre de conférences en informatique au laboratoire CRIL, de l’Université d’Artois
Le mardi 22 mai 2018 à 14h en GI042 (bâtiment Blaise Pascal, UTC)
Résumé :
Nous présentons dans cet exposé différents formalismes que nous avons créés, utilisés ou enrichis dans le cadre de recherches académiques ou dans des projets plus appliqués. Ces formalismes ont comme point commun de permettre de mieux prendre en compte les concepts de fiabilité de l’information, d’évolution du monde, d’inférence plausible, de fusion et de révision ou encore de prise de décision. Nous faisons tout d’abord un tour d’horizon des différentes méthodes abordées, leurs éventuels liens et plusieurs applications possibles. Puis, nous nous intéressons plus particulièrement aux problèmes d’incomparabilité et d’incommensurabilité dans le cadre de logiques pondérées et leur application à la révision, à la fusion de croyances et aux logiques de description légères. Nous présentons plus en détail des généralisations de la logique possibiliste aux ordres partiels et aux intervalles. Nous nous intéressons ensuite à nos travaux concernant le General Game Playing. L’objectif de ce dernier est de développer des programmes capables de jouer de manière convaincante à n’importe quel jeu sans intervention humaine. Nous présentons nos résultats basés sur les réseaux de contraintes stochastiques. Enfin, nous présentons succinctement divers travaux en cours et perspectives, dont certains directement liés à la préservation du patrimoine immatériel de l’humanité et plus spécifiquement aux marionnettes sur eau du Vietnam.
Maitre de conférences en informatique au laboratoire GREYC, de l’Université de Caen Normandie
Le mardi 15 mai 2018 à 10h30 en GI042 (bâtiment Blaise Pascal, UTC)
Partie 1
Résumé :
La programmation par contrainte (PPC) offre un cadre générique et flexible pour résoudre des problèmes d’optimisation sous contraintes. L’utilisation de la PPC pour exprimer des problèmes de fouille de données possède de nombreux avantages. Le premier est d’offrir à l’utilisateur un moyen simple et déclaratif pour modéliser ses problèmes. Le second est de proposer une approche générique de résolution qui permet à l’utilisateur de ne plus devoir se préoccuper de l’écriture d’un algorithme spécifique pour chaque tâche de fouille. Dans cette première partie de l’exposé je présenterai de manière succincte quelques contributions concernant les apports de la PPC pour la fouille de données orientée motifs et plus particulièrement sur l’extraction de motifs séquentiels et de motifs Pareto.
Partie 2
Résumé :
Un problème récurrent en extraction de motifs est la sélection de motifs pertinents parmi le grand ensemble de motifs découverts. Pour réduire le nombre de motifs extraits et donc de faciliter l’analyse du résultat de la fouille est l’extraction de motifs de plus haut niveau reposant sur des caractéristiques qui impliquent plusieurs motifs locaux. Ces motifs sont appelés ensembles de motifs ou pattern sets. Extraire le meilleur ensemble de motifs relativement à une mesure donnée permet de mieux cibler le processus d’extraction vers les meilleurs motifs mais rend la tâche plus ardue, notamment en raison de la taille importante de l’espace de recherche et le manque de techniques d’élagage efficaces pour ce type de problèmes. La plupart des approches existantes (souvent heuristiques) sacrifient la preuve d’optimalité au détriment de solutions approchées. Toutefois, la qualité de solutions obtenues par ces approches reste très variable.
La PLNE (Programmation Linéaire en Nombres Entiers) est un au cadre générique qui procure un haut niveau de flexibilité et d’expressivité pour composer différentes types de contraintes. L’utilisation de la PLNE pour la modélisation de tâches d’optimisation en fouille de données est un domaine qui a été très peu exploré.
Dans cette seconde partie de l’exposé, je vais montrer comment la PLNE peut être utilisée pour modéliser différentes contraintes portant sur des ensembles de motifs. Outre le cadre général de l’extraction d’ensembles de motifs, je vais illustrer l’intérêt de cette approche sur un problème bien connu en fouille de données: le clustering conceptuel. Enfin, je terminerai par quelques résultats récents sur l’utilisation des moyennes ordonnées pondérées (communément appelées OWA pour Ordered Weighted) afin de trouver un équilibre optimal sur la taille des clusters du clustering conceptuel.
Maitre de conférences au LIP6 de l’UPMC
Le jeudi 12 avril 2018 à 14 h en GI042 (Bâtiment Blaise Pascal, université de technologie de Compiègne).
Partie 1 : Une introduction à la théorie de la décision algorithmique
Résumé :
La théorie de la décision algorithmique porte sur l’étude sous l’angle algorithmique de problèmes issus de la théorie de la décision, de la théorie des jeux et de la théorie du choix social. La plupart des travaux réalisés dans ces domaines jusqu’à récemment focalisaient principalement sur des résultats de caractérisation, l’aspect computationnel (i.e., la calculabilité effective des concepts
introduits) étant souvent laissé au second plan. C’est ce deuxième aspect qui fait la spécificité de la théorie de la décision algorithmique, et qui est étudié par une communauté d’informaticiens en intelligence artificielle et en recherche opérationnelle depuis un peu plus d’une dizaine d’années. Une brève introduction à ce domaine sera proposée lors de cet exposé.
Partie 2 : Quelques contributions en théorie de la décision algorithmique
Résumé :
Lors de cet exposé, je présenterai quelques contributions récentes en décision séquentielle dans l’incertain lorsque les préférences suivent un modèle alternatif à l’utilité espérée, et j’aborderai également quelques problématiques en décision collective
Chargé de recherche à l’IFSTTAR
Le mardi 20 mars 2018 à 14 h en GI042 (Bâtiment Blaise Pascal, université de technologie Compiègne)
Résumé :
Partie 1: Analyse exploratoire de traces numériques de mobilité. Quelques résultats sur les systèmes de vélos en libre service et de transports en Commun.
Les systèmes de mobilités modernes génèrent un nombre important de traces numériques qu’il convient d’analyser pour comprendre et optimiser le fonctionnement de ces systèmes. Ces données se distingues des sources classiquement utilisées pour appréhender les comportement de mobilité et leur évolution (enquête globale transport, enquête ménage déplacement) et nécessite donc des méthodes nouvelles pour essayer de tirer partie de l’information qu’elles recèlent. Après avoir présenté ce contexte générale et les particularités des traces numériques par rapport aux données d’enquête classiques, nous détaillerons différents travaux exploratoires menés dans ce contexte pour mieux cerner ces nouvelles sources et leurs potentialités. Nous verrons en particulier comment les données de stocks des systèmes de Vélos en Libre Service (VLS) peuvent être mobilisées pour résumer le comportement de ces systèmes et faciliter leurs comparaisons. Nous présenterons également des travaux d’analyse exploratoire et de visualisation des données de flux voyageurs. Celles-ci offrent en effet, des perspectives intéressantes pour l’analyse fine des usages et de la dynamique des origines / destinations effectuées par les usagers de transport en commun. Nous présenterons des résultats sur l’exploration de ces données massives aussi bien dans le contexte des VLS que dans celui des transports en commun (métro / RER).
Partie 2: Modèle de mélange et données de comptage, sélection de modèle, régularisation et estimation.
Dans cette présentation, nous nous intéresserons aux méthodologies utilisées pour déterminer le nombre de composantes d’un modèle de mélange lorsque les données sont des données de comptage. Nous nous intéresserons plus particulièrement aux modèles utilisés pour analyser des graphes (Stochastic Block Model et variante) où les comptages correspondent à des nombres d’interaction entre paire d’objet , ou des « textes » (Mixture of Unigram et Poisson mixture) où les comptages correspondent au nombre d’occurrences d’un mot. Nous verrons comment le problème d’estimation du nombre de composantes est traité classiquement dans un cadre fréquentiste et Bayésien aux travers de critères tels que BIC ou ICL. Une attention particulière sera portée aux aspects algorithmiques du problème où l’on discutera des avantages et inconvénients des solutions classiques basées sur l’utilisation de l’algorithme EM et des variantes variationnelles ou bien sur des approches de type MCMC. Nous présenterons dans ce contexte un algorithme d’estimation conjointe de la partition des données et du nombre de composantes basé sur l’optimisation gloutonne d’un critère Bayésien correspondant à L’ICL exacte. Ce critère peut en effet être calculé de manière exacte pour cette famille de modèle lorsque les lois a priori sur les paramètres sont adéquatement choisies. Nous verrons ensuite comment cette approche peut être étendue pour extraire une structure hiérarchique de solutions imbriquées lorsque l’on fait varier le degré de régularisation.
Maître de conférences au LAMSADE, université Paris
Le lundi 12 mars 2018, à 14 h en GI042 (Bâtiment Blaise Pascal, université de technologie Compiègne)
Résumé :
Partie 1: Présentation générale des travaux de recherche autour des préférences dans les modèles décisionnels.
Les préférences sont au coeur des modèles décisionnels (decision collective, multicritère ou dans l’incertain) et apparaissent dans les différents étapes des processus décisionnels (definition/description du problème, modélisation, résolution et validation/argumentation).
Dans cette première partie de l’exposé je vous parlerai de mes travaux de recherche qui concernent ces différents étapes (avec des résultats théoriques mais aussi avec des applications industriels):
- définition/description du problème:
apport des travaux expérimentaux pour mieux comprendre le comportement des décideurs et utilisation de leur résultats pour trouver des modèles adaptés.
Exemples des processus d’élicitation/apprentissage des préférences.
- modélisation :
comment obtenir un cadre général pour la modélisation des préférences ? Comment representer d’une manière compacte les préférences ?
- résolution :
comment se servir des logiques non classiques ou une modélisation par satisfaction de contraintes pour l’agrégation des préférences ?
- application industriel: trouver la nouvelle ligne grande vitesse entre Paris-Normandie (projet avec la SNCF Réseau)
Partie 2: Résultats sur la partie modélisation des préférences
Quand on travaille avec des décideurs/experts on s’aperçoit rapidement que les orders totaux ou les préordres totaux que l’on utilise souvent dans des approches formels apparaissent très forts/contraignants pour représenter leur préférences. Pour cela des structures de préférences
plus souples ont été proposées dans la littérature. Les semiordres, les ordres d’intervalles ou les ordres partiels sont les plus connus. Ces structures de préférences « sophistiquées » ont été étudiées par différents chercheurs venant de différents domains de recherche et manquaient un cadre général unificateur. Je vous présenterai donc un cadre que nous avons défini qui donne un language commun à ces structures et qui nous aident à en proposer de nouvelles. Le cadre se base sur une axiomatisation simple et couvre la majorité des structures de préférences connues dans la littérature.
Références de la partie 2 :
M. Öztürk, Coherence conditions for preference modeling with ordered points, Journal of Mathematical Psychology, Volume 79, 2017, pages 44–52.
M. Öztürk , M. Pirlot et A. Tsoukiàs, Representing preferences using intervals, Artificial Intelligence Journal, 175, pages 1194–1222, 2011
Elsa NEGRE
Maître de conférences HDR, UMR Lamsade, Université Paris Dauphine
Le mardi 6 février 2018 à 14 h en GI042(Bâtiment Blaise Pascal, université de technologie Compiègne)
Résumé :
Nos travaux s’articulent autour de l’extraction et de l’analyse de données issues de sources hétérogènes pour les rendre facilement accessibles et exploitables par les utilisateurs/décideurs. En effet, il devient de plus en plus difficile de savoir quelles sont les données à rechercher et où les trouver lorsque la masse de données/informations s’accroît. Des techniques informatiques existent pour faciliter cette recherche et permettre une extraction pertinente des données/informations. L’une d’entre elles est la recommandation qui guide l’utilisateur lors de son exploration, en cherchant pour lui les informations susceptibles d’être pertinentes. Un enjeu intéressant est de proposer un système de recommandation capable de s’adapter à différents cas d’applications, avec de bonnes performances du point de vue de l’utilisateur/décideur et palliant certains manques des systèmes de recommandation existants. Dans le cadre de nos travaux, l’ensemble des données à explorer peut provenir de différents domaines (les environnements de travail collaboratif, les plateformes d’apprentissage en ligne, les entrepôts de données, les villes intelligentes, les systèmes d’alertes précoces, …) et l’utilisateur à aider peut être un individu isolé ou une entité multiple à visée publique. Conscients que la masse de données/informations à explorer dans de tels cas peut être très importante, complexe et variée, il nous est apparu nécessaire de proposer des systèmes de recommandation appropriés pour y faire face. Nous proposons donc une approche générique de recommandation, en rupture complète avec les travaux existants, que nous instancions pour permettre de recommander soit des éléments, soit des utilisateurs, sous forme de recommandations individuelles ou à visée publique dans différents domaines. Puis, nous nous intéressons à l’évaluation des (systèmes de) recommandations. Afin d’assurer la pertinence des recommandations du point de vue de l’utilisateur/décideur, nous proposons des méthodes pour évaluer subjectivement d’une part le système de recommandation et d’autre part les recommandations retournées. Enfin, malgré de bonnes performances, parfois, les recommandations ne sont pas considérées comme suffisamment pertinentes. Nous proposons donc des techniques pour améliorer les (systèmes de) recommandations. Elles concernent l’amélioration des données d’entrée, le démarrage à froid et l’ajout de données/sources externes (notamment le contexte de l’utilisateur/décideur). Nos propositions ont été validées par la participation à différents projets ainsi que le co-encadrement de thèses de Doctorat et le suivi de travaux de Master Recherche.
Mots clés : Systèmes de recommandation, Analyse de données, Aide à la décision, Systèmes d’Information
Jonathan DEKHTIAR
Doctorant au laboratoire Roberval, UTC
Le mardi 30 janvier 2018 à 10h15 en GI042 (Bâtiment Blaise Pascal, université de technologie Compiègne)
Résumé :
The manufacturing industry is always trying to automate many of its engineering tasks and workflows. Applying Machine/Deep Learning in such an industrial context is challenging for different reasons : Contrary to the GAFAM (Google, Apple, Facebook, Amazon, Microsoft) and BATX (Baidu, Alibaba, Tencent and Xiaomi), the manufacturing industry use on a day-to-day basis highly complex data which comes, most of the time, in proprietary formats (e.g. 3D Models). Moreover, data are not available in large quantities (impossibility to rely on a big data scale) and most of the time in insufficient quantities to train any Deep Learning model to perform any computer vision task. However, Machine Learning can still be applied using various tips and tricks, frequently with good results. Transfer Learning is one effective solution, nevertheless this presentation will not focus on the latter which is already well covered in the literature [Y. Bengio, 2012] – [M. Oquab, 2014]. Inspired by research in anomaly detection for neuro-imagery [K. Wang, 2016] – [T. Schlegel, 2017] and for patrol robots [W. Lawson, 2017], we have studied the effectiveness of Deep Generative Networks and Deep Auto Encoder, namely GANs (Generative Adversarial Networks) and VAE (Variational AutoEncoders). This presentation aims to present the specificities and basics of GANs/VAEs and an overview of the whole process we developed with a limited amount of data (1000 images) and obtain 92% of accuracy and 85% of IOU (Intersection over Union) for the machined surface defect localisation. The proposed approach is able to adapt itself without any change in the structure or hyper-parameter settings to different industrial situations offered by the challenge dataset provided by DAGM 2007. In summary, the strength of the proposed solution is the following : Highly adaptable with limited re-engineering costs, reduced training time (+/- 3 hours on one GPU), Weakly Supervised Approach thus having a very reduced deployment cost.
Professeur des universités à l’Université de Paris Sud, Polytech Paris Sud.
Le mardi 3 Mars à 14H, en GI 42
Abstract:
The Dempster-Shafer theory of belief functions is a formal framework for modeling and reasoning with uncertainty. It is based on the representation of independent pieces of evidence by belief functions, and on their combination by an operator called Dempster’s rule. In this talk, we show that the weighted sum and softmax operations performed in logistic regression classifiers and, for instance, in the output layer of feedforward neural networks can be interpreted in terms of evidence aggregation using Dempster’s rule of combination. From that perspective, the output probabilities computed by such classifiers (including also support vector machines) can be seen as being derived from some belief functions, which can be laid bare and used for decision making or classifier fusion. This finding suggests that the links between machine learning and belief functions are closer than is usually assumed, and that Dempster-Shafer theory provides a suitable framework for developing new machine learning algorithms.



