Séminaires

Xuhong (Jacques) Li

Doctorant au laboratoire Heudiasyc

Le mardi 16 octobre 2018 à 14h30 en GI42

Résumé :

In inductive transfer learning, fine-tuning pre-trained convolutional networks substantially outperforms training from scratch. When using fine-tuning, the underlying assumption is that the pre-trained model extracts generic features, which are at least partially relevant for solving the target task, but would be difficult to extract from the limited amount of data available on the target task. However, besides the initialization with the pre-trained model and the early stopping, there is no mechanism in fine-tuning for retaining the features learned on the source task. In this paper, we investigate several regularization schemes that explicitly promote the similarity of the final solution with the initial model. We show the benefit of having an explicit inductive bias towards the initial model. We eventually recommend that the baseline protocol for transfer learning should rely on a simple $L^2$ penalty using the pre-trained model as a reference.

Yonatan Alarcon

Doctorant au laboratoire Heudiasyc

Le mardi 16 octobre 2018 à 14h00 en GI42

Résumé :

Dans cette présentation, nous présenterons des premiers résultats concernant l'extension de l'analyse linéaire discriminante imprécise (une méthode classique d'apprentissage) au cas imprécis, qui permet de produire des prédictions prudentes en cas de manque d'information et/ou d'informations conflictuelles quand à la vraie classe.

Cesar Tacla

Professeur à Universidade Tecnologica Federal Do Parana

Le jeudi 4 octobre 2018 à 10h en GI42

Résumé :

La première partie concerne les concepts fondamentaux de l'argumentation.

Ensuite, je présente un usage de l'argumentation rhétorique qui englobe appels, menaces et récompenses dans des dialogues entre agents. Il s'agit d'un modèle pour le calcul de la force de arguments basé sur l'état de l'objectif que l'émetteur veut attaquer/faire avancer et sur la crédibilité de l'émetteur pour accomplir ses menaces, récompenses et appellations. 

Le deuxième usage concerne la prise de décision consensuelle. Des agents veulent choisir une option entre plusieurs options envisageables (par exemple, quel langage de programmation pour un certain projet). Chaque agent a sa propre base de croyances qui peuvent amener a des arguments contradictoires lorsque ils dialoguent a propos d'une option (ex. langage X). A partir d'un dialogue il est possible de construire un graphe d'attaques entre les arguments. L'option choisie est celle qui a le support des arguments les plus forts: ceux qui gardent des informations les plus répandues parmi les agents. 

Ines Couso

Professeur à l'Université d'Oviedo

Le vendredi 28 september 2018 à 11h en GI42

Résumé :

Imprecise Dirichlet Process-based tests (IDP-tests, for short) have been recently introduced in the literature by Benavoli et al. Those tests overcome the problem of deciding how to select a single prior in Bayesian hypothesis testing, in the absence of prior information. They make use of a “near-ignorance” model, that behaves a priori as a vacuous model for some basic inferences, but it provides non-vacuous posterior inferences. The authors performed an empirical study comparing the behaviour of a classical frequentist test and its IDP-based counterpart. They concluded that IDP-based test are capable of isolating instances (samples) where the frequentist test is virtually “guessing at random”.  We perform additional empirical studies that aim at shedding more light on the issue. We consider in particular the Wilcoxon rank sum test, and its IDP-based extension. We show that the upper and lower posterior probabilities can be expressed as tail probabilities based on the value of the U statistic, and that therefore there is a one-to-one correspondence between those upper and lower probabilities and the p-value of the frequentist test. We construct an imprecise frequentist-based test that reproduces the same decision rule as the the IDP test. It considers a neighbourhood around the U-statistic value. If all the values in the neighbourhood belong to the rejection zone (resp. to the acceptance region), the null hypothesis is rejected (resp. accepted). Otherwise, the judgement is suspended. This construction puts a step forward in the reconciliation between frequentist and Bayesian hypothesis testing: this kind of imprecisiation over the set of priors seems to produce similar effects on the decision mechanisn as an imprecisiation of data around the observations.

Cassio P. de Campos

Professeur à l'université d'Utrecht

Le vendredi 28 septembre 2018 à 10h en GI42

Summary :

Sum-product networks are an increasingly popular family of probabilistic graphical models for which marginal inference can be performed in polynomial time. They have been shown to achieve state-of-the-art performance in several tasks. When learning sum-product networks from scarce data, the obtained model may be prone to robustness issues. In particular, small variations of parameters could lead to different conclusions. We discuss the characteristics of sum-product networks as classifiers and study the robustness of them with respect to their parameters. Using a robustness measure to identify (possibly) unreliable decisions, we build a hierarchical approach where the classification task is deferred to another model if the outcome is deemed unreliable. We apply this approach on benchmark classification tasks and experiments show that the robustness measure can be a meaningful manner to improve classification accuracy.

Destercke Sébastien

Chercheur CNRS au laboratoire Heudiasyc

Le mardi 10 juillet 2018 à 14h en GI42

Résumé :

In this talk, we will be interested in the problem of ordinal regression, i.e., in predicting discretely, ordered values (such as rating scores of websites, severity levels of diseases, degradation levels of components , evaluation levels of papers, ...) from a given set of attributes and training data. More particularly, we will be interested in the problem of producing cautious predictions (i.e. sets of possible values rather than single ones) when information does not allow us to make precise ones. We propose to do so by considering an imprecise probabilitistic setting, the basics of which we will recall.

We will then present two strategies to perform ordinal regression, based on binary decompositions of the initial problem: the first one based on a tree decomposition, the second on a cumulative decomposition.

Lingxue Yang

Doctorante en informatique aux laboratoires Heudiasyc et Costech

Le lundi 11 juin 2018 à 9h30 en CR C.203 (bâtiment C, UTC)

Résumé :

In recent years, the advances made in computer technology have made human-computer interaction (HCI) penetrated into almost all areas of human activities. As the carrier of the interaction between human and information, the user interface is a key part that influences the systems and human performance. Especially for business software such as analytic applications behind which there are complicated logics. Therefore, the improper information design and interface design will hinder users’ understanding, learning and the use of the interactive systems, causing cognitive barriers, such as memory overload. Interaction design is closely related to human cognition. In analytic applications, the user’s main task is to acquire the useful information that allows him/her to identify the root causes of a business question for decision making. It requires a large number of storage of human working memory to process the information needed for completing an analytical task. As the working memory is limited in capacity, not all the information can be stored in once. Our working memory only stores the most recent information for the current activated task. One consequence is that when the task is interrupted or suspended, to handle a secondary task (interrupting task), the working memory will free up some space for processing the information needed for this secondary task. When the user returns to the primary task (interrupted task), he/she has to recall the released information. It takes time, overcharges the working memory and consumes much mental effort of the user. The result is the loss of time, and reduced task performance. Therefore, it is necessary to design user interface and interaction considering these limits of working memory. The research of analytic provenance focuses on retrieving users’ interaction history, reinstating their reasoning process so that they can quickly resume an interrupted or suspended task. The designed tools through analytic provenance serve as an external memory. Lenay’s two modes of interaction: “put down” and “in hand” allow us to address this problem in two perspectives: memory substitution (put down) and memory supplementation (in hand). Memory substitution considers a memory tool as an object in the environment. Memory supplementation sees a memory tool as a coupling device between the user and the task, and it extends the user's capability of perceiving the problem-solving as a supplementation of their perceptual systems. The existing solutions are more about the design for the former one, they lack a consideration for the latter one. In this research, we try to pose a problem which may improve design considerations in resolving the imbalance between user interface and human cognition from the memory supplementation point of view. We have developed a tool, based on a “history path”, using the concept of analytic provenance. It permits to show, in a specific window of the user interface, some of the steps of a previous resolution task that a user has performed during previous experience (or to simulate a resolution task interruption). We have set up a simple (minimalist) problem-solving task the resolution of which was recorded (screen, voice, eyes movements, time of resolution, etc.), to test if it is possible to design a tool for memory supplementation. We experiment two different tools, based on two history path representations, a static one, and a dynamic one. The static history path shows, at the same time, all the attemps made during a previous experience to resolve a given task. The dynamic history path shows only the attemps of the previous experience, which are close to the current task resolution step. We will present the first results of this experience, which aim at evaluating to what extent a static history path or a dynamic history path can help the user for tasks resolution

Sylvain Lagrue

Maitre de conférences en informatique au laboratoire CRIL, de l'Université d'Artois

Le mardi 22 mai 2018 à 14h en GI042 (bâtiment Blaise Pascal, UTC)

Résumé :

Nous présentons dans cet exposé différents formalismes que nous avons créés, utilisés ou enrichis dans le cadre de recherches académiques ou dans des projets plus appliqués. Ces formalismes ont comme point commun de permettre de mieux prendre en compte les concepts de fiabilité de l’information, d’évolution du monde, d’inférence plausible, de fusion et de révision ou encore de prise de décision. Nous faisons tout d'abord un tour d'horizon des différentes méthodes abordées, leurs éventuels liens et plusieurs applications possibles. Puis, nous nous intéressons plus particulièrement aux problèmes d'incomparabilité et d'incommensurabilité dans le cadre de logiques pondérées et leur application à la révision, à la fusion de croyances et aux logiques de description légères. Nous présentons plus en détail des généralisations de la logique possibiliste aux ordres partiels et aux intervalles. Nous nous intéressons ensuite à nos travaux concernant le General Game Playing. L’objectif de ce dernier est de développer des programmes capables de jouer de manière convaincante à n’importe quel jeu sans intervention humaine. Nous présentons nos résultats basés sur les réseaux de contraintes stochastiques. Enfin, nous présentons succinctement divers travaux en cours et perspectives, dont certains directement liés à la préservation du patrimoine immatériel de l'humanité et plus spécifiquement aux marionnettes sur eau du Vietnam.

Samir Loudni

Maitre de conférences en informatique au laboratoire GREYC, de l'Université de Caen Normandie

Le mardi 15 mai 2018 à 10h30 en GI042 (bâtiment Blaise Pascal, UTC)

Partie 1

Résumé :

La programmation par contrainte (PPC) offre un cadre générique et flexible pour résoudre des problèmes d'optimisation sous contraintes. L’utilisation de la PPC pour exprimer des problèmes de fouille de données possède de nombreux avantages. Le premier est d'offrir à l'utilisateur un moyen simple et déclaratif pour modéliser ses problèmes. Le second est de proposer une approche générique de résolution qui permet à l'utilisateur de ne plus devoir se préoccuper de l'écriture d'un algorithme spécifique pour chaque tâche de fouille. Dans cette première partie de l'exposé je présenterai de manière succincte quelques contributions concernant les apports de la PPC pour la fouille de données orientée motifs et plus particulièrement sur l'extraction de motifs séquentiels et de motifs Pareto.

Partie 2

Résumé :

Un problème récurrent en extraction de motifs est la sélection de motifs pertinents parmi le grand ensemble de motifs découverts. Pour réduire le nombre de motifs extraits et donc de faciliter l'analyse du résultat de la fouille est l'extraction de motifs de plus haut niveau reposant sur des caractéristiques qui impliquent plusieurs motifs locaux. Ces motifs sont appelés ensembles de motifs ou pattern sets. Extraire le meilleur ensemble de motifs relativement à une mesure donnée permet de mieux cibler le processus d’extraction vers les meilleurs motifs mais rend la tâche plus ardue, notamment en raison de la taille importante de l'espace de recherche et le manque de techniques d'élagage efficaces pour ce type de problèmes. La plupart des approches existantes (souvent heuristiques) sacrifient la preuve d'optimalité au détriment de solutions approchées. Toutefois, la qualité de solutions obtenues par ces approches reste très variable.

La PLNE (Programmation Linéaire en Nombres Entiers) est un au cadre générique qui procure un haut niveau de flexibilité et d’expressivité pour composer différentes types de contraintes. L'utilisation de la PLNE pour la modélisation de tâches d’optimisation en fouille de données est un domaine qui a été très peu exploré.

Dans cette seconde partie de l'exposé, je vais montrer comment la PLNE peut être utilisée pour modéliser différentes contraintes portant sur des ensembles de motifs. Outre le cadre général de l’extraction d'ensembles de motifs, je vais illustrer l’intérêt de cette approche sur un problème bien connu en fouille de données: le clustering conceptuel. Enfin, je terminerai par quelques résultats récents sur l'utilisation des moyennes ordonnées pondérées (communément appelées OWA pour Ordered Weighted) afin de trouver un équilibre optimal sur la taille des clusters du clustering conceptuel.

Olivier Spanjaard

Maitre de conférences au LIP6 de l'UPMC

Le jeudi 12 avril 2018 à 14 h en GI042 (Bâtiment Blaise Pascal, université de technologie de Compiègne).

Partie 1 : Une introduction à la théorie de la décision algorithmique

Résumé :

La théorie de la décision algorithmique porte sur l'étude sous l'angle algorithmique de problèmes issus de la théorie de la décision, de la théorie des jeux et de la théorie du choix social. La plupart des travaux réalisés dans ces domaines jusqu'à récemment focalisaient principalement sur des résultats de caractérisation, l'aspect computationnel (i.e., la calculabilité effective des concepts
introduits) étant souvent laissé au second plan. C'est ce deuxième aspect qui fait la spécificité de la théorie de la décision algorithmique, et qui est étudié par une communauté d'informaticiens en intelligence artificielle et en recherche opérationnelle depuis un peu plus d'une dizaine d'années. Une brève introduction à ce domaine sera proposée lors de cet exposé.

Partie 2 : Quelques contributions en théorie de la décision algorithmique

Résumé :

Lors de cet exposé, je présenterai quelques contributions récentes en décision séquentielle dans l'incertain lorsque les préférences suivent un modèle alternatif à l'utilité espérée, et j'aborderai également quelques problématiques en décision collective

Etienne COME

Chargé de recherche à l'IFSTTAR

Le mardi 20 mars 2018 à 14 h en GI042 (Bâtiment Blaise Pascal, université de technologie Compiègne)

Résumé :

Partie 1: Analyse exploratoire de traces numériques de mobilité. Quelques résultats sur les systèmes de vélos en libre service et de transports en Commun.

Les systèmes de mobilités modernes génèrent un nombre important de traces numériques qu’il convient d’analyser pour comprendre et optimiser le fonctionnement de ces systèmes. Ces données se distingues des sources classiquement utilisées pour appréhender les comportement de mobilité et leur évolution (enquête globale transport, enquête ménage déplacement) et nécessite donc des méthodes nouvelles pour essayer de tirer partie de l’information qu’elles recèlent. Après avoir présenté ce contexte générale et les particularités des traces numériques par rapport aux données d’enquête classiques, nous détaillerons différents travaux exploratoires menés dans ce contexte pour mieux cerner ces nouvelles sources et leurs potentialités. Nous verrons en particulier comment les données de stocks des systèmes de Vélos en Libre Service (VLS) peuvent être mobilisées pour résumer le comportement de ces systèmes et faciliter leurs comparaisons. Nous présenterons également des travaux d’analyse exploratoire et de visualisation des données de flux voyageurs. Celles-ci offrent en effet, des perspectives intéressantes pour l’analyse fine des usages et de la dynamique des origines / destinations effectuées par les usagers de transport en commun. Nous présenterons des résultats sur l’exploration de ces données massives aussi bien dans le contexte des VLS que dans celui des transports en commun (métro / RER).

Partie 2: Modèle de mélange et données de comptage, sélection de modèle, régularisation et estimation.

Dans cette présentation, nous nous intéresserons aux méthodologies utilisées pour déterminer le nombre de composantes d’un modèle de mélange lorsque les données sont des données de comptage. Nous nous intéresserons plus particulièrement aux modèles utilisés pour analyser des graphes (Stochastic Block Model et variante) où les comptages correspondent à des nombres d’interaction entre paire d’objet , ou des « textes » (Mixture of Unigram et Poisson mixture) où les comptages correspondent au nombre d’occurrences d’un mot. Nous verrons comment le problème d’estimation du nombre de composantes est traité classiquement dans un cadre fréquentiste et Bayésien aux travers de critères tels que BIC ou ICL. Une attention particulière sera portée aux aspects algorithmiques du problème où l’on discutera des avantages et inconvénients des solutions classiques basées sur l’utilisation de l’algorithme EM et des variantes variationnelles ou bien sur des approches de type MCMC. Nous présenterons dans ce contexte un algorithme d’estimation conjointe de la partition des données et du nombre de composantes basé sur l’optimisation gloutonne d’un critère Bayésien correspondant à L’ICL exacte. Ce critère peut en effet être calculé de manière exacte pour cette famille de modèle lorsque les lois a priori sur les paramètres sont adéquatement choisies. Nous verrons ensuite comment cette approche peut être étendue pour extraire une structure hiérarchique de solutions imbriquées lorsque l’on fait varier le degré de régularisation.

Meltem OZTURK

Maître de conférences au LAMSADE, université Paris

Le lundi 12 mars 2018, à 14 h en GI042 (Bâtiment Blaise Pascal, université de technologie Compiègne)

Résumé :

Partie 1: Présentation générale des travaux de recherche autour des préférences dans les modèles décisionnels.

Les préférences sont au coeur des modèles décisionnels (decision collective, multicritère ou dans l'incertain) et apparaissent dans les différents étapes des processus décisionnels (definition/description du problème, modélisation, résolution et validation/argumentation).
Dans cette première partie de l'exposé je vous parlerai de mes travaux de recherche qui concernent ces différents étapes (avec des résultats théoriques mais aussi avec des applications industriels):

- définition/description du problème:

apport des travaux expérimentaux pour mieux comprendre le comportement des décideurs et utilisation de leur résultats pour trouver des modèles adaptés.
Exemples des processus d'élicitation/apprentissage des préférences.

- modélisation :

comment obtenir un cadre général pour la modélisation des préférences ? Comment representer d'une manière compacte les préférences ?

- résolution :

comment se servir des logiques non classiques ou une modélisation par satisfaction de contraintes pour l'agrégation des préférences ?

- application industriel: trouver la nouvelle ligne grande vitesse entre Paris-Normandie (projet avec la SNCF Réseau)

Partie 2: Résultats sur la partie modélisation des préférences

Quand on travaille avec des décideurs/experts on s'aperçoit rapidement que les orders totaux ou les préordres totaux que l'on utilise souvent dans des approches formels apparaissent très forts/contraignants pour représenter leur préférences. Pour cela des structures de préférences
plus souples ont été proposées dans la littérature. Les semiordres, les ordres d'intervalles ou les ordres partiels sont les plus connus. Ces structures de préférences "sophistiquées" ont été étudiées par différents chercheurs venant de différents domains de recherche et manquaient un cadre général unificateur. Je vous présenterai donc un cadre que nous avons défini qui donne un language commun à ces structures et qui nous aident à en proposer de nouvelles. Le cadre se base sur une axiomatisation simple et couvre la majorité des structures de préférences connues dans la littérature.

Références de la partie 2 :

M. Öztürk, Coherence conditions for preference modeling with ordered points, Journal of Mathematical Psychology, Volume 79, 2017, pages 44–52.

M. Öztürk , M. Pirlot et A. Tsoukiàs, Representing preferences using intervals, Artificial Intelligence Journal, 175, pages 1194-1222, 2011

 

 

Elsa NEGRE
Maître de conférences HDR, UMR Lamsade, Université Paris Dauphine

Le mardi 6 février 2018 à 14 h en GI042(Bâtiment Blaise Pascal, université de technologie Compiègne)

Résumé :

Nos travaux s'articulent autour de l'extraction et de l'analyse de données issues de sources hétérogènes pour les rendre facilement accessibles et exploitables par les utilisateurs/décideurs. En effet, il devient de plus en plus difficile de savoir quelles sont les données à rechercher et où les trouver lorsque la masse de données/informations s'accroît. Des techniques informatiques existent pour faciliter cette recherche et permettre une extraction pertinente des données/informations. L'une d'entre elles est la recommandation qui guide l'utilisateur lors de son exploration, en cherchant pour lui les informations susceptibles d'être pertinentes. Un enjeu intéressant est de proposer un système de recommandation capable de s'adapter à différents cas d'applications, avec de bonnes performances du point de vue de l'utilisateur/décideur et palliant certains manques des systèmes de recommandation existants. Dans le cadre de nos travaux, l'ensemble des données à explorer peut provenir de différents domaines (les environnements de travail collaboratif, les plateformes d'apprentissage en ligne, les entrepôts de données, les villes intelligentes, les systèmes d'alertes précoces, ...) et l'utilisateur à aider peut être un individu isolé ou une entité multiple à visée publique. Conscients que la masse de données/informations à explorer dans de tels cas peut être très importante, complexe et variée, il nous est apparu nécessaire de proposer des systèmes de recommandation appropriés pour y faire face. Nous proposons donc une approche générique de recommandation, en rupture complète avec les travaux existants, que nous instancions pour permettre de recommander soit des éléments, soit des utilisateurs, sous forme de recommandations individuelles ou à visée publique dans différents domaines. Puis, nous nous intéressons à l'évaluation des (systèmes de) recommandations. Afin d'assurer la pertinence des recommandations du point de vue de l'utilisateur/décideur, nous proposons des méthodes pour évaluer subjectivement d'une part le système de recommandation et d'autre part les recommandations retournées. Enfin, malgré de bonnes performances, parfois, les recommandations ne sont pas considérées comme suffisamment pertinentes. Nous proposons donc des techniques pour améliorer les (systèmes de) recommandations. Elles concernent l'amélioration des données d'entrée, le démarrage à froid et l'ajout de données/sources externes (notamment le contexte de l'utilisateur/décideur). Nos propositions ont été validées par la participation à différents projets ainsi que le co-encadrement de thèses de Doctorat et le suivi de travaux de Master Recherche.

Mots clés : Systèmes de recommandation, Analyse de données, Aide à la décision, Systèmes d'Information

Jonathan DEKHTIAR
Doctorant au laboratoire Roberval, UTC

Le mardi 30 janvier 2018 à 10h15 en GI042 (Bâtiment Blaise Pascal, université de technologie Compiègne)

Résumé :

The manufacturing industry is always trying to automate many of its engineering tasks and workflows. Applying Machine/Deep Learning in such an industrial context is challenging for different reasons : Contrary to the GAFAM (Google, Apple, Facebook, Amazon, Microsoft) and BATX (Baidu, Alibaba, Tencent and Xiaomi), the manufacturing industry use on a day-to-day basis highly complex data which comes, most of the time, in proprietary formats (e.g. 3D Models). Moreover, data are not available in large quantities (impossibility to rely on a big data scale) and most of the time in insufficient quantities to train any Deep Learning model to perform any computer vision task. However, Machine Learning can still be applied using various tips and tricks, frequently with good results. Transfer Learning is one effective solution, nevertheless this presentation will not focus on the latter which is already well covered in the literature [Y. Bengio, 2012] - [M. Oquab, 2014]. Inspired by research in anomaly detection for neuro-imagery [K. Wang, 2016] - [T. Schlegel, 2017] and for patrol robots [W. Lawson, 2017], we have studied the effectiveness of Deep Generative Networks and Deep Auto Encoder, namely GANs (Generative Adversarial Networks) and VAE (Variational AutoEncoders). This presentation aims to present the specificities and basics of GANs/VAEs and an overview of the whole process we developed with a limited amount of data (1000 images) and obtain 92% of accuracy and 85% of IOU (Intersection over Union) for the machined surface defect localisation. The proposed approach is able to adapt itself without any change in the structure or hyper-parameter settings to different industrial situations offered by the challenge dataset provided by DAGM 2007. In summary, the strength of the proposed solution is the following : Highly adaptable with limited re-engineering costs, reduced training time (+/- 3 hours on one GPU), Weakly Supervised Approach thus having a very reduced deployment cost.

Contact

Responsables Séminaires CID
Sébastien Destercke | Domitile Lourdeaux
Tél : 03 44 23 79 85 | 03 44 23 79 84 | Contacter par mail

Le mardi 10 avril 2018 à 14 h en GI042 (Bâtiment Blaise Pascal, université de technologie Compiègne)

Drones Coopérants en Flottille

Osamah SAIF
Post-doctorant au laboratoire Heudiasyc

Résumé :
Les applications de quadrirotors autonomes augmentent rapidement dans notre vie réelle. La surveillance, la vidéo et la photographie sont les domaines d'activité essentiels de véhicules aériens sans pilote (UAV). Actuellement, les chercheurs et les scientifiques se concentrent sur le déploiement multi-drones pour l’inspection et la surveillance de vastes zones. C’est dans cet esprit que je parlerai dans ma présentation de mes activités de recherche qui s’inscrivent dans le projet FUI AIRMES « Drones Hétérogènes Coopérants en Flottille ». Ce projet a pour objectif de permettre le déploiement de flottilles de drones hétérogènes pour permettre la surveillance des installations ferroviaires et électriques.  Ma mission dans ce projet est d’assurer le développement des algorithmes de vol en formations permettant aux drones de naviguer suivant des plans de vol tout en gérant leurs proximités et en maintenant une distance de sécurité entre eux.

Flying base stations for improving the performance of mobile networks

Azade FOTOUHI
Doctorante à l'UNSW de Sydney

Résumé :
There have been increasing interests in employing unmanned aerial vehicles (UAVs) such as drones for telecommunication purpose. In such networks, UAVs act as base stations (BSs) and provide downloading service to users. Compared with conventional terrestrial base stations, such UAV-BSs can dynamically adjust their locations to improve network performance. However, there exists important issues in UAV networks that must be considered. For example, the UAV deployment, introduces a new tool for radio resource management, since BS positions are open for network optimization. Moreover, drones have practical agility constraints in terms of flying speed, turning angles, and energy consumption. The aim of this presentation is to overview the integration of UAVs in cellular networks, existing issues and potential solutions for assisting cellular communications with UAV-based flying relays and base stations. Towards that end, a proposed mobility control method based on the SNR measurement and game theory approach will be presented. The results demonstrate that the UAV-BSs moving according to our proposed algorithm significantly improve the network performance in terms of packet throughput and spectral efficacy compared to a baseline scenario.

Cyrano Vaseur

Doctorant visiteur au laboratoire Heudiasyc


Le mardi 13 novembre 2018 à 14 h en N104 (PG2 - UTC)

Résumé :

Intended as a research platform for testing and validation of automotive virtual sensing approaches KU Leuven’s MOD group developed a Concept Car platform with a modular powertrain architecture. This project is in cooperation with the Belgian industrial partner Punch Powertrain who is experienced in the field of CVT gearboxes, hybrid, and electric powertrains.

The development process was started on the basis of the Master’s theses of six KU Leuven students. In teams of two they took care of:

- Design of a tubular frame;

- Integration of powertrain components, including battery pack development;

- Energy consumption minimization.

The seminar will briefly cover these aspects giving insight into some specifics of the project hoping to spark some ideas for research collaborations.

Marco Viehweger

Doctorant visiteur au laboratoire Heudiasyc


Le mardi 13 novembre 2018 en N104 (PG2 - UTC)

Résumé :

The estimation of vehicle states, e.g. sideslip angles and tire forces, is a key factor for improving vehicle driving safety, especially in times of advanced driver assistance systems (ADAS) and autonomous driving (AD). The virtual sensing approach enables the retrieval of information which cannot be measured directly or only with expensive sensor equipment.

We are focusing our work on creating an extensive state estimation platform. Therefore, multiple software tools like MATLAB, Siemens LMS AMESim, IPG CarMaker are used. Additionally, real-world measurement data is employed to check the accuracy of the virtual sensors.

Currently, we are working on the implementation of a high-accuracy body and road angles estimator into the virtual sensing environment. Body angles are used for correction of IMU data to get accurate measurements (in the road frame). This is especially favorable when estimating vehicle velocity from measured accelerations. Road angles are required to correct for the gravity component when estimating

tire forces.

Assuming available suspension stroke measurement, body angles can be reconstructed kinematically. In this case, suspension strokes are measured with onboard potentiometers. Commercially, these are used in the adaptive headlights functionality of the test vehicle, Evoque. The road angles are estimated in an Extended Kalman Filter estimation structure. Hereby a decoupled pitch and roll model is used. Future

work involves using coupled models based on suspension dynamics.

Additionally, some focus is on vertical tire force estimation. Traditional quasi-static load transfer models have limited accuracy for estimating vertical tire forces, especially during transient motion. In this approach, the vertical tire forces are calculated from an elaborate coupled pitch-roll dynamics model with non-linear suspension characteristics. Hereby it is assumed that these characteristics are known. In this case, the characteristics are identified from measured vertical tire forces and suspension strokes on the test vehicle.

Luis Rodolfo Garcia Carrillo

Assistant Professor with the Department of Electrical Engineering at Texas A&M University - Corpus Christi


Le mardi 03 juillet 2018 à 14 h en salle GI-042

Résumé :

The proliferation of autonomous robots evidence forthcoming environments where multiple autonomous systems (MAS) will be interacting with each other, as well as with human beings, to perform complex tasks at a level never imagined before. Conventional methods for improving MAS performance address very specific challenges, but not general problems. Learning-based controllers offer adaptability and robustness against uncertainties, however, the computational complexity of these solutions is often not practically feasible. These drawbacks limit the applicability and penalize the performance of current MAS control methods. Recently, cognitive scientists advocate that “a single occurrence of an emotionally significant situation is remembered far more vividly and for a longer period than a task, which is repeated frequently”. This highlights that emotional processing is able to develop an effect that sustained sensory input is not able to achieve. In this talk, we present conventional and adaptive distributed consensus algorithms for MAS. Next, a descriptive and a mathematical model of emotion processing in the mammalian brain is introduced, which is then modified to develop a hierarchical feedback control for MAS. Preliminary results show how the basic features of the emotional learning system in combination with the MAS controller can help to effectively control a group of robots in real-time, in presence of system uncertainties.

Bio : 

Luis Rodolfo Garcia Carrillo was born in Durango, Mexico in 1980. He received the Licenciatura in Electronic Engineering in 2003, and the M.Sc. in Electrical Engineering in 2007, both from the Instituto Tecnologico de La Laguna, in Coahuila, Mexico. He received his Ph.D. in Control Systems from the University of Technology of Compiegne, France, in 2011, where he was advised by Professor Rogelio Lozano. From 2012 to 2013, he was a postdoctoral researcher at the Center for Control, Dynamical Systems and Computation at the University of California, Santa Barbara, where he was working with Professor Joao Hespanha. He currently holds an Assistant Professor position with the Department of Electrical Engineering at Texas A&M University – Corpus Christi. His current research interests include multi-agent control systems, intelligent controllers, and vision-based control.

Ariane Spaenlehauer

Doctorante au laboratoire Heudiasyc

Le mardi 26 juin 2018 à 14 h dans l'amphi Colcombet (Centre de Transfert, université de technologie de Compiègne)

Résumé :

Over the last few years, mobile robotics has gained an increasing popularity in academic research and industry both for the underlying scientific challenges and the economic benefits. On the behalf of the Labex MS2T, the DIVINA challenge team explores the design possibilities of Technological System-of-Systems to create an autonomous fleet of heterogeneous UAVs using visual-sensing mainly.

Nesrine Mahdoui

Doctorante au laboratoire Heudiasyc

Le mardi 26 juin 2018 à 14 h dans l'amphi Colcombet (Centre de Transfert, université de technologie de Compiègne)

Résumé :

In the robotic community, a growing interest for multi-robot systems has appeared in the last decades. This is mainly due to new large-scale applications requiring such system of systems features in areas like security, disaster surveillance, inundation monitoring, search and rescue, infrastructure inspection, and so on. In such missions, one of the fundamental task – addressed in this work – is the coordinated exploration of an unknown environment sensed by a team of Micro-Aerial Vehicle (MAV) with embedded vision.  The key problem is to cooperatively choose specific regions of the environment to be simultaneously explored and mapped by each robot in an optimized manner, in order to reduce exploration time and, consequently, energy consumption.  The target goals – selected from the computed frontier points lying between free and unknown areas – are assigned to robots by considering a trade-off between fast exploration and getting detailed grid maps. For decision making purpose, MAVs usually exchange a copy of their local map, however, the novelty in this work is to exchange map frontier points instead, which allow to save communication bandwidth.

Sergio Salazar

Professeur invité de l'UMI LAFMIA CINVESTAV

Le mardi 12 juin 2018 à 14 h dans l'amphi Colcombet (Centre de Transfert, université de technologie de Compiègne)

Résumé :
Sergio Salazar (professeur invité de l'UMI) nous présentera ses travaux de recherche sur des véhicules autonomes aériens, terrestres, sous-marins et exosquelettes développés dans l'UMI LAFMIA CINVESTAV, notamment sur la robustesse, l'optimisation, le vol multi-agents et la navigation de précision.

Gerardo ORTIZ-TORRES

Doctorant au laboratoire Heudiasyc

Le mardi 15 mai 2018 à 14 h dans l'amphi Colcombet (Centre de Transfert, université de technologie de Compiègne)

Résumé :
In the last years multi-rotors configurations for Unmanned Aerial Vehicles (UAVs) have become promising mobile platforms capable of navigating (semi) autonomously in uncertain environments. Numerous applications for this kind of vehicles have been proposed, as aerial photography, surveillance, crop spraying, oil spill detection, supply delivery, agricultura assessment, among others. Among them, the quadcopter configuration, has proved to be suitable for these applications due to the fact that it can take-off and landing in shorts spaces, and it is essentially simpler to build, compared with a conventional helicopter. The quadcopter aerial vehicle is also sensitive to aerodynamic and external disturbances that can lead to different faults, such as actuator stuck, loss of a propeller or a motor, actuator degradation, voltage control failure, structural damage, physical aging, and fatigue, which inevitably influence the states of the vehicle. As a result, the stability, reliability, and safety could be affected during the fight envelope. In order to identify malfunctions at any time and to improve reliability and safety in the quadcopter, Fault Tolerant Control (FTC) methods can be considered.

The FTC techniques are classified into two types: passive and active. In the active techniques the controller parameters are adapted or reconfigured according to the fault using the information of the Fault Detection and Diagnosis (FDD) system, so that the stability and acceptable performance of the system can be maintained. An active FTC scheme for a quadcopter vehicle is presented. The actuator FDD method proposed in this work considers the rotational dynamics of the vehicle. Partial and total actuator faults are considered. The design procedure can be explained as follows:

1) a nominal controller, that has been previously designed, is considered to track the 3D position and attitude dynamics of the quadcopter ensuring a desired performance in a fault-free case;

2) a Proportional-Integral Observer (PIO) applied to the rotational dynamics is proposed for performing actuator fault estimation. The fault detection is done by comparing the fault estimation signal with a predefined threshold. Fault isolation is achieved by analyzing the sign of the fault estimation signal. Sufficient conditions for the existence of the observer is given in terms of Linear Matrix Inequalities;

3) an analysis of static controllability is applied using the attainable control set in order to test the performance degradation of the quadcopter vehicle under partial and total faults; 4)finally, the partial fault accommodation control law is generated using the nominal controller and the fault estimation signal for retaining close to nominal fault-free performance despite partial actuator fault. The total fault reconfiguration is done by changing the parameters of the nominal controller, losing the controllability in yaw position but controlling the yaw velocity around z-axis. The proposed fault control scheme is validated in different cases of fight tests for illustrating their feasibility and efectiveness.

Franck LI

Doctorant au laboratoire Heudiasyc (CIFRE Renault)

Le mardi 15 mai 2018 à 14 h dans l'amphi Colcombet (Centre de Transfert, université de technologie de Compiègne)

Résumé :
Le domaine des véhicules intelligents est en constante évolution. Les progrès techniques, notamment en termes de capteurs, rendent possible des fonctionnalités de plus en plus avancées. Ces capteurs permettent au système de recueillir des informations sur son environnement direct. Une autre source d’information est la cartographie, fournissant des informations a priori sur le réseau routier. Les cartes routières haute-définition commencent peu à peu à faire leur apparition, mais l’exploitation de leur grande précision est limitée par la précision des systèmes de positionnement disponibles, mis à rude épreuve notamment en environnement urbain. Cet exposé présente une méthode de diagnostic d’utilisabilité du système de positionnement. L’algorithme de map-matching  sur lequel elle est basée est présenté. Il exploite le caractère multi-hypothèses d’un filtre particulaire afin de gérer les situations ambigües. Puis le principe du test de cohérence déterminant un critère « Use/Don’t  Use » est exposé.

Osamah SAIF

Post-doctorant au laboratoire Heudiasyc

Le mardi 10 avril 2018 à 14 h en GI042 (Bâtiment Blaise Pascal, université de technologie Compiègne)

Résumé :
Les applications de quadrirotors autonomes augmentent rapidement dans notre vie réelle. La surveillance, la vidéo et la photographie sont les domaines d'activité essentiels de véhicules aériens sans pilote (UAV). Actuellement, les chercheurs et les scientifiques se concentrent sur le déploiement multi-drones pour l’inspection et la surveillance de vastes zones. C’est dans cet esprit que je parlerai dans ma présentation de mes activités de recherche qui s’inscrivent dans le projet FUI AIRMES « Drones Hétérogènes Coopérants en Flottille ». Ce projet a pour objectif de permettre le déploiement de flottilles de drones hétérogènes pour permettre la surveillance des installations ferroviaires et électriques.  Ma mission dans ce projet est d’assurer le développement des algorithmes de vol en formations permettant aux drones de naviguer suivant des plans de vol tout en gérant leurs proximités et en maintenant une distance de sécurité entre eux.

Azade FOTOUHI

Doctorante à l'UNSW de Sydney

Le mardi 10 avril 2018 à 14 h en GI042 (Bâtiment Blaise Pascal, université de technologie Compiègne)

Résumé :

There have been increasing interests in employing unmanned aerial vehicles (UAVs) such as drones for telecommunication purpose. In such networks, UAVs act as base stations (BSs) and provide downloading service to users. Compared with conventional terrestrial base stations, such UAV-BSs can dynamically adjust their locations to improve network performance. However, there exists important issues in UAV networks that must be considered. For example, the UAV deployment, introduces a new tool for radio resource management, since BS positions are open for network optimization. Moreover, drones have practical agility constraints in terms of flying speed, turning angles, and energy consumption. The aim of this presentation is to overview the integration of UAVs in cellular networks, existing issues and potential solutions for assisting cellular communications with UAV-based flying relays and base stations. Towards that end, a proposed mobility control method based on the SNR measurement and game theory approach will be presented. The results demonstrate that the UAV-BSs moving according to our proposed algorithm significantly improve the network performance in terms of packet throughput and spectral efficacy compared to a baseline scenario.

Contact

Responsables Séminaires SyRI
Indira Thouvenin | Philippe Xu
Tél : 03 44 23 45 47 | 03 44 23 41 62 | Contacter par mail

Les intervenants peuvent discuter de recherches récentes ou à un stade précoce qu'ils ont entreprises, ou signaler d'autres types d'activités professionnelles. Certains sujets correspondent étroitement à nos orientations de recherche actuelles, alors que d'autres représentent des domaines d'intérêt pour notre communauté scientifique.

Christian WOLF
Maître de conférences HDR, LIRIS, INSA Lyon

Le jeudi 5 juin 2018 à 14h00 en GI042 (Bâtiment Blaise Pascal, université de technologie Compiègne)

Résumé :

We address human action recognition from RGB data and study the role of articulated pose and of visual attention mechanisms for this application. In particular, articulated pose is well established as an intermediate representation and capable of providing precise cues relevant to human motion and behavior. We describe two different methods which use pose in different ways, either during training and testing, or during training only.

The first method uses a trainable glimpse sensor to extracts features on a set of predefined locations specified by the pose stream, namely the 4 hands of the two people involved in the activity. We show that it is of high interest to shift the attention to different hands at different time steps depending on the activity itself. The model not only learns to find choices relevant to the task, but also to draw away attention from joints which have been incorrectly located by the pose middleware.

A second method has been designed to explicitly remove the dependency on pose during training, making the method more broadly applicable in situations where pose is not available. Instead, a sparse representation of focus points is calculated by a dynamic visual attention model and passed to a set of distributed recurrent neural workers. State-of-the-art results are achieved on several datasets, among which is the largest dataset for human activity recognition, namely NTU-RGB+D.

Contact

Responsable séminaires laboratoire
Franck Davoine
Tél : 03 44 23 52 79 | Contacter par mail