Séminaires

Sylvain Lagrue

Maitre de conférences en informatique au laboratoire CRIL, de l'Université d'Artois

Le mardi 22 mai 2018 à 14h en GI042 (bâtiment Blaise Pascal, UTC)

Résumé :

Nous présentons dans cet exposé différents formalismes que nous avons créés, utilisés ou enrichis dans le cadre de recherches académiques ou dans des projets plus appliqués. Ces formalismes ont comme point commun de permettre de mieux prendre en compte les concepts de fiabilité de l’information, d’évolution du monde, d’inférence plausible, de fusion et de révision ou encore de prise de décision. Nous faisons tout d'abord un tour d'horizon des différentes méthodes abordées, leurs éventuels liens et plusieurs applications possibles. Puis, nous nous intéressons plus particulièrement aux problèmes d'incomparabilité et d'incommensurabilité dans le cadre de logiques pondérées et leur application à la révision, à la fusion de croyances et aux logiques de description légères. Nous présentons plus en détail des généralisations de la logique possibiliste aux ordres partiels et aux intervalles. Nous nous intéressons ensuite à nos travaux concernant le General Game Playing. L’objectif de ce dernier est de développer des programmes capables de jouer de manière convaincante à n’importe quel jeu sans intervention humaine. Nous présentons nos résultats basés sur les réseaux de contraintes stochastiques. Enfin, nous présentons succinctement divers travaux en cours et perspectives, dont certains directement liés à la préservation du patrimoine immatériel de l'humanité et plus spécifiquement aux marionnettes sur eau du Vietnam.

Samir Loudni

Maitre de conférences en informatique au laboratoire GREYC, de l'Université de Caen Normandie

Le mardi 15 mai 2018 à 10h30 en GI042 (bâtiment Blaise Pascal, UTC)

Partie 1

Résumé :

La programmation par contrainte (PPC) offre un cadre générique et flexible pour résoudre des problèmes d'optimisation sous contraintes. L’utilisation de la PPC pour exprimer des problèmes de fouille de données possède de nombreux avantages. Le premier est d'offrir à l'utilisateur un moyen simple et déclaratif pour modéliser ses problèmes. Le second est de proposer une approche générique de résolution qui permet à l'utilisateur de ne plus devoir se préoccuper de l'écriture d'un algorithme spécifique pour chaque tâche de fouille. Dans cette première partie de l'exposé je présenterai de manière succincte quelques contributions concernant les apports de la PPC pour la fouille de données orientée motifs et plus particulièrement sur l'extraction de motifs séquentiels et de motifs Pareto.

Partie 2

Résumé :

Un problème récurrent en extraction de motifs est la sélection de motifs pertinents parmi le grand ensemble de motifs découverts. Pour réduire le nombre de motifs extraits et donc de faciliter l'analyse du résultat de la fouille est l'extraction de motifs de plus haut niveau reposant sur des caractéristiques qui impliquent plusieurs motifs locaux. Ces motifs sont appelés ensembles de motifs ou pattern sets. Extraire le meilleur ensemble de motifs relativement à une mesure donnée permet de mieux cibler le processus d’extraction vers les meilleurs motifs mais rend la tâche plus ardue, notamment en raison de la taille importante de l'espace de recherche et le manque de techniques d'élagage efficaces pour ce type de problèmes. La plupart des approches existantes (souvent heuristiques) sacrifient la preuve d'optimalité au détriment de solutions approchées. Toutefois, la qualité de solutions obtenues par ces approches reste très variable.

La PLNE (Programmation Linéaire en Nombres Entiers) est un au cadre générique qui procure un haut niveau de flexibilité et d’expressivité pour composer différentes types de contraintes. L'utilisation de la PLNE pour la modélisation de tâches d’optimisation en fouille de données est un domaine qui a été très peu exploré.

Dans cette seconde partie de l'exposé, je vais montrer comment la PLNE peut être utilisée pour modéliser différentes contraintes portant sur des ensembles de motifs. Outre le cadre général de l’extraction d'ensembles de motifs, je vais illustrer l’intérêt de cette approche sur un problème bien connu en fouille de données: le clustering conceptuel. Enfin, je terminerai par quelques résultats récents sur l'utilisation des moyennes ordonnées pondérées (communément appelées OWA pour Ordered Weighted) afin de trouver un équilibre optimal sur la taille des clusters du clustering conceptuel.

Olivier Spanjaard

Maitre de conférences au LIP6 de l'UPMC

Le jeudi 12 avril 2018 à 14 h en GI042 (Bâtiment Blaise Pascal, université de technologie de Compiègne).

Partie 1 : Une introduction à la théorie de la décision algorithmique

Résumé :

La théorie de la décision algorithmique porte sur l'étude sous l'angle algorithmique de problèmes issus de la théorie de la décision, de la théorie des jeux et de la théorie du choix social. La plupart des travaux réalisés dans ces domaines jusqu'à récemment focalisaient principalement sur des résultats de caractérisation, l'aspect computationnel (i.e., la calculabilité effective des concepts
introduits) étant souvent laissé au second plan. C'est ce deuxième aspect qui fait la spécificité de la théorie de la décision algorithmique, et qui est étudié par une communauté d'informaticiens en intelligence artificielle et en recherche opérationnelle depuis un peu plus d'une dizaine d'années. Une brève introduction à ce domaine sera proposée lors de cet exposé.

Partie 2 : Quelques contributions en théorie de la décision algorithmique

Résumé :

Lors de cet exposé, je présenterai quelques contributions récentes en décision séquentielle dans l'incertain lorsque les préférences suivent un modèle alternatif à l'utilité espérée, et j'aborderai également quelques problématiques en décision collective

Etienne COME

Chargé de recherche à l'IFSTTAR

Le mardi 20 mars 2018 à 14 h en GI042 (Bâtiment Blaise Pascal, université de technologie Compiègne)

Résumé :

Partie 1: Analyse exploratoire de traces numériques de mobilité. Quelques résultats sur les systèmes de vélos en libre service et de transports en Commun.

Les systèmes de mobilités modernes génèrent un nombre important de traces numériques qu’il convient d’analyser pour comprendre et optimiser le fonctionnement de ces systèmes. Ces données se distingues des sources classiquement utilisées pour appréhender les comportement de mobilité et leur évolution (enquête globale transport, enquête ménage déplacement) et nécessite donc des méthodes nouvelles pour essayer de tirer partie de l’information qu’elles recèlent. Après avoir présenté ce contexte générale et les particularités des traces numériques par rapport aux données d’enquête classiques, nous détaillerons différents travaux exploratoires menés dans ce contexte pour mieux cerner ces nouvelles sources et leurs potentialités. Nous verrons en particulier comment les données de stocks des systèmes de Vélos en Libre Service (VLS) peuvent être mobilisées pour résumer le comportement de ces systèmes et faciliter leurs comparaisons. Nous présenterons également des travaux d’analyse exploratoire et de visualisation des données de flux voyageurs. Celles-ci offrent en effet, des perspectives intéressantes pour l’analyse fine des usages et de la dynamique des origines / destinations effectuées par les usagers de transport en commun. Nous présenterons des résultats sur l’exploration de ces données massives aussi bien dans le contexte des VLS que dans celui des transports en commun (métro / RER).

Partie 2: Modèle de mélange et données de comptage, sélection de modèle, régularisation et estimation.

Dans cette présentation, nous nous intéresserons aux méthodologies utilisées pour déterminer le nombre de composantes d’un modèle de mélange lorsque les données sont des données de comptage. Nous nous intéresserons plus particulièrement aux modèles utilisés pour analyser des graphes (Stochastic Block Model et variante) où les comptages correspondent à des nombres d’interaction entre paire d’objet , ou des « textes » (Mixture of Unigram et Poisson mixture) où les comptages correspondent au nombre d’occurrences d’un mot. Nous verrons comment le problème d’estimation du nombre de composantes est traité classiquement dans un cadre fréquentiste et Bayésien aux travers de critères tels que BIC ou ICL. Une attention particulière sera portée aux aspects algorithmiques du problème où l’on discutera des avantages et inconvénients des solutions classiques basées sur l’utilisation de l’algorithme EM et des variantes variationnelles ou bien sur des approches de type MCMC. Nous présenterons dans ce contexte un algorithme d’estimation conjointe de la partition des données et du nombre de composantes basé sur l’optimisation gloutonne d’un critère Bayésien correspondant à L’ICL exacte. Ce critère peut en effet être calculé de manière exacte pour cette famille de modèle lorsque les lois a priori sur les paramètres sont adéquatement choisies. Nous verrons ensuite comment cette approche peut être étendue pour extraire une structure hiérarchique de solutions imbriquées lorsque l’on fait varier le degré de régularisation.

Meltem OZTURK

Maître de conférences au LAMSADE, université Paris

Le lundi 12 mars 2018, à 14 h en GI042 (Bâtiment Blaise Pascal, université de technologie Compiègne)

Résumé :

Partie 1: Présentation générale des travaux de recherche autour des préférences dans les modèles décisionnels.

Les préférences sont au coeur des modèles décisionnels (decision collective, multicritère ou dans l'incertain) et apparaissent dans les différents étapes des processus décisionnels (definition/description du problème, modélisation, résolution et validation/argumentation).
Dans cette première partie de l'exposé je vous parlerai de mes travaux de recherche qui concernent ces différents étapes (avec des résultats théoriques mais aussi avec des applications industriels):

- définition/description du problème:

apport des travaux expérimentaux pour mieux comprendre le comportement des décideurs et utilisation de leur résultats pour trouver des modèles adaptés.
Exemples des processus d'élicitation/apprentissage des préférences.

- modélisation :

comment obtenir un cadre général pour la modélisation des préférences ? Comment representer d'une manière compacte les préférences ?

- résolution :

comment se servir des logiques non classiques ou une modélisation par satisfaction de contraintes pour l'agrégation des préférences ?

- application industriel: trouver la nouvelle ligne grande vitesse entre Paris-Normandie (projet avec la SNCF Réseau)

Partie 2: Résultats sur la partie modélisation des préférences

Quand on travaille avec des décideurs/experts on s'aperçoit rapidement que les orders totaux ou les préordres totaux que l'on utilise souvent dans des approches formels apparaissent très forts/contraignants pour représenter leur préférences. Pour cela des structures de préférences
plus souples ont été proposées dans la littérature. Les semiordres, les ordres d'intervalles ou les ordres partiels sont les plus connus. Ces structures de préférences "sophistiquées" ont été étudiées par différents chercheurs venant de différents domains de recherche et manquaient un cadre général unificateur. Je vous présenterai donc un cadre que nous avons défini qui donne un language commun à ces structures et qui nous aident à en proposer de nouvelles. Le cadre se base sur une axiomatisation simple et couvre la majorité des structures de préférences connues dans la littérature.

Références de la partie 2 :

M. Öztürk, Coherence conditions for preference modeling with ordered points, Journal of Mathematical Psychology, Volume 79, 2017, pages 44–52.

M. Öztürk , M. Pirlot et A. Tsoukiàs, Representing preferences using intervals, Artificial Intelligence Journal, 175, pages 1194-1222, 2011

 

 

Elsa NEGRE
Maître de conférences HDR, UMR Lamsade, Université Paris Dauphine

Le mardi 6 février 2018 à 14 h en GI042(Bâtiment Blaise Pascal, université de technologie Compiègne)

Résumé :

Nos travaux s'articulent autour de l'extraction et de l'analyse de données issues de sources hétérogènes pour les rendre facilement accessibles et exploitables par les utilisateurs/décideurs. En effet, il devient de plus en plus difficile de savoir quelles sont les données à rechercher et où les trouver lorsque la masse de données/informations s'accroît. Des techniques informatiques existent pour faciliter cette recherche et permettre une extraction pertinente des données/informations. L'une d'entre elles est la recommandation qui guide l'utilisateur lors de son exploration, en cherchant pour lui les informations susceptibles d'être pertinentes. Un enjeu intéressant est de proposer un système de recommandation capable de s'adapter à différents cas d'applications, avec de bonnes performances du point de vue de l'utilisateur/décideur et palliant certains manques des systèmes de recommandation existants. Dans le cadre de nos travaux, l'ensemble des données à explorer peut provenir de différents domaines (les environnements de travail collaboratif, les plateformes d'apprentissage en ligne, les entrepôts de données, les villes intelligentes, les systèmes d'alertes précoces, ...) et l'utilisateur à aider peut être un individu isolé ou une entité multiple à visée publique. Conscients que la masse de données/informations à explorer dans de tels cas peut être très importante, complexe et variée, il nous est apparu nécessaire de proposer des systèmes de recommandation appropriés pour y faire face. Nous proposons donc une approche générique de recommandation, en rupture complète avec les travaux existants, que nous instancions pour permettre de recommander soit des éléments, soit des utilisateurs, sous forme de recommandations individuelles ou à visée publique dans différents domaines. Puis, nous nous intéressons à l'évaluation des (systèmes de) recommandations. Afin d'assurer la pertinence des recommandations du point de vue de l'utilisateur/décideur, nous proposons des méthodes pour évaluer subjectivement d'une part le système de recommandation et d'autre part les recommandations retournées. Enfin, malgré de bonnes performances, parfois, les recommandations ne sont pas considérées comme suffisamment pertinentes. Nous proposons donc des techniques pour améliorer les (systèmes de) recommandations. Elles concernent l'amélioration des données d'entrée, le démarrage à froid et l'ajout de données/sources externes (notamment le contexte de l'utilisateur/décideur). Nos propositions ont été validées par la participation à différents projets ainsi que le co-encadrement de thèses de Doctorat et le suivi de travaux de Master Recherche.

Mots clés : Systèmes de recommandation, Analyse de données, Aide à la décision, Systèmes d'Information

Jonathan DEKHTIAR
Doctorant au laboratoire Roberval, UTC

Le mardi 30 janvier 2018 à 10h15 en GI042 (Bâtiment Blaise Pascal, université de technologie Compiègne)

Résumé :

The manufacturing industry is always trying to automate many of its engineering tasks and workflows. Applying Machine/Deep Learning in such an industrial context is challenging for different reasons : Contrary to the GAFAM (Google, Apple, Facebook, Amazon, Microsoft) and BATX (Baidu, Alibaba, Tencent and Xiaomi), the manufacturing industry use on a day-to-day basis highly complex data which comes, most of the time, in proprietary formats (e.g. 3D Models). Moreover, data are not available in large quantities (impossibility to rely on a big data scale) and most of the time in insufficient quantities to train any Deep Learning model to perform any computer vision task. However, Machine Learning can still be applied using various tips and tricks, frequently with good results. Transfer Learning is one effective solution, nevertheless this presentation will not focus on the latter which is already well covered in the literature [Y. Bengio, 2012] - [M. Oquab, 2014]. Inspired by research in anomaly detection for neuro-imagery [K. Wang, 2016] - [T. Schlegel, 2017] and for patrol robots [W. Lawson, 2017], we have studied the effectiveness of Deep Generative Networks and Deep Auto Encoder, namely GANs (Generative Adversarial Networks) and VAE (Variational AutoEncoders). This presentation aims to present the specificities and basics of GANs/VAEs and an overview of the whole process we developed with a limited amount of data (1000 images) and obtain 92% of accuracy and 85% of IOU (Intersection over Union) for the machined surface defect localisation. The proposed approach is able to adapt itself without any change in the structure or hyper-parameter settings to different industrial situations offered by the challenge dataset provided by DAGM 2007. In summary, the strength of the proposed solution is the following : Highly adaptable with limited re-engineering costs, reduced training time (+/- 3 hours on one GPU), Weakly Supervised Approach thus having a very reduced deployment cost.

Contact

Responsables Séminaires CID
Sébastien Destercke | Domitile Lourdeaux
Tél : 03 44 23 79 85 | 03 44 23 79 84 | Contacter par mail

Le mardi 10 avril 2018 à 14 h en GI042 (Bâtiment Blaise Pascal, université de technologie Compiègne)

Méthode de map-matching sur carte routière haute-définition avec vérification d'intégrité

Franck LI
Doctorant en 3e année au laboratoire Heudiasyc

Résumé :
Le domaine des véhicules intelligents est en constante évolution. Les progrès techniques, notamment en termes de capteurs, rendent possible des fonctionnalités de plus en plus avancées. Ces capteurs permettent au système de recueillir des informations sur son environnement direct. Une autre source d’information est la cartographie, fournissant des informations a priori sur le réseau routier. Les cartes routières haute-définition commencent peu à peu à faire leur apparition, mais l’exploitation de leur grande précision est limitée par la précision des systèmes de positionnement disponibles, mis à rude épreuve notamment en environnement urbain. Cet exposé présente une méthode de diagnostic d’utilisabilité du système de positionnement. L’algorithme de map-matching  sur lequel elle est basée est présenté. Il exploite le caractère multi-hypothèses d’un filtre particulaire afin de gérer les situations ambigües. Puis le principe du test de cohérence déterminant un critère « Use/Don’t  Use » est exposé.

Drones Coopérants en Flottille

Osamah SAIF
Post-doctorant au laboratoire Heudiasyc

Résumé :
Les applications de quadrirotors autonomes augmentent rapidement dans notre vie réelle. La surveillance, la vidéo et la photographie sont les domaines d'activité essentiels de véhicules aériens sans pilote (UAV). Actuellement, les chercheurs et les scientifiques se concentrent sur le déploiement multi-drones pour l’inspection et la surveillance de vastes zones. C’est dans cet esprit que je parlerai dans ma présentation de mes activités de recherche qui s’inscrivent dans le projet FUI AIRMES « Drones Hétérogènes Coopérants en Flottille ». Ce projet a pour objectif de permettre le déploiement de flottilles de drones hétérogènes pour permettre la surveillance des installations ferroviaires et électriques.  Ma mission dans ce projet est d’assurer le développement des algorithmes de vol en formations permettant aux drones de naviguer suivant des plans de vol tout en gérant leurs proximités et en maintenant une distance de sécurité entre eux.

Flying base stations for improving the performance of mobile networks

Azade FOTOUHI
Doctorante à l'UNSW de Sydney

Résumé :
There have been increasing interests in employing unmanned aerial vehicles (UAVs) such as drones for telecommunication purpose. In such networks, UAVs act as base stations (BSs) and provide downloading service to users. Compared with conventional terrestrial base stations, such UAV-BSs can dynamically adjust their locations to improve network performance. However, there exists important issues in UAV networks that must be considered. For example, the UAV deployment, introduces a new tool for radio resource management, since BS positions are open for network optimization. Moreover, drones have practical agility constraints in terms of flying speed, turning angles, and energy consumption. The aim of this presentation is to overview the integration of UAVs in cellular networks, existing issues and potential solutions for assisting cellular communications with UAV-based flying relays and base stations. Towards that end, a proposed mobility control method based on the SNR measurement and game theory approach will be presented. The results demonstrate that the UAV-BSs moving according to our proposed algorithm significantly improve the network performance in terms of packet throughput and spectral efficacy compared to a baseline scenario.

Contact

Responsable Séminaires SCOP
Mohamed Sallak
Tél : 03 44 23 49 30 | Contacter par mail

Le mardi 15 mai 2018 à 14 h dans l'amphi Colcombet (Centre de Transfert, université de technologie de Compiègne)

An Active Fault Tolerant Control for quadcopter aerial vehicle subject to partial and total actuator faults

Gerardo ORTIZ-TORRES
Doctorant au laboratoire Heudiasyc

Résumé :
In the last years multi-rotors configurations for Unmanned Aerial Vehicles (UAVs) have become promising mobile platforms capable of navigating (semi) autonomously in uncertain environments. Numerous applications for this kind of vehicles have been proposed, as aerial photography, surveillance, crop spraying, oil spill detection, supply delivery, agricultura assessment, among others. Among them, the quadcopter configuration, has proved to be suitable for these applications due to the fact that it can take-off and landing in shorts spaces, and it is essentially simpler to build, compared with a conventional helicopter. The quadcopter aerial vehicle is also sensitive to aerodynamic and external disturbances that can lead to different faults, such as actuator stuck, loss of a propeller or a motor, actuator degradation, voltage control failure, structural damage, physical aging, and fatigue, which inevitably influence the states of the vehicle. As a result, the stability, reliability, and safety could be affected during the fight envelope. In order to identify malfunctions at any time and to improve reliability and safety in the quadcopter, Fault Tolerant Control (FTC) methods can be considered.

The FTC techniques are classified into two types: passive and active. In the active techniques the controller parameters are adapted or reconfigured according to the fault using the information of the Fault Detection and Diagnosis (FDD) system, so that the stability and acceptable performance of the system can be maintained. An active FTC scheme for a quadcopter vehicle is presented. The actuator FDD method proposed in this work considers the rotational dynamics of the vehicle. Partial and total actuator faults are considered. The design procedure can be explained as follows:

1) a nominal controller, that has been previously designed, is considered to track the 3D position and attitude dynamics of the quadcopter ensuring a desired performance in a fault-free case;

2) a Proportional-Integral Observer (PIO) applied to the rotational dynamics is proposed for performing actuator fault estimation. The fault detection is done by comparing the fault estimation signal with a predefined threshold. Fault isolation is achieved by analyzing the sign of the fault estimation signal. Sufficient conditions for the existence of the observer is given in terms of Linear Matrix Inequalities;

3) an analysis of static controllability is applied using the attainable control set in order to test the performance degradation of the quadcopter vehicle under partial and total faults; 4)finally, the partial fault accommodation control law is generated using the nominal controller and the fault estimation signal for retaining close to nominal fault-free performance despite partial actuator fault. The total fault reconfiguration is done by changing the parameters of the nominal controller, losing the controllability in yaw position but controlling the yaw velocity around z-axis. The proposed fault control scheme is validated in different cases of fight tests for illustrating their feasibility and efectiveness.

Méthode de map-matching sur carte routière haute-définition avec vérification d'intégrité

Franck LI
Doctorant au laboratoire Heudiasyc (CIFRE Renault)

Résumé :
Le domaine des véhicules intelligents est en constante évolution. Les progrès techniques, notamment en termes de capteurs, rendent possible des fonctionnalités de plus en plus avancées. Ces capteurs permettent au système de recueillir des informations sur son environnement direct. Une autre source d’information est la cartographie, fournissant des informations a priori sur le réseau routier. Les cartes routières haute-définition commencent peu à peu à faire leur apparition, mais l’exploitation de leur grande précision est limitée par la précision des systèmes de positionnement disponibles, mis à rude épreuve notamment en environnement urbain. Cet exposé présente une méthode de diagnostic d’utilisabilité du système de positionnement. L’algorithme de map-matching  sur lequel elle est basée est présenté. Il exploite le caractère multi-hypothèses d’un filtre particulaire afin de gérer les situations ambigües. Puis le principe du test de cohérence déterminant un critère « Use/Don’t  Use » est exposé.

Le mardi 10 avril 2018 à 14 h en GI042 (Bâtiment Blaise Pascal, université de technologie Compiègne)

Drones Coopérants en Flottille

Osamah SAIF
Post-doctorant au laboratoire Heudiasyc

Résumé :
Les applications de quadrirotors autonomes augmentent rapidement dans notre vie réelle. La surveillance, la vidéo et la photographie sont les domaines d'activité essentiels de véhicules aériens sans pilote (UAV). Actuellement, les chercheurs et les scientifiques se concentrent sur le déploiement multi-drones pour l’inspection et la surveillance de vastes zones. C’est dans cet esprit que je parlerai dans ma présentation de mes activités de recherche qui s’inscrivent dans le projet FUI AIRMES « Drones Hétérogènes Coopérants en Flottille ». Ce projet a pour objectif de permettre le déploiement de flottilles de drones hétérogènes pour permettre la surveillance des installations ferroviaires et électriques.  Ma mission dans ce projet est d’assurer le développement des algorithmes de vol en formations permettant aux drones de naviguer suivant des plans de vol tout en gérant leurs proximités et en maintenant une distance de sécurité entre eux.

Flying base stations for improving the performance of mobile networks

Azade FOTOUHI
Doctorante à l'UNSW de Sydney

Résumé :There have been increasing interests in employing unmanned aerial vehicles (UAVs) such as drones for telecommunication purpose. In such networks, UAVs act as base stations (BSs) and provide downloading service to users. Compared with conventional terrestrial base stations, such UAV-BSs can dynamically adjust their locations to improve network performance. However, there exists important issues in UAV networks that must be considered. For example, the UAV deployment, introduces a new tool for radio resource management, since BS positions are open for network optimization. Moreover, drones have practical agility constraints in terms of flying speed, turning angles, and energy consumption. The aim of this presentation is to overview the integration of UAVs in cellular networks, existing issues and potential solutions for assisting cellular communications with UAV-based flying relays and base stations. Towards that end, a proposed mobility control method based on the SNR measurement and game theory approach will be presented. The results demonstrate that the UAV-BSs moving according to our proposed algorithm significantly improve the network performance in terms of packet throughput and spectral efficacy compared to a baseline scenario.

Contact

Responsables Séminaires SyRI
Indira Thouvenin | Philippe Xu
Tél : 03 44 23 45 47 | 03 44 23 41 62 | Contacter par mail

Les intervenants peuvent discuter de recherches récentes ou à un stade précoce qu'ils ont entreprises, ou signaler d'autres types d'activités professionnelles. Certains sujets correspondent étroitement à nos orientations de recherche actuelles, alors que d'autres représentent des domaines d'intérêt pour notre communauté scientifique.

Christian WOLF
Maître de conférences HDR, LIRIS, INSA Lyon

Le jeudi 5 juin 2018 à 14h00 en GI042 (Bâtiment Blaise Pascal, université de technologie Compiègne)

Résumé :

We address human action recognition from RGB data and study the role of articulated pose and of visual attention mechanisms for this application. In particular, articulated pose is well established as an intermediate representation and capable of providing precise cues relevant to human motion and behavior. We describe two different methods which use pose in different ways, either during training and testing, or during training only.

The first method uses a trainable glimpse sensor to extracts features on a set of predefined locations specified by the pose stream, namely the 4 hands of the two people involved in the activity. We show that it is of high interest to shift the attention to different hands at different time steps depending on the activity itself. The model not only learns to find choices relevant to the task, but also to draw away attention from joints which have been incorrectly located by the pose middleware.

A second method has been designed to explicitly remove the dependency on pose during training, making the method more broadly applicable in situations where pose is not available. Instead, a sparse representation of focus points is calculated by a dynamic visual attention model and passed to a set of distributed recurrent neural workers. State-of-the-art results are achieved on several datasets, among which is the largest dataset for human activity recognition, namely NTU-RGB+D.

Contact

Responsable séminaires laboratoire
Franck Davoine
Tél : 03 44 23 52 79 | Contacter par mail