UMR CNRS 7253

Site Tools


en:research

Differences

This shows you the differences between two versions of the page.

Link to this comparison view

Both sides previous revisionPrevious revision
Next revision
Previous revision
en:research [2017/04/04 16:30] ithouvenen:research [2023/09/05 17:09] (current) ithouven
Line 1: Line 1:
-====== ANGIE:  interaction au regard dans les systèmes d'optronique portables  ====== +======Projets récents ou en cours======  
-**Objectif général ** +===Projets nationaux=== 
-\\ Projet de recherche avec SAGEM Defense +**[[https://anr.fr/Projet-ANR-22-CE33-0010|ANR MATCH]]** (Modulations multisensorielles et affectives du toucher : interaction et intentionnalité. L'objectif est de comprendre la sensation d'être touché par un agent autonome incarné.)\\ 
-**Thèse Cifre** Romain Grosse\\ +Social touch is central to the interpersonal interactions of daily life. However, it is sorely lacking in interactions with virtual agents. No current technology is capable of satisfactorily generating the impression of being touched by a virtual agent during a social interaction in virtual reality (VR). Our goal is to meet this challenge by overcoming, as much as possible, the need for tactile stimulation. We will seek to determine the minimal conditions allowing the emergence of the impression of being touched, by studying the impact of multisensory integration, agency and social context. We will optimize the effect of gesture and contextual parameters on the perception of social touch. We will use cross-modal strategies to induce the illusion of touch in VR, through the substitution of other sensory modalities, such as audio. We will also manipulate the multimodal behavior of the virtual agent (facial expressions, gaze, gestureto maximize the impression of touch and the associated affective reactions.
-**Co encadrement** Dominique Lenne (Heudiasycet Stephane Aubry (Sagem Defense) +
- +
-[[en:projects:kiva|Kiva]] +
- +
-====== KIVA:  formation au geste technique par la réalité virtuelle/augmentée ====== +
-**Objectif général **+
 \\ \\
-KIVA est un acronyme pour Knowledge and Informed Virtual environment +**[[https://socialtouch.hds.utc.fr/index.php/what-is-social-touch/publications|ANR SOCIAL TOUCH]]**: (Comprendreconcevoir et évaluer la modalité tactile dans les interactions homme-machine sociales)\\ 
-for gesture cApitalization. Le projet ambitionne de créer +(ANR Société de l'information et de la communication 2018-2022)\\ 
-un nouvel environnement de formation utilisant la réalité virtuelle +This project is at the crossroad of Human-Machine Interaction (HMI) and Emotional DesignIt investigates how the sense of touch can be integrated in interactive systems to leverage communicative and emotional channels between humans and machines or between humans via machinesIt focuses  on communicative modality that has been much less studied than other communication channels, namely touchand addresses innovative topics such as the role of social touch to foster engagement or to provide intimate experienceIt investigates how touch can serve to enhance human interaction with small devicesembodied conversational agents (ECAs) and Virtual Reality environments and for interpersonal mediated communicationThe project aims: (1To understand the principles and functions of touch as an emotional way to communicate and to predict its impact on human-machine engagement; (2To design novel human-machine interaction techniques to improve user   experience; 
-afin d’accélérer le processus d’apprentissage de gestes techniques. +(3) To evaluate the efficiency and the acceptability of social touch in two different contextsainterpersonal mediated communication and bhuman communication with embodied conversational agentwhich will allow us to compare these situations and possible differences whether agents are human or virtual.
-Il s’inscrit dans la forte dynamique de la formation par la réalité +
-virtuelle, qui est de plus en plus utilisée dans l’industrie. Le groupe +
-Montupet, membre du projet et un des leaders mondiaux dans la +
-conception et la fabrication de pièces automobiles en aluminium, +
-cherche à améliorer son efficience et à réduire ses taux de rebuts, +
-qui sont des conséquences directes de la formation. En effet, la fabrication +
-des culasses (partie supérieure d’un moteur à pistons), nécessite +
-une haute technicité dans le geste. La formation en environnement +
-virtuel permettra de restituer et d’expliciter un savoir-faire +
-essentiellement tacite. +
- +
-\\  +
-** Thèse** [[https://www.hds.utc.fr/~jeannflo/dokuwiki/fr/accueil|FLORIAN JEANNE]]**\\ +
- +
- +
-**Mots-clés** :  réalité  virtuelle guidage en environnement virtuel,  interaction 3D,  geste technique. +
- +
-\\  +
-** Post Doc** [[https://www.hds.utc.fr/~ysoullar/dokuwiki/en/start|YANN SOULLARD]]**\\ +
-** Co tutelle Sebastien Destercke** +
- +
-**Mots-clés** :  machine learning,reconnaissance de geste, environnement virtuel. +
- +
-====== DESCRIPT: aide adaptative au geste d'écriture ====== +
-** Objectif général:**\\ +
-Le geste d'écriture peut être médié par de nouvelles interfaces de réalité mixtes autorisant une aide adaptative. +
-\\  +
- +
-L’apprentissage de l’écriture est un processus complexe impliquant différentes étapes de développement. Lors de chacune de ces étapes, l’apprenant développe différentes capacités psychomotrices et cognitives. Les systèmes tuteurs intelligents sont principalement utilisés dans le cadre de l’apprentissage de compétences non gestuelles, et sont basées sur des stratégies. Les systèmes à retours sensoriels (visuels, sonores, haptiques, …) sont quant à eux largement utilisés dans le cadre de l’apprentissage de geste. Ces approches sont réactives, améliorent l’apprentissage, mais ne prennent pas en compte l’évolution de l’apprenant et de ses capacités au cours du temps. Nous discutons ici de deux enjeux du développement des systèmes d’apprentissage de l’écriture : l’analyse de l’activité de l’utilisateur, et le guidage adaptatif pour l’apprentissage de l’écriture en environnement mixte. +
- +
-\\  +
-** Thèse* [[https://www.hds.utc.fr/~frenoyre/dokuwiki/fr/accueil|REMY FRENOY]]**\\ +
- +
-**Mots-clés** : Sensorial feedback, adaptation, teaching in mixed reality, gestural interaction +
- +
-**Co tutelle Olivier Gapenne** +
- +
- +
-====== MINARDA: Mobile Augmented Reality for driving assistance ====== +
-Objectif général:\\ +
-Pedestrian accidents become a serious problem for the society. Pedestrian Collision Warning Systems (PCWSare proposed to detect the presence of pedestrians and to warn the driver about the potential dangersHowever, their interfaces associated with ambiguous alerts can distract drivers and create more dangers. On another hand, Augmented Reality (AR) with Head-Up Display (HUD) interfaces have recently attracted the attention in the field of automotive research as they can maintain driver’s gaze on the roadIn this paper,  we aims to design  new PCWS with the AR cues and to propose an experimental protocol that is able to evaluate the system by assessing the driver’s awareness of a pedestrian. At this stagea fixed-based driving simulator is used to analysis the AR cues. Twenty five healthy middle-aged licensed drivers are studied. A car following task is proposed as the main driving task. Three levels of the driver’s awareness of a pedestrian: the perception level, the vigilance level and the anticipation level are assessed through the observable outcomesThe results show that the proposed AR cues can enhance the driver’s awareness of a pedestrian in all the three  levels. +
- +
-\\  +
-* Thèse** [[http://www.hds.utc.fr/~MinhTien/dokuwiki/doku.php?id=fr:recherche/|TIEN MINH]]**\\ +
- +
- +
-**Mots-clés** :  Réalité  augmentée,  vision  3D,  interaction,  systèmes  d’aide  à  la  conduite. +
-**Co tutelle Vincent Frémont** +
- +
- +
- +
- +
- +
-====== GREETINGReconnaissance de gestes pour des interactions naturelles et évolutives homme- agent artificiel====== +
-Objectif général :\\ +
-La robotique et la réalité augmentée sont deux domaines dans lesquels l’interaction joue un rôle prédominant. Dans les deux cas l’objectif est de commander une entité artificielle. Les gestes symboliques sont des candidats idéaux pour commander ce type d’entité. Aujourd’hui, il existe plusieurs pistes de recherche pour concevoir des interfaces à base de reconnaissances de gestes emblématiques. +
- +
-Ce travail se concentre sur la détermination d’ensembles de gestes différents pouvant servir au contrôle d’une application sans engendrer de confusion entre les gestes retenus. Le problème peut être résolu en utilisant des classificateurs à une classe basé sur les séparateurs à vaste marge (SVM). Grâce à ces classificateurs, il est possible de déterminer un ensemble de gestes suffisamment distincts pour pouvoir être utilisé comme contrôle. +
-\\  +
-* Thèse** [[http://www.iit.it/en/people/pattern-analysis-and-computer-vision/phd-student/emmanuel-bernier.html/|BERNIER EMMANUEL]] Soutenue le 28 avril 2013 à l’Italian Institute of Technology, Genes. +
-Segmentation and recognition of natural human gesture for interaction with artificial entities**\\ +
- +
-**Mots-clés** : réalité virtuelle, robotique, reconnaissance de gestes, interaction-homme robot, évolutivité. +
-**Co tutelle avec l'Italian Institute of Technology - PAVIS Lab - Ryad Chellali** +
- +
-La mise en œuvre de ces travaux de recherche se fait sur la plate-forme MobilAR combinant robot mobile et projection pour la réalité augmentée. Un robot SLAM et un système de projection en réalité augmentée sont utilisés pour proposer cette interaction naturelle et évolutive. +
- +
- +
- +
- +
- +
-======OSE: Formation pour le tranSport fluvial par Environnement virtuel informé====== +
-{{:fr:memoire_de_these_loic_fricoteaux.pdf|}} +
-\\ +
-[[{{:fr:realite_virtuelle_1.jpg?100|}}]] +
-www.youtube.com/embed/URjqKRqqdjQ +
-\\ +
- +
-Objectif général :\\ +
-Cette thèse porte sur l’interaction entre un humain et un environnement virtuel informé (EVI). L’objectif est de renforcer le couplage entre l’humain et l’EVI en permettant à celui-ci de réagir pertinemment au comportement de l’utilisateur. Pour ce faire, nous ajoutons à l’EVI un module de décision capable de choisir en temps réel des retours multimodaux suivant l’activité de l’utilisateur observée par le système au moyen de différents capteurs. Nous utilisons la théorie des fonctions de croyance pour la prise de décision afin de gérer l’incertitude et l’incomplétude des données récoltées décrivant le comportement de l’utilisateur. Notre système apporte une interaction informée : la réaction du système aux actions de l’utilisateur se base sur des connaissances a priori combinées avec d’autres connaissances acquises en temps réel. Nous apportons alors une interaction personnalisée, adaptée à chaque utilisateur, pour augmenter son efficacité. Ces travaux ont été appliqués à un simulateur de navigation fluviale afin de lui apporter un module de formation permettant un guidage personnalisé des apprenants. +
-\\  +
-* Thèse** [[http://www.hds.utc.fr/~lfricote/dokuwiki/doku.php?id=fr:recherche/|FRICOTEAUX LOIC]]**\\ +
-Soutenue le 28 septembre 2012 à l'Université de Technologie Compiègne\\ +
-**Interaction informée par un système décisionnel pour un retour multimodal en environnement virtuel: application à la formation au transport fluvial** +
- +
-**Jury** : +
- +
-Catherine GARBAY : Directeur de recherche CNRS, Laboratoire d'Informatique de Grenoble (Rapporteur)\\ +
-Bruno ARNALDI : Professeur des Universites  INSA Rennes (Rapporteur)\\ +
-Domitile LOURDEAUX : Maitre de conference Heudiasyc,Université de Technologie de Compiègne (Examinateur)\\ +
-Thierry Denoeux :Professeur des Universites   Heudiasyc, Université de Technologie de Compiègne(Examinateur)\\ +
-Frederic MERIENNE :Professeur des Universites   Le2i Institut Image ENSAM, Université de Technologie de Compiègne(Examinateur)\\ +
-Indira THOUVENIN Heudiasyc, Université de Technologie de Compiègne (Directeur de thèse)\\ +
- +
-**Mots-clés** : : interaction informée, retour multimodal, observation de l’utilisateur, incertitude, théorie des fonctions de croyance, réseau évidentiel, satisfaction de contraintes. +
- +
- ======Baybe: Bayesian approach for a non verbal communication Behaviour model====== +
-Objectif général :\\ +
-Concevoir et réaliser un environnement virtuel informé pour la communication non verbale \\ +
-Proposer un modèle de comportement non verbal par génération de gestes du personnage virtuel reposant sur une analyse ergonomique.\\ +
-Intégrer l’incertitude dans le modèle de comportement par une approche Bayésienne.\\  +
-  +
-* Thèse** Atman Kendira**\\ +
-Soutenue le 27 janvier 2010 à l'Université de Technologie Compiègne  Co-encadrement  L. Perron (Orange Labs)\\ +
-**L’animation comportementale d’avatars comme support à la communication dans les environnements virtuels Informés.** +
- +
-**Jury** : +
- +
-Catherine PELACHAUD : Directeur de recherche CNRSTelecom ParisTech (Rapporteur)\\ +
-Pierre DE LOOR : Centre Européen de Réalité Virtuelle, LISC, ENIB Rapporteur)\\ +
-Vincent CORRUBLE : LIP6, Université Pierre et Marie Curie(Examinateur)\\ +
-Jean-Paul BARTHES : Heudiasyc, Université de Technologie de Compiègne(Examinateur)\\ +
-Indira THOUVENIN : Heudiasyc, Université de Technologie de Compiègne (Directeur de thèse)\\ +
-Laurence PERRON : Orange Labs Lannion, France Telecom R&D(Directeur de thèse)\\ +
-**Mots-clés** : environnement virtuel informé, comportement non verbal, geste, incertitude et incomplétude, approche bayésienne. +
- +
-======RVPI: Réalité Virtuelle pour la Production Industrielle====== +
-Objectif général:\\ +
-Capitaliser les connaissances pour la maintenance dans le contexte de production de pneumatiques en usine.\\ +
-Partager et rendre accessible les procédures, en tenant compte des critères de qualité et de sécurité.\\  +
-Concevoir un EVI pour capturer la connaissance des experts touchant au geste technique.  +
-Proposer un modèle d’annotations gestuelles et un mode d’interaction liant perception et ingénierie des connaissances dans les EVs\\ +
-CIFRE Continental\\ +
- +
-*  **Thèse[[http://wwwetu.utc.fr/~olivejer/|OLIVE Jérôme]]**\\ +
-Soutenue le mercredi 14 avril 2010 à l'Université de Technologie Compiègne\\ +
- +
-**Annotations gestuelles pour capitaliser les interactions en environnement virtuel informé : application à la maintenance industrielle**\\ +
- +
- +
-**Jury** : +
-Jean Pierre JESSEL, IRIT, Toulouse (Rapporteur)\\ +
-Annie LUCIANI, ACROE, Grenoble (Rapporteur)\\ +
-Charles LENAY, COSTECH, Compiègne ( Examinateur)\\ +
-Ryad CHELLALI, IIT Italie (Examinateur)\\ +
-Indira THOUVENIN, Heudiasyc, Compiègne (Directeur de thèse)\\ +
-**Mots-clés** : annotations, réalité virtuelle, conception collaborative, ontologies. +
  
-====== MATRICS: Managing Annotations for Training in an Immersive Collaborative System ====== + \\ 
-{{fr:projet_matrics.pdf|Mémoire de thèse PDF}}\\ +**ANR MAC COY CRITICAL**(Models for Adaptative feedback enriChment and Orchestration based virtual realitY in Critical situations)\\ 
-Objectif général :\\ +(ANR FORMATION ET EDUCATION 2014 - 2019)\\ 
-Proposer un support informatique pour la collaboration en situation de conception mécanique.\\  +J'ai collaboré avec Domitile Lourdeaux dans ce projet porté par Jean Marie Burkhardt (IFSTTAR-LPC) dans lequel la question des feedback adaptatifs est importante.\\
-Structurer les informations recueillies lors des sessions et gérer leur indexation en environnement virtuel.\\ +
-Formaliser un modèle d’annotations 3D en EV et gérer l’affichage d’annotations massives par intégration d’un outil de représentation des connaissances.\\ +
-Manipuler des scènes 3D complexes en relation avec des modèles CAO et des objets 3D numériques issus du domaine du design\\ +
  
- **Thèse [[http://www.hds.utc.fr/~aubrys01/|AUBRY Stéphane]]**\\  +**FUI SERA**: Mobile and Interactive Augmented Reality for Driving Assistance  (Projet FUI 2012-2015) 
-Soutenue le lundi 28 mai 2007 à l'Université de Technologie Compiègne +Ce projet, porté par Vincent Fremont au laboratoire, est une collaboration avec des industriels, le porteur de projet est VISTEONLe sujet central du projet est la réalité augmentée pour la conduite, dans la suite des travaux de thèse de Minh Tien Phan 
-Co-encadrement Dominique Lenne, laboratoire Heudiasyc.+===Projets régionaux=== 
 +**KIVA (2014-2017 FEDER et région Picardie) –porteuse de projet** 
 +est un environnement virtuel de formation au geste technique. Ce projetréalisé en partenariat entre l’UTC (laboratoire Heudiasyc), Reviatech et Montupet vise à former un futur opérateur de Montupet à l’exécution de séquences de gestes relatives à différents postes de travailUn modèle d’apprentissage statistique identifie le geste effectué par l’utilisateur en temps réel et mesure la qualité du geste par rapport à des gestes experts (niveau d’expertise, erreurs commises). Un modèle de décision propose ensuite un retour approprié pour l’utilisateur en se basant sur les résultats du modèle d’apprentissage, et des connaissances sur l’apprenant au moyen d’une métaphore adaptative.\\
  
-**Annotation et gestion des connaissances en environnement virtuel collaboratif**+**DESCRIPT (2013-2016 région Picardie)** 
 +est un environnement d’apprentissage de gestes d’écriture reposant sur un guidage adaptatif. L’activité d’écriture est étudiée selon quatre axes : le rythme, la forme, la régularité et l’apprentissage. Un modèle de correspondance (l’algorithme de déformation temporelle dynamique) mesure l’écart entre la réalisation de l’apprenant et un exemple expert. En se basant sur la position du geste de l’apprenant et de retours sensoriels dans l’espace de représentation, un retour sensoriel est sélectionné et fourni à l’utilisateur dans le but de l’aider à améliorer son geste. Une interaction homme-machine est créée pour évaluer la pertinence du retour fourni à l’apprenant et le faire évoluer dans l’espace de représentation.\\
  
-**Jury** :+**COOL (région Picardie 2015-2017) –porteuse de projet** 
 +vise à proposer des interactions collaboratives entre deux salles immersives par ajout de la détection d’intention de l’utilisateur. Le concept de présence en environnement virtuel est essentiel à ces interactions. Ce projet se fait en lien avec Industrilab qui vient de se doter d’une salle immersive.\\
  
-Jean-Paul BARTHES, Heudiasyc, Compiègne (Examinateur)\\ +**TRANSLIFE (région Picardie 2015-2017–porteuse de projet** 
-Patrick BOURDOT, LIMSI, Orsay (Rapporteur)\\ +est un programme de recherche centré sur les environnements virtuels informésayant permis l’acquisition et la mise en œuvre d’un CAVE quatre facesavec une face mobile permettant deux configurations. Les expérimentations en environnement immersif à échelle 1 sont ainsi possibles afin de mener des travaux de recherche sur l’adaptation des interactions à l’utilisateur.\\
-Dominique LENNE, Heudiasyc, Compiègne (Directeur de thèse)\\ +
-Indira THOUVENINHeudiasycCompiègne (Directeur de thèse)\\ +
-Jacques TISSEAU, LISyC, CERV, Plouzané (Examinateur)\\ +
-Manuel ZACKLAD, Tech-CICO, Troyes (Rapporteur)\\+
  
-**Mots-clés** : annotations, réalité virtuelle, conception collaborative, ontologies.+**LEON ( 20172020) région Picardie** 
 +est un projet porte par le laboratoire de psychologie de l’UPJV visant à évaluer l’impact de la formation en environnement virtuel par immersion dans un CAVE comparativement à l’immersion dans un casqueDans ce projet je mène des expérimentations sur l’environnement NIKITA développé précédemment
  

User Tools