UMR CNRS 7253

Outils du site


fr:recherche

Différences

Ci-dessous, les différences entre deux révisions de la page.

Lien vers cette vue comparative

Les deux révisions précédentesRévision précédente
Prochaine révision
Révision précédente
fr:recherche [2014/03/12 14:12] ithouvenfr:recherche [2017/03/22 13:17] (Version actuelle) ithouven
Ligne 1: Ligne 1:
 +====== ANGIE:  interaction au regard dans les systèmes d'optronique portables  ======
 +**Objectif général **
 +\\ Projet de recherche avec SAGEM Defense
 +**Thèse Cifre** Romain Grosse\\
 +**Co encadrement** Dominique Lenne (Heudiasyc) et Stephane Aubry (Sagem Defense)
  
 +====== KIVA:  formation au geste technique par la réalité virtuelle/augmentée ======
 +**Objectif général **
 +\\
 +KIVA est un acronyme pour Knowledge and Informed Virtual environment
 +for gesture cApitalization. Le projet ambitionne de créer
 +un nouvel environnement de formation utilisant la réalité virtuelle
 +afin d’accélérer le processus d’apprentissage de gestes techniques.
 +Il s’inscrit dans la forte dynamique de la formation par la réalité
 +virtuelle, qui est de plus en plus utilisée dans l’industrie. Le groupe
 +Montupet, membre du projet et un des leaders mondiaux dans la
 +conception et la fabrication de pièces automobiles en aluminium,
 +cherche à améliorer son efficience et à réduire ses taux de rebuts,
 +qui sont des conséquences directes de la formation. En effet, la fabrication
 +des culasses (partie supérieure d’un moteur à pistons), nécessite
 +une haute technicité dans le geste. La formation en environnement
 +virtuel permettra de restituer et d’expliciter un savoir-faire
 +essentiellement tacite.
  
 +\\ 
 +** Thèse** [[https://www.hds.utc.fr/~jeannflo/dokuwiki/fr/accueil|FLORIAN JEANNE]]**\\
  
  
 +**Mots-clés** :  réalité  virtuelle,  guidage en environnement virtuel,  interaction 3D,  geste technique.
  
 +\\ 
 +** Post Doc** [[https://www.hds.utc.fr/~ysoullar/dokuwiki/en/start|YANN SOULLARD]]**\\
 +** Co tutelle Sebastien Destercke**
  
 +**Mots-clés** :  machine learning,reconnaissance de geste, environnement virtuel.
  
 +====== DESCRIPT: aide adaptative au geste d'écriture ======
 +** Objectif général:**\\
 +Le geste d'écriture peut être médié par de nouvelles interfaces de réalité mixtes autorisant une aide adaptative.
 +\\ 
  
-====== MINARDA: Réalité augmentée mobile et interactive pour l'aide à la conduite ====== +L’apprentissage de l’écriture est un processus complexe impliquant différentes étapes de développementLors de chacune de ces étapesl’apprenant développe différentes capacités psychomotrices et cognitivesLes systèmes tuteurs intelligents sont principalement utilisés dans le cadre de l’apprentissage de compétences non gestuelles, et sont basées sur des stratégies. Les systèmes à retours sensoriels (visuels, sonores, haptiques, …sont quant à eux largement utilisés dans le cadre de l’apprentissage de gesteCes approches sont réactivesaméliorent l’apprentissagemais ne prennent pas en compte l’évolution de l’apprenant et de ses capacités au cours du temps. Nous discutons ici de deux enjeux du développement des systèmes d’apprentissage de lécriture : l’analyse de l’activité de l’utilisateuret le guidage adaptatif pour lapprentissage de l’écriture en environnement mixte.
-Objectif général:\\ +
-Les  véhicules  modernes  possèdent  la  capacité  de  percevoir  la  scène  routière  dans laquelle  ils   évoluent  travers  l'interprétation  de  données  vidéos lidar  ou  radar,  les véhicules  construisent  une   sorte   de « carte   mentale » dynamique   de   leur environnement  Cette   carte   sert   de   connaissance   de   base   pour   planifier   et   mettre en   œuvre   des   manœuvres   de   conduite   automatiques   appropriées   (conduite autonome   ou   semi-­‐autonome  ou   pour   assister   le   conducteur   dans   sa   tâche   de conduite  Dans   un   futur   plus   lointain  les   véhicules   seront   certainement   capables d'évoluer   de   manière   quasi   automatique   dans   un   trafic   routier   ouvert   améliorant ainsi   le   confort,   la   sécurité   et   l'efficacité   de   la   conduite  tout   en   permettant   au conducteur   de   reprendre   la   main   dans   les   situations   ambigües   ou   dangereuses. Ce sujet  de  thèse  consiste  donc  à  développer  dans  un  premier  temps,  une  méthodologie  de prise  en  compte  des  imprécisions  dans  la  chaine  de  traitement  ascendante,  de l'information  visuelle   allant   des   variables   de   bas   niveau   (signal   et   pixels)   jusqu'à l'interprétation   haut   niveau   de   scènes  dynamiques.  Dans  un  second  temps,  il  faudra concevoir  un  module  de  décision  et  créer  de  nouvelles   métaphores  d’interaction permettant  daider  le  conducteur  à  reprendre  la  main  sur  son  véhicule  en   cas   de situations   ambigües   ou   dangereuses.   Dans   les   thématiques   de   RV/RA   et   de   vision 3D,   la   littérature  est  très  riche,  mais  l’association  des  deux  disciplines  est  peu développée notamment  dans   le   contexte   du   véhicule   intelligent   et   plus spécifiquement   pour   les   systèmes   avancés   daide   à   la   conduite.  Le   candidat  profitera   des   recherches  menées   au   sein   des   domaines   ICI,   DI   et   ASER   du laboratoire  Heudiasyc,  dans  les  domaines  de  la  réalité  virtuelle  et  augmentée,  de  la vision  3D,  et  de   l’analyse  de  scènes  dynamiques .+
  
 \\  \\ 
-* Thèse** [[http://www.hds.utc.fr/~MinhTien/dokuwiki/doku.php?id=fr:recherche/|TIEN MINH]]**\\+** Thèse* [[https://www.hds.utc.fr/~frenoyre/dokuwiki/fr/accueil|REMY FRENOY]]**\\
  
 +**Mots-clés** : Sensorial feedback, adaptation, teaching in mixed reality, gestural interaction
  
-**Mots-clés** :  Réalité  augmentée,  vision  3D,  interaction,  systèmes  d’aide  à  la  conduite. +**Co tutelle Olivier Gapenne**
-**Co tutelle Vincent Frémont**+
  
  
 +====== MINARDA: Mobile Augmented Reality for driving assistance ======
 +Objectif général:\\
 +Pedestrian accidents become a serious problem for the society. Pedestrian Collision Warning Systems (PCWS) are proposed to detect the presence of pedestrians and to warn the driver about the potential dangers. However, their interfaces associated with ambiguous alerts can distract drivers and create more dangers. On another hand, Augmented Reality (AR) with Head-Up Display (HUD) interfaces have recently attracted the attention in the field of automotive research as they can maintain driver’s gaze on the road. In this paper,  we aims to design a  new PCWS with the AR cues and to propose an experimental protocol that is able to evaluate the system by assessing the driver’s awareness of a pedestrian. At this stage, a fixed-based driving simulator is used to analysis the AR cues. Twenty five healthy middle-aged licensed drivers are studied. A car following task is proposed as the main driving task. Three levels of the driver’s awareness of a pedestrian: the perception level, the vigilance level and the anticipation level are assessed through the observable outcomes. The results show that the proposed AR cues can enhance the driver’s awareness of a pedestrian in all the three  levels.
  
 +\\ 
 +* Thèse** [[http://www.hds.utc.fr/~MinhTien/dokuwiki/doku.php?id=fr:recherche/|TIEN MINH]]**\\
  
  
- +**Mots-clés** :  Réalité  augmentée vision  3D interaction,  systèmes  d’aide  à  la  conduite
- +**Co tutelle Vincent Frémont**
-====== MOIRA : sMart envirOnment for physIcs-based viRtual Avatar Interaction====== +
-Objectif général:\\La présence d'humains virtuels, physiquement réalistes devient incontournable dans les applications industrielles telles que celles employées dans le serious gaming de par la nécessité d'observer les effets physiques sur le corps humain des environnements de travail ou des procédures. Les humains virtuels physiques autonomes sont également capables de maintenir eux même leur équilibre et de réagir à des forces externes.Le pilotage interactif consiste à suivre les consignes de l'utilisateur tout en tentant de respecter des contraintes physiques comme le maintien de l'équilibre. Lors d'un pilotage interactif, l'impact de l'humain virtuel semi-autonome sur l'action attendue par l'utilisateur peut être source d'incompréhension et nécessite une forme de dialogue avec l'utilisateur. +
- +
- +
-L'utilisation de retours multimodaux et d'aides a déjà démontré son efficacité pour l'apprentissage. Nous allons appliquer l'approche par génération de retours multimodaux (visuelle, auditive, tactile...) pour construire ce dialogue. +
- +
- +
- +
-\\  +
-* Thèse** [[http://www.hds.utc.fr/~kwagrez/dokuwiki/doku.php?id=fr:recherche/|WAGREZ KEVIN]]**\\ +
- +
-**Mots-clés** : réalité virtuellerobotique, multimodalité, interaction-homme robotpilotage interactif+
-**Co tutelle avec le CEA LIST - Jean Shreng**+
  
  
Ligne 61: Ligne 84:
  
 ======OSE: Formation pour le tranSport fluvial par Environnement virtuel informé====== ======OSE: Formation pour le tranSport fluvial par Environnement virtuel informé======
 +{{:fr:memoire_de_these_loic_fricoteaux.pdf|}}
 +\\
 +[[{{:fr:realite_virtuelle_1.jpg?100|}}]]
 +www.youtube.com/embed/URjqKRqqdjQ
 +\\
 +
 Objectif général :\\ Objectif général :\\
 Cette thèse porte sur l’interaction entre un humain et un environnement virtuel informé (EVI). L’objectif est de renforcer le couplage entre l’humain et l’EVI en permettant à celui-ci de réagir pertinemment au comportement de l’utilisateur. Pour ce faire, nous ajoutons à l’EVI un module de décision capable de choisir en temps réel des retours multimodaux suivant l’activité de l’utilisateur observée par le système au moyen de différents capteurs. Nous utilisons la théorie des fonctions de croyance pour la prise de décision afin de gérer l’incertitude et l’incomplétude des données récoltées décrivant le comportement de l’utilisateur. Notre système apporte une interaction informée : la réaction du système aux actions de l’utilisateur se base sur des connaissances a priori combinées avec d’autres connaissances acquises en temps réel. Nous apportons alors une interaction personnalisée, adaptée à chaque utilisateur, pour augmenter son efficacité. Ces travaux ont été appliqués à un simulateur de navigation fluviale afin de lui apporter un module de formation permettant un guidage personnalisé des apprenants. Cette thèse porte sur l’interaction entre un humain et un environnement virtuel informé (EVI). L’objectif est de renforcer le couplage entre l’humain et l’EVI en permettant à celui-ci de réagir pertinemment au comportement de l’utilisateur. Pour ce faire, nous ajoutons à l’EVI un module de décision capable de choisir en temps réel des retours multimodaux suivant l’activité de l’utilisateur observée par le système au moyen de différents capteurs. Nous utilisons la théorie des fonctions de croyance pour la prise de décision afin de gérer l’incertitude et l’incomplétude des données récoltées décrivant le comportement de l’utilisateur. Notre système apporte une interaction informée : la réaction du système aux actions de l’utilisateur se base sur des connaissances a priori combinées avec d’autres connaissances acquises en temps réel. Nous apportons alors une interaction personnalisée, adaptée à chaque utilisateur, pour augmenter son efficacité. Ces travaux ont été appliqués à un simulateur de navigation fluviale afin de lui apporter un module de formation permettant un guidage personnalisé des apprenants.

Outils pour utilisateurs