UMR CNRS 7253

Benjamin Lussier
Benjamin Lussier
Benjamin Lussier
Benjamin Lussier
Benjamin Lussier

Outils du site


fr:recherche

Différences

Ci-dessous, les différences entre deux révisions de la page.

Lien vers cette vue comparative

Les deux révisions précédentes Révision précédente
Prochaine révision
Révision précédente
Dernière révision Les deux révisions suivantes
fr:recherche [2020/05/29 10:42]
blussier
fr:recherche [2020/05/29 10:47]
blussier [Tolérance aux fautes pour la perception multi-capteurs]
Ligne 8: Ligne 8:
  
  
-===== Tolérance aux fautes pour la perception multi-capteurs =====+===== 1. Tolérance aux fautes pour la perception multi-capteurs =====
  
  
Ligne 28: Ligne 28:
  
  
-==== Activités de recherche ====+===== Activités de recherche =====
  
  
Ligne 65: Ligne 65:
 ===== Tolérance aux fautes systèmique pour les systèmes autonomes ===== ===== Tolérance aux fautes systèmique pour les systèmes autonomes =====
  
-Les mécanismes déclaratifs, notamment d'intelligence artificielle, sont nécessaires pour le développment des systèmes autonomes car ils permettent de traiter un grand nombre de problèmes grâce à leur robustesse. Ils se distinguent ainsi des mécanismes impératifs traditionnels qui demandent à décrire exhaustivement les comportements désirés du système. Cependantpour être utilisés dans des applications critiques (voitures et véhicules autonomes, par exemple), les mécanismes déclaratifs ont besoin de donner une confiance justifiée dans leur comportement correctce qui est encore actuellement impossible.+Les systèmes autonomesde par leur complexité et la multitude de mécanismes impératifs et déclaratifs qui les composentsont confrontés à des comportements émergentsc'est-à-dire des comportements qui n'étaient pas prévus par leurs concepteurs et qui apparaissent suite aux interactions entre différents sous-composants. Nous proposons une approche systémique basée sur un composant indépendant de sécurité afin de limiter les défaillances dues à ces comportements émergents ainsi qu'à d'éventuelles erreurs dans les décisions des mécanismes déclaratifs de systèmes autonomes complexesvoire de systèmes de systèmes.
  
-Les travaux mis en place sur cet axe de travail ont pour but de proposer des méthodes permettant d'améliorer la confiance envers les mécanismes déclaratifs, notamment les réseaux de neuronesCes méthodes sont principalement basées sur la diversification et la vérificaiton formelle.+Le composant indépendant de sécurité, souvent nommé Safety-Bag, vérifie en cours d'opération du système que les commandes appliquées sont conformes à différentes propriétés de sécuritéNos travaux proposent l'utilisation de méthodes complémentaires pour définir ces propriétés et valident leur efficacité sur la plateforme VILAD du laboratoire Heudiasyc.
  
 ==== Activités de recherche ==== ==== Activités de recherche ====

Outils pour utilisateurs