Chaire industrielle SAFE AI

Chaire industrielle en IA de confiance "Apprentissage prudent et robuste pour une intelligence artificielle plus sûre (SAFE AI)"

SAFE IA est un programme de recherche sur 5 ans porté par son titulaire, Sébastien Destercke (CR CNRS au laboratoire Heudiasyc de l'UTC), la Fondation UTC pour l'innovation, SOPRA STERIA, l'université de technologie de Compiègne,le CNRS et SCAI (The Sorbonne Center for Artificial Intelligence).

La chaire est centrée sur l'IA de confiance (SAFE AI en anglais), et plus précisément l'IA sure et robuste. 

La notion d'IA de confiance regroupe plusieurs éléments : la transparence, l'éthique, l'explicabilité et enfin la sureté et la robustesse. En une phrase, l'IA sure et robuste revient à quantifier l'incertitude des prédictions, modèles et données pour garantir la fiabilité des systèmes d'IA. Celle-ci est primordiale dans beaucoup d'enjeux industriels et sociaux : détection des défauts d'usinage, des obstacles face à un transport autonome, de conditions médicales d'un patient, ...

La chaire permet d'assurer un continuum entre la recherche académique et les débouchés applicatifs. Pour réaliser cet objectif, la chaire regroupe en plus du laboratoire Heudiasyc, spécialiste en raisonnement dans l'incertain et en transport autonome intelligent, et du laboratoire LMAC, spécialiste en mathématiques appliquées, trois laboratoires porteurs de champs d'application en lien avec le projet scientifique de la chaire.

Il s'agit des laboratoires Roberval, spécialisé dans la mécanique et l'industrie 4.0 ; BMBI spécialisé dans la bio-mécanique et l'e-santé ; Avenues spécialisée dans la ville intelligente et le génie urbain.

Dans le cadre du programme de la chaire, un ingénieur de recherche va être recruté, dont l'une des missions principales sera de mettre en œuvre des cas d'études pour aller jusqu'au prototypage, voire plus.

Un des indices de réussite à terme sera d'ailleurs la création d'un pôle d'ingénierie ou de start-up issues de ces travaux. In fine cela créé un écosystème bénéfique à tout le monde.

La chaire combine des actions de recherche amonts pour développer de nouveaux outils d’IA capables de répondre aux problèmes existants ou futurs que rencontreront leur application, à des actions de mise en œuvre et d’innovation sur des cas d’études.

L’enjeu de cet axe de recherche est de pouvoir prédire des prédictions dont le taux d’erreur est garanti, dans l’objectif d’augmenter la confiance dans les modèles et d’avancer vers une certification de ces derniers. En particulier, cet axe se focalise sur les problèmes de fournir de telles garanties pour chaque individu , et non pas en moyenne, et de les produire dans des espaces de prédictions complexes (problèmes incluant une dimension temporelle, images, …).

Mots-clés

  • Calibration
  • Garantie statistiques
  • Quantification d’incertitude
  • Prédiction conformelle
  • Apprentissage avec abstention

Domaines applicatifs explorés

  • Industrie 4.0. (prédiction de défauts)
  • Transports autonomes (reconnaissance d’obstacle)
  • Villes intelligentes et énergie (prédiction de consommations futures)
  • Santé (diagnostic médical)

 

 

 

L’enjeu de cet axe de recherche est d’obtenir des modèles robustes à l’imperfection des données disponibles (« small and bad » data plutôt que « big ») ou au fait que l’environnement de déploiement diffère de l’environnement d’apprentissage du modèle, par exemple lors d’un passage de la simulation (in-silico) ou d’un environnement contrôlé (in-vitro) vers un environnement réel (in-vivo), ou encore lorsque de nouvelles classes non-présentes à l’apprentissage apparaissent.

 

Mots-clés :

  • Apprentissage par transfert,
  • Optimisation robuste
  • Auto-apprentissage
  • Transport optimal
  • Données manquantes ou partielles
  • Détection d’anomalies/nouveauté

Domaines applicatifs explorés :

  • Conduite autonome et drones (simulation à commande en situation réelle)
  • Santé (modèle à patient)
  • Industrie 4.0. (détection de nouveau défauts)

L’enjeu de cet axe est d’améliorer la qualité des modèles, soit via une collaboration modèle-modèle (par exemple des modèles s’appuyant sur différentes modalités ou mesures), soit via une collaboration modèle-humain (en sollicitant l’expert de manière pertinente et limitée).

Mots-clés :

  • Co-apprentissage
  • Auto-apprentissage
  • Apprentissage actif
  • Fusion de classifieurs

Domaines applicatifs explorés :

  • E-santé (smart home)
  • Ville et transports intelligents (capteurs multiples avec possibles  défaillance/absence).

 

 

 

Le porteur scientifique de la chaire SAFE IA est Sébastien Destercke, chargé de recherche CNRS au laboratoire Heudiasyc de l'UTC (UMR UTC CNRS 7253).

Sa spécialité : la quantification d'incertitudes et le raisonnement dans l'incertain, notamment dans les données et l'IA. Il travaille au sein du laboratoire Heudiasyc (Heuristique et Diagnostic des Systèmes Complexes-UMR CNRS - 7253) qui opère dans le domaine des sciences de l'information et du numérique, notamment l'informatique, l'automatique, la robotique et l'intelligence artificielle.

La chaire associe également plusieurs enseignants-chercheurs des laboratoires de recherche de l'UTC :

  • BMBI : BioMécanique et BioIngénierie-BMBI (UMR 7338)
  • LMAC : Mathématiques Appliquées de Compiègne (EA 2222)
  • AVENUES :Modélisation multi-échelle des systèmes urbains (EA 7284)Modélisation multi-échelle des systèmes urbains(EA 7284)
  • ROBERVAL : Mécanique, énergie et électricité

SAFE AI rassemble 5 partenaires :

  • Fondation UTC pour l'innovation
  • SOPRA STERIA, mécène fondateur de la Fondation UTC pour l'innovation
  • SCAI (The Sorbonne Center for Artificial Intelligence)
  • CNRS (Centre National de la Recherche Scientifique)
  • UTC (université de technologie de Compiègne)


Le 11 mai, Sébastien a fait une présentation dans le cadre des séminaires de l'IRT SystemX et de confiance.ai. Ce séminaire a porté à la fois sur des travaux déjà réalisés et en cours concernant le problème de l'apprentissage à partir de données incertaines. Cela a été l'occasion de mettre en avant les défis que représente cette problématique, aussi que le fait que modéliser l'incertitude dans les données peut permettre d'améliorer significativement la qualité et la sûreté des modèles appris par des méthodes d'IA. Vous pouvez retrouver les infos concernant ce séminaire en cliquant ici.

La chaire a été présentée dans le numéro du mois de mars de Digital Lovers, un magazine édité par Sopra/Steria sur le monde du numérique. Le numéro présente entre autres les objectifs de l'entreprise en terme d'intelligence artificielle.Vous pouvez consulter le numéro en cliquant ici

Patrick Dupin, Président de la Fondation UTC pour l’innovation et Mohammed Sijelmassi, CTO Sopra Steria ont officiellement lancé la création de la Chaire industrielle « Apprentissage prudent et robuste pour une IA plus sûre (SAFE IA) » jeudi 3 février 2022 en présence de Christophe Guy, directeur de l’UTC dans les locaux de Sopra Steria à Paris.

 

Contact

Porteur scientifique
Sébastien Destercke
Tél : 03 44 23 46 45 | Contacter par mail