Donnons un sens à l'innovation

Chaire industrielle SAFE AI

Chaire indus­trielle en IA de con­fi­ance « Appren­tis­sage pru­dent et robuste pour une intel­li­gence arti­fi­cielle plus sûre (SAFE AI) ».

Présentation

SAFE AI est un pro­gramme de recherche sur 5 ans porté par son tit­u­laire, Sébastien Dester­cke (CR CNRS au lab­o­ra­toire Heudi­asyc de l’UTC), la Fon­da­tion UTC pour l’in­no­va­tion, SOPRA STERIA, l’u­ni­ver­sité de tech­nolo­gie de Compiègne,le CNRS et SCAI (The Sor­bonne Cen­ter for Arti­fi­cial Intelligence).

Thématique

La chaire est cen­trée sur l’IA de con­fi­ance (SAFE AI en anglais), et plus pré­cisé­ment l’IA sure et robuste. 

La notion d’IA de con­fi­ance regroupe plusieurs élé­ments : la trans­parence, l’éthique, l’ex­plic­a­bil­ité et enfin la sureté et la robustesse. En une phrase, l’IA sure et robuste revient à quan­ti­fi­er l’in­cer­ti­tude des pré­dic­tions, mod­èles et don­nées pour garan­tir la fia­bil­ité des sys­tèmes d’IA. Celle-ci est pri­mor­diale dans beau­coup d’en­jeux indus­triels et soci­aux : détec­tion des défauts d’usi­nage, des obsta­cles face à un trans­port autonome, de con­di­tions médi­cales d’un patient, …

La chaire per­met d’as­sur­er un con­tin­u­um entre la recherche académique et les débouchés appli­cat­ifs. Pour réalis­er cet objec­tif, la chaire regroupe en plus du lab­o­ra­toire Heudi­asyc, spé­cial­iste en raison­nement dans l’in­cer­tain et en trans­port autonome intel­li­gent, et du lab­o­ra­toire LMAC, spé­cial­iste en math­é­ma­tiques appliquées, trois lab­o­ra­toires por­teurs de champs d’ap­pli­ca­tion en lien avec le pro­jet sci­en­tifique de la chaire.

Il s’ag­it des lab­o­ra­toires Rober­val, spé­cial­isé dans la mécanique et l’in­dus­trie 4.0 ; BMBI spé­cial­isé dans la bio-mécanique et l’e-san­té ; Avenues spé­cial­isée dans la ville intel­li­gente et le génie urbain.

Dans le cadre du pro­gramme de la chaire, un ingénieur de recherche va être recruté, dont l’une des mis­sions prin­ci­pales sera de met­tre en œuvre des cas d’é­tudes pour aller jusqu’au pro­to­ty­page, voire plus.

Un des indices de réus­site à terme sera d’ailleurs la créa­tion d’un pôle d’ingénierie ou de start-up issues de ces travaux. In fine cela créé un écosys­tème béné­fique à tout le monde.

Axes de recherche

La chaire com­bine des actions de recherche amonts pour dévelop­per de nou­veaux out­ils d’IA capa­bles de répon­dre aux prob­lèmes exis­tants ou futurs que ren­con­treront leur appli­ca­tion, à des actions de mise en œuvre et d’innovation sur des cas d’études.

Axe 1 : Prédictions sûres et fiables

L’enjeu de cet axe de recherche est de pou­voir prédire des pré­dic­tions dont le taux d’erreur est garan­ti, dans l’objectif d’augmenter la con­fi­ance dans les mod­èles et d’avancer vers une cer­ti­fi­ca­tion de ces derniers. 

En par­ti­c­uli­er, cet axe se focalise sur les prob­lèmes de fournir de telles garanties pour chaque indi­vidu , et non pas en moyenne, et de les pro­duire dans des espaces de pré­dic­tions com­plex­es (prob­lèmes inclu­ant une dimen­sion tem­porelle, images, …).

Mots-clés

  • Cal­i­bra­tion
  • Garantie sta­tis­tiques
  • Quan­tifi­ca­tion d’incertitude
  • Pré­dic­tion conformelle
  • Appren­tis­sage avec abstention

Domaines applicatifs explorés

  • Indus­trie 4.0. (pré­dic­tion de défauts)
  • Trans­ports autonomes (recon­nais­sance d’obstacle)
  • Villes intel­li­gentes et énergie (pré­dic­tion de con­som­ma­tions futures)
  • San­té (diag­nos­tic médical)

Axe 2 : Modèles robustes

L’enjeu de cet axe de recherche est d’obtenir des mod­èles robustes à l’imperfection des don­nées disponibles (« small and bad » data plutôt que « big ») ou au fait que l’environnement de déploiement dif­fère de l’environnement d’apprentissage du mod­èle, par exem­ple lors d’un pas­sage de la sim­u­la­tion (in-sil­i­co) ou d’un envi­ron­nement con­trôlé (in-vit­ro) vers un envi­ron­nement réel (in-vivo), ou encore lorsque de nou­velles class­es non-présentes à l’apprentissage apparaissent.

Mots-clés :

  • Appren­tis­sage par transfert,
  • Opti­mi­sa­tion robuste
  • Auto-appren­tis­sage
  • Trans­port optimal
  • Don­nées man­quantes ou partielles
  • Détec­tion d’anomalies/nouveauté

Domaines applicatifs explorés :

  • Con­duite autonome et drones (sim­u­la­tion à com­mande en sit­u­a­tion réelle)
  • San­té (mod­èle à patient)
  • Indus­trie 4.0. (détec­tion de nou­veau défauts)

Axe 3 : Apprentissage collaboratif

L’enjeu de cet axe est d’améliorer la qual­ité des mod­èles, soit via une col­lab­o­ra­tion mod­èle-mod­èle (par exem­ple des mod­èles s’appuyant sur dif­férentes modal­ités ou mesures), soit via une col­lab­o­ra­tion mod­èle-humain (en sol­lic­i­tant l’expert de manière per­ti­nente et limitée).

Mots-clés :

  • Co-appren­tis­sage
  • Auto-appren­tis­sage
  • Appren­tis­sage actif
  • Fusion de classifieurs

Domaines applicatifs explorés :

  • E‑santé (smart home)
  • Ville et trans­ports intel­li­gents (cap­teurs mul­ti­ples avec pos­si­bles  défaillance/absence).

Équipe

Le por­teur sci­en­tifique de la chaire SAFE IA est Sébastien Dester­cke, chargé de recherche CNRS au lab­o­ra­toire Heudi­asyc de l’UTC (UMR UTC CNRS 7253).

Sa spé­cial­ité : la quan­tifi­ca­tion d’in­cer­ti­tudes et le raison­nement dans l’in­cer­tain, notam­ment dans les don­nées et l’IA. Il tra­vaille au sein du lab­o­ra­toire Heudi­asyc (Heuris­tique et Diag­nos­tic des Sys­tèmes Com­plex­es-UMR CNRS – 7253) qui opère dans le domaine des sci­ences de l’in­for­ma­tion et du numérique, notam­ment l’in­for­ma­tique, l’au­toma­tique, la robo­t­ique et l’in­tel­li­gence artificielle.

La chaire asso­cie égale­ment plusieurs enseignants-chercheurs des lab­o­ra­toires de recherche de l’UTC :

  • BMBI : Bio­Mé­canique et Bio­Ingénierie-BMBI (UMR 7338)
  • LMAC : Math­é­ma­tiques Appliquées de Com­piègne (EA 2222)
  • AVENUES :Mod­éli­sa­tion mul­ti-échelle des sys­tèmes urbains (EA 7284)Modélisation mul­ti-échelle des sys­tèmes urbains(EA 7284)
  • ROBERVAL : Mécanique, énergie et électricité

Partenaires

SAFE AI rassem­ble 5 partenaires :

  • Fon­da­tion UTC pour l’innovation
  • SOPRA STERIA, mécène fon­da­teur de la Fon­da­tion UTC pour l’innovation
  • SCAI (The Sor­bonne Cen­ter for Arti­fi­cial Intelligence)
  • CNRS (Cen­tre Nation­al de la Recherche Scientifique)
  • UTC (uni­ver­sité de tech­nolo­gie de Compiègne)

Actualités

Vu-Linh Nguyen a été recruté en tant que Chaire Pro­fesseur Junior dans le lab­o­ra­toire et l’équipe, et a rejoint les mem­bres de la chaire. Linh tra­vaille sur de nom­breuses thé­ma­tiques en lien avec l’IA de con­fi­ance: appren­tis­sage act­if en présence de peu de don­nées, pré­dic­tion pru­dente pour des prob­lèmes struc­turés (mul­ti-label, rank­ing, multi-tâches).

Linh tra­vaillera entre autre sur l’ap­pren­tis­sage de mod­èles mul­ti-dimen­sion­nels pru­dents et inter­préta­bles, ain­si que sur l’ex­plic­a­bil­ité des mod­èles d’IA.

La chaire est heureuse d’avoir soutenu la con­férence DA2PL, qui a réu­nit des spé­cial­istes inter­na­tionaux à la croisée de l’aide à la déci­sion et de l’ap­pren­tis­sage des préférences, des thé­ma­tiques essen­tiels pour mieux com­pren­dre et for­malis­er les besoins des util­isa­teurs d’IA.

Le 14 Octo­bre, Sébastien Dester­ck a été invité à présen­ter les travaux de la chaire sur la ges­tion de l’in­cer­ti­tude en appren­tis­sage au sein de la ses­sion « IA de con­fi­ance » des journées du GDR IA.

Le 20 Octo­bre, Sébastien Dester­cke a été invité à présen­ter les dif­férents enjeux du traite­ment de l’in­cer­ti­tude en appren­tis­sage, lors des journées du Labex DIGISCOME

Le 26 août, Sébastien Dester­cke a pu présen­ter une par­tie des axes sci­en­tifiques de la chaire lors d’un exposé invité à la con­férence COPA (Sym­po­sium on Con­for­mal and Prob­a­bilis­tic Pre­dic­tion with Appli­ca­tions), la con­férence inter­na­tionale sur la pré­dic­tion conforme.

Cette présen­ta­tion s’ac­com­pa­gne d’un arti­cle syn­thé­tique con­cer­nant le prob­lème de l’ap­pren­tis­sage à par­tir de don­nées imprécises.

La chaire a été présen­tée dans le mag­a­zine inter­ac­tion 57 de l’UTC. Vous pou­vez retrou­ver l’ar­ti­cle en cli­quant ici,.

Le 11 mai, Sébastien a fait une présen­ta­tion dans le cadre des sémi­naires de l’IRT Sys­temX et de confiance.ai. Ce sémi­naire a porté à la fois sur des travaux déjà réal­isés et en cours con­cer­nant le prob­lème de l’ap­pren­tis­sage à par­tir de don­nées incer­taines. Cela a été l’oc­ca­sion de met­tre en avant les défis que représente cette prob­lé­ma­tique, aus­si que le fait que mod­élis­er l’in­cer­ti­tude dans les don­nées peut per­me­t­tre d’amélior­er sig­ni­fica­tive­ment la qual­ité et la sûreté des mod­èles appris par des méth­odes d’IA. Vous pou­vez retrou­ver les infos con­cer­nant ce sémi­naire en cli­quant ici.

La chaire a été présen­tée dans le numéro du mois de mars de Dig­i­tal Lovers, un mag­a­zine édité par Sopra/Steria sur le monde du numérique. Le numéro présente entre autres les objec­tifs de l’en­tre­prise en terme d’in­tel­li­gence artificielle.Vous pou­vez con­sul­ter le numéro en cli­quant ici

Patrick Dupin, Prési­dent de la Fon­da­tion UTC pour l’innovation et Mohammed Sijel­mas­si, CTO Sopra Ste­ria ont offi­cielle­ment lancé la créa­tion de la Chaire indus­trielle « Appren­tis­sage pru­dent et robuste pour une IA plus sûre (SAFE IA) » jeu­di 3 févri­er 2022 en présence de Christophe Guy, directeur de l’UTC dans les locaux de Sopra Ste­ria à Paris.

twitter-squarelinkedin-squarephone-squareenvelopeyoutube-square