Donnons un sens à l'innovation

SAFE AI Industrial Chair

SAFE AI Indus­tri­al Chair

Pru­dent and Robust Learn­ing for Safer Arti­fi­cial Intel­li­gence (SAFE AI)

Presentation

SAFE AI is a 5‑year research pro­gram led by its hold­er, Sébastien Dester­cke (CNRS Researcher at the Heudi­asyc lab­o­ra­to­ry of UTC), the UTC Foun­da­tion for Inno­va­tion, SOPRA STERIA, the Uni­ver­si­ty of Tech­nol­o­gy of Com­piègne, CNRS, and SCAI (The Sor­bonne Cen­ter for Arti­fi­cial Intelligence).

Theme

The chair is cen­tered on Trust­ed AI (SAFE AI in Eng­lish), specif­i­cal­ly on reli­able and robust AI.

The con­cept of Trust­ed AI encom­pass­es sev­er­al ele­ments: trans­paren­cy, ethics, explain­abil­i­ty, and final­ly safe­ty and robust­ness. In essence, reli­able and robust AI involves quan­ti­fy­ing the uncer­tain­ty of pre­dic­tions, mod­els, and data to ensure the reli­a­bil­i­ty of AI sys­tems. This is cru­cial in many indus­tri­al and social con­texts: detect­ing machin­ing defects, obsta­cles in autonomous trans­porta­tion, med­ical con­di­tions of patients, etc.

The chair aims to ensure a con­tin­u­um between aca­d­e­m­ic research and prac­ti­cal appli­ca­tions. To achieve this goal, in addi­tion to the Heudi­asyc lab­o­ra­to­ry, spe­cial­ized in uncer­tain rea­son­ing and intel­li­gent autonomous trans­porta­tion, and the LMAC lab­o­ra­to­ry, spe­cial­ized in applied math­e­mat­ics, the chair col­lab­o­rates with three lab­o­ra­to­ries focus­ing on appli­ca­tion fields relat­ed to the sci­en­tif­ic project of the chair.

These lab­o­ra­to­ries are Rober­val, spe­cial­ized in mechan­ics and indus­try 4.0; BMBI spe­cial­ized in bio­me­chan­ics and e‑health; Avenues spe­cial­ized in smart cities and urban engineering.

As part of the chair’s pro­gram, a research engi­neer will be recruit­ed, whose main mis­sion will be to imple­ment case stud­ies lead­ing to pro­to­typ­ing, and pos­si­bly beyond.

One of the indi­ca­tors of suc­cess in the long term will be the cre­ation of an engi­neer­ing hub or star­tups result­ing from these efforts. Ulti­mate­ly, this cre­ates a ben­e­fi­cial ecosys­tem for every­one involved.

Research topics

The chair com­bines upstream research actions to devel­op new AI tools capa­ble of address­ing exist­ing or future prob­lems encoun­tered in their appli­ca­tion, with imple­men­ta­tion and inno­va­tion actions on case studies.

Axis 1: Safe and Reliable Predictions

The chal­lenge of this research axis is to make pre­dic­tions with guar­an­teed error rates, aim­ing to increase con­fi­dence in the mod­els and move towards their certification.

In par­tic­u­lar, this axis focus­es on pro­vid­ing such guar­an­tees for each indi­vid­ual, rather than on aver­age, and pro­duc­ing them in com­plex pre­dic­tion spaces (prob­lems includ­ing a tem­po­ral dimen­sion, images, etc.).

Keywords

  • Cal­i­bra­tion
  • Sta­tis­ti­cal guarantees
  • Uncer­tain­ty quantification
  • Con­for­mal prediction
  • Learn­ing with abstention

Explored Application Domains

  • Indus­try 4.0 (defect prediction)
  • Autonomous trans­porta­tion (obsta­cle recognition)
  • Smart cities and ener­gy (pre­dic­tion of future consumption)
  • Health­care (med­ical diagnosis)

Axis 2: Robust Models

The chal­lenge of this research axis is to obtain mod­els robust to imper­fect avail­able data (« small and bad » data rather than « big ») or to the fact that the deploy­ment envi­ron­ment dif­fers from the mod­el’s learn­ing envi­ron­ment. For exam­ple, when tran­si­tion­ing from sim­u­la­tion (in-sil­i­co) or con­trolled envi­ron­ment (in-vit­ro) to a real envi­ron­ment (in-vivo), or when new class­es not present dur­ing train­ing appear.

Keywords

  • Trans­fer learning
  • Robust opti­miza­tion
  • Self-learn­ing
  • Opti­mal transport
  • Miss­ing or par­tial data
  • Anomaly/detection nov­el­ty

Explored Application Domains:

  • Autonomous dri­ving and drones (sim­u­la­tion to real-world control)
  • Health­care (patient-spe­cif­ic models)
  • Indus­try 4.0 (detec­tion of new defects)

Axis 3: Collaborative Learning

The chal­lenge of this axis is to improve mod­el qual­i­ty, either through mod­el-mod­el col­lab­o­ra­tion (e.g., mod­els rely­ing on dif­fer­ent modal­i­ties or mea­sure­ments) or through mod­el-human col­lab­o­ra­tion (by solic­it­ing expert input in a rel­e­vant and lim­it­ed manner).

Keywords

  • Co-learn­ing
  • Self-learn­ing
  • Active learn­ing
  • Clas­si­fi­er fusion

Explored Application Domains:

  • E‑health (smart home)
  • Smart city and trans­porta­tion (mul­ti­ple sen­sors with pos­si­ble failure/absence).

Équipe

Le por­teur sci­en­tifique de la chaire SAFE IA est Sébastien Dester­cke, chargé de recherche CNRS au lab­o­ra­toire Heudi­asyc de l’UTC (UMR UTC CNRS 7253).

Sa spé­cial­ité : la quan­tifi­ca­tion d’in­cer­ti­tudes et le raison­nement dans l’in­cer­tain, notam­ment dans les don­nées et l’IA. Il tra­vaille au sein du lab­o­ra­toire Heudi­asyc (Heuris­tique et Diag­nos­tic des Sys­tèmes Com­plex­es-UMR CNRS – 7253) qui opère dans le domaine des sci­ences de l’in­for­ma­tion et du numérique, notam­ment l’in­for­ma­tique, l’au­toma­tique, la robo­t­ique et l’in­tel­li­gence artificielle.

La chaire asso­cie égale­ment plusieurs enseignants-chercheurs des lab­o­ra­toires de recherche de l’UTC :

  • BMBI : Bio­Mé­canique et Bio­Ingénierie-BMBI (UMR 7338)
  • LMAC : Math­é­ma­tiques Appliquées de Com­piègne (EA 2222)
  • AVENUES :Mod­éli­sa­tion mul­ti-échelle des sys­tèmes urbains (EA 7284)Modélisation mul­ti-échelle des sys­tèmes urbains(EA 7284)
  • ROBERVAL : Mécanique, énergie et électricité

Partners

SAFE AI brings togeth­er 5 partners:

  • UTC Foun­da­tion for Innovation
  • SOPRA STERIA, found­ing patron of the UTC Foun­da­tion for Innovation
  • SCAI (The Sor­bonne Cen­ter for Arti­fi­cial Intelligence)
  • CNRS (French Nation­al Cen­ter for Sci­en­tif­ic Research)
  • UTC (Uni­ver­si­ty of Tech­nol­o­gy of Compiègne)

News

Vu-Linh Nguyen a été recruté en tant que Chaire Pro­fesseur Junior dans le lab­o­ra­toire et l’équipe, et a rejoint les mem­bres de la chaire. Linh tra­vaille sur de nom­breuses thé­ma­tiques en lien avec l’IA de con­fi­ance: appren­tis­sage act­if en présence de peu de don­nées, pré­dic­tion pru­dente pour des prob­lèmes struc­turés (mul­ti-label, rank­ing, multi-tâches).

Linh tra­vaillera entre autre sur l’ap­pren­tis­sage de mod­èles mul­ti-dimen­sion­nels pru­dents et inter­préta­bles, ain­si que sur l’ex­plic­a­bil­ité des mod­èles d’IA.

La chaire est heureuse d’avoir soutenu la con­férence DA2PL, qui a réu­nit des spé­cial­istes inter­na­tionaux à la croisée de l’aide à la déci­sion et de l’ap­pren­tis­sage des préférences, des thé­ma­tiques essen­tiels pour mieux com­pren­dre et for­malis­er les besoins des util­isa­teurs d’IA.

Le 14 Octo­bre, Sébastien Dester­ck a été invité à présen­ter les travaux de la chaire sur la ges­tion de l’in­cer­ti­tude en appren­tis­sage au sein de la ses­sion « IA de con­fi­ance » des journées du GDR IA.

Le 20 Octo­bre, Sébastien Dester­cke a été invité à présen­ter les dif­férents enjeux du traite­ment de l’in­cer­ti­tude en appren­tis­sage, lors des journées du Labex DIGISCOME

Le 26 août, Sébastien Dester­cke a pu présen­ter une par­tie des axes sci­en­tifiques de la chaire lors d’un exposé invité à la con­férence COPA (Sym­po­sium on Con­for­mal and Prob­a­bilis­tic Pre­dic­tion with Appli­ca­tions), la con­férence inter­na­tionale sur la pré­dic­tion conforme.

Cette présen­ta­tion s’ac­com­pa­gne d’un arti­cle syn­thé­tique con­cer­nant le prob­lème de l’ap­pren­tis­sage à par­tir de don­nées imprécises.

La chaire a été présen­tée dans le mag­a­zine inter­ac­tion 57 de l’UTC. Vous pou­vez retrou­ver l’ar­ti­cle en cli­quant ici,.

Le 11 mai, Sébastien a fait une présen­ta­tion dans le cadre des sémi­naires de l’IRT Sys­temX et de confiance.ai. Ce sémi­naire a porté à la fois sur des travaux déjà réal­isés et en cours con­cer­nant le prob­lème de l’ap­pren­tis­sage à par­tir de don­nées incer­taines. Cela a été l’oc­ca­sion de met­tre en avant les défis que représente cette prob­lé­ma­tique, aus­si que le fait que mod­élis­er l’in­cer­ti­tude dans les don­nées peut per­me­t­tre d’amélior­er sig­ni­fica­tive­ment la qual­ité et la sûreté des mod­èles appris par des méth­odes d’IA. Vous pou­vez retrou­ver les infos con­cer­nant ce sémi­naire en cli­quant ici.

La chaire a été présen­tée dans le numéro du mois de mars de Dig­i­tal Lovers, un mag­a­zine édité par Sopra/Steria sur le monde du numérique. Le numéro présente entre autres les objec­tifs de l’en­tre­prise en terme d’in­tel­li­gence artificielle.Vous pou­vez con­sul­ter le numéro en cli­quant ici

Patrick Dupin, Prési­dent de la Fon­da­tion UTC pour l’innovation et Mohammed Sijel­mas­si, CTO Sopra Ste­ria ont offi­cielle­ment lancé la créa­tion de la Chaire indus­trielle « Appren­tis­sage pru­dent et robuste pour une IA plus sûre (SAFE IA) » jeu­di 3 févri­er 2022 en présence de Christophe Guy, directeur de l’UTC dans les locaux de Sopra Ste­ria à Paris.

CONTACT

Por­teur sci­en­tifique | Sébastien Dester­cke
Tél : 03 44 23 79 85
Mail : sebastien.destercke@hds.utc.fr