Donnons un sens à l'innovation

Séminaires équipe CID

  • 22/04/2025 – Anh Vu TUAN
    Max­i­mal­i­ty and E‑admissibility are arguably two of the most impor­tant cri­te­ria in deci­sion-mak­ing with impre­cise prob­a­bil­i­ty. How­ev­er, their appli­ca­tion in opti­miza­tion remains lim­it­ed. In my the­sis, I apply these cri­te­ria to a broad class of opti­miza­tion prob­lems with uncer­tain objec­tives, aim­ing to com­pare and select non-dom­i­nat­ed solu­tions. The main con­tri­bu­tion is that these solu­tions can be char­ac­ter­ized using well-known con­cepts in opti­miza­tion, which in turn lead to sev­er­al com­pu­ta­tion­al­ly tractable results.
  • 25/03/2025 – Eric WÜRBEL
    « Eval­u­a­tion expériemen­tale des opéra­teurs de change­ment de croyance »
  • 11/02/2025 – Méli­na VERGER
    Ma thèse a con­sisté à quan­ti­fi­er, qual­i­fi­er et réduire l’iniq­ui­té algo­rith­mique issue des mod­èles d’ap­pren­tis­sage automa­tique. En édu­ca­tion, de tels mod­èles sont util­isés dans le but d’amélior­er l’ex­péri­ence d’ap­pren­tis­sage humain (e.g., prédire le décrochage sco­laire, per­son­nalis­er les con­tenus péd­a­gogiques). Or, ces mod­èles fondés sur les don­nées présen­tent des biais, sou­vent en défaveur de groupes his­torique­ment défa­vorisés.
    Ain­si, j’ai conçu une mesure inter­prétable, MADD, pour appro­fondir l’é­val­u­a­tion de ces iniq­ui­tés. De plus, j’ai dévelop­pé une méth­ode de réduc­tion de l’iniq­ui­té util­isant la MADD, ain­si que de nou­velles méth­odes d’é­val­u­a­tion pour pren­dre en compte ce qu’on appelle les « dis­crim­i­na­tions inter­sec­tion­nelles ».
    Des expéri­ences menées dans divers con­textes édu­cat­ifs et démo­graphiques (Afrique, Philip­pines, Haïti, Roy­aume-Uni, France) ont per­mis de révéler des iniq­ui­tés algo­rith­miques non détec­tées par les méth­odes exis­tantes. Enfin, une librairie Python, mad­dlib, a été créée pour utilis­er toutes ces méth­odes facilement.



08/10/2024 – Jür­gen Lan­des : Assess­ing Infer­ence to the Best Expla­na­tion Pos­te­ri­ors for the Esti­ma­tion of Eco­nom­ic Agent-Based Mod­els
- Explana­to­ry rela­tion­ships between data and hypothe­ses have been sug­gest­ed to play a role in the for­ma­tion of pos­te­ri­or prob­a­bil­i­ties. This sug­ges­tion was test­ed in a toy envi­ron­ment and sup­port­ed by sim­u­la­tions by Glass. We here put for­ward a vari­ety of infer­ence to the best expla­na­tion approach­es for deter­min­ing pos­te­ri­or prob­a­bil­i­ties by inter­twin­ing Bayesian and infer­ence to the best expla­na­tion approach­es. We then sim­u­late their per­for­mances for esti­ma­tion of para­me­ters in the Brock and Hommes agent based mod­el. We find that per­for­mances depend on cir­cum­stances and the eval­u­a­tion met­ric. How­ev­er, most of the time our sug­gest­ed approach­es out­per­form the Bayesian approach.

12/09/2024 – Vis­it of JC Schoe­mann, lec­tur­er at Stel­len­bosch Uni­ver­si­ty in South Africa
Part 1 – Intro­duc­tion, pur­pose of vis­it and overview of research:
I will first intro­duce Stel­len­bosch Uni­ver­si­ty and our research lab, includ­ing a brief overview of some past projects. I will then elab­o­rate on the pur­pose of my vis­it, before pro­vid­ing a one-slide sum­ma­ry of three per­son­al projects, name­ly degen­er­ate Gauss­ian dis­tri­b­u­tions, local­ly adap­tive Bayesian opti­miza­tion and mul­ti-agent rein­force­ment learn­ing. This will be fol­lowed by a research pro­pos­al into a uni­fi­ca­tion of mod­el- and data-based approach­es for autonomous dri­ving.
Part 2 – Degen­er­ate Gaus­sians, Bayesian opti­miza­tion and rein­force­ment learn­ing:
This talk will be divid­ed into three sec­tions to address the top­ics that I already intro­duced briefly. The first will look at extend­ing the capa­bil­i­ties of Gauss­ian infer­ence to set­tings where the covari­ance matrix is sin­gu­lar. The sec­ond improves on Bayesian opti­miza­tion using Gauss­ian process­es and results in a black box opti­miza­tion algo­rithm that per­forms very well com­pared to the cur­rent state of the art. Final­ly, I will dis­cuss rein­force­ment learn­ing in the con­text of mul­ti-play­er strat­e­gy games with par­tial infor­ma­tion and lim­it­ed communication.

19/09/2024 Kim-Dung Tran: Ten­sor Decom­po­si­tion and Its Appli­ca­tions in Machine Learn­ing
In mul­ti­lin­ear alge­bra, whose basic role is played by the con­cepts of a ten­sor prod­uct, a ten­sor on a vec­tor space and a mul­ti­lin­ear form, a ten­sor decom­po­si­tion (TD) is any scheme for express­ing “data ten­sor” (M‑way array) as a sequence of ele­men­tary oper­a­tions act­ing on oth­ers, often sim­pler ten­sors. TD has found promis­ing appli­ca­tions in dif­fer­ent domains and recent­ly been con­jec­tured as a key play­er in shap­ing a next gen­er­a­tion of deep learn­ing tech­niques. Con­cise­ly, under cer­tain con­di­tions, a giv­en fam­i­ly of neur­al net­works can be approximated/expressed using a fam­i­ly of ten­sorized neur­al net­works with pos­si­bly much small­er num­bers of para­me­ters. In this project, we aim to devel­op scal­able prob­a­bilis­tic clas­si­fiers for high dimen­sion­al objects such as images, video and speech; and scal­able ensem­ble learn­ing meth­ods for high-dimen­sion­al objects. Fur­ther­more, we incor­po­rate the achieved results into the devel­op­ment of “prob­a­bilis­tic mul­ti-dimen­sion­al clas­si­fi­ca­tion”, which is an on-going project at the Heudi­asyc laboratory.

02/07/2024 – SYRI and CID Col­lab­o­ra­tive Work­shop
- Sta­tis­ti­cal guar­an­tees for object detec­tion
- Har­ness­ing Super­class­es for Learn­ing from Hier­ar­chi­cal Data­bas­es
- Enhanc­ing Local­iza­tion through Per­cep­tion: Appli­ca­tions of Vec­tor Maps
- Intro­duc­tion à des archi­tec­tures de réseaux de neu­rone de traite­ment des événe­ments
- Esti­ma­tions d’in­cer­ti­tudes pour le cal­i­brage entre cap­teurs par appren­tis­sage pro­fond
- Présen­ta­tion de début de thèse: Esti­ma­tion de l’in­cer­ti­tude et de l’in­tégrité pour les sys­tèmes de per­cep­tion basés sur l’ap­pren­tis­sage automatique

30/05/2024 – Nico­las Schreud­er : Fair­ness in machine learn­ing: a study of the Demo­graph­ic Par­i­ty con­straint
In var­i­ous domains, sta­tis­ti­cal algo­rithms trained on per­son­al data take piv­otal deci­sions which influ­ence our lives on a dai­ly basis. Recent stud­ies show that a naive use of these algo­rithms in sen­si­tive domains may lead to unfair and dis­crim­i­nat­ing deci­sions, often inher­it­ing or even ampli­fy­ing bias­es present in data. In the first part of the talk, I will intro­duce and dis­cuss the ques­tion of fair­ness in machine learn­ing through con­crete exam­ples of bias­es com­ing from the data and/or from the algo­rithms. In a sec­ond part, I will demon­strate how sta­tis­ti­cal learn­ing the­o­ry can help us bet­ter under­stand and over­come some of those bias­es. In par­tic­u­lar, I will present a selec­tion of recent results from two of my papers on the Demo­graph­ic Par­i­ty con­straint, a pop­u­lar fair­ness con­straint. In par­tic­u­lar I will describe an inter­est­ing link between this con­straint and opti­mal trans­port theory.

28/05/2024 – Uliss­es Bra­ga-Neto : Recent Progress in Train­ing PDE-Con­strained Deep Neur­al Net­works
Sci­en­tif­ic machine learn­ing (SciML) is a promis­ing new field that com­bines sci­en­tif­ic com­pu­ta­tion and machine learn­ing to achieve results that nei­ther one can sep­a­rate­ly. PDE-con­strained deep neur­al net­works are a core SciML tech­nol­o­gy, which has been deployed in a vari­ety of sci­en­tif­ic and engi­neer­ing prob­lems with remark­able suc­cess. The best-known algo­rithm in this class is the so-called physics-informed neur­al net­work (PINN). How­ev­er, PINNs are based on min­i­miz­ing a com­plex mul­ti-objec­tive loss func­tion, which often makes train­ing these net­works dif­fi­cult. In this talk, we present new approach­es that can address this issue. The first is the Self-Adap­tive PINN (SA-PINN), which weights each data point in the mul­ti-objec­tive loss func­tion, in such a way that the weight increas­es if the cor­re­spond­ing loss increas­es. Anoth­er approach we have pro­posed is the char­ac­ter­is­tic-informed neur­al net­work (CINN), which com­plete­ly does away with the mul­ti-objec­tive loss func­tion, by imbed­ding a hyper­bol­ic PDE in the neur­al net­work archi­tec­ture itself. We also show how par­ti­cle swarm opti­miza­tion can be used to train PINNs with quan­ti­fied uncer­tain­ty and briefly describe an adap­tive arti­fi­cial vis­cos­i­ty approach to deal­ing with PDEs with shocks. Final­ly, we intend to describe briefly ongo­ing activ­i­ties and mul­ti­dis­ci­pli­nary research efforts at the SciML Lab of the Texas A&M Insti­tute of Data Sci­ence (TAMIDS).

17/05/2024 – Mohamed-Amine Abrache
« Inno­va­tions dans les Envi­ron­nements Infor­ma­tiques d’Ap­pren­tis­sage : De l’Op­ti­mi­sa­tion de l’É­val­u­a­tion par les Pairs à l’Usage de la Réal­ité Virtuelle« 

Cette présen­ta­tion met en lumière des travaux de recherche por­tant sur des approches inno­vantes pour la répar­ti­tion des tâch­es d’é­val­u­a­tion par les pairs dans les envi­ron­nements d’ap­pren­tis­sage infor­ma­tisés, util­isant des tech­niques d’ap­pren­tis­sage automa­tique et d’op­ti­mi­sa­tion com­bi­na­toire. Un pro­jet com­plé­men­taire sera égale­ment abor­dé, trai­tant de la con­cep­tion d’un agent d’in­ter­ven­tion péd­a­gogique visant à stim­uler la moti­va­tion des apprenants par l’analyse des traces d’ap­pren­tis­sage. Enfin, la présen­ta­tion se con­clu­ra par des résul­tats con­cer­nant le développe­ment d’une plate­forme d’ap­pren­tis­sage virtuel dédiée à l’ap­pli­ca­tion de pro­to­coles d’ex­péri­men­ta­tion ani­male. Ces travaux illus­trent le poten­tiel des tech­nolo­gies éduca­tives pour l’ap­pren­tis­sage et la formation.

16/05/2024 – Cédric Buron : Pren­dre une déci­sion: de la pre­scrip­tion à la mod­éli­sa­tion
Com­ment prenons-nous des déci­sions ? Cette ques­tion peut être posée sous plusieurs angles. Dans ce sémi­naire, nous abor­derons plusieurs manières de voir cette prob­lé­ma­tique. Nous abor­derons dans un pre­mier temps des approches pre­scrip­tives, nor­ma­tives, s’ap­puyant sur des notions de math­é­ma­tiques et pré­sup­posant une cer­taine ratio­nal­ité de la part des agents, soit pour un con­cep­teur d’un mécan­isme afin de créer une inci­ta­tion à agir selon une cer­taine stratégie à l’aide des mécan­ismes d’inci­ta­tion, soit au con­traire pour trou­ver la stratégie opti­male étant don­né un cer­tain cadre d’ac­tion grâce à la théorie des jeux com­pu­ta­tion­nelle, à tra­vers l’ex­em­ple de la négo­ci­a­tion automa­tique. Nous nous intéresserons ensuite à la con­struc­tion de cette ratio­nal­ité à par­tir de l’ex­per­tise humaine au moyen d’outils issus de l’aide à la déci­sion mul­ti­critères avant de remet­tre en cause la notion même de ratio­nal­ité en présen­tant des pro­jets de mod­éli­sa­tion de com­porte­ments humains à la fron­tière des sci­ences humaines et sociales, en par­ti­c­uli­er dans des cas où le pré­sup­posé de ratio­nal­ité math­é­ma­tique ne s’ap­plique pas.

10/05/2024 – Rai­di Ktari
« Toward cred­i­ble belief base revi­sion« 

This pre­sen­ta­tion deals with belief base revi­sion, a form of belief change which con­sists in restor­ing con­sis­ten­cy with the inten­tion of incor­po­rat­ing a new piece of infor­ma­tion from the envi­ron­ment, while min­i­mal­ly mod­i­fy­ing the agen­t’s belief state rep­re­sent­ed by a finite set of propo­si­tion­al for­mu­las. In an effort to guar­an­tee more reli­a­bil­i­ty and ratio­nal­i­ty for real appli­ca­tions while per­form­ing revi­sion, we come up with the idea of cred­i­ble belief base revi­sion. We define two new for­mu­la-based revi­sion oper­a­tors using tools offered by evi­dence the­o­ry (also known as Belief Func­tion The­o­ry). These oper­a­tors stem from con­sis­tent sub-bases max­i­mal with respect to cred­i­bil­i­ty instead of set inclu­sion or cardinality.

07/05/2024 – Jin­feng Zhong
« When fac­tor­iza­tion meets argu­men­ta­tion: towards argu­men­ta­tive expla­na­tions for rec­om­men­da­tions« 

Exist­ing rec­om­mender sys­tems fre­quent­ly uti­lize fac­tor­iza­tion-based mod­els, which are known for their effi­cien­cy in pre­dict­ing rat­ings. How­ev­er, the explic­it seman­tics of the latent fac­tors they learn are not always clear, com­pli­cat­ing the task of explain­ing the rec­om­men­da­tions. In con­trast, argu­men­ta­tion-based meth­ods have emerged as a sig­nif­i­cant tool in the realm of explain­able arti­fi­cial intel­li­gence. In response, we pro­pose a nov­el frame­work that syn­er­gizes fac­tor­iza­tion-based meth­ods with argu­men­ta­tion frame­works (AFs). The inte­gra­tion of AFs pro­vides clear seman­tics at each stage of the frame­work, enabling it to pro­duce eas­i­ly under­stand­able expla­na­tions for its rec­om­men­da­tions. In this frame­work, for every user-item inter­ac­tion, an AF is defined in which the fea­tures of items are con­sid­ered as argu­ments, and the users » rat­ings towards these fea­tures deter­mine the strength of these argu­ments. This per­spec­tive allows our frame­work to treat fea­ture attri­bu­tion as a struc­tured argu­men­ta­tion pro­ce­dure, where each cal­cu­la­tion is marked with explic­it seman­tics, enhanc­ing its inher­ent inter­pretabil­i­ty. Addi­tion­al­ly, our frame­work seam­less­ly incor­po­rates side infor­ma­tion, such as user con­texts, lead­ing to more accu­rate pre­dic­tions. We antic­i­pate at least three prac­ti­cal appli­ca­tions for our frame­work: cre­at­ing expla­na­tion tem­plates, pro­vid­ing inter­ac­tive expla­na­tions, and gen­er­at­ing con­trastive expla­na­tions. Through test­ing on real-world datasets, we have found that our frame­work, along with its vari­ants, not only sur­pass­es exist­ing argu­men­ta­tion-based meth­ods but also com­petes effec­tive­ly with cur­rent con­text-free and con­text-aware methods.

06/05/2024 – Ikram Chraibi Kaadoud
« Com­pren­dre le com­porte­ment des sys­tèmes com­plex­es en util­isant l’in­ter­préta­bil­ité et l’ex­plic­a­bil­ité« 

Au cours du proces­sus d’ap­pren­tis­sage, un humain développe une représen­ta­tion men­tale de la tâche qu’il est en train d’ap­pren­dre, tan­dis qu’un algo­rithme d’ap­pren­tis­sage automa­tique développe une représen­ta­tion latente.
Avec chaque don­née traitée ou nou­veau stim­u­lus, cette représen­ta­tion et ses infor­ma­tions asso­ciées évolu­ent : elle peut être mod­i­fiée ou con­solidée. Cepen­dant, elle reste tou­jours implicite.
Dans cette présen­ta­tion, j’in­tro­duis une méthodolo­gie pour extraire la représen­ta­tion latente et les états latents asso­ciés à un sys­tème don­né à par­tir de don­nées séquen­tielles sous la forme d’un auto­mate à états finis sur deux cas d’u­til­i­sa­tion dif­férents : les réseaux récur­rents avec LSTM dans le con­texte de la mod­éli­sa­tion cog­ni­tive des con­nais­sances d’ex­perts, et les agents autonomes dans le con­texte de la robo­t­ique développe­men­tale.
Ce tra­vail, à l’o­rig­ine dans le domaine de l’in­ter­préta­bil­ité des réseaux de neu­rones récur­rents, a été éten­du et adap­té au domaine de l’ex­plic­a­bil­ité pour fournir des expli­ca­tions locales du com­porte­ment de sys­tèmes com­plex­es, c’est-à-dire une instal­la­tion avec des cap­teurs, sur des plages de temps déter­minées à par­tir de don­nées hétérogènes.
Dans le cadre de ce tra­vail, j’abor­derai égale­ment des ques­tions liées à l’IA explic­a­ble, à l’ac­cept­abil­ité des expli­ca­tions, à l’in­ter­ac­tion homme-machine, à la mod­éli­sa­tion cog­ni­tive et à la robo­t­ique développementale.

16/01/2024 – Ismaïl Baaj
« On the han­dling of incon­scient sys­tems of fuzzy rela­tion­al equa­tions« 

Dans cette présen­ta­tion, j’é­tudie les sys­tèmes d’équa­tions rela­tion­nelles floues incom­pat­i­bles, qui se répar­tis­sent en deux class­es : ceux basés sur la com­po­si­tion max‑T, où T est une t‑norme par­mi le min­i­mum, le pro­duit ou la t‑norme de Lukasiewicz, et ceux basés sur la com­po­si­tion min->, où -> est un impli­ca­teur résidu­el par­mi l’im­pli­ca­tion de Gödel, l’im­pli­ca­tion de Goguen ou l’im­pli­ca­tion de Lukasiewicz. Pour traiter l’in­com­pat­i­bil­ité de ces sys­tèmes, j’étab­lis des for­mules ana­ly­tiques explicites pour cal­culer la dis­tance de Tcheby­shev (définie par la norme L‑infini) entre le sec­ond mem­bre du sys­tème incom­pat­i­ble et l’ensem­ble des sec­onds mem­bres des sys­tèmes com­pat­i­bles défi­nis avec la même matrice : celle du sys­tème incom­pat­i­ble. L’é­tape prin­ci­pale pour obtenir ces for­mules con­siste à mon­tr­er que la dis­tance de Tcheby­shev est déter­minée par une iné­gal­ité vec­to­rielle. Les for­mules obtenues m’ont per­mis d’é­tudi­er l’ensem­ble des approx­i­ma­tions de Tcheby­shev du sec­ond mem­bre d’un sys­tème incom­pat­i­ble, les solu­tions approx­i­ma­tives d’un sys­tème incom­pat­i­ble et les sous-sys­tèmes com­pat­i­bles max­i­maux d’un sys­tème incom­pat­i­ble. Ces out­ils peu­vent être utiles pour des appli­ca­tions basées sur les sys­tèmes d’équa­tions rela­tion­nelles floues, telles que les mémoires asso­cia­tives ou l’ap­pren­tis­sage des paramètres des règles d’un sys­tème à base de règles possibilistes.

  • 28/02/2023 - Quentin Cap­part (MCF Plytech­nique Mon­tréal)
    « Learn­ing to bound using deci­sion dia­grams and rein­force­ment learning »
  • 19/06/2023Maxime Vail­lant, Hugo Mar­tin  (étu­di­ants mas­ter UTC, stages Orange Labs)
    « Spik­ing Neur­al Net­works: an introduction »
  • 5/09/2023Yara Maher Gomaa
    « Intro­duc­tion to PhD Thesis:Gamified E‑Learning Sys­tems Based on Ontolo­gies: Teach­ing Perspective
  • 12/09/2023Jür­gen Lan­des (MCF uni­ver­sité de Milan)
    « An Objec­tive Bayesian Approach to KR »
  • 26/09/2023Elise Per­rotin (post­doc au CRIL à Lens sur la logique épistémique)
    « Light­weight epis­temic log­ic, plan­ning, and more »
  • 26/10/2023- Insaf Seti­tra
    « Appren­tis­sage automa­tique, appren­tis­sage pro­fond et vision par ordi­na­teur et leurs applications »
  • 31/10/2023Naci­ra Abbas
    « For­mal Con­cept Analy­sis for Dis­cov­er­ing Link Keys in the Web of Data »
  • 7/11/2023Alessan­dro Leite
    « Lever­ag­ing Evo­lu­tion­ary-based Approach­es for Inter­pretable Machine Learning »
  • 14/11/2023Mali­ka Ben Khal­i­fa
    « Deal­ing with uncer­tain­ty in fake reviews detec­tion with­in the belief function »
  • 16/11/2023 – Ikram Chraibi Kaadoud
    « Com­pren­dre le com­porte­ment des sys­tèmes com­plex­es en util­isant l’in­ter­préta­bil­ité et l’explicabilité »
  • 27/11/2023Jür­gen Lan­des (MCF uni­ver­sité de Milan)
    « The Quest for Good Information »
  • 21/11/2023Soundouss Mes­sou­di
    « Con­for­mal uncer­tain­ty sets using foun­da­tion models »

Thier­ry Denoeux

Pro­fesseur à l’U­ni­ver­sité de Com­piègne, Heudiasyc

Le mer­cre­di 22 jan­vi­er à 14H, en amphithéa­tre Bessel

Abstract:

The Demp­ster-Shafer the­o­ry of belief func­tions is a for­mal frame­work for mod­el­ing and rea­son­ing with uncer­tain­ty. It is based on the rep­re­sen­ta­tion of inde­pen­dent pieces of evi­dence by belief func­tions, and on their com­bi­na­tion by an oper­a­tor called Dempster’s rule. In this talk, we show that the weight­ed sum and soft­max oper­a­tions per­formed in logis­tic regres­sion clas­si­fiers and, for instance, in the out­put lay­er of feed­for­ward neur­al net­works can be inter­pret­ed in terms of evi­dence aggre­ga­tion using Demp­ster’s rule of com­bi­na­tion. From that per­spec­tive, the out­put prob­a­bil­i­ties com­put­ed by such clas­si­fiers (includ­ing also sup­port vec­tor machines) can be seen as being derived from  some belief func­tions, which can be laid bare and used for deci­sion mak­ing or clas­si­fi­er fusion. This find­ing sug­gests that the links between machine learn­ing and belief func­tions are clos­er than is usu­al­ly assumed, and that Demp­ster-Shafer the­o­ry pro­vides a suit­able frame­work for devel­op­ing new machine learn­ing algorithms.

Sébastien Konieczny

Directeur de Recherche CNRS, CRIL (Cen­tre de Recherche en Infor­ma­tique de Lens)

Le mar­di 3 décem­bre 2019 à 14H, en GI 16

Résumé: Nous présen­tons la plate-forme www.coscinus.org. Cette plate-forme per­met, à par­tir de l’analyse des don­nées issues de DBLP, de déter­min­er des prox­im­ités entre sup­ports de pub­li­ca­tion (con­férences et jour­naux) en infor­ma­tique, et de faire appa­raître des domaines de la dis­ci­pline en réal­isant un par­ti­tion­nement des sup­ports. L’idée étant que deux sup­ports sont con­sid­érés comme proches si de nom­breux auteurs pub­lient con­join­te­ment dans ces deux sup­ports. On peut donc obtenir une carte de la dis­ci­pline basée unique­ment sur les habi­tudes de pub­li­ca­tion des auteurs. Nous présen­tons ensuite un out­il per­me­t­tant d’i­den­ti­fi­er des experts dans un domaine (plus exacte­ment nous iden­ti­fions les auteurs qui pub­lient le plus dans le voisi­nage d’un sup­port don­né), ain­si qu’un out­il per­me­t­tant d’i­den­ti­fi­er des experts cor­re­spon­dant à un auteur don­né. Ce dernier out­il peut être vu comme un cas par­ti­c­uli­er d’une prob­lé­ma­tique plus générale qui est d’i­den­ti­fi­er quels sont les meilleurs élé­ments, étant don­né un élé­ment cible.

Sébastien Dester­cke

GI42, 14h

Heudi­asyc Laboratory

This sem­i­nar will con­tain two short talks, recent­ly giv­en in dif­fer­ent conferences.

The first talk will con­cern an impre­cise prob­a­bilis­tic mod­el to nav­i­gate through an uncer­tain occu­pa­tion grid, with an illus­tra­tive appli­ca­tion to autonomous vehicles.

The sec­ond talk will con­cern the prob­lem of pre­dict­ing a set of clus­ter­ings from a rela­tion­al matrix where infor­ma­tion on the pos­si­ble rela­tions are pro­vid­ed by scores.

Lucie Jacquin

Doc­tor­ante, cen­tre LGI2P (Lab­o­ra­toire de Génie Infor­ma­tique et d’Ingénierie de Pro­duc­tion)

Le mer­cre­di 16 Octo­bre 2019 à 10h30, en GI 42

Résumé: Besides eco­log­i­cal issues, the recy­cling of plas­tics involves eco­nom­ic incen­tives that encour­age indus­tri­al firms to invest in the field. Some of them have focused on the waste sort­ing phase by design­ing opti­cal devices able to dis­crim­i­nate on-line between plas­tic cat­e­gories. To achieve both eco­log­i­cal and eco­nom­ic objec­tives, sort­ing errors must be min­i­mized to avoid seri­ous recy­cling prob­lems and sig­nif­i­cant qual­i­ty degra­da­tion of the final recy­cled prod­uct. Even with the most recent acqui­si­tion tech­nolo­gies based on spec­tral imag­ing, plas­tic recog­ni­tion remains a tough task due to the pres­ence of impre­ci­sion and uncer­tain­ty, e.g. vari­abil­i­ty in mea­sure­ment due to atmos­pher­ic dis­tur­bances, age­ing of plas­tics, black or dark-coloured mate­ri­als etc. The enhance­ment of recent sort­ing tech­niques based on clas­si­fi­ca­tion algo­rithms has led to quite good per­for­mance results, how­ev­er the remain­ing errors have seri­ous con­se­quences for such appli­ca­tions. We pro­pose an impre­cise clas­si­fi­ca­tion algo­rithm to min­i­mize the sort­ing errors of stan­dard clas­si­fiers when deal­ing with incom­plete data, by both inte­grat­ing the pro­cess­ing of clas­si­fi­ca­tion doubt and hes­i­ta­tion in the deci­sion process and improv­ing the clas­si­fi­ca­tion per­for­mances. To this end, we pro­pose a rela­belling pro­ce­dure that enables bet­ter rep­re­sen­ta­tion of the impre­ci­sion of the learn­ing data, and we intro­duce the belief func­tions frame­work to rep­re­sent the pos­te­ri­or prob­a­bil­i­ty pro­vid­ed by a clas­si­fi­er. Final­ly, the per­for­mances of our approach com­pared to exist­ing impre­cise clas­si­fiers is illus­trat­ed on the sort­ing prob­lem of four plas­tic cat­e­gories from mid-wave­length infrared spec­tra acquired in an indus­tri­al context.

Alix Goudyme

Doc­tor­ant, CRIL (Cen­tre de recherche en Infor­ma­tique de Lens)

Le mar­di 1er Octo­bre 2019 à 14h, en GI 41

Résumé: Mod­élis­er l’in­ten­tion per­met d’ex­pli­quer les déci­sions pris­es par des agents. Dans ce tra­vail, nous pro­posons une mod­éli­sa­tion de l’in­ten­tion dans des jeux épistémiques représen­tés en logique épistémique dynamique. Étant don­nées une pro­priété et une suite d’ac­tions déjà réal­isée par un joueur dans un tel jeu, nous pro­posons une méth­ode capa­ble de déter­min­er si le joueur a eu l’in­ten­tion d’obtenir cette pro­priété.
Un exem­ple de l’u­til­i­sa­tion de cette méth­ode est don­né en util­isant une ver­sion sim­pli­fiée du jeu col­lab­o­ratif Hanabi.

Yonatan Car­los Alarcon

Doc­tor­ant, Uni­ver­sité de Tech­nolo­gie de Compiègne

Le lun­di 16 sep­tem­bre 2019 à 11h, en GI 42

Résumé: Ce sémi­naire présen­tera les derniers travaux de thèse de Yonatan, por­tant notam­ment sur les prob­lèmes d’ap­pren­tis­sage de mod­èles pru­dents à sor­ties struc­turées, notam­ment pour les prob­lèmes de pré­dic­tions de range­ment ou multi-étiquettes.

Frédéric Pichon

Maître de con­férence, Uni­ver­sité d’Artois

Le lun­di 16 sep­tem­bre 2019 à 14h, en GI 42

Résumé: La fusion d’in­for­ma­tions est un proces­sus dont l’ob­jec­tif est d’ex­traire une con­nais­sance véridique et aus­si fine que pos­si­ble à pro­pos d’une entité d’in­térêt, étant don­né des infor­ma­tions incer­taines provenant de sources de qual­ité vari­able. Dans un pre­mier temps, nous ver­rons que la théorie des fonc­tions de croy­ance est par­ti­c­ulière­ment adap­tée à ce prob­lème. Une approche générale pour la fusion fondée sur une mod­éli­sa­tion des con­nais­sances sur la qual­ité des sources sera notam­ment présen­tée, ain­si que quelques résul­tats asso­ciés dont une nou­velle décom­po­si­tion canon­ique des fonc­tions de croy­ance. Dans un deux­ième temps, le prob­lème de la com­para­i­son d’in­for­ma­tions incer­taines sera abor­dé. Une général­i­sa­tion de la notion de spé­cial­i­sa­tion, qui étend l’in­clu­sion entre ensem­bles aux fonc­tions de croy­ance et qui per­met donc la com­para­i­son de leur con­tenu infor­ma­tion­nel, sera présen­tée. Cette général­i­sa­tion con­stitue un moyen d’é­ten­dre toute rela­tion entre ensem­bles aux fonc­tions de croy­ance. Enfin, quelques exem­ples issus d’ap­pli­ca­tions vien­dront illus­tr­er ces divers­es contributions.

Gabriel Frisch

Doc­tor­ant, Uni­ver­sité de Tech­nolo­gie de Compiègne

Le mar­di 28 mai 2019 à 14h, en GI 42

Résumé: Nous présen­tons un mod­èle sta­tis­tique basé sur le Latent  Block Mod­el (LBM, une méth­ode de coclus­ter­ing) pour réalis­er une  recom­man­da­tion sociale. Le mod­èle utilise des vari­ables latentes pour
mod­élis­er un proces­sus de man­que­ment de don­née de type Not Miss­ing At Ran­dom (NMAR)

Jer­ry Lonlac

Post-doc­tor­ant, IMT Lille Douai

Le mer­cre­di 22 mai à 14h, en GI42

Abstract: Dans cet exposé décom­posé en deux par­ties, je présen­terai mes travaux autour de la Sat­is­fi­a­bil­ité en logique propo­si­tion­nelle et de la fouille de don­nées, en faisant ressor­tir les liens pou­vant exis­ter entre-elles.

Dans la pre­mière par­tie, je com­mencerai par intro­duire briève­ment le prob­lème de la Sat­is­fi­a­bil­ité propo­si­tion­nelle qui est un prob­lème fon­da­men­tal en théorie de la com­plex­ité. Ensuite, je mon­tr­erai com­ment intro­duire un point de vue basé sur les préférences des util­isa­teurs dans la réso­lu­tion SAT à par­tir d’une stratégie de sup­pres­sion de claus­es appris­es (expli­ca­tions des dif­férents con­flits) fondée sur une
rela­tion de dom­i­nance entre claus­es apprises.

Dans la deux­ième par­tie, je me focalis­erai tout d’abord sur le prob­lème de fouille de motifs gradu­els. Les motifs gradu­els qui mod­élisent les co-vari­a­tions com­plex­es d’at­trib­uts de la forme « plus/moins A, plus/moins B »; jouent un rôle pri­mor­dial dans plusieurs appli­ca­tions du monde réel où le vol­ume de don­nées numériques à gér­er est impor­tant, c’est le cas de don­nées biologiques ou de don­nées médi­cales. Ces motifs peu­vent con­stituer un moyen de pren­dre en compte l’incertitude dans les co-vari­a­tions de valeurs d’attributs. Par la suite, je présen­terai une nou­velle for­mu­la­tion du prob­lème de fouille de motifs gradu­els comme une tâche de fouille de motifs séquen­tiels. Cette réduc­tion orig­i­nale per­met d’exploiter les algo­rithmes de fouille de motifs séquen­tiels pour extraire les motifs gradu­els et de sur­mon­ter quelques lim­i­ta­tions des approches de la littérature.

Enfin, je mon­tr­erai à tra­vers une mod­éli­sa­tion par con­traintes du prob­lème de fouille de motifs gradu­els com­ment rechercher les motifs gradu­els en util­isant la Sat­is­fi­a­bil­ité Propositionnelle.

Xavier Par­ent

Chercheur post-doc­tor­al, Uni­ver­sité du Lux­em­bourg, Fac­ul­ty of Sci­ence, Tech­nol­o­gy and Communication

Le mar­di 21 mai 2019 à 14h, en GI 42

Résumé: Les logiques non-monot­o­nes et les logiques des con­di­tion­nels ont été dévelop­pées par les chercheurs en IA pour ren­dre compte du raison­nement en sit­u­a­tion d’in­cer­ti­tude. La base de con­nais­sance con­tient des énon­cés con­di­tion­nels (« si… alors … ») exp­ri­mant des règles générales sujettes à excep­tions.  On s’in­téresse ici aux logiques des con­di­tion­nels dans leur ver­sion dite « déon­tique », où  le con­di­tion­nel exprime une oblig­a­tion. Le mod­èle est de type qual­i­tatif ou ordi­nal, et repose sur l’usage d’une rela­tion de préférence com­para­nt deux alter­na­tives.  Cette approche de type qual­i­ta­tive se veut « généralis­er »  l’ap­proche de type quan­ti­ta­tive, reposant sur la manip­u­la­tion de nom­bres, ou d’u­til­ités.

Dans cet exposé, je présen­terai le résul­tat d’un pro­jet qui vise à iden­ti­fi­er les dif­férentes axioma­tiques  que l’on obtient en jouant sur deux fac­teurs. Tout d’abord, on peut faire vari­er les pro­priétés de la rela­tion de préférence: réflex­iv­ité, tran­si­tiv­ité, total­ité, lim­it assump­tion. Ensuite, on peut jouer sur la dis­tinc­tion (faîte en théorie du choix rationnel) entre élé­ment max­i­mal et élé­ment opti­mal.

Si le temps le per­met, je décrirais égale­ment un tra­vail en cours d’au­toma­ti­sa­tion de ces logiques via Isabelle/HOL–collaboration avec C. Benz­mueller (Uni­ver­sité Libre de Berlin)

Khaled Belahcène

Post-doc­tor­ant, Nutri­omics laboratory

Le jeu­di 16 mai à 14h, en GI42

Abstract: Le mod­èle addi­tif con­stitue le vais­seau ami­ral des procé­dures visant à agréger des points de vues mul­ti­ples, voire con­flictuels, que ce soit en déci­sion mul­ti­critères, en choix social, ou en appren­tis­sage automa­tique. Sa sim­plic­ité tech­nique incite à penser qu’il s’agit d’un mod­èle « inter­prétable ». Nous chercherons à réalis­er ce poten­tiel, en allant jusqu’à l’interprétation, de cette procé­dure d’agrégation des préférences, dans un cadre robuste vis-à-vis de l’aspect incom­plet de l’information.

Bib­li­ogra­phie:

Belahcene, Khaled, et al. Explain­ing robust addi­tive util­i­ty mod­els by sequences of pref­er­ence swaps. The­o­ry and Deci­sion 82.2 (2017): 151–183.

Belahcene, Khaled, et al. Com­par­ing options with argu­ment schemes pow­ered by can­cel­la­tion. IJCAI 2019

Mar­tin Dieguez

Chercheur post-doc­tor­al, Ecole Nationale d’Ingénieurs de Brest, Lab-STICC

Le mar­di 14 mai 2019 à 14h, en GI 42

Résumé: Answer Set Pro­gram­ming (ASP) est une forme de pro­gram­ma­tion déclar­a­tive ori­en­tée vers les prob­lèmes de recherche dif­fi­ciles (prin­ci­pale­ment NP-dif­fi­ciles). ASP a été util­isé avec suc­cès dans des domaines tels que la représen­ta­tion des con­nais­sances (KR), la pro­gram­ma­tion logique et le raison­nement automa­tique. Dans cet exposé, je présen­terai plusieurs exten­sions d’ASP qui per­me­t­tent d’utiliser ce for­mal­isme pour représen­ter et raison­ner sur dif­férents types de scé­nar­ios tels que robo­t­ique, réal­ité virtuelle, inté­gra­tion des con­naî­sances, plan­i­fi­ca­tion, diag­nose, sys­tèmes biologiques ou scé­nar­ios con­tenant des infor­ma­tions incertaines.

Abstract: Answer Set Pro­gram­ming (ASP) is a form of declar­a­tive pro­gram­ming ori­ent­ed towards dif­fi­cult (pri­mar­i­ly NP-hard) search prob­lems. ASP has been suc­cess­ful­ly used in areas such as Knowl­edge Rep­re­sen­ta­tion (KR), Log­ic Pro­gram­ming and Auto­mat­ed Rea­son­ing. In this talk I will present sev­er­al recent of ASP that allow using this for­mal­ism for rep­re­sent­ing and rea­son­ing on dif­fer­ent types of sce­nar­ios such as robot­ics, vir­tu­al real­i­ty, knowl­edge inte­gra­tion, plan­ning, diag­no­sis, bio­log­i­cal sys­tems or sce­nar­ios with uncer­tain information.

Christophe Ambroise

Pro­fesseur, Uni­ver­sité d’Évry Val d’Es­sonne, Lab­o­ra­toire de Math­é­ma­tiques et Mod­éli­sa­tion d’Évry

Le mar­di 9 Avril à 15h, en GI 42

Abstract: The behav­ior of eco­log­i­cal sys­tems main­ly relies on the inter­ac­tions between the species it involves. In many sit­u­a­tions, these inter­ac­tions are not observed and have to be inferred from species abun­dance data. To be rel­e­vant, any recon­struc­tion net­work method­ol­o­gy needs to han­dle count data and to account for pos­si­ble envi­ron­men­tal effects. It also needs to dis­tin­guish between direct and indi­rect inter­ac­tions and graph­i­cal mod­els pro­vide a con­ve­nient frame­work for this purpose.

We intro­duce a gener­ic sta­tis­ti­cal mod­el for net­work recon­struc­tion based on abun­dance data. The mod­el includes fixed effects to account for envi­ron­men­tal covari­ates and sam­pling efforts, and cor­re­lat­ed ran­dom effects to encode species inter­ac­tions. The inferred net­work is obtained by aver­ag­ing over all pos­si­ble tree-shaped (and there­fore sparse) net­works, in a com­pu­ta­tion­al­ly effi­cient man­ner. An out­put of the pro­ce­dure is the prob­a­bil­i­ty for each edge to be part of the under­ly­ing network. 

A sim­u­la­tion study shows that the pro­posed method­ol­o­gy com­pares well with state-of-art approach­es, even when the under­ly­ing net­work strong­ly dif­fers from a tree. The analy­sis of two data sets high­lights the influ­ence of covari­ates on the inferred network.

Prakash Shenoy

Pro­fesseur, Kansas Uni­ver­si­ty, School of business

Le mar­di 2 Avril à 14h, en amphi Gauss

Abstract: I will present some of the the­o­ry and appli­ca­tions of graph­i­cal mod­els using Demp­ster-Shafer­’s (DS) belief func­tion the­o­ry. To empha­size the com­mon­al­i­ties with prob­a­bilis­tic graph­i­cal mod­els, I will first describe the abstract frame­work of val­u­a­tion-based sys­tems, which includes prob­a­bil­i­ty the­o­ry and DS belief func­tion the­o­ry. Next, I will describe the basics of DS belief func­tion the­o­ry, and illus­trate the def­i­n­i­tions using the cap­tain’s prob­lem from Almond’s 1995 mono­graph titled « Graph­i­cal Belief Mod­el­ing. » Using the cap­tain’s prob­lem, I will describe local com­pu­ta­tion in com­put­ing mar­gin­als of joint belief func­tion. This algo­rithm is imple­ment­ed in Belief Func­tion Machine (BFM), an open source Mat­lab code for constructing/solving graph­i­cal mod­els in DS belief func­tions. I will demon­strate the use of BFM in solv­ing the Cap­tain’s prob­lem, the chest clin­ic Bayes net exam­ple from Lau­ritzen-Spiegel­hal­ter’s 1988 arti­cle in JRSS, and a large com­mu­ni­ca­tion net­work reli­a­bil­i­ty exam­ple described in Haen­ni-Lehman­n’s 2002 arti­cle in IJAR.

Amélie Lev­ray

Post-doc­tor­ante, Uni­ver­sité d’Ed­im­burgh, School of informatics

Le mar­di 26 mars à 14h, en GI 42

Abstract: Large-scale prob­a­bilis­tic rep­re­sen­ta­tions, includ­ing sta­tis­ti­cal  knowl­edge bases and graph­i­cal mod­els, are increas­ing­ly in demand. They  are built by min­ing mas­sive sources of struc­tured and unstruc­tured  data, the lat­ter often derived from nat­ur­al lan­guage pro­cess­ing  tech­niques. The very nature of the  enter­prise makes the extract­ed  rep­re­sen­ta­tions prob­a­bilis­tic. In par­tic­u­lar, induc­ing rela­tions and  facts from noisy and incom­plete sources via sta­tis­ti­cal machine  learn­ing mod­els means that the labels are either already  prob­a­bilis­tic, or that prob­a­bil­i­ties approx­i­mate con­fi­dence. While the  progress is impres­sive,  extract­ed rep­re­sen­ta­tions essen­tial­ly enforce  the closed-world assump­tion, which means that all facts in the  data­base are accord­ed the cor­re­spond­ing prob­a­bil­i­ty, but all oth­er  facts have prob­a­bil­i­ty zero. The CWA is deeply prob­lem­at­ic in most  machine learn­ing con­texts. A prin­ci­pled solu­tion is need­ed for  rep­re­sent­ing incom­plete and inde­ter­mi­nate knowl­edge in such mod­els,  impre­cise prob­a­bil­i­ty mod­els such as credal net­works being an exam­ple. In this work, we are inter­est­ed in the foun­da­tion­al prob­lem of  learn­ing such open-world prob­a­bilis­tic mod­els. How­ev­er, since exact  infer­ence in prob­a­bilis­tic graph­i­cal mod­els is intractable, the  par­a­digm of tractable learn­ing has emerged to learn data struc­tures  (such as arith­metic cir­cuits) that sup­port effi­cient prob­a­bilis­tic  query­ing. We show here how the com­pu­ta­tion­al machin­ery under­ly­ing  tractable learn­ing and infer­ence has to be gen­er­alised for impre­cise  prob­a­bil­i­ties. Our empir­i­cal eval­u­a­tions demon­strate that our regime  is also effective.

Khaled Belahcène

Post-doc­tor­ant, Nutri­omics laboratory

Le mar­di 12 mars à 14h, en amphi Gauss (bâti­ment G du cen­tre de recherche)

Abstract: Nous cher­chons à équiper un proces­sus d’aide à la déci­sion d’outils per­me­t­tant de répon­dre aux exi­gences de redev­abil­ité. Nous faisons l’hypothèse d’un proces­sus dialec­tique entre par­ties prenantes de la déci­sion, ce qui per­met d’envisager l’acquisition d’information sur les préférences ain­si que la pos­si­bil­ité d’interroger le bien-fondé ou la loy­auté de la procé­dure de décision/recommandation, voire d’en con­tester les effets. Tech­nique­ment, nous pro­posons d’étudier l’espace des ver­sions d’un mod­èle d’agrégation des préférences issu de la Théorie de la déci­sion, et de for­muler le prob­lème inverse cor­re­spon­dant. Nous ver­rons com­ment cette for­mu­la­tion per­met de représen­ter l’inférence robuste à l’aide de sché­mas d’arguments, et ain­si pro­duire des expli­ca­tions des recom­man­da­tions, si pos­si­ble cor­rectes, com­plètes, facile à cal­culer et à com­pren­dre. Nous illus­trerons cette approche dans le cadre d’une procé­dure col­lec­tive de tri par approbation.

Arthur Van Camp

Post-doc­tor­ant, Uni­ver­sité de Tech­nolo­gie de Com­piègne, Heudi­asyc (équipe CID)

Le mar­di 5 mars en GI42, à 14h

Abstract:

Impre­cise choice func­tions con­sti­tute a very gen­er­al and sim­ple math­e­mat­i­cal frame­work for mod­el­ling choice under uncer­tain­ty. In par­tic­u­lar, they rep­re­sent the set-val­ued choic­es that typ­i­cal­ly arise from apply­ing deci­sion rules to impre­cise-prob­a­bilis­tic uncer­tain­ty mod­els. Choice func­tions can be giv­en a clear behav­iour­al inter­pre­ta­tion in terms of atti­tudes towards gam­bling.  I will intro­duce choice func­tions as a tool to mod­el uncer­tain­ty, and con­nect them with oth­er, less gen­er­al, belief mod­els used in the the­o­ry of impre­cise prob­a­bil­i­ties, such as sets of desir­able gam­bles, and sets of probabilities.

Marc Cavaz­za

Pro­fesseur, Chef du Départe­ment Infor­ma­tique à l’U­ni­ver­sité de Greenwich

Le mar­di 26 févri­er dans l’am­phi du Cen­tre d’In­no­va­tion, à 14h

Résumé :

Les tech­niques de Nar­ra­tion Inter­ac­tive se sont dévelop­pées depuis les années 2000 prin­ci­pale­ment dans le but de fournir un con­tenu nar­ratif plus évolué aux médias inter­ac­t­ifs, pour des appli­ca­tions plus ludiques qu’éducatives. Avec le développe­ment de représen­ta­tions des con­nais­sances plus sophis­tiquées et d’approches plus cog­ni­tives de la nar­ra­tion, il existe de nou­velles oppor­tu­nités pour utilis­er des tech­niques nar­ra­tives dans le cadre de la sim­u­la­tion et de la for­ma­tion. Cette ten­dance rejoint au niveau nar­ratif le développe­ment du domaine des « Jeux Sérieux ». Nous présen­tons plusieurs exem­ples d’utilisation de tech­niques nar­ra­tives dans des appli­ca­tions non ludiques, basées sur une util­i­sa­tion de tech­niques de plan­i­fi­ca­tion par oper­a­teurs ou par tâches.

Dans le domaine de la for­ma­tion ou de l’éducation des patients, la con­ver­sion de mod­èles en con­nais­sances en frag­ments nar­rat­ifs scé­nar­isés peut être util­isée pour créer une diver­sité de sit­u­a­tions résul­tant de l’interaction entre des con­nais­sances génériques et des don­nées per­son­nelles. Nous présen­terons égale­ment une approche cog­ni­tive de la nar­ra­tion qui vise à con­trôler le phénomène de com­préhen­sion nar­ratif, et qui a pu être util­isée pour explor­er la com­préhen­sion causale chez l’enfant.

Tim­o­th­ée Tabouy

Doc­tor­ant à AgroParisTech

Le mar­di 8 jan­vi­er en GI42, à 14h

Résumé :

The pur­pose here is to deal with non-observed dyads dur­ing the sam­pling of a net­work and con­sec­u­tive issues in the Sto­chas­tic Block Mod­el (SBM) infer­ence. We’ll review sam­pling designs and recov­er Miss­ing At Ran­dom (MAR) and Not Miss­ing At Ran­dom (NMAR) con­di­tions for SBM. We’ll intro­duce sev­er­al vari­ants of the vari­a­tion­al EM (VEM) algo­rithm for infer­ring the SBM under var­i­ous sam­pling designs (MAR and NMAR). Mod­el selec­tion cri­te­ria based on Inte­grat­ed Clas­si­fi­ca­tion Like­li­hood (ICL) are derived for select­ing both the num­ber of blocks and the sam­pling design. We’ll inves­ti­gate the accu­ra­cy and the range of applic­a­bil­i­ty of these algo­rithms with sim­u­la­tions. We’ll final­ly explore one real-world net­works from biol­o­gy (pro­tein-pro­tein inter­ac­tion net­work), where the inter­pre­ta­tions con­sid­er­ably depends on the sam­pling designs considered.

Dester­cke Sébastien

Chercheur CNRS au lab­o­ra­toire Heudiasyc

Le mar­di 22 jan­vi­er 2018 à 14h en GI16

Résumé :

In this talk, we will present a gener­ic mean to han­dle pref­er­ences of an indi­vid­ual user taint­ed with uncer­tain­ty, with belief func­tions used as an uncer­tain­ty mod­el. We will illus­trate the approach on a clas­si­cal weight­ed aver­age. We will dis­cuss the poten­tial inter­ests of such an appraoch, as well as its pos­si­ble limits.

Emmanuel Ramas­so

Maître de con­férence à l’ENS­MM de Besançon

Le jeu­di 20 décem­bre en GI42, à 11h

« Mon­i­tor­ing of engi­neered systems »


Résumé :

The pre­sen­ta­tion will first start with a glob­al view of some mon­i­tor­ing method­olo­gies devel­oped in our team to detect and track a degra­da­tion on engi­neered sys­tems. Illus­tra­tions will con­cern tur­bo­fan engines, rolling bear­ings, milling and car­bon pipes.

The method­olo­gies rely on pat­tern recog­ni­tion algo­rithms ded­i­cat­ed to those appli­ca­tions and fed by time-series and by a pri­ori knowl­edge. One of the com­mon points of those algo­rithms con­cerns the man­age­ment of uncer­tain­ty and for that we used dif­fer­ent formalisms:

  • belief func­tions applied to online learn­ing with evolv­ing models,
  • com­pu­ta­tion­al geom­e­try based on poly­gons for sim­i­lar­i­ty based mon­i­tor­ing and prognostics,
  • and con­sen­sus clus­ter­ing in unsu­per­vised learn­ing for reverse engineering.

The sec­ond part will be ded­i­cat­ed to Evi­den­tial Hid­den Markov Mod­els for the sta­tis­ti­cal rep­re­sen­ta­tion of time-series using belief func­tions. Infer­ence and learn­ing in those mod­els will be detailed and discussed.

Stéphane Car­don

Maître de con­férence à Écoles de Saint-Cyr Coëtquidan

Le mar­di 18 décem­bre 2018 en Amphi Gauss, à 14h

Résumé :

Le pre­mier jeu à avoir util­isé la plan­i­fi­ca­tion comme IA pour ses per­son­nages non joueurs est First Encounter Assault Recon (F.E.A.R) en 2005. Le résul­tat était sai­sis­sant et a incité à se pos­er une ques­tion : Peut-on plan­i­fi­er en temps réel des cen­taines d’IAs dans un jeu ou une sim­u­la­tion tac­tique ? La réponse, en cours de développe­ment et pour l’in­stant pos­i­tive, se base sur un plan­i­fi­ca­teur de type STRIPS et la pro­gram­ma­tion GPU. Cepen­dant, la plan­i­fi­ca­tion ne s’arrête pas là. Avec la bonne mod­éli­sa­tion, elle pour­rait per­me­t­tre de déstruc­tur­er un champ de bataille ou encore pro­pos­er une séquence de cour­tes sim­u­la­tions immer­sives, les deux sit­u­a­tions ayant un but formateur.

Zied Bouraoui

Maître de con­férence à l’u­ni­ver­sité d’Artois

Le mar­di 4 décem­bre en GI42, à 14h

Résumé :

Con­sid­er­able atten­tion has recent­ly been devot­ed to the prob­lem of auto­mat­i­cal­ly extend­ing knowl­edge bases by apply­ing some form of induc­tive rea­son­ing. While the vast major­i­ty of exist­ing work is cen­tred around so-called knowl­edge graphs, in this talk I will con­sid­er a set­ting where the input con­sists of a set of (exis­ten­tial) rules. I will present some Bayesian mod­els to find plau­si­ble miss­ing rules which are inspired by cog­ni­tive mod­els for cat­e­go­ry based induc­tion. Unlike many exist­ing approach­es, we learn rules by direct­ly exploit­ing reg­u­lar­i­ties in the giv­en rule base, and do not require that a data­base with con­cept and rela­tion instances is giv­en. As a result, the pro­posed meth­ods can be applied to a wide vari­ety of ontologies.

Xuhong (Jacques) Li

Doc­tor­ant au lab­o­ra­toire Heudiasyc

Le mar­di 16 octo­bre 2018 à 14h30 en GI42

Résumé :

In induc­tive trans­fer learn­ing, fine-tun­ing pre-trained con­vo­lu­tion­al net­works sub­stan­tial­ly out­per­forms train­ing from scratch. When using fine-tun­ing, the under­ly­ing assump­tion is that the pre-trained mod­el extracts gener­ic fea­tures, which are at least par­tial­ly rel­e­vant for solv­ing the tar­get task, but would be dif­fi­cult to extract from the lim­it­ed amount of data avail­able on the tar­get task. How­ev­er, besides the ini­tial­iza­tion with the pre-trained mod­el and the ear­ly stop­ping, there is no mech­a­nism in fine-tun­ing for retain­ing the fea­tures learned on the source task. In this paper, we inves­ti­gate sev­er­al reg­u­lar­iza­tion schemes that explic­it­ly pro­mote the sim­i­lar­i­ty of the final solu­tion with the ini­tial mod­el. We show the ben­e­fit of hav­ing an explic­it induc­tive bias towards the ini­tial mod­el. We even­tu­al­ly rec­om­mend that the base­line pro­to­col for trans­fer learn­ing should rely on a sim­ple $L^2$ penal­ty using the pre-trained mod­el as a reference.

Yonatan Alar­con

Doc­tor­ant au lab­o­ra­toire Heudiasyc

Le mar­di 16 octo­bre 2018 à 14h00 en GI42

Résumé :

Dans cette présen­ta­tion, nous présen­terons des pre­miers résul­tats con­cer­nant l’ex­ten­sion de l’analyse linéaire dis­crim­i­nante impré­cise (une méth­ode clas­sique d’ap­pren­tis­sage) au cas impré­cis, qui per­met de pro­duire des pré­dic­tions pru­dentes en cas de manque d’in­for­ma­tion et/ou d’in­for­ma­tions con­flictuelles quand à la vraie classe.

Cesar Tacla

Pro­fesseur à Uni­ver­si­dade Tec­no­log­i­ca Fed­er­al Do Parana

Le jeu­di 4 octo­bre 2018 à 10h en GI42

Résumé :

La pre­mière par­tie con­cerne les con­cepts fon­da­men­taux de l’argumentation.

Ensuite, je présente un usage de l’ar­gu­men­ta­tion rhé­torique qui englobe appels, men­aces et récom­pens­es dans des dia­logues entre agents. Il s’ag­it d’un mod­èle pour le cal­cul de la force de argu­ments basé sur l’é­tat de l’ob­jec­tif que l’émet­teur veut attaquer/faire avancer et sur la crédi­bil­ité de l’émet­teur pour accom­plir ses men­aces, récom­pens­es et appellations. 

Le deux­ième usage con­cerne la prise de déci­sion con­sen­suelle. Des agents veu­lent choisir une option entre plusieurs options envis­age­ables (par exem­ple, quel lan­gage de pro­gram­ma­tion pour un cer­tain pro­jet). Chaque agent a sa pro­pre base de croy­ances qui peu­vent amen­er a des argu­ments con­tra­dic­toires lorsque ils dia­loguent a pro­pos d’une option (ex. lan­gage X). A par­tir d’un dia­logue il est pos­si­ble de con­stru­ire un graphe d’at­taques entre les argu­ments. L’op­tion choisie est celle qui a le sup­port des argu­ments les plus forts: ceux qui gar­dent des infor­ma­tions les plus répan­dues par­mi les agents. 

Ines Couso

Le ven­dre­di 28 sep­tem­ber 2018 à 11h en GI42

Pro­fesseur à l’U­ni­ver­sité d’Oviedo

Résumé :

Impre­cise Dirich­let Process-based tests (IDP-tests, for short) have been recent­ly intro­duced in the lit­er­a­ture by Benavoli et al. Those tests over­come the prob­lem of decid­ing how to select a sin­gle pri­or in Bayesian hypoth­e­sis test­ing, in the absence of pri­or infor­ma­tion. They make use of a “near-igno­rance” mod­el, that behaves a pri­ori as a vac­u­ous mod­el for some basic infer­ences, but it pro­vides non-vac­u­ous pos­te­ri­or infer­ences. The authors per­formed an empir­i­cal study com­par­ing the behav­iour of a clas­si­cal fre­quen­tist test and its IDP-based coun­ter­part. They con­clud­ed that IDP-based test are capa­ble of iso­lat­ing instances (sam­ples) where the fre­quen­tist test is vir­tu­al­ly “guess­ing at ran­dom”.  We per­form addi­tion­al empir­i­cal stud­ies that aim at shed­ding more light on the issue. We con­sid­er in par­tic­u­lar the Wilcox­on rank sum test, and its IDP-based exten­sion. We show that the upper and low­er pos­te­ri­or prob­a­bil­i­ties can be expressed as tail prob­a­bil­i­ties based on the val­ue of the U sta­tis­tic, and that there­fore there is a one-to-one cor­re­spon­dence between those upper and low­er prob­a­bil­i­ties and the p‑value of the fre­quen­tist test. We con­struct an impre­cise fre­quen­tist-based test that repro­duces the same deci­sion rule as the the IDP test. It con­sid­ers a neigh­bour­hood around the U‑statistic val­ue. If all the val­ues in the neigh­bour­hood belong to the rejec­tion zone (resp. to the accep­tance region), the null hypoth­e­sis is reject­ed (resp. accept­ed). Oth­er­wise, the judge­ment is sus­pend­ed. This con­struc­tion puts a step for­ward in the rec­on­cil­i­a­tion between fre­quen­tist and Bayesian hypoth­e­sis test­ing: this kind of impre­cisi­a­tion over the set of pri­ors seems to pro­duce sim­i­lar effects on the deci­sion mech­a­nisn as an impre­cisi­a­tion of data around the observations.

Cas­sio P. de Campos

Pro­fesseur à l’u­ni­ver­sité d’Utrecht

Le ven­dre­di 28 sep­tem­bre 2018 à 10h en GI42

Sum­ma­ry :

Sum-prod­uct net­works are an increas­ing­ly pop­u­lar fam­i­ly of prob­a­bilis­tic graph­i­cal mod­els for which mar­gin­al infer­ence can be per­formed in poly­no­mi­al time. They have been shown to achieve state-of-the-art per­for­mance in sev­er­al tasks. When learn­ing sum-prod­uct net­works from scarce data, the obtained mod­el may be prone to robust­ness issues. In par­tic­u­lar, small vari­a­tions of para­me­ters could lead to dif­fer­ent con­clu­sions. We dis­cuss the char­ac­ter­is­tics of sum-prod­uct net­works as clas­si­fiers and study the robust­ness of them with respect to their para­me­ters. Using a robust­ness mea­sure to iden­ti­fy (pos­si­bly) unre­li­able deci­sions, we build a hier­ar­chi­cal approach where the clas­si­fi­ca­tion task is deferred to anoth­er mod­el if the out­come is deemed unre­li­able. We apply this approach on bench­mark clas­si­fi­ca­tion tasks and exper­i­ments show that the robust­ness mea­sure can be a mean­ing­ful man­ner to improve clas­si­fi­ca­tion accuracy.

Dester­cke Sébastien

Chercheur CNRS au lab­o­ra­toire Heudiasyc

Le mar­di 10 juil­let 2018 à 14h en GI42

Résumé :

In this talk, we will be inter­est­ed in the prob­lem of ordi­nal regres­sion, i.e., in pre­dict­ing dis­crete­ly, ordered val­ues (such as rat­ing scores of web­sites, sever­i­ty lev­els of dis­eases, degra­da­tion lev­els of com­po­nents , eval­u­a­tion lev­els of papers, …) from a giv­en set of attrib­ut­es and train­ing data. More par­tic­u­lar­ly, we will be inter­est­ed in the prob­lem of pro­duc­ing cau­tious pre­dic­tions (i.e. sets of pos­si­ble val­ues rather than sin­gle ones) when infor­ma­tion does not allow us to make pre­cise ones. We pro­pose to do so by con­sid­er­ing an impre­cise prob­a­bili­tis­tic set­ting, the basics of which we will recall.

We will then present two strate­gies to per­form ordi­nal regres­sion, based on bina­ry decom­po­si­tions of the ini­tial prob­lem: the first one based on a tree decom­po­si­tion, the sec­ond on a cumu­la­tive decomposition.

Lingx­ue Yang

Doc­tor­ante en infor­ma­tique aux lab­o­ra­toires Heudi­asyc et Costech

Le lun­di 11 juin 2018 à 9h30 en CR C.203 (bâti­ment C, UTC)

Résumé :

In recent years, the advances made in com­put­er tech­nol­o­gy have made human-com­put­er inter­ac­tion (HCI) pen­e­trat­ed into almost all areas of human activ­i­ties. As the car­ri­er of the inter­ac­tion between human and infor­ma­tion, the user inter­face is a key part that influ­ences the sys­tems and human per­for­mance. Espe­cial­ly for busi­ness soft­ware such as ana­lyt­ic appli­ca­tions behind which there are com­pli­cat­ed log­ics. There­fore, the improp­er infor­ma­tion design and inter­face design will hin­der users’ under­stand­ing, learn­ing and the use of the inter­ac­tive sys­tems, caus­ing cog­ni­tive bar­ri­ers, such as mem­o­ry over­load. Inter­ac­tion design is close­ly relat­ed to human cog­ni­tion. In ana­lyt­ic appli­ca­tions, the user’s main task is to acquire the use­ful infor­ma­tion that allows him/her to iden­ti­fy the root caus­es of a busi­ness ques­tion for deci­sion mak­ing. It requires a large num­ber of stor­age of human work­ing mem­o­ry to process the infor­ma­tion need­ed for com­plet­ing an ana­lyt­i­cal task. As the work­ing mem­o­ry is lim­it­ed in capac­i­ty, not all the infor­ma­tion can be stored in once. Our work­ing mem­o­ry only stores the most recent infor­ma­tion for the cur­rent acti­vat­ed task. One con­se­quence is that when the task is inter­rupt­ed or sus­pend­ed, to han­dle a sec­ondary task (inter­rupt­ing task), the work­ing mem­o­ry will free up some space for pro­cess­ing the infor­ma­tion need­ed for this sec­ondary task. When the user returns to the pri­ma­ry task (inter­rupt­ed task), he/she has to recall the released infor­ma­tion. It takes time, over­charges the work­ing mem­o­ry and con­sumes much men­tal effort of the user. The result is the loss of time, and reduced task per­for­mance. There­fore, it is nec­es­sary to design user inter­face and inter­ac­tion con­sid­er­ing these lim­its of work­ing mem­o­ry. The research of ana­lyt­ic prove­nance focus­es on retriev­ing users’ inter­ac­tion his­to­ry, rein­stat­ing their rea­son­ing process so that they can quick­ly resume an inter­rupt­ed or sus­pend­ed task. The designed tools through ana­lyt­ic prove­nance serve as an exter­nal mem­o­ry. Lenay’s two modes of inter­ac­tion: “put down” and “in hand” allow us to address this prob­lem in two per­spec­tives: mem­o­ry sub­sti­tu­tion (put down) and mem­o­ry sup­ple­men­ta­tion (in hand). Mem­o­ry sub­sti­tu­tion con­sid­ers a mem­o­ry tool as an object in the envi­ron­ment. Mem­o­ry sup­ple­men­ta­tion sees a mem­o­ry tool as a cou­pling device between the user and the task, and it extends the user’s capa­bil­i­ty of per­ceiv­ing the prob­lem-solv­ing as a sup­ple­men­ta­tion of their per­cep­tu­al sys­tems. The exist­ing solu­tions are more about the design for the for­mer one, they lack a con­sid­er­a­tion for the lat­ter one. In this research, we try to pose a prob­lem which may improve design con­sid­er­a­tions in resolv­ing the imbal­ance between user inter­face and human cog­ni­tion from the mem­o­ry sup­ple­men­ta­tion point of view. We have devel­oped a tool, based on a “his­to­ry path”, using the con­cept of ana­lyt­ic prove­nance. It per­mits to show, in a spe­cif­ic win­dow of the user inter­face, some of the steps of a pre­vi­ous res­o­lu­tion task that a user has per­formed dur­ing pre­vi­ous expe­ri­ence (or to sim­u­late a res­o­lu­tion task inter­rup­tion). We have set up a sim­ple (min­i­mal­ist) prob­lem-solv­ing task the res­o­lu­tion of which was record­ed (screen, voice, eyes move­ments, time of res­o­lu­tion, etc.), to test if it is pos­si­ble to design a tool for mem­o­ry sup­ple­men­ta­tion. We exper­i­ment two dif­fer­ent tools, based on two his­to­ry path rep­re­sen­ta­tions, a sta­t­ic one, and a dynam­ic one. The sta­t­ic his­to­ry path shows, at the same time, all the attemps made dur­ing a pre­vi­ous expe­ri­ence to resolve a giv­en task. The dynam­ic his­to­ry path shows only the attemps of the pre­vi­ous expe­ri­ence, which are close to the cur­rent task res­o­lu­tion step. We will present the first results of this expe­ri­ence, which aim at eval­u­at­ing to what extent a sta­t­ic his­to­ry path or a dynam­ic his­to­ry path can help the user for tasks resolution.

Syl­vain Lagrue

Maitre de con­férences en infor­ma­tique au lab­o­ra­toire CRIL, de l’Uni­ver­sité d’Artois

Le mar­di 22 mai 2018 à 14h en GI042 (bâti­ment Blaise Pas­cal, UTC)

Résumé :

Nous présen­tons dans cet exposé dif­férents for­mal­ismes que nous avons créés, util­isés ou enrichis dans le cadre de recherch­es académiques ou dans des pro­jets plus appliqués. Ces for­mal­ismes ont comme point com­mun de per­me­t­tre de mieux pren­dre en compte les con­cepts de fia­bil­ité de l’information, d’évolution du monde, d’inférence plau­si­ble, de fusion et de révi­sion ou encore de prise de déci­sion. Nous faisons tout d’abord un tour d’hori­zon des dif­férentes méth­odes abor­dées, leurs éventuels liens et plusieurs appli­ca­tions pos­si­bles. Puis, nous nous intéres­sons plus par­ti­c­ulière­ment aux prob­lèmes d’in­com­pa­ra­bil­ité et d’in­com­men­su­ra­bil­ité dans le cadre de logiques pondérées et leur appli­ca­tion à la révi­sion, à la fusion de croy­ances et aux logiques de descrip­tion légères. Nous présen­tons plus en détail des général­i­sa­tions de la logique pos­si­biliste aux ordres par­tiels et aux inter­valles. Nous nous intéres­sons ensuite à nos travaux con­cer­nant le Gen­er­al Game Play­ing. L’objectif de ce dernier est de dévelop­per des pro­grammes capa­bles de jouer de manière con­va­in­cante à n’importe quel jeu sans inter­ven­tion humaine. Nous présen­tons nos résul­tats basés sur les réseaux de con­traintes sto­chas­tiques. Enfin, nous présen­tons suc­cincte­ment divers travaux en cours et per­spec­tives, dont cer­tains directe­ment liés à la préser­va­tion du pat­ri­moine immatériel de l’hu­man­ité et plus spé­ci­fique­ment aux mar­i­on­nettes sur eau du Vietnam.

Samir Loud­ni

Maitre de con­férences en infor­ma­tique au lab­o­ra­toire GREYC, de l’Uni­ver­sité de Caen Normandie

Le mar­di 15 mai 2018 à 10h30 en GI042 (bâti­ment Blaise Pas­cal, UTC)

Par­tie 1

Résumé :

La pro­gram­ma­tion par con­trainte (PPC) offre un cadre générique et flex­i­ble pour résoudre des prob­lèmes d’op­ti­mi­sa­tion sous con­traintes. L’utilisation de la PPC pour exprimer des prob­lèmes de fouille de don­nées pos­sède de nom­breux avan­tages. Le pre­mier est d’of­frir à l’u­til­isa­teur un moyen sim­ple et déclaratif pour mod­élis­er ses prob­lèmes. Le sec­ond est de pro­pos­er une approche générique de réso­lu­tion qui per­met à l’u­til­isa­teur de ne plus devoir se préoc­cu­per de l’écri­t­ure d’un algo­rithme spé­ci­fique pour chaque tâche de fouille. Dans cette pre­mière par­tie de l’ex­posé je présen­terai de manière suc­cincte quelques con­tri­bu­tions con­cer­nant les apports de la PPC pour la fouille de don­nées ori­en­tée motifs et plus par­ti­c­ulière­ment sur l’ex­trac­tion de motifs séquen­tiels et de motifs Pare­to.

Par­tie 2

Résumé :

Un prob­lème récur­rent en extrac­tion de motifs est la sélec­tion de motifs per­ti­nents par­mi le grand ensem­ble de motifs décou­verts. Pour réduire le nom­bre de motifs extraits et donc de faciliter l’analyse du résul­tat de la fouille est l’ex­trac­tion de motifs de plus haut niveau reposant sur des car­ac­téris­tiques qui impliquent plusieurs motifs locaux. Ces motifs sont appelés ensem­bles de motifs ou pat­tern sets. Extraire le meilleur ensem­ble de motifs rel­a­tive­ment à une mesure don­née per­met de mieux cibler le proces­sus d’extraction vers les meilleurs motifs mais rend la tâche plus ardue, notam­ment en rai­son de la taille impor­tante de l’e­space de recherche et le manque de tech­niques d’éla­gage effi­caces pour ce type de prob­lèmes. La plu­part des approches exis­tantes (sou­vent heuris­tiques) sac­ri­fient la preuve d’op­ti­mal­ité au détri­ment de solu­tions approchées. Toute­fois, la qual­ité de solu­tions obtenues par ces approches reste très vari­able.

La PLNE (Pro­gram­ma­tion Linéaire en Nom­bres Entiers) est un au cadre générique qui pro­cure un haut niveau de flex­i­bil­ité et d’expressivité pour com­pos­er dif­férentes types de con­traintes. L’u­til­i­sa­tion de la PLNE pour la mod­éli­sa­tion de tâch­es d’optimisation en fouille de don­nées est un domaine qui a été très peu exploré.

Dans cette sec­onde par­tie de l’ex­posé, je vais mon­tr­er com­ment la PLNE peut être util­isée pour mod­élis­er dif­férentes con­traintes por­tant sur des ensem­bles de motifs. Out­re le cadre général de l’extraction d’ensem­bles de motifs, je vais illus­tr­er l’intérêt de cette approche sur un prob­lème bien con­nu en fouille de don­nées: le clus­ter­ing con­ceptuel. Enfin, je ter­min­erai par quelques résul­tats récents sur l’u­til­i­sa­tion des moyennes ordon­nées pondérées (com­muné­ment appelées OWA pour Ordered Weight­ed) afin de trou­ver un équili­bre opti­mal sur la taille des clus­ters du clus­ter­ing conceptuel.

Olivi­er Spanjaard

Maitre de con­férences au LIP6 de l’UPMC

Le jeu­di 12 avril 2018 à 14 h en GI042 (Bâti­ment Blaise Pas­cal, uni­ver­sité de tech­nolo­gie de Compiègne).

Par­tie 1 : Une intro­duc­tion à la théorie de la déci­sion algo­rith­mique

Résumé :

La théorie de la déci­sion algo­rith­mique porte sur l’é­tude sous l’an­gle algo­rith­mique de prob­lèmes issus de la théorie de la déci­sion, de la théorie des jeux et de la théorie du choix social. La plu­part des travaux réal­isés dans ces domaines jusqu’à récem­ment focal­i­saient prin­ci­pale­ment sur des résul­tats de car­ac­téri­sa­tion, l’aspect com­pu­ta­tion­nel (i.e., la cal­cu­la­bil­ité effec­tive des con­cepts
intro­duits) étant sou­vent lais­sé au sec­ond plan. C’est ce deux­ième aspect qui fait la spé­ci­ficité de la théorie de la déci­sion algo­rith­mique, et qui est étudié par une com­mu­nauté d’in­for­mati­ciens en intel­li­gence arti­fi­cielle et en recherche opéra­tionnelle depuis un peu plus d’une dizaine d’an­nées. Une brève intro­duc­tion à ce domaine sera pro­posée lors de cet exposé.

Par­tie 2 : Quelques con­tri­bu­tions en théorie de la déci­sion algo­rith­mique

Résumé :

Lors de cet exposé, je présen­terai quelques con­tri­bu­tions récentes en déci­sion séquen­tielle dans l’in­cer­tain lorsque les préférences suiv­ent un mod­èle alter­natif à l’u­til­ité espérée, et j’abor­derai égale­ment quelques prob­lé­ma­tiques en déci­sion collective

Eti­enne COME

Chargé de recherche à l’IFSTTAR

Le mar­di 20 mars 2018 à 14 h en GI042 (Bâti­ment Blaise Pas­cal, uni­ver­sité de tech­nolo­gie Compiègne)

Résumé :

Par­tie 1: Analyse exploratoire de traces numériques de mobil­ité. Quelques résul­tats sur les sys­tèmes de vélos en libre ser­vice et de trans­ports en Com­mun.

Les sys­tèmes de mobil­ités mod­ernes génèrent un nom­bre impor­tant de traces numériques qu’il con­vient d’analyser pour com­pren­dre et opti­miser le fonc­tion­nement de ces sys­tèmes. Ces don­nées se dis­tingues des sources clas­sique­ment util­isées pour appréhen­der les com­porte­ment de mobil­ité et leur évo­lu­tion (enquête glob­ale trans­port, enquête ménage déplace­ment) et néces­site donc des méth­odes nou­velles pour essay­er de tir­er par­tie de l’information qu’elles recè­lent. Après avoir présen­té ce con­texte générale et les par­tic­u­lar­ités des traces numériques par rap­port aux don­nées d’enquête clas­siques, nous détaillerons dif­férents travaux exploratoires menés dans ce con­texte pour mieux cern­er ces nou­velles sources et leurs poten­tial­ités. Nous ver­rons en par­ti­c­uli­er com­ment les don­nées de stocks des sys­tèmes de Vélos en Libre Ser­vice (VLS) peu­vent être mobil­isées pour résumer le com­porte­ment de ces sys­tèmes et faciliter leurs com­para­isons. Nous présen­terons égale­ment des travaux d’analyse exploratoire et de visu­al­i­sa­tion des don­nées de flux voyageurs. Celles-ci offrent en effet, des per­spec­tives intéres­santes pour l’analyse fine des usages et de la dynamique des orig­ines / des­ti­na­tions effec­tuées par les usagers de trans­port en com­mun. Nous présen­terons des résul­tats sur l’exploration de ces don­nées mas­sives aus­si bien dans le con­texte des VLS que dans celui des trans­ports en com­mun (métro / RER).

Par­tie 2: Mod­èle de mélange et don­nées de comp­tage, sélec­tion de mod­èle, régu­lar­i­sa­tion et esti­ma­tion.

Dans cette présen­ta­tion, nous nous intéresserons aux méthodolo­gies util­isées pour déter­min­er le nom­bre de com­posantes d’un mod­èle de mélange lorsque les don­nées sont des don­nées de comp­tage. Nous nous intéresserons plus par­ti­c­ulière­ment aux mod­èles util­isés pour analyser des graphes (Sto­chas­tic Block Mod­el et vari­ante) où les comp­tages cor­re­spon­dent à des nom­bres d’interaction entre paire d’objet , ou des « textes » (Mix­ture of Uni­gram et Pois­son mix­ture) où les comp­tages cor­re­spon­dent au nom­bre d’occurrences d’un mot. Nous ver­rons com­ment le prob­lème d’estimation du nom­bre de com­posantes est traité clas­sique­ment dans un cadre fréquen­tiste et Bayésien aux tra­vers de critères tels que BIC ou ICL. Une atten­tion par­ti­c­ulière sera portée aux aspects algo­rith­miques du prob­lème où l’on dis­cutera des avan­tages et incon­vénients des solu­tions clas­siques basées sur l’utilisation de l’algorithme EM et des vari­antes vari­a­tion­nelles ou bien sur des approches de type MCMC. Nous présen­terons dans ce con­texte un algo­rithme d’estimation con­jointe de la par­ti­tion des don­nées et du nom­bre de com­posantes basé sur l’optimisation glou­tonne d’un critère Bayésien cor­re­spon­dant à L’ICL exacte. Ce critère peut en effet être cal­culé de manière exacte pour cette famille de mod­èle lorsque les lois a pri­ori sur les paramètres sont adéquate­ment choisies. Nous ver­rons ensuite com­ment cette approche peut être éten­due pour extraire une struc­ture hiérar­chique de solu­tions imbriquées lorsque l’on fait vari­er le degré de régularisation.

Meltem OZTURK

Maître de con­férences au LAMSADE, uni­ver­sité Paris

Le lun­di 12 mars 2018, à 14 h en GI042 (Bâti­ment Blaise Pas­cal, uni­ver­sité de tech­nolo­gie Compiègne)

Résumé :

Par­tie 1: Présen­ta­tion générale des travaux de recherche autour des préférences dans les mod­èles déci­sion­nels.

Les préférences sont au coeur des mod­èles déci­sion­nels (deci­sion col­lec­tive, mul­ti­critère ou dans l’in­cer­tain) et appa­rais­sent dans les dif­férents étapes des proces­sus déci­sion­nels (definition/description du prob­lème, mod­éli­sa­tion, réso­lu­tion et validation/argumentation).
Dans cette pre­mière par­tie de l’ex­posé je vous par­lerai de mes travaux de recherche qui con­cer­nent ces dif­férents étapes (avec des résul­tats théoriques mais aus­si avec des appli­ca­tions indus­triels):

- définition/description du prob­lème:

apport des travaux expéri­men­taux pour mieux com­pren­dre le com­porte­ment des décideurs et util­i­sa­tion de leur résul­tats pour trou­ver des mod­èles adap­tés.
Exem­ples des proces­sus d’élicitation/apprentissage des préférences.

- mod­éli­sa­tion :

com­ment obtenir un cadre général pour la mod­éli­sa­tion des préférences ? Com­ment rep­re­sen­ter d’une manière com­pacte les préférences ?

- réso­lu­tion :

com­ment se servir des logiques non clas­siques ou une mod­éli­sa­tion par sat­is­fac­tion de con­traintes pour l’a­gré­ga­tion des préférences ?

- appli­ca­tion indus­triel: trou­ver la nou­velle ligne grande vitesse entre Paris-Nor­mandie (pro­jet avec la SNCF Réseau)

Par­tie 2: Résul­tats sur la par­tie mod­éli­sa­tion des préférences

Quand on tra­vaille avec des décideurs/experts on s’aperçoit rapi­de­ment que les orders totaux ou les préor­dres totaux que l’on utilise sou­vent dans des approches formels appa­rais­sent très forts/contraignants pour représen­ter leur préférences. Pour cela des struc­tures de préférences
plus sou­ples ont été pro­posées dans la lit­téra­ture. Les semi­or­dres, les ordres d’in­ter­valles ou les ordres par­tiels sont les plus con­nus. Ces struc­tures de préférences « sophis­tiquées » ont été étudiées par dif­férents chercheurs venant de dif­férents domains de recherche et man­quaient un cadre général uni­fi­ca­teur. Je vous présen­terai donc un cadre que nous avons défi­ni qui donne un lan­guage com­mun à ces struc­tures et qui nous aident à en pro­pos­er de nou­velles. Le cadre se base sur une axioma­ti­sa­tion sim­ple et cou­vre la majorité des struc­tures de préférences con­nues dans la lit­téra­ture.

Références de la par­tie 2 :

M. Öztürk, Coher­ence con­di­tions for pref­er­ence mod­el­ing with ordered points, Jour­nal of Math­e­mat­i­cal Psy­chol­o­gy, Vol­ume 79, 2017, pages 44–52.

M. Öztürk , M. Pir­lot et A. Tsouk­iàs, Rep­re­sent­ing pref­er­ences using inter­vals, Arti­fi­cial Intel­li­gence Jour­nal, 175, pages 1194–1222, 2011

Elsa NEGRE
Maître de con­férences HDR, UMR Lam­sade, Uni­ver­sité Paris Dauphine

Le mar­di 6 févri­er 2018 à 14 h en GI042(Bâtiment Blaise Pas­cal, uni­ver­sité de tech­nolo­gie Compiègne)

Résumé :

Nos travaux s’ar­tic­u­lent autour de l’ex­trac­tion et de l’analyse de don­nées issues de sources hétérogènes pour les ren­dre facile­ment acces­si­bles et exploita­bles par les utilisateurs/décideurs. En effet, il devient de plus en plus dif­fi­cile de savoir quelles sont les don­nées à rechercher et où les trou­ver lorsque la masse de données/informations s’ac­croît. Des tech­niques infor­ma­tiques exis­tent pour faciliter cette recherche et per­me­t­tre une extrac­tion per­ti­nente des données/informations. L’une d’en­tre elles est la recom­man­da­tion qui guide l’u­til­isa­teur lors de son explo­ration, en cher­chant pour lui les infor­ma­tions sus­cep­ti­bles d’être per­ti­nentes. Un enjeu intéres­sant est de pro­pos­er un sys­tème de recom­man­da­tion capa­ble de s’adapter à dif­férents cas d’ap­pli­ca­tions, avec de bonnes per­for­mances du point de vue de l’utilisateur/décideur et pal­liant cer­tains man­ques des sys­tèmes de recom­man­da­tion exis­tants. Dans le cadre de nos travaux, l’ensem­ble des don­nées à explor­er peut provenir de dif­férents domaines (les envi­ron­nements de tra­vail col­lab­o­ratif, les plate­formes d’ap­pren­tis­sage en ligne, les entre­pôts de don­nées, les villes intel­li­gentes, les sys­tèmes d’alertes pré­co­ces, …) et l’u­til­isa­teur à aider peut être un indi­vidu isolé ou une entité mul­ti­ple à visée publique. Con­scients que la masse de données/informations à explor­er dans de tels cas peut être très impor­tante, com­plexe et var­iée, il nous est apparu néces­saire de pro­pos­er des sys­tèmes de recom­man­da­tion appro­priés pour y faire face. Nous pro­posons donc une approche générique de recom­man­da­tion, en rup­ture com­plète avec les travaux exis­tants, que nous instan­cions pour per­me­t­tre de recom­man­der soit des élé­ments, soit des util­isa­teurs, sous forme de recom­man­da­tions indi­vidu­elles ou à visée publique dans dif­férents domaines. Puis, nous nous intéres­sons à l’é­val­u­a­tion des (sys­tèmes de) recom­man­da­tions. Afin d’as­sur­er la per­ti­nence des recom­man­da­tions du point de vue de l’utilisateur/décideur, nous pro­posons des méth­odes pour éval­uer sub­jec­tive­ment d’une part le sys­tème de recom­man­da­tion et d’autre part les recom­man­da­tions retournées. Enfin, mal­gré de bonnes per­for­mances, par­fois, les recom­man­da­tions ne sont pas con­sid­érées comme suff­isam­ment per­ti­nentes. Nous pro­posons donc des tech­niques pour amélior­er les (sys­tèmes de) recom­man­da­tions. Elles con­cer­nent l’amélio­ra­tion des don­nées d’en­trée, le démar­rage à froid et l’a­jout de données/sources externes (notam­ment le con­texte de l’utilisateur/décideur). Nos propo­si­tions ont été validées par la par­tic­i­pa­tion à dif­férents pro­jets ain­si que le co-encadrement de thès­es de Doc­tor­at et le suivi de travaux de Mas­ter Recherche.

Mots clés : Sys­tèmes de recom­man­da­tion, Analyse de don­nées, Aide à la déci­sion, Sys­tèmes d’Information

Jonathan DEKHTIAR
Doc­tor­ant au lab­o­ra­toire Rober­val, UTC

Le mar­di 30 jan­vi­er 2018 à 10h15 en GI042 (Bâti­ment Blaise Pas­cal, uni­ver­sité de tech­nolo­gie Compiègne)

Résumé :

The man­u­fac­tur­ing indus­try is always try­ing to auto­mate many of its engi­neer­ing tasks and work­flows. Apply­ing Machine/Deep Learn­ing in such an indus­tri­al con­text is chal­leng­ing for dif­fer­ent rea­sons : Con­trary to the GAFAM (Google, Apple, Face­book, Ama­zon, Microsoft) and BATX (Baidu, Aliba­ba, Ten­cent and Xiao­mi), the man­u­fac­tur­ing indus­try use on a day-to-day basis high­ly com­plex data which comes, most of the time, in pro­pri­etary for­mats (e.g. 3D Mod­els). More­over, data are not avail­able in large quan­ti­ties (impos­si­bil­i­ty to rely on a big data scale) and most of the time in insuf­fi­cient quan­ti­ties to train any Deep Learn­ing mod­el to per­form any com­put­er vision task. How­ev­er, Machine Learn­ing can still be applied using var­i­ous tips and tricks, fre­quent­ly with good results. Trans­fer Learn­ing is one effec­tive solu­tion, nev­er­the­less this pre­sen­ta­tion will not focus on the lat­ter which is already well cov­ered in the lit­er­a­ture [Y. Ben­gio, 2012] – [M. Oquab, 2014]. Inspired by research in anom­aly detec­tion for neu­ro-imagery [K. Wang, 2016] – [T. Schlegel, 2017] and for patrol robots [W. Law­son, 2017], we have stud­ied the effec­tive­ness of Deep Gen­er­a­tive Net­works and Deep Auto Encoder, name­ly GANs (Gen­er­a­tive Adver­sar­i­al Net­works) and VAE (Vari­a­tion­al AutoEn­coders). This pre­sen­ta­tion aims to present the speci­fici­ties and basics of GANs/VAEs and an overview of the whole process we devel­oped with a lim­it­ed amount of data (1000 images) and obtain 92% of accu­ra­cy and 85% of IOU (Inter­sec­tion over Union) for the machined sur­face defect local­i­sa­tion. The pro­posed approach is able to adapt itself with­out any change in the struc­ture or hyper-para­me­ter set­tings to dif­fer­ent indus­tri­al sit­u­a­tions offered by the chal­lenge dataset pro­vid­ed by DAGM 2007. In sum­ma­ry, the strength of the pro­posed solu­tion is the fol­low­ing : High­ly adapt­able with lim­it­ed re-engi­neer­ing costs, reduced train­ing time (+/- 3 hours on one GPU), Weak­ly Super­vised Approach thus hav­ing a very reduced deploy­ment cost.

Sylvie Le Hegarat Mascle

Pro­fesseur des uni­ver­sités à l’Université de Paris Sud, Poly­tech Paris Sud.

Le mar­di 3 Mars à 14H, en GI 42

Abstract:

The Demp­ster-Shafer the­o­ry of belief func­tions is a for­mal frame­work for mod­el­ing and rea­son­ing with uncer­tain­ty. It is based on the rep­re­sen­ta­tion of inde­pen­dent pieces of evi­dence by belief func­tions, and on their com­bi­na­tion by an oper­a­tor called Dempster’s rule. In this talk, we show that the weight­ed sum and soft­max oper­a­tions per­formed in logis­tic regres­sion clas­si­fiers and, for instance, in the out­put lay­er of feed­for­ward neur­al net­works can be inter­pret­ed in terms of evi­dence aggre­ga­tion using Demp­ster’s rule of com­bi­na­tion. From that per­spec­tive, the out­put prob­a­bil­i­ties com­put­ed by such clas­si­fiers (includ­ing also sup­port vec­tor machines) can be seen as being derived from  some belief func­tions, which can be laid bare and used for deci­sion mak­ing or clas­si­fi­er fusion. This find­ing sug­gests that the links between machine learn­ing and belief func­tions are clos­er than is usu­al­ly assumed, and that Demp­ster-Shafer the­o­ry pro­vides a suit­able frame­work for devel­op­ing new machine learn­ing algorithms.

08/10/2024 – Jür­gen Lan­des : Assess­ing Infer­ence to the Best Expla­na­tion Pos­te­ri­ors for the Esti­ma­tion of Eco­nom­ic Agent-Based Mod­els
- Explana­to­ry rela­tion­ships between data and hypothe­ses have been sug­gest­ed to play a role in the for­ma­tion of pos­te­ri­or prob­a­bil­i­ties. This sug­ges­tion was test­ed in a toy envi­ron­ment and sup­port­ed by sim­u­la­tions by Glass. We here put for­ward a vari­ety of infer­ence to the best expla­na­tion approach­es for deter­min­ing pos­te­ri­or prob­a­bil­i­ties by inter­twin­ing Bayesian and infer­ence to the best expla­na­tion approach­es. We then sim­u­late their per­for­mances for esti­ma­tion of para­me­ters in the Brock and Hommes agent based mod­el. We find that per­for­mances depend on cir­cum­stances and the eval­u­a­tion met­ric. How­ev­er, most of the time our sug­gest­ed approach­es out­per­form the Bayesian approach.

12/09/2024 – Vis­it of JC Schoe­mann, lec­tur­er at Stel­len­bosch Uni­ver­si­ty in South Africa
Part 1 – Intro­duc­tion, pur­pose of vis­it and overview of research:
I will first intro­duce Stel­len­bosch Uni­ver­si­ty and our research lab, includ­ing a brief overview of some past projects. I will then elab­o­rate on the pur­pose of my vis­it, before pro­vid­ing a one-slide sum­ma­ry of three per­son­al projects, name­ly degen­er­ate Gauss­ian dis­tri­b­u­tions, local­ly adap­tive Bayesian opti­miza­tion and mul­ti-agent rein­force­ment learn­ing. This will be fol­lowed by a research pro­pos­al into a uni­fi­ca­tion of mod­el- and data-based approach­es for autonomous dri­ving.
Part 2 – Degen­er­ate Gaus­sians, Bayesian opti­miza­tion and rein­force­ment learn­ing:
This talk will be divid­ed into three sec­tions to address the top­ics that I already intro­duced briefly. The first will look at extend­ing the capa­bil­i­ties of Gauss­ian infer­ence to set­tings where the covari­ance matrix is sin­gu­lar. The sec­ond improves on Bayesian opti­miza­tion using Gauss­ian process­es and results in a black box opti­miza­tion algo­rithm that per­forms very well com­pared to the cur­rent state of the art. Final­ly, I will dis­cuss rein­force­ment learn­ing in the con­text of mul­ti-play­er strat­e­gy games with par­tial infor­ma­tion and lim­it­ed communication.

19/09/2024 Kim-Dung Tran: Ten­sor Decom­po­si­tion and Its Appli­ca­tions in Machine Learn­ing
In mul­ti­lin­ear alge­bra, whose basic role is played by the con­cepts of a ten­sor prod­uct, a ten­sor on a vec­tor space and a mul­ti­lin­ear form, a ten­sor decom­po­si­tion (TD) is any scheme for express­ing “data ten­sor” (M‑way array) as a sequence of ele­men­tary oper­a­tions act­ing on oth­ers, often sim­pler ten­sors. TD has found promis­ing appli­ca­tions in dif­fer­ent domains and recent­ly been con­jec­tured as a key play­er in shap­ing a next gen­er­a­tion of deep learn­ing tech­niques. Con­cise­ly, under cer­tain con­di­tions, a giv­en fam­i­ly of neur­al net­works can be approximated/expressed using a fam­i­ly of ten­sorized neur­al net­works with pos­si­bly much small­er num­bers of para­me­ters. In this project, we aim to devel­op scal­able prob­a­bilis­tic clas­si­fiers for high dimen­sion­al objects such as images, video and speech; and scal­able ensem­ble learn­ing meth­ods for high-dimen­sion­al objects. Fur­ther­more, we incor­po­rate the achieved results into the devel­op­ment of “prob­a­bilis­tic mul­ti-dimen­sion­al clas­si­fi­ca­tion”, which is an on-going project at the Heudi­asyc laboratory.

02/07/2024 – SYRI and CID Col­lab­o­ra­tive Work­shop
- Sta­tis­ti­cal guar­an­tees for object detec­tion
- Har­ness­ing Super­class­es for Learn­ing from Hier­ar­chi­cal Data­bas­es
- Enhanc­ing Local­iza­tion through Per­cep­tion: Appli­ca­tions of Vec­tor Maps
- Intro­duc­tion à des archi­tec­tures de réseaux de neu­rone de traite­ment des événe­ments
- Esti­ma­tions d’in­cer­ti­tudes pour le cal­i­brage entre cap­teurs par appren­tis­sage pro­fond
- Présen­ta­tion de début de thèse: Esti­ma­tion de l’in­cer­ti­tude et de l’in­tégrité pour les sys­tèmes de per­cep­tion basés sur l’ap­pren­tis­sage automatique

30/05/2024 – Nico­las Schreud­er : Fair­ness in machine learn­ing: a study of the Demo­graph­ic Par­i­ty con­straint
In var­i­ous domains, sta­tis­ti­cal algo­rithms trained on per­son­al data take piv­otal deci­sions which influ­ence our lives on a dai­ly basis. Recent stud­ies show that a naive use of these algo­rithms in sen­si­tive domains may lead to unfair and dis­crim­i­nat­ing deci­sions, often inher­it­ing or even ampli­fy­ing bias­es present in data. In the first part of the talk, I will intro­duce and dis­cuss the ques­tion of fair­ness in machine learn­ing through con­crete exam­ples of bias­es com­ing from the data and/or from the algo­rithms. In a sec­ond part, I will demon­strate how sta­tis­ti­cal learn­ing the­o­ry can help us bet­ter under­stand and over­come some of those bias­es. In par­tic­u­lar, I will present a selec­tion of recent results from two of my papers on the Demo­graph­ic Par­i­ty con­straint, a pop­u­lar fair­ness con­straint. In par­tic­u­lar I will describe an inter­est­ing link between this con­straint and opti­mal trans­port theory.

28/05/2024 – Uliss­es Bra­ga-Neto : Recent Progress in Train­ing PDE-Con­strained Deep Neur­al Net­works
Sci­en­tif­ic machine learn­ing (SciML) is a promis­ing new field that com­bines sci­en­tif­ic com­pu­ta­tion and machine learn­ing to achieve results that nei­ther one can sep­a­rate­ly. PDE-con­strained deep neur­al net­works are a core SciML tech­nol­o­gy, which has been deployed in a vari­ety of sci­en­tif­ic and engi­neer­ing prob­lems with remark­able suc­cess. The best-known algo­rithm in this class is the so-called physics-informed neur­al net­work (PINN). How­ev­er, PINNs are based on min­i­miz­ing a com­plex mul­ti-objec­tive loss func­tion, which often makes train­ing these net­works dif­fi­cult. In this talk, we present new approach­es that can address this issue. The first is the Self-Adap­tive PINN (SA-PINN), which weights each data point in the mul­ti-objec­tive loss func­tion, in such a way that the weight increas­es if the cor­re­spond­ing loss increas­es. Anoth­er approach we have pro­posed is the char­ac­ter­is­tic-informed neur­al net­work (CINN), which com­plete­ly does away with the mul­ti-objec­tive loss func­tion, by imbed­ding a hyper­bol­ic PDE in the neur­al net­work archi­tec­ture itself. We also show how par­ti­cle swarm opti­miza­tion can be used to train PINNs with quan­ti­fied uncer­tain­ty and briefly describe an adap­tive arti­fi­cial vis­cos­i­ty approach to deal­ing with PDEs with shocks. Final­ly, we intend to describe briefly ongo­ing activ­i­ties and mul­ti­dis­ci­pli­nary research efforts at the SciML Lab of the Texas A&M Insti­tute of Data Sci­ence (TAMIDS).

17/05/2024 – Mohamed-Amine Abrache
« Inno­va­tions dans les Envi­ron­nements Infor­ma­tiques d’Ap­pren­tis­sage : De l’Op­ti­mi­sa­tion de l’É­val­u­a­tion par les Pairs à l’Usage de la Réal­ité Virtuelle« 

Cette présen­ta­tion met en lumière des travaux de recherche por­tant sur des approches inno­vantes pour la répar­ti­tion des tâch­es d’é­val­u­a­tion par les pairs dans les envi­ron­nements d’ap­pren­tis­sage infor­ma­tisés, util­isant des tech­niques d’ap­pren­tis­sage automa­tique et d’op­ti­mi­sa­tion com­bi­na­toire. Un pro­jet com­plé­men­taire sera égale­ment abor­dé, trai­tant de la con­cep­tion d’un agent d’in­ter­ven­tion péd­a­gogique visant à stim­uler la moti­va­tion des apprenants par l’analyse des traces d’ap­pren­tis­sage. Enfin, la présen­ta­tion se con­clu­ra par des résul­tats con­cer­nant le développe­ment d’une plate­forme d’ap­pren­tis­sage virtuel dédiée à l’ap­pli­ca­tion de pro­to­coles d’ex­péri­men­ta­tion ani­male. Ces travaux illus­trent le poten­tiel des tech­nolo­gies éduca­tives pour l’ap­pren­tis­sage et la formation.

16/05/2024 – Cédric Buron : Pren­dre une déci­sion: de la pre­scrip­tion à la mod­éli­sa­tion
Com­ment prenons-nous des déci­sions ? Cette ques­tion peut être posée sous plusieurs angles. Dans ce sémi­naire, nous abor­derons plusieurs manières de voir cette prob­lé­ma­tique. Nous abor­derons dans un pre­mier temps des approches pre­scrip­tives, nor­ma­tives, s’ap­puyant sur des notions de math­é­ma­tiques et pré­sup­posant une cer­taine ratio­nal­ité de la part des agents, soit pour un con­cep­teur d’un mécan­isme afin de créer une inci­ta­tion à agir selon une cer­taine stratégie à l’aide des mécan­ismes d’inci­ta­tion, soit au con­traire pour trou­ver la stratégie opti­male étant don­né un cer­tain cadre d’ac­tion grâce à la théorie des jeux com­pu­ta­tion­nelle, à tra­vers l’ex­em­ple de la négo­ci­a­tion automa­tique. Nous nous intéresserons ensuite à la con­struc­tion de cette ratio­nal­ité à par­tir de l’ex­per­tise humaine au moyen d’outils issus de l’aide à la déci­sion mul­ti­critères avant de remet­tre en cause la notion même de ratio­nal­ité en présen­tant des pro­jets de mod­éli­sa­tion de com­porte­ments humains à la fron­tière des sci­ences humaines et sociales, en par­ti­c­uli­er dans des cas où le pré­sup­posé de ratio­nal­ité math­é­ma­tique ne s’ap­plique pas.

10/05/2024 – Rai­di Ktari
« Toward cred­i­ble belief base revi­sion« 

This pre­sen­ta­tion deals with belief base revi­sion, a form of belief change which con­sists in restor­ing con­sis­ten­cy with the inten­tion of incor­po­rat­ing a new piece of infor­ma­tion from the envi­ron­ment, while min­i­mal­ly mod­i­fy­ing the agen­t’s belief state rep­re­sent­ed by a finite set of propo­si­tion­al for­mu­las. In an effort to guar­an­tee more reli­a­bil­i­ty and ratio­nal­i­ty for real appli­ca­tions while per­form­ing revi­sion, we come up with the idea of cred­i­ble belief base revi­sion. We define two new for­mu­la-based revi­sion oper­a­tors using tools offered by evi­dence the­o­ry (also known as Belief Func­tion The­o­ry). These oper­a­tors stem from con­sis­tent sub-bases max­i­mal with respect to cred­i­bil­i­ty instead of set inclu­sion or cardinality.

07/05/2024 – Jin­feng Zhong
« When fac­tor­iza­tion meets argu­men­ta­tion: towards argu­men­ta­tive expla­na­tions for rec­om­men­da­tions« 

Exist­ing rec­om­mender sys­tems fre­quent­ly uti­lize fac­tor­iza­tion-based mod­els, which are known for their effi­cien­cy in pre­dict­ing rat­ings. How­ev­er, the explic­it seman­tics of the latent fac­tors they learn are not always clear, com­pli­cat­ing the task of explain­ing the rec­om­men­da­tions. In con­trast, argu­men­ta­tion-based meth­ods have emerged as a sig­nif­i­cant tool in the realm of explain­able arti­fi­cial intel­li­gence. In response, we pro­pose a nov­el frame­work that syn­er­gizes fac­tor­iza­tion-based meth­ods with argu­men­ta­tion frame­works (AFs). The inte­gra­tion of AFs pro­vides clear seman­tics at each stage of the frame­work, enabling it to pro­duce eas­i­ly under­stand­able expla­na­tions for its rec­om­men­da­tions. In this frame­work, for every user-item inter­ac­tion, an AF is defined in which the fea­tures of items are con­sid­ered as argu­ments, and the users » rat­ings towards these fea­tures deter­mine the strength of these argu­ments. This per­spec­tive allows our frame­work to treat fea­ture attri­bu­tion as a struc­tured argu­men­ta­tion pro­ce­dure, where each cal­cu­la­tion is marked with explic­it seman­tics, enhanc­ing its inher­ent inter­pretabil­i­ty. Addi­tion­al­ly, our frame­work seam­less­ly incor­po­rates side infor­ma­tion, such as user con­texts, lead­ing to more accu­rate pre­dic­tions. We antic­i­pate at least three prac­ti­cal appli­ca­tions for our frame­work: cre­at­ing expla­na­tion tem­plates, pro­vid­ing inter­ac­tive expla­na­tions, and gen­er­at­ing con­trastive expla­na­tions. Through test­ing on real-world datasets, we have found that our frame­work, along with its vari­ants, not only sur­pass­es exist­ing argu­men­ta­tion-based meth­ods but also com­petes effec­tive­ly with cur­rent con­text-free and con­text-aware methods.

06/05/2024 – Ikram Chraibi Kaadoud
« Com­pren­dre le com­porte­ment des sys­tèmes com­plex­es en util­isant l’in­ter­préta­bil­ité et l’ex­plic­a­bil­ité« 

Au cours du proces­sus d’ap­pren­tis­sage, un humain développe une représen­ta­tion men­tale de la tâche qu’il est en train d’ap­pren­dre, tan­dis qu’un algo­rithme d’ap­pren­tis­sage automa­tique développe une représen­ta­tion latente.
Avec chaque don­née traitée ou nou­veau stim­u­lus, cette représen­ta­tion et ses infor­ma­tions asso­ciées évolu­ent : elle peut être mod­i­fiée ou con­solidée. Cepen­dant, elle reste tou­jours implicite.
Dans cette présen­ta­tion, j’in­tro­duis une méthodolo­gie pour extraire la représen­ta­tion latente et les états latents asso­ciés à un sys­tème don­né à par­tir de don­nées séquen­tielles sous la forme d’un auto­mate à états finis sur deux cas d’u­til­i­sa­tion dif­férents : les réseaux récur­rents avec LSTM dans le con­texte de la mod­éli­sa­tion cog­ni­tive des con­nais­sances d’ex­perts, et les agents autonomes dans le con­texte de la robo­t­ique développe­men­tale.
Ce tra­vail, à l’o­rig­ine dans le domaine de l’in­ter­préta­bil­ité des réseaux de neu­rones récur­rents, a été éten­du et adap­té au domaine de l’ex­plic­a­bil­ité pour fournir des expli­ca­tions locales du com­porte­ment de sys­tèmes com­plex­es, c’est-à-dire une instal­la­tion avec des cap­teurs, sur des plages de temps déter­minées à par­tir de don­nées hétérogènes.
Dans le cadre de ce tra­vail, j’abor­derai égale­ment des ques­tions liées à l’IA explic­a­ble, à l’ac­cept­abil­ité des expli­ca­tions, à l’in­ter­ac­tion homme-machine, à la mod­éli­sa­tion cog­ni­tive et à la robo­t­ique développementale.

16/01/2024 – Ismaïl Baaj
« On the han­dling of incon­scient sys­tems of fuzzy rela­tion­al equa­tions« 

Dans cette présen­ta­tion, j’é­tudie les sys­tèmes d’équa­tions rela­tion­nelles floues incom­pat­i­bles, qui se répar­tis­sent en deux class­es : ceux basés sur la com­po­si­tion max‑T, où T est une t‑norme par­mi le min­i­mum, le pro­duit ou la t‑norme de Lukasiewicz, et ceux basés sur la com­po­si­tion min->, où -> est un impli­ca­teur résidu­el par­mi l’im­pli­ca­tion de Gödel, l’im­pli­ca­tion de Goguen ou l’im­pli­ca­tion de Lukasiewicz. Pour traiter l’in­com­pat­i­bil­ité de ces sys­tèmes, j’étab­lis des for­mules ana­ly­tiques explicites pour cal­culer la dis­tance de Tcheby­shev (définie par la norme L‑infini) entre le sec­ond mem­bre du sys­tème incom­pat­i­ble et l’ensem­ble des sec­onds mem­bres des sys­tèmes com­pat­i­bles défi­nis avec la même matrice : celle du sys­tème incom­pat­i­ble. L’é­tape prin­ci­pale pour obtenir ces for­mules con­siste à mon­tr­er que la dis­tance de Tcheby­shev est déter­minée par une iné­gal­ité vec­to­rielle. Les for­mules obtenues m’ont per­mis d’é­tudi­er l’ensem­ble des approx­i­ma­tions de Tcheby­shev du sec­ond mem­bre d’un sys­tème incom­pat­i­ble, les solu­tions approx­i­ma­tives d’un sys­tème incom­pat­i­ble et les sous-sys­tèmes com­pat­i­bles max­i­maux d’un sys­tème incom­pat­i­ble. Ces out­ils peu­vent être utiles pour des appli­ca­tions basées sur les sys­tèmes d’équa­tions rela­tion­nelles floues, telles que les mémoires asso­cia­tives ou l’ap­pren­tis­sage des paramètres des règles d’un sys­tème à base de règles possibilistes.

  • 28/02/2023 - Quentin Cap­part (MCF Plytech­nique Mon­tréal)
    « Learn­ing to bound using deci­sion dia­grams and rein­force­ment learning »
  • 19/06/2023Maxime Vail­lant, Hugo Mar­tin  (étu­di­ants mas­ter UTC, stages Orange Labs)
    « Spik­ing Neur­al Net­works: an introduction »
  • 5/09/2023Yara Maher Gomaa
    « Intro­duc­tion to PhD Thesis:Gamified E‑Learning Sys­tems Based on Ontolo­gies: Teach­ing Perspective
  • 12/09/2023Jür­gen Lan­des (MCF uni­ver­sité de Milan)
    « An Objec­tive Bayesian Approach to KR »
  • 26/09/2023Elise Per­rotin (post­doc au CRIL à Lens sur la logique épistémique)
    « Light­weight epis­temic log­ic, plan­ning, and more »
  • 26/10/2023- Insaf Seti­tra
    « Appren­tis­sage automa­tique, appren­tis­sage pro­fond et vision par ordi­na­teur et leurs applications »
  • 31/10/2023Naci­ra Abbas
    « For­mal Con­cept Analy­sis for Dis­cov­er­ing Link Keys in the Web of Data »
  • 7/11/2023Alessan­dro Leite
    « Lever­ag­ing Evo­lu­tion­ary-based Approach­es for Inter­pretable Machine Learning »
  • 14/11/2023Mali­ka Ben Khal­i­fa
    « Deal­ing with uncer­tain­ty in fake reviews detec­tion with­in the belief function »
  • 16/11/2023 – Ikram Chraibi Kaadoud
    « Com­pren­dre le com­porte­ment des sys­tèmes com­plex­es en util­isant l’in­ter­préta­bil­ité et l’explicabilité »
  • 27/11/2023Jür­gen Lan­des (MCF uni­ver­sité de Milan)
    « The Quest for Good Information »
  • 21/11/2023Soundouss Mes­sou­di
    « Con­for­mal uncer­tain­ty sets using foun­da­tion models »

Thier­ry Denoeux

Pro­fesseur à l’U­ni­ver­sité de Com­piègne, Heudiasyc

Le mer­cre­di 22 jan­vi­er à 14H, en amphithéa­tre Bessel

Abstract:

The Demp­ster-Shafer the­o­ry of belief func­tions is a for­mal frame­work for mod­el­ing and rea­son­ing with uncer­tain­ty. It is based on the rep­re­sen­ta­tion of inde­pen­dent pieces of evi­dence by belief func­tions, and on their com­bi­na­tion by an oper­a­tor called Dempster’s rule. In this talk, we show that the weight­ed sum and soft­max oper­a­tions per­formed in logis­tic regres­sion clas­si­fiers and, for instance, in the out­put lay­er of feed­for­ward neur­al net­works can be inter­pret­ed in terms of evi­dence aggre­ga­tion using Demp­ster’s rule of com­bi­na­tion. From that per­spec­tive, the out­put prob­a­bil­i­ties com­put­ed by such clas­si­fiers (includ­ing also sup­port vec­tor machines) can be seen as being derived from  some belief func­tions, which can be laid bare and used for deci­sion mak­ing or clas­si­fi­er fusion. This find­ing sug­gests that the links between machine learn­ing and belief func­tions are clos­er than is usu­al­ly assumed, and that Demp­ster-Shafer the­o­ry pro­vides a suit­able frame­work for devel­op­ing new machine learn­ing algorithms.

Sébastien Konieczny

Directeur de Recherche CNRS, CRIL (Cen­tre de Recherche en Infor­ma­tique de Lens)

Le mar­di 3 décem­bre 2019 à 14H, en GI 16

Résumé: Nous présen­tons la plate-forme www.coscinus.org. Cette plate-forme per­met, à par­tir de l’analyse des don­nées issues de DBLP, de déter­min­er des prox­im­ités entre sup­ports de pub­li­ca­tion (con­férences et jour­naux) en infor­ma­tique, et de faire appa­raître des domaines de la dis­ci­pline en réal­isant un par­ti­tion­nement des sup­ports. L’idée étant que deux sup­ports sont con­sid­érés comme proches si de nom­breux auteurs pub­lient con­join­te­ment dans ces deux sup­ports. On peut donc obtenir une carte de la dis­ci­pline basée unique­ment sur les habi­tudes de pub­li­ca­tion des auteurs. Nous présen­tons ensuite un out­il per­me­t­tant d’i­den­ti­fi­er des experts dans un domaine (plus exacte­ment nous iden­ti­fions les auteurs qui pub­lient le plus dans le voisi­nage d’un sup­port don­né), ain­si qu’un out­il per­me­t­tant d’i­den­ti­fi­er des experts cor­re­spon­dant à un auteur don­né. Ce dernier out­il peut être vu comme un cas par­ti­c­uli­er d’une prob­lé­ma­tique plus générale qui est d’i­den­ti­fi­er quels sont les meilleurs élé­ments, étant don­né un élé­ment cible.

Sébastien Dester­cke

GI42, 14h

Heudi­asyc Laboratory

This sem­i­nar will con­tain two short talks, recent­ly giv­en in dif­fer­ent conferences.

The first talk will con­cern an impre­cise prob­a­bilis­tic mod­el to nav­i­gate through an uncer­tain occu­pa­tion grid, with an illus­tra­tive appli­ca­tion to autonomous vehicles.

The sec­ond talk will con­cern the prob­lem of pre­dict­ing a set of clus­ter­ings from a rela­tion­al matrix where infor­ma­tion on the pos­si­ble rela­tions are pro­vid­ed by scores.

Lucie Jacquin

Doc­tor­ante, cen­tre LGI2P (Lab­o­ra­toire de Génie Infor­ma­tique et d’Ingénierie de Pro­duc­tion)

Le mer­cre­di 16 Octo­bre 2019 à 10h30, en GI 42

Résumé: Besides eco­log­i­cal issues, the recy­cling of plas­tics involves eco­nom­ic incen­tives that encour­age indus­tri­al firms to invest in the field. Some of them have focused on the waste sort­ing phase by design­ing opti­cal devices able to dis­crim­i­nate on-line between plas­tic cat­e­gories. To achieve both eco­log­i­cal and eco­nom­ic objec­tives, sort­ing errors must be min­i­mized to avoid seri­ous recy­cling prob­lems and sig­nif­i­cant qual­i­ty degra­da­tion of the final recy­cled prod­uct. Even with the most recent acqui­si­tion tech­nolo­gies based on spec­tral imag­ing, plas­tic recog­ni­tion remains a tough task due to the pres­ence of impre­ci­sion and uncer­tain­ty, e.g. vari­abil­i­ty in mea­sure­ment due to atmos­pher­ic dis­tur­bances, age­ing of plas­tics, black or dark-coloured mate­ri­als etc. The enhance­ment of recent sort­ing tech­niques based on clas­si­fi­ca­tion algo­rithms has led to quite good per­for­mance results, how­ev­er the remain­ing errors have seri­ous con­se­quences for such appli­ca­tions. We pro­pose an impre­cise clas­si­fi­ca­tion algo­rithm to min­i­mize the sort­ing errors of stan­dard clas­si­fiers when deal­ing with incom­plete data, by both inte­grat­ing the pro­cess­ing of clas­si­fi­ca­tion doubt and hes­i­ta­tion in the deci­sion process and improv­ing the clas­si­fi­ca­tion per­for­mances. To this end, we pro­pose a rela­belling pro­ce­dure that enables bet­ter rep­re­sen­ta­tion of the impre­ci­sion of the learn­ing data, and we intro­duce the belief func­tions frame­work to rep­re­sent the pos­te­ri­or prob­a­bil­i­ty pro­vid­ed by a clas­si­fi­er. Final­ly, the per­for­mances of our approach com­pared to exist­ing impre­cise clas­si­fiers is illus­trat­ed on the sort­ing prob­lem of four plas­tic cat­e­gories from mid-wave­length infrared spec­tra acquired in an indus­tri­al context.

Alix Goudyme

Doc­tor­ant, CRIL (Cen­tre de recherche en Infor­ma­tique de Lens)

Le mar­di 1er Octo­bre 2019 à 14h, en GI 41

Résumé: Mod­élis­er l’in­ten­tion per­met d’ex­pli­quer les déci­sions pris­es par des agents. Dans ce tra­vail, nous pro­posons une mod­éli­sa­tion de l’in­ten­tion dans des jeux épistémiques représen­tés en logique épistémique dynamique. Étant don­nées une pro­priété et une suite d’ac­tions déjà réal­isée par un joueur dans un tel jeu, nous pro­posons une méth­ode capa­ble de déter­min­er si le joueur a eu l’in­ten­tion d’obtenir cette pro­priété.
Un exem­ple de l’u­til­i­sa­tion de cette méth­ode est don­né en util­isant une ver­sion sim­pli­fiée du jeu col­lab­o­ratif Hanabi.

Yonatan Car­los Alarcon

Doc­tor­ant, Uni­ver­sité de Tech­nolo­gie de Compiègne

Le lun­di 16 sep­tem­bre 2019 à 11h, en GI 42

Résumé: Ce sémi­naire présen­tera les derniers travaux de thèse de Yonatan, por­tant notam­ment sur les prob­lèmes d’ap­pren­tis­sage de mod­èles pru­dents à sor­ties struc­turées, notam­ment pour les prob­lèmes de pré­dic­tions de range­ment ou multi-étiquettes.

Frédéric Pichon

Maître de con­férence, Uni­ver­sité d’Artois

Le lun­di 16 sep­tem­bre 2019 à 14h, en GI 42

Résumé: La fusion d’in­for­ma­tions est un proces­sus dont l’ob­jec­tif est d’ex­traire une con­nais­sance véridique et aus­si fine que pos­si­ble à pro­pos d’une entité d’in­térêt, étant don­né des infor­ma­tions incer­taines provenant de sources de qual­ité vari­able. Dans un pre­mier temps, nous ver­rons que la théorie des fonc­tions de croy­ance est par­ti­c­ulière­ment adap­tée à ce prob­lème. Une approche générale pour la fusion fondée sur une mod­éli­sa­tion des con­nais­sances sur la qual­ité des sources sera notam­ment présen­tée, ain­si que quelques résul­tats asso­ciés dont une nou­velle décom­po­si­tion canon­ique des fonc­tions de croy­ance. Dans un deux­ième temps, le prob­lème de la com­para­i­son d’in­for­ma­tions incer­taines sera abor­dé. Une général­i­sa­tion de la notion de spé­cial­i­sa­tion, qui étend l’in­clu­sion entre ensem­bles aux fonc­tions de croy­ance et qui per­met donc la com­para­i­son de leur con­tenu infor­ma­tion­nel, sera présen­tée. Cette général­i­sa­tion con­stitue un moyen d’é­ten­dre toute rela­tion entre ensem­bles aux fonc­tions de croy­ance. Enfin, quelques exem­ples issus d’ap­pli­ca­tions vien­dront illus­tr­er ces divers­es contributions.

Gabriel Frisch

Doc­tor­ant, Uni­ver­sité de Tech­nolo­gie de Compiègne

Le mar­di 28 mai 2019 à 14h, en GI 42

Résumé: Nous présen­tons un mod­èle sta­tis­tique basé sur le Latent  Block Mod­el (LBM, une méth­ode de coclus­ter­ing) pour réalis­er une  recom­man­da­tion sociale. Le mod­èle utilise des vari­ables latentes pour
mod­élis­er un proces­sus de man­que­ment de don­née de type Not Miss­ing At Ran­dom (NMAR)

Jer­ry Lonlac

Post-doc­tor­ant, IMT Lille Douai

Le mer­cre­di 22 mai à 14h, en GI42

Abstract: Dans cet exposé décom­posé en deux par­ties, je présen­terai mes travaux autour de la Sat­is­fi­a­bil­ité en logique propo­si­tion­nelle et de la fouille de don­nées, en faisant ressor­tir les liens pou­vant exis­ter entre-elles.

Dans la pre­mière par­tie, je com­mencerai par intro­duire briève­ment le prob­lème de la Sat­is­fi­a­bil­ité propo­si­tion­nelle qui est un prob­lème fon­da­men­tal en théorie de la com­plex­ité. Ensuite, je mon­tr­erai com­ment intro­duire un point de vue basé sur les préférences des util­isa­teurs dans la réso­lu­tion SAT à par­tir d’une stratégie de sup­pres­sion de claus­es appris­es (expli­ca­tions des dif­férents con­flits) fondée sur une
rela­tion de dom­i­nance entre claus­es apprises.

Dans la deux­ième par­tie, je me focalis­erai tout d’abord sur le prob­lème de fouille de motifs gradu­els. Les motifs gradu­els qui mod­élisent les co-vari­a­tions com­plex­es d’at­trib­uts de la forme « plus/moins A, plus/moins B »; jouent un rôle pri­mor­dial dans plusieurs appli­ca­tions du monde réel où le vol­ume de don­nées numériques à gér­er est impor­tant, c’est le cas de don­nées biologiques ou de don­nées médi­cales. Ces motifs peu­vent con­stituer un moyen de pren­dre en compte l’incertitude dans les co-vari­a­tions de valeurs d’attributs. Par la suite, je présen­terai une nou­velle for­mu­la­tion du prob­lème de fouille de motifs gradu­els comme une tâche de fouille de motifs séquen­tiels. Cette réduc­tion orig­i­nale per­met d’exploiter les algo­rithmes de fouille de motifs séquen­tiels pour extraire les motifs gradu­els et de sur­mon­ter quelques lim­i­ta­tions des approches de la littérature.

Enfin, je mon­tr­erai à tra­vers une mod­éli­sa­tion par con­traintes du prob­lème de fouille de motifs gradu­els com­ment rechercher les motifs gradu­els en util­isant la Sat­is­fi­a­bil­ité Propositionnelle.

Xavier Par­ent

Chercheur post-doc­tor­al, Uni­ver­sité du Lux­em­bourg, Fac­ul­ty of Sci­ence, Tech­nol­o­gy and Communication

Le mar­di 21 mai 2019 à 14h, en GI 42

Résumé: Les logiques non-monot­o­nes et les logiques des con­di­tion­nels ont été dévelop­pées par les chercheurs en IA pour ren­dre compte du raison­nement en sit­u­a­tion d’in­cer­ti­tude. La base de con­nais­sance con­tient des énon­cés con­di­tion­nels (« si… alors … ») exp­ri­mant des règles générales sujettes à excep­tions.  On s’in­téresse ici aux logiques des con­di­tion­nels dans leur ver­sion dite « déon­tique », où  le con­di­tion­nel exprime une oblig­a­tion. Le mod­èle est de type qual­i­tatif ou ordi­nal, et repose sur l’usage d’une rela­tion de préférence com­para­nt deux alter­na­tives.  Cette approche de type qual­i­ta­tive se veut « généralis­er »  l’ap­proche de type quan­ti­ta­tive, reposant sur la manip­u­la­tion de nom­bres, ou d’u­til­ités.

Dans cet exposé, je présen­terai le résul­tat d’un pro­jet qui vise à iden­ti­fi­er les dif­férentes axioma­tiques  que l’on obtient en jouant sur deux fac­teurs. Tout d’abord, on peut faire vari­er les pro­priétés de la rela­tion de préférence: réflex­iv­ité, tran­si­tiv­ité, total­ité, lim­it assump­tion. Ensuite, on peut jouer sur la dis­tinc­tion (faîte en théorie du choix rationnel) entre élé­ment max­i­mal et élé­ment opti­mal.

Si le temps le per­met, je décrirais égale­ment un tra­vail en cours d’au­toma­ti­sa­tion de ces logiques via Isabelle/HOL–collaboration avec C. Benz­mueller (Uni­ver­sité Libre de Berlin)

Khaled Belahcène

Post-doc­tor­ant, Nutri­omics laboratory

Le jeu­di 16 mai à 14h, en GI42

Abstract: Le mod­èle addi­tif con­stitue le vais­seau ami­ral des procé­dures visant à agréger des points de vues mul­ti­ples, voire con­flictuels, que ce soit en déci­sion mul­ti­critères, en choix social, ou en appren­tis­sage automa­tique. Sa sim­plic­ité tech­nique incite à penser qu’il s’agit d’un mod­èle « inter­prétable ». Nous chercherons à réalis­er ce poten­tiel, en allant jusqu’à l’interprétation, de cette procé­dure d’agrégation des préférences, dans un cadre robuste vis-à-vis de l’aspect incom­plet de l’information.

Bib­li­ogra­phie:

Belahcene, Khaled, et al. Explain­ing robust addi­tive util­i­ty mod­els by sequences of pref­er­ence swaps. The­o­ry and Deci­sion 82.2 (2017): 151–183.

Belahcene, Khaled, et al. Com­par­ing options with argu­ment schemes pow­ered by can­cel­la­tion. IJCAI 2019

Mar­tin Dieguez

Chercheur post-doc­tor­al, Ecole Nationale d’Ingénieurs de Brest, Lab-STICC

Le mar­di 14 mai 2019 à 14h, en GI 42

Résumé: Answer Set Pro­gram­ming (ASP) est une forme de pro­gram­ma­tion déclar­a­tive ori­en­tée vers les prob­lèmes de recherche dif­fi­ciles (prin­ci­pale­ment NP-dif­fi­ciles). ASP a été util­isé avec suc­cès dans des domaines tels que la représen­ta­tion des con­nais­sances (KR), la pro­gram­ma­tion logique et le raison­nement automa­tique. Dans cet exposé, je présen­terai plusieurs exten­sions d’ASP qui per­me­t­tent d’utiliser ce for­mal­isme pour représen­ter et raison­ner sur dif­férents types de scé­nar­ios tels que robo­t­ique, réal­ité virtuelle, inté­gra­tion des con­naî­sances, plan­i­fi­ca­tion, diag­nose, sys­tèmes biologiques ou scé­nar­ios con­tenant des infor­ma­tions incertaines.

Abstract: Answer Set Pro­gram­ming (ASP) is a form of declar­a­tive pro­gram­ming ori­ent­ed towards dif­fi­cult (pri­mar­i­ly NP-hard) search prob­lems. ASP has been suc­cess­ful­ly used in areas such as Knowl­edge Rep­re­sen­ta­tion (KR), Log­ic Pro­gram­ming and Auto­mat­ed Rea­son­ing. In this talk I will present sev­er­al recent of ASP that allow using this for­mal­ism for rep­re­sent­ing and rea­son­ing on dif­fer­ent types of sce­nar­ios such as robot­ics, vir­tu­al real­i­ty, knowl­edge inte­gra­tion, plan­ning, diag­no­sis, bio­log­i­cal sys­tems or sce­nar­ios with uncer­tain information.

Christophe Ambroise

Pro­fesseur, Uni­ver­sité d’Évry Val d’Es­sonne, Lab­o­ra­toire de Math­é­ma­tiques et Mod­éli­sa­tion d’Évry

Le mar­di 9 Avril à 15h, en GI 42

Abstract: The behav­ior of eco­log­i­cal sys­tems main­ly relies on the inter­ac­tions between the species it involves. In many sit­u­a­tions, these inter­ac­tions are not observed and have to be inferred from species abun­dance data. To be rel­e­vant, any recon­struc­tion net­work method­ol­o­gy needs to han­dle count data and to account for pos­si­ble envi­ron­men­tal effects. It also needs to dis­tin­guish between direct and indi­rect inter­ac­tions and graph­i­cal mod­els pro­vide a con­ve­nient frame­work for this purpose.

We intro­duce a gener­ic sta­tis­ti­cal mod­el for net­work recon­struc­tion based on abun­dance data. The mod­el includes fixed effects to account for envi­ron­men­tal covari­ates and sam­pling efforts, and cor­re­lat­ed ran­dom effects to encode species inter­ac­tions. The inferred net­work is obtained by aver­ag­ing over all pos­si­ble tree-shaped (and there­fore sparse) net­works, in a com­pu­ta­tion­al­ly effi­cient man­ner. An out­put of the pro­ce­dure is the prob­a­bil­i­ty for each edge to be part of the under­ly­ing network. 

A sim­u­la­tion study shows that the pro­posed method­ol­o­gy com­pares well with state-of-art approach­es, even when the under­ly­ing net­work strong­ly dif­fers from a tree. The analy­sis of two data sets high­lights the influ­ence of covari­ates on the inferred network.

Prakash Shenoy

Pro­fesseur, Kansas Uni­ver­si­ty, School of business

Le mar­di 2 Avril à 14h, en amphi Gauss

Abstract: I will present some of the the­o­ry and appli­ca­tions of graph­i­cal mod­els using Demp­ster-Shafer­’s (DS) belief func­tion the­o­ry. To empha­size the com­mon­al­i­ties with prob­a­bilis­tic graph­i­cal mod­els, I will first describe the abstract frame­work of val­u­a­tion-based sys­tems, which includes prob­a­bil­i­ty the­o­ry and DS belief func­tion the­o­ry. Next, I will describe the basics of DS belief func­tion the­o­ry, and illus­trate the def­i­n­i­tions using the cap­tain’s prob­lem from Almond’s 1995 mono­graph titled « Graph­i­cal Belief Mod­el­ing. » Using the cap­tain’s prob­lem, I will describe local com­pu­ta­tion in com­put­ing mar­gin­als of joint belief func­tion. This algo­rithm is imple­ment­ed in Belief Func­tion Machine (BFM), an open source Mat­lab code for constructing/solving graph­i­cal mod­els in DS belief func­tions. I will demon­strate the use of BFM in solv­ing the Cap­tain’s prob­lem, the chest clin­ic Bayes net exam­ple from Lau­ritzen-Spiegel­hal­ter’s 1988 arti­cle in JRSS, and a large com­mu­ni­ca­tion net­work reli­a­bil­i­ty exam­ple described in Haen­ni-Lehman­n’s 2002 arti­cle in IJAR.

Amélie Lev­ray

Post-doc­tor­ante, Uni­ver­sité d’Ed­im­burgh, School of informatics

Le mar­di 26 mars à 14h, en GI 42

Abstract: Large-scale prob­a­bilis­tic rep­re­sen­ta­tions, includ­ing sta­tis­ti­cal  knowl­edge bases and graph­i­cal mod­els, are increas­ing­ly in demand. They  are built by min­ing mas­sive sources of struc­tured and unstruc­tured  data, the lat­ter often derived from nat­ur­al lan­guage pro­cess­ing  tech­niques. The very nature of the  enter­prise makes the extract­ed  rep­re­sen­ta­tions prob­a­bilis­tic. In par­tic­u­lar, induc­ing rela­tions and  facts from noisy and incom­plete sources via sta­tis­ti­cal machine  learn­ing mod­els means that the labels are either already  prob­a­bilis­tic, or that prob­a­bil­i­ties approx­i­mate con­fi­dence. While the  progress is impres­sive,  extract­ed rep­re­sen­ta­tions essen­tial­ly enforce  the closed-world assump­tion, which means that all facts in the  data­base are accord­ed the cor­re­spond­ing prob­a­bil­i­ty, but all oth­er  facts have prob­a­bil­i­ty zero. The CWA is deeply prob­lem­at­ic in most  machine learn­ing con­texts. A prin­ci­pled solu­tion is need­ed for  rep­re­sent­ing incom­plete and inde­ter­mi­nate knowl­edge in such mod­els,  impre­cise prob­a­bil­i­ty mod­els such as credal net­works being an exam­ple. In this work, we are inter­est­ed in the foun­da­tion­al prob­lem of  learn­ing such open-world prob­a­bilis­tic mod­els. How­ev­er, since exact  infer­ence in prob­a­bilis­tic graph­i­cal mod­els is intractable, the  par­a­digm of tractable learn­ing has emerged to learn data struc­tures  (such as arith­metic cir­cuits) that sup­port effi­cient prob­a­bilis­tic  query­ing. We show here how the com­pu­ta­tion­al machin­ery under­ly­ing  tractable learn­ing and infer­ence has to be gen­er­alised for impre­cise  prob­a­bil­i­ties. Our empir­i­cal eval­u­a­tions demon­strate that our regime  is also effective.

Khaled Belahcène

Post-doc­tor­ant, Nutri­omics laboratory

Le mar­di 12 mars à 14h, en amphi Gauss (bâti­ment G du cen­tre de recherche)

Abstract: Nous cher­chons à équiper un proces­sus d’aide à la déci­sion d’outils per­me­t­tant de répon­dre aux exi­gences de redev­abil­ité. Nous faisons l’hypothèse d’un proces­sus dialec­tique entre par­ties prenantes de la déci­sion, ce qui per­met d’envisager l’acquisition d’information sur les préférences ain­si que la pos­si­bil­ité d’interroger le bien-fondé ou la loy­auté de la procé­dure de décision/recommandation, voire d’en con­tester les effets. Tech­nique­ment, nous pro­posons d’étudier l’espace des ver­sions d’un mod­èle d’agrégation des préférences issu de la Théorie de la déci­sion, et de for­muler le prob­lème inverse cor­re­spon­dant. Nous ver­rons com­ment cette for­mu­la­tion per­met de représen­ter l’inférence robuste à l’aide de sché­mas d’arguments, et ain­si pro­duire des expli­ca­tions des recom­man­da­tions, si pos­si­ble cor­rectes, com­plètes, facile à cal­culer et à com­pren­dre. Nous illus­trerons cette approche dans le cadre d’une procé­dure col­lec­tive de tri par approbation.

Arthur Van Camp

Post-doc­tor­ant, Uni­ver­sité de Tech­nolo­gie de Com­piègne, Heudi­asyc (équipe CID)

Le mar­di 5 mars en GI42, à 14h

Abstract:

Impre­cise choice func­tions con­sti­tute a very gen­er­al and sim­ple math­e­mat­i­cal frame­work for mod­el­ling choice under uncer­tain­ty. In par­tic­u­lar, they rep­re­sent the set-val­ued choic­es that typ­i­cal­ly arise from apply­ing deci­sion rules to impre­cise-prob­a­bilis­tic uncer­tain­ty mod­els. Choice func­tions can be giv­en a clear behav­iour­al inter­pre­ta­tion in terms of atti­tudes towards gam­bling.  I will intro­duce choice func­tions as a tool to mod­el uncer­tain­ty, and con­nect them with oth­er, less gen­er­al, belief mod­els used in the the­o­ry of impre­cise prob­a­bil­i­ties, such as sets of desir­able gam­bles, and sets of probabilities.

Marc Cavaz­za

Pro­fesseur, Chef du Départe­ment Infor­ma­tique à l’U­ni­ver­sité de Greenwich

Le mar­di 26 févri­er dans l’am­phi du Cen­tre d’In­no­va­tion, à 14h

Résumé :

Les tech­niques de Nar­ra­tion Inter­ac­tive se sont dévelop­pées depuis les années 2000 prin­ci­pale­ment dans le but de fournir un con­tenu nar­ratif plus évolué aux médias inter­ac­t­ifs, pour des appli­ca­tions plus ludiques qu’éducatives. Avec le développe­ment de représen­ta­tions des con­nais­sances plus sophis­tiquées et d’approches plus cog­ni­tives de la nar­ra­tion, il existe de nou­velles oppor­tu­nités pour utilis­er des tech­niques nar­ra­tives dans le cadre de la sim­u­la­tion et de la for­ma­tion. Cette ten­dance rejoint au niveau nar­ratif le développe­ment du domaine des « Jeux Sérieux ». Nous présen­tons plusieurs exem­ples d’utilisation de tech­niques nar­ra­tives dans des appli­ca­tions non ludiques, basées sur une util­i­sa­tion de tech­niques de plan­i­fi­ca­tion par oper­a­teurs ou par tâches.

Dans le domaine de la for­ma­tion ou de l’éducation des patients, la con­ver­sion de mod­èles en con­nais­sances en frag­ments nar­rat­ifs scé­nar­isés peut être util­isée pour créer une diver­sité de sit­u­a­tions résul­tant de l’interaction entre des con­nais­sances génériques et des don­nées per­son­nelles. Nous présen­terons égale­ment une approche cog­ni­tive de la nar­ra­tion qui vise à con­trôler le phénomène de com­préhen­sion nar­ratif, et qui a pu être util­isée pour explor­er la com­préhen­sion causale chez l’enfant.

Tim­o­th­ée Tabouy

Doc­tor­ant à AgroParisTech

Le mar­di 8 jan­vi­er en GI42, à 14h

Résumé :

The pur­pose here is to deal with non-observed dyads dur­ing the sam­pling of a net­work and con­sec­u­tive issues in the Sto­chas­tic Block Mod­el (SBM) infer­ence. We’ll review sam­pling designs and recov­er Miss­ing At Ran­dom (MAR) and Not Miss­ing At Ran­dom (NMAR) con­di­tions for SBM. We’ll intro­duce sev­er­al vari­ants of the vari­a­tion­al EM (VEM) algo­rithm for infer­ring the SBM under var­i­ous sam­pling designs (MAR and NMAR). Mod­el selec­tion cri­te­ria based on Inte­grat­ed Clas­si­fi­ca­tion Like­li­hood (ICL) are derived for select­ing both the num­ber of blocks and the sam­pling design. We’ll inves­ti­gate the accu­ra­cy and the range of applic­a­bil­i­ty of these algo­rithms with sim­u­la­tions. We’ll final­ly explore one real-world net­works from biol­o­gy (pro­tein-pro­tein inter­ac­tion net­work), where the inter­pre­ta­tions con­sid­er­ably depends on the sam­pling designs considered.

Dester­cke Sébastien

Chercheur CNRS au lab­o­ra­toire Heudiasyc

Le mar­di 22 jan­vi­er 2018 à 14h en GI16

Résumé :

In this talk, we will present a gener­ic mean to han­dle pref­er­ences of an indi­vid­ual user taint­ed with uncer­tain­ty, with belief func­tions used as an uncer­tain­ty mod­el. We will illus­trate the approach on a clas­si­cal weight­ed aver­age. We will dis­cuss the poten­tial inter­ests of such an appraoch, as well as its pos­si­ble limits.

Emmanuel Ramas­so

Maître de con­férence à l’ENS­MM de Besançon

Le jeu­di 20 décem­bre en GI42, à 11h

« Mon­i­tor­ing of engi­neered systems »


Résumé :

The pre­sen­ta­tion will first start with a glob­al view of some mon­i­tor­ing method­olo­gies devel­oped in our team to detect and track a degra­da­tion on engi­neered sys­tems. Illus­tra­tions will con­cern tur­bo­fan engines, rolling bear­ings, milling and car­bon pipes.

The method­olo­gies rely on pat­tern recog­ni­tion algo­rithms ded­i­cat­ed to those appli­ca­tions and fed by time-series and by a pri­ori knowl­edge. One of the com­mon points of those algo­rithms con­cerns the man­age­ment of uncer­tain­ty and for that we used dif­fer­ent formalisms:

  • belief func­tions applied to online learn­ing with evolv­ing models,
  • com­pu­ta­tion­al geom­e­try based on poly­gons for sim­i­lar­i­ty based mon­i­tor­ing and prognostics,
  • and con­sen­sus clus­ter­ing in unsu­per­vised learn­ing for reverse engineering.

The sec­ond part will be ded­i­cat­ed to Evi­den­tial Hid­den Markov Mod­els for the sta­tis­ti­cal rep­re­sen­ta­tion of time-series using belief func­tions. Infer­ence and learn­ing in those mod­els will be detailed and discussed.

Stéphane Car­don

Maître de con­férence à Écoles de Saint-Cyr Coëtquidan

Le mar­di 18 décem­bre 2018 en Amphi Gauss, à 14h

Résumé :

Le pre­mier jeu à avoir util­isé la plan­i­fi­ca­tion comme IA pour ses per­son­nages non joueurs est First Encounter Assault Recon (F.E.A.R) en 2005. Le résul­tat était sai­sis­sant et a incité à se pos­er une ques­tion : Peut-on plan­i­fi­er en temps réel des cen­taines d’IAs dans un jeu ou une sim­u­la­tion tac­tique ? La réponse, en cours de développe­ment et pour l’in­stant pos­i­tive, se base sur un plan­i­fi­ca­teur de type STRIPS et la pro­gram­ma­tion GPU. Cepen­dant, la plan­i­fi­ca­tion ne s’arrête pas là. Avec la bonne mod­éli­sa­tion, elle pour­rait per­me­t­tre de déstruc­tur­er un champ de bataille ou encore pro­pos­er une séquence de cour­tes sim­u­la­tions immer­sives, les deux sit­u­a­tions ayant un but formateur.

Zied Bouraoui

Maître de con­férence à l’u­ni­ver­sité d’Artois

Le mar­di 4 décem­bre en GI42, à 14h

Résumé :

Con­sid­er­able atten­tion has recent­ly been devot­ed to the prob­lem of auto­mat­i­cal­ly extend­ing knowl­edge bases by apply­ing some form of induc­tive rea­son­ing. While the vast major­i­ty of exist­ing work is cen­tred around so-called knowl­edge graphs, in this talk I will con­sid­er a set­ting where the input con­sists of a set of (exis­ten­tial) rules. I will present some Bayesian mod­els to find plau­si­ble miss­ing rules which are inspired by cog­ni­tive mod­els for cat­e­go­ry based induc­tion. Unlike many exist­ing approach­es, we learn rules by direct­ly exploit­ing reg­u­lar­i­ties in the giv­en rule base, and do not require that a data­base with con­cept and rela­tion instances is giv­en. As a result, the pro­posed meth­ods can be applied to a wide vari­ety of ontologies.

Xuhong (Jacques) Li

Doc­tor­ant au lab­o­ra­toire Heudiasyc

Le mar­di 16 octo­bre 2018 à 14h30 en GI42

Résumé :

In induc­tive trans­fer learn­ing, fine-tun­ing pre-trained con­vo­lu­tion­al net­works sub­stan­tial­ly out­per­forms train­ing from scratch. When using fine-tun­ing, the under­ly­ing assump­tion is that the pre-trained mod­el extracts gener­ic fea­tures, which are at least par­tial­ly rel­e­vant for solv­ing the tar­get task, but would be dif­fi­cult to extract from the lim­it­ed amount of data avail­able on the tar­get task. How­ev­er, besides the ini­tial­iza­tion with the pre-trained mod­el and the ear­ly stop­ping, there is no mech­a­nism in fine-tun­ing for retain­ing the fea­tures learned on the source task. In this paper, we inves­ti­gate sev­er­al reg­u­lar­iza­tion schemes that explic­it­ly pro­mote the sim­i­lar­i­ty of the final solu­tion with the ini­tial mod­el. We show the ben­e­fit of hav­ing an explic­it induc­tive bias towards the ini­tial mod­el. We even­tu­al­ly rec­om­mend that the base­line pro­to­col for trans­fer learn­ing should rely on a sim­ple $L^2$ penal­ty using the pre-trained mod­el as a reference.

Yonatan Alar­con

Doc­tor­ant au lab­o­ra­toire Heudiasyc

Le mar­di 16 octo­bre 2018 à 14h00 en GI42

Résumé :

Dans cette présen­ta­tion, nous présen­terons des pre­miers résul­tats con­cer­nant l’ex­ten­sion de l’analyse linéaire dis­crim­i­nante impré­cise (une méth­ode clas­sique d’ap­pren­tis­sage) au cas impré­cis, qui per­met de pro­duire des pré­dic­tions pru­dentes en cas de manque d’in­for­ma­tion et/ou d’in­for­ma­tions con­flictuelles quand à la vraie classe.

Cesar Tacla

Pro­fesseur à Uni­ver­si­dade Tec­no­log­i­ca Fed­er­al Do Parana

Le jeu­di 4 octo­bre 2018 à 10h en GI42

Résumé :

La pre­mière par­tie con­cerne les con­cepts fon­da­men­taux de l’argumentation.

Ensuite, je présente un usage de l’ar­gu­men­ta­tion rhé­torique qui englobe appels, men­aces et récom­pens­es dans des dia­logues entre agents. Il s’ag­it d’un mod­èle pour le cal­cul de la force de argu­ments basé sur l’é­tat de l’ob­jec­tif que l’émet­teur veut attaquer/faire avancer et sur la crédi­bil­ité de l’émet­teur pour accom­plir ses men­aces, récom­pens­es et appellations. 

Le deux­ième usage con­cerne la prise de déci­sion con­sen­suelle. Des agents veu­lent choisir une option entre plusieurs options envis­age­ables (par exem­ple, quel lan­gage de pro­gram­ma­tion pour un cer­tain pro­jet). Chaque agent a sa pro­pre base de croy­ances qui peu­vent amen­er a des argu­ments con­tra­dic­toires lorsque ils dia­loguent a pro­pos d’une option (ex. lan­gage X). A par­tir d’un dia­logue il est pos­si­ble de con­stru­ire un graphe d’at­taques entre les argu­ments. L’op­tion choisie est celle qui a le sup­port des argu­ments les plus forts: ceux qui gar­dent des infor­ma­tions les plus répan­dues par­mi les agents. 

Ines Couso

Le ven­dre­di 28 sep­tem­ber 2018 à 11h en GI42

Pro­fesseur à l’U­ni­ver­sité d’Oviedo

Résumé :

Impre­cise Dirich­let Process-based tests (IDP-tests, for short) have been recent­ly intro­duced in the lit­er­a­ture by Benavoli et al. Those tests over­come the prob­lem of decid­ing how to select a sin­gle pri­or in Bayesian hypoth­e­sis test­ing, in the absence of pri­or infor­ma­tion. They make use of a “near-igno­rance” mod­el, that behaves a pri­ori as a vac­u­ous mod­el for some basic infer­ences, but it pro­vides non-vac­u­ous pos­te­ri­or infer­ences. The authors per­formed an empir­i­cal study com­par­ing the behav­iour of a clas­si­cal fre­quen­tist test and its IDP-based coun­ter­part. They con­clud­ed that IDP-based test are capa­ble of iso­lat­ing instances (sam­ples) where the fre­quen­tist test is vir­tu­al­ly “guess­ing at ran­dom”.  We per­form addi­tion­al empir­i­cal stud­ies that aim at shed­ding more light on the issue. We con­sid­er in par­tic­u­lar the Wilcox­on rank sum test, and its IDP-based exten­sion. We show that the upper and low­er pos­te­ri­or prob­a­bil­i­ties can be expressed as tail prob­a­bil­i­ties based on the val­ue of the U sta­tis­tic, and that there­fore there is a one-to-one cor­re­spon­dence between those upper and low­er prob­a­bil­i­ties and the p‑value of the fre­quen­tist test. We con­struct an impre­cise fre­quen­tist-based test that repro­duces the same deci­sion rule as the the IDP test. It con­sid­ers a neigh­bour­hood around the U‑statistic val­ue. If all the val­ues in the neigh­bour­hood belong to the rejec­tion zone (resp. to the accep­tance region), the null hypoth­e­sis is reject­ed (resp. accept­ed). Oth­er­wise, the judge­ment is sus­pend­ed. This con­struc­tion puts a step for­ward in the rec­on­cil­i­a­tion between fre­quen­tist and Bayesian hypoth­e­sis test­ing: this kind of impre­cisi­a­tion over the set of pri­ors seems to pro­duce sim­i­lar effects on the deci­sion mech­a­nisn as an impre­cisi­a­tion of data around the observations.

Cas­sio P. de Campos

Pro­fesseur à l’u­ni­ver­sité d’Utrecht

Le ven­dre­di 28 sep­tem­bre 2018 à 10h en GI42

Sum­ma­ry :

Sum-prod­uct net­works are an increas­ing­ly pop­u­lar fam­i­ly of prob­a­bilis­tic graph­i­cal mod­els for which mar­gin­al infer­ence can be per­formed in poly­no­mi­al time. They have been shown to achieve state-of-the-art per­for­mance in sev­er­al tasks. When learn­ing sum-prod­uct net­works from scarce data, the obtained mod­el may be prone to robust­ness issues. In par­tic­u­lar, small vari­a­tions of para­me­ters could lead to dif­fer­ent con­clu­sions. We dis­cuss the char­ac­ter­is­tics of sum-prod­uct net­works as clas­si­fiers and study the robust­ness of them with respect to their para­me­ters. Using a robust­ness mea­sure to iden­ti­fy (pos­si­bly) unre­li­able deci­sions, we build a hier­ar­chi­cal approach where the clas­si­fi­ca­tion task is deferred to anoth­er mod­el if the out­come is deemed unre­li­able. We apply this approach on bench­mark clas­si­fi­ca­tion tasks and exper­i­ments show that the robust­ness mea­sure can be a mean­ing­ful man­ner to improve clas­si­fi­ca­tion accuracy.

Dester­cke Sébastien

Chercheur CNRS au lab­o­ra­toire Heudiasyc

Le mar­di 10 juil­let 2018 à 14h en GI42

Résumé :

In this talk, we will be inter­est­ed in the prob­lem of ordi­nal regres­sion, i.e., in pre­dict­ing dis­crete­ly, ordered val­ues (such as rat­ing scores of web­sites, sever­i­ty lev­els of dis­eases, degra­da­tion lev­els of com­po­nents , eval­u­a­tion lev­els of papers, …) from a giv­en set of attrib­ut­es and train­ing data. More par­tic­u­lar­ly, we will be inter­est­ed in the prob­lem of pro­duc­ing cau­tious pre­dic­tions (i.e. sets of pos­si­ble val­ues rather than sin­gle ones) when infor­ma­tion does not allow us to make pre­cise ones. We pro­pose to do so by con­sid­er­ing an impre­cise prob­a­bili­tis­tic set­ting, the basics of which we will recall.

We will then present two strate­gies to per­form ordi­nal regres­sion, based on bina­ry decom­po­si­tions of the ini­tial prob­lem: the first one based on a tree decom­po­si­tion, the sec­ond on a cumu­la­tive decomposition.

Lingx­ue Yang

Doc­tor­ante en infor­ma­tique aux lab­o­ra­toires Heudi­asyc et Costech

Le lun­di 11 juin 2018 à 9h30 en CR C.203 (bâti­ment C, UTC)

Résumé :

In recent years, the advances made in com­put­er tech­nol­o­gy have made human-com­put­er inter­ac­tion (HCI) pen­e­trat­ed into almost all areas of human activ­i­ties. As the car­ri­er of the inter­ac­tion between human and infor­ma­tion, the user inter­face is a key part that influ­ences the sys­tems and human per­for­mance. Espe­cial­ly for busi­ness soft­ware such as ana­lyt­ic appli­ca­tions behind which there are com­pli­cat­ed log­ics. There­fore, the improp­er infor­ma­tion design and inter­face design will hin­der users’ under­stand­ing, learn­ing and the use of the inter­ac­tive sys­tems, caus­ing cog­ni­tive bar­ri­ers, such as mem­o­ry over­load. Inter­ac­tion design is close­ly relat­ed to human cog­ni­tion. In ana­lyt­ic appli­ca­tions, the user’s main task is to acquire the use­ful infor­ma­tion that allows him/her to iden­ti­fy the root caus­es of a busi­ness ques­tion for deci­sion mak­ing. It requires a large num­ber of stor­age of human work­ing mem­o­ry to process the infor­ma­tion need­ed for com­plet­ing an ana­lyt­i­cal task. As the work­ing mem­o­ry is lim­it­ed in capac­i­ty, not all the infor­ma­tion can be stored in once. Our work­ing mem­o­ry only stores the most recent infor­ma­tion for the cur­rent acti­vat­ed task. One con­se­quence is that when the task is inter­rupt­ed or sus­pend­ed, to han­dle a sec­ondary task (inter­rupt­ing task), the work­ing mem­o­ry will free up some space for pro­cess­ing the infor­ma­tion need­ed for this sec­ondary task. When the user returns to the pri­ma­ry task (inter­rupt­ed task), he/she has to recall the released infor­ma­tion. It takes time, over­charges the work­ing mem­o­ry and con­sumes much men­tal effort of the user. The result is the loss of time, and reduced task per­for­mance. There­fore, it is nec­es­sary to design user inter­face and inter­ac­tion con­sid­er­ing these lim­its of work­ing mem­o­ry. The research of ana­lyt­ic prove­nance focus­es on retriev­ing users’ inter­ac­tion his­to­ry, rein­stat­ing their rea­son­ing process so that they can quick­ly resume an inter­rupt­ed or sus­pend­ed task. The designed tools through ana­lyt­ic prove­nance serve as an exter­nal mem­o­ry. Lenay’s two modes of inter­ac­tion: “put down” and “in hand” allow us to address this prob­lem in two per­spec­tives: mem­o­ry sub­sti­tu­tion (put down) and mem­o­ry sup­ple­men­ta­tion (in hand). Mem­o­ry sub­sti­tu­tion con­sid­ers a mem­o­ry tool as an object in the envi­ron­ment. Mem­o­ry sup­ple­men­ta­tion sees a mem­o­ry tool as a cou­pling device between the user and the task, and it extends the user’s capa­bil­i­ty of per­ceiv­ing the prob­lem-solv­ing as a sup­ple­men­ta­tion of their per­cep­tu­al sys­tems. The exist­ing solu­tions are more about the design for the for­mer one, they lack a con­sid­er­a­tion for the lat­ter one. In this research, we try to pose a prob­lem which may improve design con­sid­er­a­tions in resolv­ing the imbal­ance between user inter­face and human cog­ni­tion from the mem­o­ry sup­ple­men­ta­tion point of view. We have devel­oped a tool, based on a “his­to­ry path”, using the con­cept of ana­lyt­ic prove­nance. It per­mits to show, in a spe­cif­ic win­dow of the user inter­face, some of the steps of a pre­vi­ous res­o­lu­tion task that a user has per­formed dur­ing pre­vi­ous expe­ri­ence (or to sim­u­late a res­o­lu­tion task inter­rup­tion). We have set up a sim­ple (min­i­mal­ist) prob­lem-solv­ing task the res­o­lu­tion of which was record­ed (screen, voice, eyes move­ments, time of res­o­lu­tion, etc.), to test if it is pos­si­ble to design a tool for mem­o­ry sup­ple­men­ta­tion. We exper­i­ment two dif­fer­ent tools, based on two his­to­ry path rep­re­sen­ta­tions, a sta­t­ic one, and a dynam­ic one. The sta­t­ic his­to­ry path shows, at the same time, all the attemps made dur­ing a pre­vi­ous expe­ri­ence to resolve a giv­en task. The dynam­ic his­to­ry path shows only the attemps of the pre­vi­ous expe­ri­ence, which are close to the cur­rent task res­o­lu­tion step. We will present the first results of this expe­ri­ence, which aim at eval­u­at­ing to what extent a sta­t­ic his­to­ry path or a dynam­ic his­to­ry path can help the user for tasks resolution.

Syl­vain Lagrue

Maitre de con­férences en infor­ma­tique au lab­o­ra­toire CRIL, de l’Uni­ver­sité d’Artois

Le mar­di 22 mai 2018 à 14h en GI042 (bâti­ment Blaise Pas­cal, UTC)

Résumé :

Nous présen­tons dans cet exposé dif­férents for­mal­ismes que nous avons créés, util­isés ou enrichis dans le cadre de recherch­es académiques ou dans des pro­jets plus appliqués. Ces for­mal­ismes ont comme point com­mun de per­me­t­tre de mieux pren­dre en compte les con­cepts de fia­bil­ité de l’information, d’évolution du monde, d’inférence plau­si­ble, de fusion et de révi­sion ou encore de prise de déci­sion. Nous faisons tout d’abord un tour d’hori­zon des dif­férentes méth­odes abor­dées, leurs éventuels liens et plusieurs appli­ca­tions pos­si­bles. Puis, nous nous intéres­sons plus par­ti­c­ulière­ment aux prob­lèmes d’in­com­pa­ra­bil­ité et d’in­com­men­su­ra­bil­ité dans le cadre de logiques pondérées et leur appli­ca­tion à la révi­sion, à la fusion de croy­ances et aux logiques de descrip­tion légères. Nous présen­tons plus en détail des général­i­sa­tions de la logique pos­si­biliste aux ordres par­tiels et aux inter­valles. Nous nous intéres­sons ensuite à nos travaux con­cer­nant le Gen­er­al Game Play­ing. L’objectif de ce dernier est de dévelop­per des pro­grammes capa­bles de jouer de manière con­va­in­cante à n’importe quel jeu sans inter­ven­tion humaine. Nous présen­tons nos résul­tats basés sur les réseaux de con­traintes sto­chas­tiques. Enfin, nous présen­tons suc­cincte­ment divers travaux en cours et per­spec­tives, dont cer­tains directe­ment liés à la préser­va­tion du pat­ri­moine immatériel de l’hu­man­ité et plus spé­ci­fique­ment aux mar­i­on­nettes sur eau du Vietnam.

Samir Loud­ni

Maitre de con­férences en infor­ma­tique au lab­o­ra­toire GREYC, de l’Uni­ver­sité de Caen Normandie

Le mar­di 15 mai 2018 à 10h30 en GI042 (bâti­ment Blaise Pas­cal, UTC)

Par­tie 1

Résumé :

La pro­gram­ma­tion par con­trainte (PPC) offre un cadre générique et flex­i­ble pour résoudre des prob­lèmes d’op­ti­mi­sa­tion sous con­traintes. L’utilisation de la PPC pour exprimer des prob­lèmes de fouille de don­nées pos­sède de nom­breux avan­tages. Le pre­mier est d’of­frir à l’u­til­isa­teur un moyen sim­ple et déclaratif pour mod­élis­er ses prob­lèmes. Le sec­ond est de pro­pos­er une approche générique de réso­lu­tion qui per­met à l’u­til­isa­teur de ne plus devoir se préoc­cu­per de l’écri­t­ure d’un algo­rithme spé­ci­fique pour chaque tâche de fouille. Dans cette pre­mière par­tie de l’ex­posé je présen­terai de manière suc­cincte quelques con­tri­bu­tions con­cer­nant les apports de la PPC pour la fouille de don­nées ori­en­tée motifs et plus par­ti­c­ulière­ment sur l’ex­trac­tion de motifs séquen­tiels et de motifs Pare­to.

Par­tie 2

Résumé :

Un prob­lème récur­rent en extrac­tion de motifs est la sélec­tion de motifs per­ti­nents par­mi le grand ensem­ble de motifs décou­verts. Pour réduire le nom­bre de motifs extraits et donc de faciliter l’analyse du résul­tat de la fouille est l’ex­trac­tion de motifs de plus haut niveau reposant sur des car­ac­téris­tiques qui impliquent plusieurs motifs locaux. Ces motifs sont appelés ensem­bles de motifs ou pat­tern sets. Extraire le meilleur ensem­ble de motifs rel­a­tive­ment à une mesure don­née per­met de mieux cibler le proces­sus d’extraction vers les meilleurs motifs mais rend la tâche plus ardue, notam­ment en rai­son de la taille impor­tante de l’e­space de recherche et le manque de tech­niques d’éla­gage effi­caces pour ce type de prob­lèmes. La plu­part des approches exis­tantes (sou­vent heuris­tiques) sac­ri­fient la preuve d’op­ti­mal­ité au détri­ment de solu­tions approchées. Toute­fois, la qual­ité de solu­tions obtenues par ces approches reste très vari­able.

La PLNE (Pro­gram­ma­tion Linéaire en Nom­bres Entiers) est un au cadre générique qui pro­cure un haut niveau de flex­i­bil­ité et d’expressivité pour com­pos­er dif­férentes types de con­traintes. L’u­til­i­sa­tion de la PLNE pour la mod­éli­sa­tion de tâch­es d’optimisation en fouille de don­nées est un domaine qui a été très peu exploré.

Dans cette sec­onde par­tie de l’ex­posé, je vais mon­tr­er com­ment la PLNE peut être util­isée pour mod­élis­er dif­férentes con­traintes por­tant sur des ensem­bles de motifs. Out­re le cadre général de l’extraction d’ensem­bles de motifs, je vais illus­tr­er l’intérêt de cette approche sur un prob­lème bien con­nu en fouille de don­nées: le clus­ter­ing con­ceptuel. Enfin, je ter­min­erai par quelques résul­tats récents sur l’u­til­i­sa­tion des moyennes ordon­nées pondérées (com­muné­ment appelées OWA pour Ordered Weight­ed) afin de trou­ver un équili­bre opti­mal sur la taille des clus­ters du clus­ter­ing conceptuel.

Olivi­er Spanjaard

Maitre de con­férences au LIP6 de l’UPMC

Le jeu­di 12 avril 2018 à 14 h en GI042 (Bâti­ment Blaise Pas­cal, uni­ver­sité de tech­nolo­gie de Compiègne).

Par­tie 1 : Une intro­duc­tion à la théorie de la déci­sion algo­rith­mique

Résumé :

La théorie de la déci­sion algo­rith­mique porte sur l’é­tude sous l’an­gle algo­rith­mique de prob­lèmes issus de la théorie de la déci­sion, de la théorie des jeux et de la théorie du choix social. La plu­part des travaux réal­isés dans ces domaines jusqu’à récem­ment focal­i­saient prin­ci­pale­ment sur des résul­tats de car­ac­téri­sa­tion, l’aspect com­pu­ta­tion­nel (i.e., la cal­cu­la­bil­ité effec­tive des con­cepts
intro­duits) étant sou­vent lais­sé au sec­ond plan. C’est ce deux­ième aspect qui fait la spé­ci­ficité de la théorie de la déci­sion algo­rith­mique, et qui est étudié par une com­mu­nauté d’in­for­mati­ciens en intel­li­gence arti­fi­cielle et en recherche opéra­tionnelle depuis un peu plus d’une dizaine d’an­nées. Une brève intro­duc­tion à ce domaine sera pro­posée lors de cet exposé.

Par­tie 2 : Quelques con­tri­bu­tions en théorie de la déci­sion algo­rith­mique

Résumé :

Lors de cet exposé, je présen­terai quelques con­tri­bu­tions récentes en déci­sion séquen­tielle dans l’in­cer­tain lorsque les préférences suiv­ent un mod­èle alter­natif à l’u­til­ité espérée, et j’abor­derai égale­ment quelques prob­lé­ma­tiques en déci­sion collective

Eti­enne COME

Chargé de recherche à l’IFSTTAR

Le mar­di 20 mars 2018 à 14 h en GI042 (Bâti­ment Blaise Pas­cal, uni­ver­sité de tech­nolo­gie Compiègne)

Résumé :

Par­tie 1: Analyse exploratoire de traces numériques de mobil­ité. Quelques résul­tats sur les sys­tèmes de vélos en libre ser­vice et de trans­ports en Com­mun.

Les sys­tèmes de mobil­ités mod­ernes génèrent un nom­bre impor­tant de traces numériques qu’il con­vient d’analyser pour com­pren­dre et opti­miser le fonc­tion­nement de ces sys­tèmes. Ces don­nées se dis­tingues des sources clas­sique­ment util­isées pour appréhen­der les com­porte­ment de mobil­ité et leur évo­lu­tion (enquête glob­ale trans­port, enquête ménage déplace­ment) et néces­site donc des méth­odes nou­velles pour essay­er de tir­er par­tie de l’information qu’elles recè­lent. Après avoir présen­té ce con­texte générale et les par­tic­u­lar­ités des traces numériques par rap­port aux don­nées d’enquête clas­siques, nous détaillerons dif­férents travaux exploratoires menés dans ce con­texte pour mieux cern­er ces nou­velles sources et leurs poten­tial­ités. Nous ver­rons en par­ti­c­uli­er com­ment les don­nées de stocks des sys­tèmes de Vélos en Libre Ser­vice (VLS) peu­vent être mobil­isées pour résumer le com­porte­ment de ces sys­tèmes et faciliter leurs com­para­isons. Nous présen­terons égale­ment des travaux d’analyse exploratoire et de visu­al­i­sa­tion des don­nées de flux voyageurs. Celles-ci offrent en effet, des per­spec­tives intéres­santes pour l’analyse fine des usages et de la dynamique des orig­ines / des­ti­na­tions effec­tuées par les usagers de trans­port en com­mun. Nous présen­terons des résul­tats sur l’exploration de ces don­nées mas­sives aus­si bien dans le con­texte des VLS que dans celui des trans­ports en com­mun (métro / RER).

Par­tie 2: Mod­èle de mélange et don­nées de comp­tage, sélec­tion de mod­èle, régu­lar­i­sa­tion et esti­ma­tion.

Dans cette présen­ta­tion, nous nous intéresserons aux méthodolo­gies util­isées pour déter­min­er le nom­bre de com­posantes d’un mod­èle de mélange lorsque les don­nées sont des don­nées de comp­tage. Nous nous intéresserons plus par­ti­c­ulière­ment aux mod­èles util­isés pour analyser des graphes (Sto­chas­tic Block Mod­el et vari­ante) où les comp­tages cor­re­spon­dent à des nom­bres d’interaction entre paire d’objet , ou des « textes » (Mix­ture of Uni­gram et Pois­son mix­ture) où les comp­tages cor­re­spon­dent au nom­bre d’occurrences d’un mot. Nous ver­rons com­ment le prob­lème d’estimation du nom­bre de com­posantes est traité clas­sique­ment dans un cadre fréquen­tiste et Bayésien aux tra­vers de critères tels que BIC ou ICL. Une atten­tion par­ti­c­ulière sera portée aux aspects algo­rith­miques du prob­lème où l’on dis­cutera des avan­tages et incon­vénients des solu­tions clas­siques basées sur l’utilisation de l’algorithme EM et des vari­antes vari­a­tion­nelles ou bien sur des approches de type MCMC. Nous présen­terons dans ce con­texte un algo­rithme d’estimation con­jointe de la par­ti­tion des don­nées et du nom­bre de com­posantes basé sur l’optimisation glou­tonne d’un critère Bayésien cor­re­spon­dant à L’ICL exacte. Ce critère peut en effet être cal­culé de manière exacte pour cette famille de mod­èle lorsque les lois a pri­ori sur les paramètres sont adéquate­ment choisies. Nous ver­rons ensuite com­ment cette approche peut être éten­due pour extraire une struc­ture hiérar­chique de solu­tions imbriquées lorsque l’on fait vari­er le degré de régularisation.

Meltem OZTURK

Maître de con­férences au LAMSADE, uni­ver­sité Paris

Le lun­di 12 mars 2018, à 14 h en GI042 (Bâti­ment Blaise Pas­cal, uni­ver­sité de tech­nolo­gie Compiègne)

Résumé :

Par­tie 1: Présen­ta­tion générale des travaux de recherche autour des préférences dans les mod­èles déci­sion­nels.

Les préférences sont au coeur des mod­èles déci­sion­nels (deci­sion col­lec­tive, mul­ti­critère ou dans l’in­cer­tain) et appa­rais­sent dans les dif­férents étapes des proces­sus déci­sion­nels (definition/description du prob­lème, mod­éli­sa­tion, réso­lu­tion et validation/argumentation).
Dans cette pre­mière par­tie de l’ex­posé je vous par­lerai de mes travaux de recherche qui con­cer­nent ces dif­férents étapes (avec des résul­tats théoriques mais aus­si avec des appli­ca­tions indus­triels):

- définition/description du prob­lème:

apport des travaux expéri­men­taux pour mieux com­pren­dre le com­porte­ment des décideurs et util­i­sa­tion de leur résul­tats pour trou­ver des mod­èles adap­tés.
Exem­ples des proces­sus d’élicitation/apprentissage des préférences.

- mod­éli­sa­tion :

com­ment obtenir un cadre général pour la mod­éli­sa­tion des préférences ? Com­ment rep­re­sen­ter d’une manière com­pacte les préférences ?

- réso­lu­tion :

com­ment se servir des logiques non clas­siques ou une mod­éli­sa­tion par sat­is­fac­tion de con­traintes pour l’a­gré­ga­tion des préférences ?

- appli­ca­tion indus­triel: trou­ver la nou­velle ligne grande vitesse entre Paris-Nor­mandie (pro­jet avec la SNCF Réseau)

Par­tie 2: Résul­tats sur la par­tie mod­éli­sa­tion des préférences

Quand on tra­vaille avec des décideurs/experts on s’aperçoit rapi­de­ment que les orders totaux ou les préor­dres totaux que l’on utilise sou­vent dans des approches formels appa­rais­sent très forts/contraignants pour représen­ter leur préférences. Pour cela des struc­tures de préférences
plus sou­ples ont été pro­posées dans la lit­téra­ture. Les semi­or­dres, les ordres d’in­ter­valles ou les ordres par­tiels sont les plus con­nus. Ces struc­tures de préférences « sophis­tiquées » ont été étudiées par dif­férents chercheurs venant de dif­férents domains de recherche et man­quaient un cadre général uni­fi­ca­teur. Je vous présen­terai donc un cadre que nous avons défi­ni qui donne un lan­guage com­mun à ces struc­tures et qui nous aident à en pro­pos­er de nou­velles. Le cadre se base sur une axioma­ti­sa­tion sim­ple et cou­vre la majorité des struc­tures de préférences con­nues dans la lit­téra­ture.

Références de la par­tie 2 :

M. Öztürk, Coher­ence con­di­tions for pref­er­ence mod­el­ing with ordered points, Jour­nal of Math­e­mat­i­cal Psy­chol­o­gy, Vol­ume 79, 2017, pages 44–52.

M. Öztürk , M. Pir­lot et A. Tsouk­iàs, Rep­re­sent­ing pref­er­ences using inter­vals, Arti­fi­cial Intel­li­gence Jour­nal, 175, pages 1194–1222, 2011

Elsa NEGRE
Maître de con­férences HDR, UMR Lam­sade, Uni­ver­sité Paris Dauphine

Le mar­di 6 févri­er 2018 à 14 h en GI042(Bâtiment Blaise Pas­cal, uni­ver­sité de tech­nolo­gie Compiègne)

Résumé :

Nos travaux s’ar­tic­u­lent autour de l’ex­trac­tion et de l’analyse de don­nées issues de sources hétérogènes pour les ren­dre facile­ment acces­si­bles et exploita­bles par les utilisateurs/décideurs. En effet, il devient de plus en plus dif­fi­cile de savoir quelles sont les don­nées à rechercher et où les trou­ver lorsque la masse de données/informations s’ac­croît. Des tech­niques infor­ma­tiques exis­tent pour faciliter cette recherche et per­me­t­tre une extrac­tion per­ti­nente des données/informations. L’une d’en­tre elles est la recom­man­da­tion qui guide l’u­til­isa­teur lors de son explo­ration, en cher­chant pour lui les infor­ma­tions sus­cep­ti­bles d’être per­ti­nentes. Un enjeu intéres­sant est de pro­pos­er un sys­tème de recom­man­da­tion capa­ble de s’adapter à dif­férents cas d’ap­pli­ca­tions, avec de bonnes per­for­mances du point de vue de l’utilisateur/décideur et pal­liant cer­tains man­ques des sys­tèmes de recom­man­da­tion exis­tants. Dans le cadre de nos travaux, l’ensem­ble des don­nées à explor­er peut provenir de dif­férents domaines (les envi­ron­nements de tra­vail col­lab­o­ratif, les plate­formes d’ap­pren­tis­sage en ligne, les entre­pôts de don­nées, les villes intel­li­gentes, les sys­tèmes d’alertes pré­co­ces, …) et l’u­til­isa­teur à aider peut être un indi­vidu isolé ou une entité mul­ti­ple à visée publique. Con­scients que la masse de données/informations à explor­er dans de tels cas peut être très impor­tante, com­plexe et var­iée, il nous est apparu néces­saire de pro­pos­er des sys­tèmes de recom­man­da­tion appro­priés pour y faire face. Nous pro­posons donc une approche générique de recom­man­da­tion, en rup­ture com­plète avec les travaux exis­tants, que nous instan­cions pour per­me­t­tre de recom­man­der soit des élé­ments, soit des util­isa­teurs, sous forme de recom­man­da­tions indi­vidu­elles ou à visée publique dans dif­férents domaines. Puis, nous nous intéres­sons à l’é­val­u­a­tion des (sys­tèmes de) recom­man­da­tions. Afin d’as­sur­er la per­ti­nence des recom­man­da­tions du point de vue de l’utilisateur/décideur, nous pro­posons des méth­odes pour éval­uer sub­jec­tive­ment d’une part le sys­tème de recom­man­da­tion et d’autre part les recom­man­da­tions retournées. Enfin, mal­gré de bonnes per­for­mances, par­fois, les recom­man­da­tions ne sont pas con­sid­érées comme suff­isam­ment per­ti­nentes. Nous pro­posons donc des tech­niques pour amélior­er les (sys­tèmes de) recom­man­da­tions. Elles con­cer­nent l’amélio­ra­tion des don­nées d’en­trée, le démar­rage à froid et l’a­jout de données/sources externes (notam­ment le con­texte de l’utilisateur/décideur). Nos propo­si­tions ont été validées par la par­tic­i­pa­tion à dif­férents pro­jets ain­si que le co-encadrement de thès­es de Doc­tor­at et le suivi de travaux de Mas­ter Recherche.

Mots clés : Sys­tèmes de recom­man­da­tion, Analyse de don­nées, Aide à la déci­sion, Sys­tèmes d’Information

Jonathan DEKHTIAR
Doc­tor­ant au lab­o­ra­toire Rober­val, UTC

Le mar­di 30 jan­vi­er 2018 à 10h15 en GI042 (Bâti­ment Blaise Pas­cal, uni­ver­sité de tech­nolo­gie Compiègne)

Résumé :

The man­u­fac­tur­ing indus­try is always try­ing to auto­mate many of its engi­neer­ing tasks and work­flows. Apply­ing Machine/Deep Learn­ing in such an indus­tri­al con­text is chal­leng­ing for dif­fer­ent rea­sons : Con­trary to the GAFAM (Google, Apple, Face­book, Ama­zon, Microsoft) and BATX (Baidu, Aliba­ba, Ten­cent and Xiao­mi), the man­u­fac­tur­ing indus­try use on a day-to-day basis high­ly com­plex data which comes, most of the time, in pro­pri­etary for­mats (e.g. 3D Mod­els). More­over, data are not avail­able in large quan­ti­ties (impos­si­bil­i­ty to rely on a big data scale) and most of the time in insuf­fi­cient quan­ti­ties to train any Deep Learn­ing mod­el to per­form any com­put­er vision task. How­ev­er, Machine Learn­ing can still be applied using var­i­ous tips and tricks, fre­quent­ly with good results. Trans­fer Learn­ing is one effec­tive solu­tion, nev­er­the­less this pre­sen­ta­tion will not focus on the lat­ter which is already well cov­ered in the lit­er­a­ture [Y. Ben­gio, 2012] – [M. Oquab, 2014]. Inspired by research in anom­aly detec­tion for neu­ro-imagery [K. Wang, 2016] – [T. Schlegel, 2017] and for patrol robots [W. Law­son, 2017], we have stud­ied the effec­tive­ness of Deep Gen­er­a­tive Net­works and Deep Auto Encoder, name­ly GANs (Gen­er­a­tive Adver­sar­i­al Net­works) and VAE (Vari­a­tion­al AutoEn­coders). This pre­sen­ta­tion aims to present the speci­fici­ties and basics of GANs/VAEs and an overview of the whole process we devel­oped with a lim­it­ed amount of data (1000 images) and obtain 92% of accu­ra­cy and 85% of IOU (Inter­sec­tion over Union) for the machined sur­face defect local­i­sa­tion. The pro­posed approach is able to adapt itself with­out any change in the struc­ture or hyper-para­me­ter set­tings to dif­fer­ent indus­tri­al sit­u­a­tions offered by the chal­lenge dataset pro­vid­ed by DAGM 2007. In sum­ma­ry, the strength of the pro­posed solu­tion is the fol­low­ing : High­ly adapt­able with lim­it­ed re-engi­neer­ing costs, reduced train­ing time (+/- 3 hours on one GPU), Weak­ly Super­vised Approach thus hav­ing a very reduced deploy­ment cost.

Sylvie Le Hegarat Mascle

Pro­fesseur des uni­ver­sités à l’Université de Paris Sud, Poly­tech Paris Sud.

Le mar­di 3 Mars à 14H, en GI 42

Abstract:

The Demp­ster-Shafer the­o­ry of belief func­tions is a for­mal frame­work for mod­el­ing and rea­son­ing with uncer­tain­ty. It is based on the rep­re­sen­ta­tion of inde­pen­dent pieces of evi­dence by belief func­tions, and on their com­bi­na­tion by an oper­a­tor called Dempster’s rule. In this talk, we show that the weight­ed sum and soft­max oper­a­tions per­formed in logis­tic regres­sion clas­si­fiers and, for instance, in the out­put lay­er of feed­for­ward neur­al net­works can be inter­pret­ed in terms of evi­dence aggre­ga­tion using Demp­ster’s rule of com­bi­na­tion. From that per­spec­tive, the out­put prob­a­bil­i­ties com­put­ed by such clas­si­fiers (includ­ing also sup­port vec­tor machines) can be seen as being derived from  some belief func­tions, which can be laid bare and used for deci­sion mak­ing or clas­si­fi­er fusion. This find­ing sug­gests that the links between machine learn­ing and belief func­tions are clos­er than is usu­al­ly assumed, and that Demp­ster-Shafer the­o­ry pro­vides a suit­able frame­work for devel­op­ing new machine learn­ing algorithms.