Niveau / Grade:
Master ou ingénieur
Master of Science
Dates (flexible):
6 mois à partir de février 2026
6 months starting from February 2026
Possibilité de poursuite en thèse / Possibility of continuing in PhD:
oui
yes
Bourse de stage / Legal internship Grant:
~ 620 € / Month
Profil recherché / Requested profile:
Consignes pour postuler / How to apply:
Merci répondre aux demandes suivantes / Please fulfill these requests:
Laboratoire d'accueil / Welcome laboratory:
Heudiasyc UMR CNRS 7253 (Compiègne, France)
Notre laboratoire est spécialisé dans le contrôle de robots mobiles, tels que des voitures et des drones intelligents. Nous nous focalisons sur les problèmes de commande, de localisation, de communication, de perception, et de réalité virtuelle. Le laboratoire dispose de véhicules robotisés équipés de nombreux capteurs, d’une piste d’essais, de simulateurs, et d’une volière.
Notre équipe est également impliquée dans le laboratoire commun SIVALab entre UTC, CNRS et Renault (Ampere).
Notre équipe a développé des compétences fortes en vision événementielle depuis 2020, avec des résultats sur des applications de calibrage, de flot optique, d'estimation des profondeurs, et de segmentation des objets mobiles.
Note : En tant que Zone à Régime Restrictif (ZRR), l’accès à Heudiasyc est conditionné par la validation des autorités.
Our laboratory is specialized in mobile robots control, such as intelligent cars and drones. We focus on problems that cover command, localization, communication, perception, as well as virtual reality. The laboratory has robotized vehicles equipped with various sensors, a track, simulators, and an aviary. Our team is involved in the SIVALab common laboratory between UTC, CNRS and Renault (Ampere).
Our team develops strong knowledge in event-based vision since 2000, with results on applications such as calibration, optical flow, depth estimation, and mobile objects segmentation.
Note: As a restricted area (ZRR), Heudiasyc access is detrmined by the validation from authorities.
Projet / Project:
ANR REVE-BNN
Le projet REVE-BNN vise à créer des réseaux de neurones binarisés (BNN) pour traiter efficacement les données des caméras événementielles (neuromorphiques) dans le contexte d'applications robotique mobile. Contrairement aux caméras classiques, les caméras à événements ne transmettent pas des images trames à fréquence fixe, mais transmettent en continu tous changements de luminosité détectés par un ou plusieurs pixels (appelés événements) [Gallego20]. Elles offrent ainsi 3 avantanges par rapport aux caméras classiques :
Les réseaux de neurones profonds dominent l'état de l'art de nombreuses applications liées à la robotique mobile (ex : véhicules autonomes, bras manipulateurs…). Utiliser des réseaux binarisés devrait ouvrir la porte à des traitements des événements économes, rapides, implémentables sur les systèmes embarqués actuels avec des architectures de processeurs classiques [Yuan23]. Ces qualités permettront de mieux exploiter la caméra événementielle en robotique mobile et intelligente.
REVE-BNN project goal is to propose Binarized Neural Networks (BNN) to efficiently process event camera data (neuromorphic) in the context of mobile robotics applications. In opposition to standard cameras, event cameras do not emit frame images at a fixed rate, but they send a continuous flow of the luminosity changes detected by one or several pixels (called events) [Gallego20]. Hence, they offer 3 advantages over standard cameras:
Deep neural networks prevail the state-of-the-art for numerous mobile robotics applications (eg: autonomous vehilces, arm-robots…). The usage of binarized neural networks shall open the door to methods to process events that are parsimonious, fast, implementable on current embedded systems with standard processor architectures [Yuan23]. These qualities will allow to make the most of event camera for mobile and intelligent robotics.
Description:
Le but du stage est de contribuer aux BNN (Binarized Neural Networks) appliqués aux données événements.
Pour cela, nous chercherons d'une part à construire des architectures BNN légères, avec capacités de focalisation et d'inférence partielle.
Et d'autre part, à valider différentes manières de représenter les événements sous forme de tenseur en entrée du réseau, avec et sans capacité de mémoire.
Les architectures proposées seront validées et évaluées sur différents jeux de données afin de les comparer à l'état de l'art.
Des expérimentations réelles avec les véhicules du laboratoire pourront pêtre envisagées.
Le stagiaire pourra d'ailleurs éventuellement profiter de déplacements scientifiques (séminaire ou visite).
The goal of this internship is to contribute to BNN (Binarized Neural Networks) applied to event data. To this end, we are looking first to build light BNN architectures, with abilities such as focalisation and partial inference. Second, to validate various manners to represent the events as an input tensor for the network, with and without memory abilities. Proposed architectures will be validated and evaluated on several dataset in order to compare them with the state-of-the-art. Real experiments with lab's vehicles can be done. The intern can also benefits of scientific trips (seminar or visit).
Encadrants et personnes à contacter / Supervisors and persons to contact:
Julien MOREAU (first_name.last_name@hds.utc.fr), associate professor, UTC, Heudiasyc UMR CNRS 7253
Franck DAVOINE (first_name.last_name@cnrs.fr), CNRS senior researcher, LIRIS UMR CNRS 5205
Sylvain ROUSSEAU (first_name.last_name@hds.utc.fr), associate professor, UTC, Heudiasyc UMR CNRS 7253
References:
Description:
This internship aims to develop a new motion estimation system based on ground observation using an event-based camera embedded on the robot. The Inertial Measurement Unit (IMU) is an electronic system consisting of accelerometers and gyroscopes. In the odometry context, the mathematical integration of these sensors outputs suffer from accumulated errors leading to a drift over time. Visual odometry techniques based on motion tracking between two images have proved their efficiency for localizing robots. New approaches in visual odometry used different methods to be robust to various and poor light levels such as event-based techniques. Event-based cameras offer promising advantages over conventional cameras: microsecond-level latency, operation under challenging lighting conditions, and robustness in very low-light environments. For this type of application, lighting could even be omitted when using an event-based camera instead of a high-frame-rate conventional one.
The objective is to apply a fast optical flow method on event data, such as [Brebion22], and to localize the robot through a state estimation approach [Boyle25], [Hage18]. The fusion with IMU data will also be considered. Since optical flow data may contain errors, a robust state estimation framework incorporating fault detection and exclusion could be added.
The internship will start with a state-of-the-art review of existing state estimation methods based on optical flow. Then, a strategy will be proposed. Experiments may be conducted using the laboratory’s ground vehicle and drone platforms.
Encadrants et personnes à contacter / Supervisors and persons to contact:
Joëlle AL HAGE (first_name.last_name@hds.utc.fr), associate professor, UTC, Heudiasyc UMR CNRS 7253
Julien MOREAU (first_name.last_name@hds.utc.fr), associate professor, UTC, Heudiasyc UMR CNRS 7253
References:
Description:
Dans les véhicules hautement automatisés, la sécurité repose sur une interaction fluide entre le conducteur humain et le système automatisé. Lors des transitions de contrôle, le véhicule doit s’assurer que le conducteur est attentif et prêt à reprendre la main [Li17]. L’analyse du regard constitue alors un indicateur essentiel pour évaluer l’état d’attention, la compréhension de la situation et l’intention du conducteur.
Les méthodes reposant uniquement sur des caméras RGB ou infrarouges présentent des limites tel que la sensibilité aux variations d’éclairage, la latence élevée et dégradation des performances lors de mouvements rapides de tête ou d’occlusions partielles [Fridman19]. Les caméras événementielles offrent une alternative prometteuse : elles capturent les changements de luminosité à très haute fréquence avec une faible latence et une excellente dynamique [Gallego22]. Ces propriétés les rendent particulièrement adaptées à la capture de micro-mouvements oculaires, de clignements ou de transitions rapides du regard — éléments critiques pour détecter les états d’attention ou de distraction.
De plus, la littérature récente souligne que la relation entre conducteur et automatisation doit évoluer vers un modèle de coopération et non de simple supervision : le conducteur et le système doivent partager la situation, s’adapter mutuellement et échanger leurs intentions [Lee22]. Pour rendre ce “teaming” efficace, il est nécessaire de mesurer en continu l’état cognitif du conducteur, notamment à travers le regard, la direction de la tête et la charge visuelle.
Ce stage vise à développer une approche de fusion multimodale (RGB + événementielle) pour estimer la direction du regard du conducteur et évaluer son attention. L’objectif est de concevoir un modèle robuste capable de fonctionner dans des conditions réalistes de conduite (variations d’éclairage, mouvements rapides, occlusions), en exploitant les complémentarités entre signaux RGB et événementiels.
Encadrants et personnes à contacter / Supervisors and persons to contact:
Insaf SETITRA (first_name.last_name@hds.utc.fr), associate professor, UTC, Heudiasyc UMR CNRS 7253
Julien MOREAU (first_name.last_name@hds.utc.fr), associate professor, UTC, Heudiasyc UMR CNRS 7253
References: