Informations générales
Intitulé de l'offre : Post-doctorat (H/F) : Explication des systèmes d’IA via l’abstraction causale
Référence : UMR5217-MAXPEY-003
Nombre de Postes : 1
Lieu de travail : ST MARTIN D HERES
Date de publication : vendredi 21 novembre 2025
Type de contrat : Chercheur en contrat CDD
Durée du contrat : 24 mois
Date d'embauche prévue : 1 février 2026
Quotité de travail : Complet
Rémunération : à partir de 3041€ brut mensuel, selon expérience et la grille en vigueur du CNRS
Niveau d'études souhaité : Doctorat
Expérience souhaitée : Indifférent
Section(s) CN : 07 - Sciences de l'information : traitements, systèmes intégrés matériel-logiciel, robots, commandes, images, contenus, interactions, signaux et langues
Missions
La personne embauchée contribuera au volet de recherche consacré à l’abstraction causale, qui vise à construire des cadres d’évaluation rigoureux pour l’interprétabilité de l’IA en s’appuyant sur l’abstraction causale, ainsi qu’à développer de nouvelles méthodes d’interprétabilité. Ses missions incluront l’avancement des fondements théoriques du projet, la définition des métriques d’évaluation, la mise en place d’une chaîne d’évaluation robuste pour les méthodes d’interprétabilité, ainsi que la conception de nouveaux algorithmes d’interprétation.
Activités
La personne embauchée mènera des travaux théoriques sur l’abstraction causale et l’alignement causal, implémentera des algorithmes et des pipelines expérimentaux en Python/PyTorch, et conduira des expériences sur des clusters GPU. Il ou elle collaborera étroitement avec l’investigateur principal et les doctorants de l’équipe, interagira avec les partenaires internationaux, et participera à la supervision et à la coordination des stagiaires de Master impliqués dans le projet. La préparation régulière de résultats de recherche, la contribution aux soumissions à des conférences, ainsi que la participation aux réunions du projet feront partie intégrante de ses activités.
Compétences
Le poste requiert un doctorat en apprentissage automatique, TAL, causalité ou discipline apparentée, ainsi qu’une excellente maîtrise de l’apprentissage profond et un intérêt marqué pour l’interprétabilité. De très bonnes compétences en programmation Python, une familiarité avec les architectures neuronales modernes et une capacité à mener des recherches de manière autonome sont attendues. Une expérience en modélisation causale, en apprentissage de représentations ou en interprétabilité mécanistique est un atout.
Contexte de travail
La personne embauchée rejoindra le CNRS au sein de l’équipe GetAlp du Laboratoire d’Informatique de Grenoble (LIG). GetAlp mène des recherches en TAL, apprentissage automatique, évaluation et interprétabilité. Le projet sera encadré par Maxime Peyrard (CNRS), en collaboration avec des doctorants et des partenaires externes. La personne embauchée bénéficiera d’un environnement scientifique local dynamique dans le domaine de l’IA et d’un accès aux infrastructures de calcul GPU.
Le poste se situe dans un secteur relevant de la protection du potentiel scientifique et technique (PPST), et nécessite donc, conformément à la réglementation, que votre arrivée soit autorisée par l'autorité compétente du MESR.