En poursuivant votre navigation sur ce site, vous acceptez le dépôt de cookies dans votre navigateur. (En savoir plus)

Post-doctorat (H/F) : Explication des systèmes d’IA via l’abstraction causale

Cette offre est disponible dans les langues suivantes :
- Français-- Anglais

Date Limite Candidature : vendredi 12 décembre 2025 23:59:00 heure de Paris

Assurez-vous que votre profil candidat soit correctement renseigné avant de postuler

Informations générales

Intitulé de l'offre : Post-doctorat (H/F) : Explication des systèmes d’IA via l’abstraction causale
Référence : UMR5217-MAXPEY-003
Nombre de Postes : 1
Lieu de travail : ST MARTIN D HERES
Date de publication : vendredi 21 novembre 2025
Type de contrat : Chercheur en contrat CDD
Durée du contrat : 24 mois
Date d'embauche prévue : 1 février 2026
Quotité de travail : Complet
Rémunération : à partir de 3041€ brut mensuel, selon expérience et la grille en vigueur du CNRS
Niveau d'études souhaité : Doctorat
Expérience souhaitée : Indifférent
Section(s) CN : 07 - Sciences de l'information : traitements, systèmes intégrés matériel-logiciel, robots, commandes, images, contenus, interactions, signaux et langues

Missions

La personne embauchée contribuera au volet de recherche consacré à l’abstraction causale, qui vise à construire des cadres d’évaluation rigoureux pour l’interprétabilité de l’IA en s’appuyant sur l’abstraction causale, ainsi qu’à développer de nouvelles méthodes d’interprétabilité. Ses missions incluront l’avancement des fondements théoriques du projet, la définition des métriques d’évaluation, la mise en place d’une chaîne d’évaluation robuste pour les méthodes d’interprétabilité, ainsi que la conception de nouveaux algorithmes d’interprétation.

Activités

La personne embauchée mènera des travaux théoriques sur l’abstraction causale et l’alignement causal, implémentera des algorithmes et des pipelines expérimentaux en Python/PyTorch, et conduira des expériences sur des clusters GPU. Il ou elle collaborera étroitement avec l’investigateur principal et les doctorants de l’équipe, interagira avec les partenaires internationaux, et participera à la supervision et à la coordination des stagiaires de Master impliqués dans le projet. La préparation régulière de résultats de recherche, la contribution aux soumissions à des conférences, ainsi que la participation aux réunions du projet feront partie intégrante de ses activités.

Compétences

Le poste requiert un doctorat en apprentissage automatique, TAL, causalité ou discipline apparentée, ainsi qu’une excellente maîtrise de l’apprentissage profond et un intérêt marqué pour l’interprétabilité. De très bonnes compétences en programmation Python, une familiarité avec les architectures neuronales modernes et une capacité à mener des recherches de manière autonome sont attendues. Une expérience en modélisation causale, en apprentissage de représentations ou en interprétabilité mécanistique est un atout.

Contexte de travail

La personne embauchée rejoindra le CNRS au sein de l’équipe GetAlp du Laboratoire d’Informatique de Grenoble (LIG). GetAlp mène des recherches en TAL, apprentissage automatique, évaluation et interprétabilité. Le projet sera encadré par Maxime Peyrard (CNRS), en collaboration avec des doctorants et des partenaires externes. La personne embauchée bénéficiera d’un environnement scientifique local dynamique dans le domaine de l’IA et d’un accès aux infrastructures de calcul GPU.

Le poste se situe dans un secteur relevant de la protection du potentiel scientifique et technique (PPST), et nécessite donc, conformément à la réglementation, que votre arrivée soit autorisée par l'autorité compétente du MESR.