Informations générales
Intitulé de l'offre : Vers une Explicabilité Formelle Scalable : Explications Lite et Approximations Guidées (H/F)
Référence : UMR7030-LOUBOU-003
Nombre de Postes : 1
Lieu de travail : VILLETANEUSE
Date de publication : lundi 22 septembre 2025
Type de contrat : CDD Doctorant
Durée du contrat : 36 mois
Date de début de la thèse : 15 novembre 2025
Quotité de travail : Complet
Rémunération : La rémunération est d'un minimum de 2200,00 € mensuel
Section(s) CN : 55 - Sciences et données
Description du sujet de thèse
Dans ce contexte académique stimulant, nous nous intéresserons à la problématique de l'explicabilité des modèles d'intelligence artificielle qui transforment aujourd'hui de nombreux secteurs grâce aux modèles de langage, systèmes de recommandation et technologies avancées. Toutefois, les modèles d'apprentissage automatique modernes, comme les réseaux de neurones et les modèles d'ensemble, demeurent largement opaques, d'où leur qualification de boîtes noires. Cette opacité compromet la confiance des utilisateurs et s'avère problématique dans des domaines critiques (santé, finance, sécurité) où les erreurs peuvent être lourdes de conséquences.
L'Intelligence Artificielle Explicable (XAI) a ainsi émergé pour développer des méthodes d'explication des décisions d'IA. Cependant, les approches agnostiques populaires souffrent de limitations majeures : instabilité des explications face à des prédictions contradictoires, absence de garanties théoriques, et fragilité aux perturbations. Ces faiblesses les disqualifient pour les applications critiques. À l'inverse, les méthodes d'explications formelles offrent des garanties mathématiques rigoureuses adaptées aux contextes exigeants, mais rencontrent un obstacle majeur de scalabilité.
Cette thèse propose de développer des méthodes formelles scalables pour générer des explications locales robustes et interprétables pour les modèles d'apprentissage automatique opaques. Notre approche se structure autour de deux axes complémentaires : les explications abductives simplifiées ("Explications Lite") qui offrent un compromis entre rigueur formelle et scalabilité computationnelle, et l'approximation d'explications formelles de taille minimale respectant le principe du rasoir d'Occam. Cette thèse vise trois contributions centrales : démontrer la scalabilité des explications Lite pour traiter les modèles complexes avec des garanties formelles locales suffisantes, établir la capacité d'approximation à fournir des solutions de qualité avec des bornes théoriques garanties, et prouver la robustesse supérieure des méthodes proposées comparativement aux approches agnostiques existantes.
Notre méthodologie structure le développement d'explications formelles scalables en trois étapes complémentaires. Premièrement, les explications simplifiées exploitent l'encodage des modèles complexes pour effectuer des tests logiques partiels sur un échantillon représentatif. Deuxièmement, les techniques d'approximation surmontent la complexité calculatoire en garantissant des solutions proches de l'optimum théorique grâce à des méthodes d'optimisation locale. Troisièmement, l'intégration des préférences utilisateur permet de générer des explications personnalisées selon l'importance accordée à chaque caractéristique du modèle.
Contexte de travail
- Cette thèse se déroulera au sein du Laboratoire d'Informatique de Paris Nord (LIPN).
- UMR CNRS 7030, situé à l'Institut Galilée, 99 avenue Jean-Baptiste Clément, 93430 Villetaneuse.
- Ce laboratoire de recherche, unité mixte entre le CNRS et l'Université Sorbonne Paris Nord, est reconnu pour son expertise en intelligence artificielle et méthodes formelles.