En poursuivant votre navigation sur ce site, vous acceptez le dépôt de cookies dans votre navigateur. (En savoir plus)

CDD Doctorant.e (H/F) en intelligence artificielle (IA explicable)

Cette offre est disponible dans les langues suivantes :
Français - Anglais

Assurez-vous que votre profil candidat soit correctement renseigné avant de postuler. Les informations de votre profil complètent celles associées à chaque candidature. Afin d’augmenter votre visibilité sur notre Portail Emploi et ainsi permettre aux recruteurs de consulter votre profil candidat, vous avez la possibilité de déposer votre CV dans notre CVThèque en un clic !

Faites connaître cette offre !

Informations générales

Référence : UMR8188-PIEMAR-003
Lieu de travail : LENS
Date de publication : lundi 18 mai 2020
Nom du responsable scientifique : Pierre Marquis
Type de contrat : CDD Doctorant/Contrat doctoral
Durée du contrat : 36 mois
Date de début de la thèse : 1 septembre 2020
Quotité de travail : Temps complet
Rémunération : 2 135,00 € brut mensuel

Description du sujet de thèse

Une problématique majeure aujourd'hui est celle de l'IA explicable et robuste : il s'agit de pouvoir justifier à l'utilisateur (humain) un système d'IA les décisions prises ou des prédictions suggérées par le système, et aussi de pouvoir évaluer à quel point le système est fiable.

Un courant de recherche important dans cette direction consiste à associer au système d'IA considéré (et vu comme une boîte noire), une boîte blanche (ou transparente), sous la forme d'un circuit ayant le même comportement que la boîte noire en terme d'entrées/sorties. On peut alors utiliser la boîte blanche pour répondre aux requêtes explicatives qui sont posées et pour estimer la robustesse des décisions prises ou des prédictions réalisées.

Plusieurs questions se posent. En particulier : quel type de boîte blanche pour quel type de boîte noire ? Quels encodages pour passer de la boîte noire à la boîte blanche ? Quelle information utile faut-il préserver pour pouvoir réaliser ensuite des requêtes d'explication ou de vérification ? Quel est le coût de ces requêtes selon le type de circuit retenu et la représentation choisie pour ce circuit ?

La boîte blanche étant indépendante des entrées de la boîte noire, elle peut être prétraitée (compilée) afin de faciliter la génération d'explications des prédictions réalisées par la boîte noire et l'évaluation de la fiabilité de celle-ci.

Les questions de recherche listées ci-avant seront abordées dans la thèse proposée. Celle-ci sera centrée sur les aspects de modélisation (liens boîtes noires / boîtes blanches, encodages et propriétés de ceux-ci). Une second sujet sur les aspects représentationnels (quelles représentations pour les circuits?) et algorithmiques pour l'explication et la vérification sera également proposé.

Contexte de travail

La thèse sera préparée au Centre de Recherche en Informatique de Lens (CRIL), UMR CNRS 8188 (www.cril.fr), dans le cadre de la chaire ANR de recherche et d'enseignement appelée EXPEKCTATION. Le/la doctorant.e qui sera recruté.e participera aux activités de l'international research project CNRS MAKC (un laboratoire international, sans mur, créé pour 5 ans à partir de 2020), porté par le CRIL en collaboration avec l'Université de Californie à Los Angeles (UCLA). Il/elle bénéficiera d'un CDD de 3 ans du CNRS et aura la possibilité, s'il/elle le souhaite, d'effectuer des enseignements à l'université d'Artois en tant que vacataire. La prise de fonctions pourra débuter dès le 1er septembre 2020 (mais elle pourra être repoussée si besoin est).

Contraintes et risques

Néant.

On en parle sur Twitter !