En poursuivant votre navigation sur ce site, vous acceptez le dépôt de cookies dans votre navigateur. (En savoir plus)

Doctorant H/F Explicabilité des learning analytics pour réduire les inégalités éducatives

Cette offre est disponible dans les langues suivantes :
Français - Anglais

Date Limite Candidature : jeudi 24 juin 2021

Assurez-vous que votre profil candidat soit correctement renseigné avant de postuler. Les informations de votre profil complètent celles associées à chaque candidature. Afin d’augmenter votre visibilité sur notre Portail Emploi et ainsi permettre aux recruteurs de consulter votre profil candidat, vous avez la possibilité de déposer votre CV dans notre CVThèque en un clic !

Faites connaître cette offre !

Informations générales

Référence : UMR5505-CHLBOU-037
Lieu de travail : TOULOUSE
Date de publication : jeudi 3 juin 2021
Nom du responsable scientifique : Julien Broisin
Type de contrat : CDD Doctorant/Contrat doctoral
Durée du contrat : 36 mois
Date de début de la thèse : 1 octobre 2021
Quotité de travail : Temps complet
Rémunération : 2 135,00 € brut mensuel

Description du sujet de thèse

Ce projet doctoral s'inscrit dans la seconde perspective du COP établi en 2019 pour contribuer aux inégalités éducatives : il vise à étudier l'impact de l'explicabilité des systèmes d'apprentissage intelligents sur les tâches réalisées par les apprenants et praticiens. En effet, les systèmes d'apprentissage intelligents qui s'appuient sur les learning analytics représentent une solution pour traiter les inégalités liées à la capacité des apprenants à appréhender un contenu pédagogique. Toutefois, les résultats des analyses ou des processus menant à ces résultats sont souvent complexes et difficilement interprétables, conduisant ainsi à un faible niveau de confiance et d'acceptabilité du système par les différents acteurs.
Ces dernières années, le domaine de l'Intelligence Artificielle Explicable (XAI) a suscité un grand intérêt pour intégrer l'interprétabilité des données dans les systèmes intelligents (Gunning, 2016). Les travaux antérieurs sur l'XAI ont principalement tenté d'expliquer les modèles et les algorithmes aux experts en IA ou aux analystes (Spinner et al., 2019 ; Zhang et Chen, 2020). Seules quelques initiatives ont tenté de rendre ces modèles explicables pour différents types d'utilisateurs au-delà des experts (Arya et al., 2019 ; Ribera et Lapedriza, 2019). Pourtant, dans le domaine de l'éducation, la différenciation des acteurs est cruciale. Par exemple, les explications fournies aux enseignants doivent être différentes de celles proposées aux apprenants. De même, les explications fournies à un collégien doivent être moins précises que celles données à un étudiant. Aussi, en considérant des apprenants de même âge, les explications peuvent varier en fonction de leurs niveaux de connaissances, d'habiletés ou encore de motivation.
Ce projet vise à étudier l'impact de 2 types d'intervention personnalisée intégrant un modèle d'explications.
D'une part, un système de guidage devra proposer un modèle capable de fournir des explications sur l'activité tracée de l'apprenant, mais aussi des prompts (Wong et al., 2019) avec explications pour guider l'apprenant dans sa progression en tenant compte des différences interindividuelles sur le plan cognitif (connaissances, habiletés). D'autre part, des visualisations restituant les résultats des analyses seront
personnalisées selon le rôle de l'utilisateur (e.g. apprenant, enseignant). Les explications interactives associées devront également être plus ou moins détaillées selon un profil de l'utilisateur à concevoir et se focalisant sur les compétences requises pour faciliter l'interprétation des données d'apprentissage et ainsi
améliorer la prise de “bonnes” décisions.
Deux outils seront mobilisés pour évaluer les solutions proposées : Lab4CE, une plate-forme pour l'apprentissage de l'informatique utilisée à l'IUT A Paul Sabatier, et NoteMyProgress, un système d'auto-régulation qui sera déployé dans le cadre du projet ANR LASER.

Contexte de travail

La personne recrutée sera co-supervisée par deux chercheurs. Julien Broisin est Maître de Conférences en Informatique, Habilité à Diriger des Recherches, à l'Institut de Recherche en Informatique de Toulouse (IRIT). Il est responsable d'une nouvelle équipe constituées de cinq membres permanents et de cinq doctorants, et dont les recherches s'intéressent aux technologies pour l'éducation. Le laboratoire IRIT, basé à Toulouse, est l'un des laboratoires d'informatique les plus importants en France.
Franck Amadieu est Professeur d'Université en psychologie cognitive et éducative. Il dirige le laboratoire Cognition, Langues, Langage et Ergonomie (https://clle.univ-tlse2.fr/) qui s'intéresse aux sciences cognitives. Il conduit des recherches en éducation avec les technologies numériques.

On en parle sur Twitter !