En poursuivant votre navigation sur ce site, vous acceptez le dépôt de cookies dans votre navigateur. (En savoir plus)
Portail > Offres > Offre UMR5263-ANNCAM-077 - Post-doc en psychologie : "Evaluation expérimentale de modèles de raisonnement collectif dans des interactions humain-humain et humain-machine" H/F

Post-doc en psychologie : "Evaluation expérimentale de modèles de raisonnement collectif dans des interactions humain-humain et humain-machine" H/F

Cette offre est disponible dans les langues suivantes :
- Français-- Anglais

Date Limite Candidature : mercredi 4 février 2026 23:59:00 heure de Paris

Assurez-vous que votre profil candidat soit correctement renseigné avant de postuler

Informations générales

Intitulé de l'offre : Post-doc en psychologie : "Evaluation expérimentale de modèles de raisonnement collectif dans des interactions humain-humain et humain-machine" H/F
Référence : UMR5263-ANNCAM-077
Nombre de Postes : 1
Lieu de travail : TOULOUSE
Date de publication : mercredi 14 janvier 2026
Type de contrat : Chercheur en contrat CDD
Durée du contrat : 24 mois
Date d'embauche prévue : 13 avril 2026
Quotité de travail : Complet
Rémunération : 3041 à 3467€ brut /mois selon expérience
Niveau d'études souhaité : Doctorat
Expérience souhaitée : Indifférent
Section(s) CN : 26 - Cerveau, cognition et comportement

Missions

La personne recrutée conduira un ensemble d’études expérimentales dans le cadre du projet de recherche CaRe (AAP TIRIS – Scaling up), qui teste la formalisation et l’étude du raisonnement collectif (i.e. la prise en considération des états mentaux et préférences des autres) et son rôle dans la prise de décision dans une variété de situations impliquant des interactions entre des agents.

La personne recrutée conduira des études expérimentales portant sur des situations d’interaction entre (a) humain-humain et (b) entre humain-machine (i.e. agent conversationnel) dans lesquelles des enjeux éthiques (e.g. dilemmes sociaux, raisonnement causal) sont impliqués, et pour lesquelles les préférences et valeurs entre les agents impliqués ne sont pas systématiquement alignées. Il s’agira d’évaluer l’acceptabilité, par les individus, leurs préférences et perception (e.g. chaleur perçue, compétence perçue, fiabilité perçue, etc.) de différents modèles en fonction de leurs valeurs éthiques et morales (e.g. équité, réciprocité, respect de la norme, perception des conséquences, etc.) et de différents modérateurs (e.g. traits de personnalité, etc.). Ces situations d’étude porteront sur des interactions entre humains et entre humain et machine (i.e. large language models).

La personne recrutée travaillera en étroite collaboration avec l’IRIT (Institut de Recherche en Informatique de Toulouse), co-porteur du projet, en charge de désigner et d’implémenter l’agent artificiel utilisé dans l’étude expérimentale de l’interaction humain-machine.

Activités

- Conduire une revue de littérature sur les différentes dimensions du raisonnement collectif (raisonnement sur les pensées des autres, raisonnement en équipe ou team/group reasoning, raisonnement éthique).
- Développer des protocoles expérimentaux permettant d’étudier le raisonnement collectif :
a. Dans des situations dans lesquelles le participant évalue le raisonnement et comportement d’un autre humain (scénario humain-humain)
b. Dans des situations dans lesquelles le participant évalue le raisonnement et comportement d’un agent artificiel (scénario humain-machine).
- Comparaison statistique des situations humain-humain et humain-machine
- Évaluation des effets de modération de certaines caractéristiques des participants (valeurs fondamentales ; e.g. dominance sociale), traits de personnalité (e.g. honnêteté-humilité, agréabilité), traits aversifs (e.g. psychopathie, Machiavélisme), distinction entre intérêt personnel et intérêt des autres, etc.

Compétences

- Avoir un Doctorat en psychologie, sciences cognitives, ou dans une discipline liée au sujet de recherche
- Avoir des connaissances solides dans le domaine du jugement et de la prise de décision
- Savoir conduire une revue de littérature dans le champ de la psychologie
- Savoir employer la méthode expérimentale et développer des protocoles expérimentaux
- Savoir conduire des analyses statistiques
- Savoir communiquer son travail scientifique dans des conférences internationales
- Savoir produire des rapports scientifiques
- Savoir collaborer avec différents partenaires d’autres disciplines scientifiques (informatique)
- Avoir un bon niveau d'anglais professionnel
- Avoir un esprit d’initiative et faire preuve de créativité

Les candidat.e.s interessé.e.s doivent déposer leur candidature sur le Portail Emploi du CNRS. Merci de fournir un CV détaillé, une lettre de motivation contenant un résumé des thématiques de recherche. Une lettre de recommandation sera appréciée.

Contexte de travail

Le post-doctorat se déroulera au laboratoire CLLE : https://clle.univ-tlse2.fr/, sous la direction de Bastien Trémolière. La personne recrutée travaillera avec l’équipe du projet et les différents membres du consortium du projet CaRe.

Résumé du projet CaRe :
Le projet CaRe est consacré à l'étude interdisciplinaire, du point de vue de l'intelligence artificielle (IA) et de la psychologie, du raisonnement collectif et de son rôle dans la prise de décision. Le raisonnement collectif est le type de raisonnement multiforme d'un agent humain ou artificiel qui implique le raisonnement sur les pensées des autres, le raisonnement en équipe et le raisonnement éthique. Le projet CaRe vise en particulier à formaliser le raisonnement collectif à l'aide de la logique, de la théorie des jeux et de la théorie du choix social ; à développer de nouveaux algorithmes pour doter un agent conversationnel artificiel de capacités de raisonnement collectif ; à évaluer les modèles formels et les algorithmes proposés à travers des expériences sur les interactions homme-homme (H-H) et homme-machine (H-M). Le projet CaRe apportera une nouvelle compréhension sur la manière de concevoir et de construire des systèmes d'IA fiables et éthiques qui veillent au bien-être des humains.

Contraintes et risques

Pas de risques identifiés.