En poursuivant votre navigation sur ce site, vous acceptez le dépôt de cookies dans votre navigateur. (En savoir plus)

Thèse en Intelligence Artificielle H/F

Cette offre est disponible dans les langues suivantes :
Français - Anglais

Assurez-vous que votre profil candidat soit correctement renseigné avant de postuler. Les informations de votre profil complètent celles associées à chaque candidature. Afin d’augmenter votre visibilité sur notre Portail Emploi et ainsi permettre aux recruteurs de consulter votre profil candidat, vous avez la possibilité de déposer votre CV dans notre CVThèque en un clic !

Faites connaître cette offre !

Informations générales

Référence : UPR3251-NICSAB-002
Lieu de travail : ORSAY
Date de publication : lundi 13 mai 2019
Nom du responsable scientifique : Nicolas Sabouret
Type de contrat : CDD Doctorant/Contrat doctoral
Durée du contrat : 36 mois
Date de début de la thèse : 1 septembre 2019
Quotité de travail : Temps complet
Rémunération : 2 135,00 € brut mensuel

Description du sujet de thèse

Modéliser et simuler informatiquement les raisonnements, les décisions et les comportements des
humains est un objectif ambitieux, au cœur de l'Intelligence Artificielle. De nombreux progrès ont
été faits dans ce domaine depuis l'apparition de cette question de recherche et plusieurs chercheurs
ont proposé des modèles utilisant la logique modale pour représenter le raisonnement humain. L'un
des plus connu est le modèle BDI (pour Beliefs, Desire, Intentions) proposé par Bratman dans les
années 1980. Dans ce modèle, le modélisateur représente les croyances des individus et le système
construit des plans à partir des buts.
Dans cette thèse, nous nous intéressons à l'utilisation de ce modèle de raisonnement issu de
l'Intelligence Artificielle dans le contexte de la modélisation et de vérification automatique de
systèmes.
La modélisation et la vérification de systèmes consiste à décrire le fonctionnement d'un système, à
l'aide de formules logiques interprétables par un ordinateur, pour en vérifier certaines propriétés.
Par exemple, on peut décrire le fonctionnement d'un drone de surveillance et vérifier que son
comportement est conforme à la mission fixée. Cette technique a obtenu de grands succès depuis
une vingtaine d'année dans des secteurs critiques comme l'aéronautique ou le nucléaire, où la
moindre erreur peut avoir des conséquences dramatiques.
Cependant, ces outils de modélisation et de vérification ne prennent pas en compte les facteurs
humains comme les croyances, les émotions ou la personnalité. Pourtant, ceux-ci peuvent être la
source de graves défaillances dans les systèmes mixtes, c'est-à-dire des systèmes faisant intervenir
un opérateur humain ! L'un des exemples les plus célèbres est le crash du Mont Saint-Odile où une
croyance erronée sur l'état du système a conduit au décès de 97 personnes malgré deux pilotes très
bien formés et un appareil en parfait état de marche. Notre objectif est de proposer un modèle de
vérification qui intègre ces facteurs humains pour mieux prévenir ce type de défaillances.
Pour atteindre cet objectif, le doctorant devra concevoir un nouveau modèle formel, l'implémenter
et le valider sur des situations concrètes.

Contexte de travail

Cette thèse s'inscrit dans le cadre d'une collaboration de longue date entre l'équipe CPU du LIMSI, spécialisée dans la modélisation informatique des processus cognitifs humains, et l'équipe MODHEL du LRI spécialisée dans la vérification automatique de systèmes.

On en parle sur Twitter !