En poursuivant votre navigation sur ce site, vous acceptez le dépôt de cookies dans votre navigateur. (En savoir plus)

Etude des biais démocratiques dans les giga modèles de langue (H/F)

Cette offre est disponible dans les langues suivantes :
- Français-- Anglais

Date Limite Candidature : samedi 15 juin 2024 23:59:00 heure de Paris

Assurez-vous que votre profil candidat soit correctement renseigné avant de postuler

Informations générales

Intitulé de l'offre : Etude des biais démocratiques dans les giga modèles de langue (H/F)
Référence : UMR7222-FRAYVO-002
Nombre de Postes : 3
Lieu de travail : PARIS 05
Date de publication : samedi 25 mai 2024
Type de contrat : CDD Doctorant/Contrat doctoral
Durée du contrat : 36 mois
Date de début de la thèse : 1 octobre 2024
Quotité de travail : Temps complet
Rémunération : La rémunération est d'un minimum de 2135,00 € mensuel
Section(s) CN : Sciences de l'information : traitements, systèmes intégrés matériel-logiciel, robots, commandes, images, contenus, interactions, signaux et langues

Description du sujet de thèse

Le cadre général de la recherche est celui de l’utilisation des grands modèles génératifs (giga modèles de langue ou LLM) dans une plate-forme de démocratie participative. La question qui se pose est celle de la détection et de la correction des biais de ces LLM quand ils sont utilisés pour assister les administrateurs ou les utilisateurs de cette plate-forme : consultation et analyse de débats en cours (résumé, traduction), intervention dans le débat (aide à la rédaction), modération du site, etc. Trois thèses portant plus particulièrement sur les problématiques du résumé automatique, de la traduction automatique et de l’aide à la rédaction sont proposées dans ce cadre.

Contexte scientifique

Les outils de traitement des langues s'appuyant sur des grands modèles de langue dits génératifs ont en quelques années atteint des niveaux très élevés de performance pour des tâches complexes. Ils sont aujourd'hui largement présents dans nos environnements numériques de travail pour accéder à l'information, l'analyser, la reformuler, ou encore pour générer des contenus originaux. Avec la large diffusion de ces technologies, l'analyse des performances réelles, des risques et des limitations de ces modèles se pose de manière accrue. Ainsi, une littérature croissante en traitement des langues s'intéresse aux "biais sociaux" de ces grands modèles – étant entendus comme une tendance à produire des textes qui traduisent une forme de préférence en faveur ou en défaveur de certains groupes sociaux (genres, nationalités, religions, partis politiques, etc). Cette préférence peut être quantitative (certains points de vue ou certains groupes sont plus représentés) ou qualitative (leur représentation est tendanciellement dépréciative, reflète des stéréotypes, ou bien leur attribue des propriétés d'une manière impropre, inexacte, ou inappropriée). Cette méreprésentation peut être explicite ou bien indirecte, dans ce dernier cas elle est véhiculée par des associations lexicales ou bien des implications textuelles et présuppositions présentes dans des énoncés complexes. Cette préférence peut enfin se traduire par des performances inégales des modèles selon des catégories d'utilisateurs socialement construites auxquelles ils sont appliqués. L'évaluation des biais devient donc partie intégrale du processus d'évaluation, de comparaison et de qualification des modèles.

Plusieurs directions de recherche sont se sont ainsi structurées au sein de la communauté du traitement des langues autour : (a) de l'identification et de la quantification de ces biais sociaux à travers l'analyse des représentations internes des LLMs, depuis des représentations de mots isolés, puis de mots en contexte, enfin de textes artificiels complets ; (b) de l'identification et de la quantification de ces biais dans les tâches finalisées: résolution de références, traduction automatique, analyse de sentiments, génération libre de textes ; (c) du développement de méthodes pour réduire les biais ; (d) du développement de stratégies afin d'améliorer la transparence des modèles.

Contexte de travail

Les personnes recrutées s'inséreront dans un des deux laboratoires de Sorbonne-Université (ISIR et STIH) impliqués dans ce programme, en fonction du sujet retenu.

ISIR: l'Institut des Systèmes Intelligents et de Robotique, est un laboratoire pluridisciplinaire de Sorbonne Université et du CNRS. Les personnes recrutées seront accueillies au sein de l'équiple "Machine Learning and Deep Learning for Information Access" (MLIA - https://www.isir.upmc.fr/equipes/mlia/), qui s'intéresse à l'apprentissage automatique et à ses applications, en particulier en traitement des langues. Situé sur le corpus de Jussieu, au centre de Paris, l'ISIR regroupe plus de 250 membres et est un acteur majeur de l'Intelligence Artificielle et de la Robotique en Europe (https://www.isir.upmc.fr).

STIH: Sens, Texte, Informatique, Histoire, est un laboratoire pluridisciplinaire de Sorbonne Université implanté à la Faculté des Lettres. La personne recrutée sera accueillie au sein de l'équipe “Linguistique Computationnelle”, qui développe des recherches aux carrefours de la linguistique et de l'informatique, en particulier en traitement automatique de la langue écrite et parlée. Le candidat sera épaulé par l’équipe d’ingénieurs de l’unité de service CERES (https://ceres.sorbonne-universite.fr).

Contraintes et risques

Travail sur écran sans autre risque particulier.