En poursuivant votre navigation sur ce site, vous acceptez le dépôt de cookies dans votre navigateur. (En savoir plus)

Thèse de Doctorat - Protection et équité dans l'apprentissage fédéré pour la santé numérique (H/F)

Cette offre est disponible dans les langues suivantes :
- Français-- Anglais

Date Limite Candidature : mardi 31 décembre 2024 23:59:00 heure de Paris

Assurez-vous que votre profil candidat soit correctement renseigné avant de postuler

Informations générales

Intitulé de l'offre : Thèse de Doctorat - Protection et équité dans l'apprentissage fédéré pour la santé numérique (H/F)
Référence : UMR5205-SARBOU-001
Nombre de Postes : 1
Lieu de travail : VILLEURBANNE
Date de publication : mardi 10 décembre 2024
Type de contrat : CDD Doctorant
Durée du contrat : 36 mois
Date de début de la thèse : 3 février 2025
Quotité de travail : Complet
Rémunération : 2200€ brut mensuel
Section(s) CN : 1 - Interactions, particules, noyaux du laboratoire au cosmos

Description du sujet de thèse

Résumé :
L'apprentissage fédéré (FL) est un paradigme prometteur qui gagne du terrain dans le contexte de l'apprentissage automatique préservant la confidentialité pour les systèmes informatiques de pointe. Grâce à FL, plusieurs propriétaires de données appelés clients (par exemple, des organisations dans FL inter-silo) peuvent former de manière collaborative un modèle sur leurs données privées, sans avoir à envoyer leurs données brutes à des fournisseurs de services externes. FL a été rapidement adopté dans plusieurs applications florissantes telles que la santé numérique [1], qui génère le plus grand volume de données au monde [2]. Dans les systèmes de santé, les problèmes de confidentialité et de biais sont particulièrement importants.

Bien que FL soit un premier pas vers la confidentialité en gardant les données locales pour chaque client, cela n'est pas suffisant car les paramètres du modèle partagés par FL sont vulnérables aux attaques de confidentialité [3], comme le montre une ligne de littérature récente [4]. Il est donc nécessaire de concevoir de nouveaux protocoles FL robustes à de telles attaques de confidentialité. De plus, les clients FL peuvent avoir des données très hétérogènes et déséquilibrées, ce qui peut entraîner un modèle FL injuste, avec des disparités entre les groupes socio-économiques et démographiques [6][4]. Des études récentes montrent que l'utilisation de l'IA peut encore exacerber les disparités entre les groupes et que la FL peut être un vecteur de propagation de biais parmi les différents clients de la FL. Dans ce contexte, des travaux récents parus dans NDSS [7] et AAAI [8] montrent que l'équité et la confidentialité sont en concurrence ; les traiter indépendamment - comme c'est le cas habituellement - peut avoir des effets secondaires négatifs l'un sur l'autre.

Par conséquent, il est nécessaire d'adopter une nouvelle approche multi-objectifs pour l'équité de la FL et la protection contre les menaces à la vie privée. Cela est particulièrement difficile dans la FL où aucune connaissance globale des informations statistiques sur les données hétérogènes globales n'est disponible, une connaissance qui est nécessaire dans les techniques classiques de pointe. Ce projet s'attaque à ce défi et vise à traiter précisément les problèmes soulevés à l'intersection de la confidentialité et de l'équité du modèle FL, à travers : (i) de nouveaux protocoles FL distribués ; (ii) une approche multi-objectifs pour prendre en compte les aspects de confidentialité, d'équité et d'utilité, ces objectifs étant antagonistes ; (ii) l'application de ces techniques aux cas d'utilisation de la santé numérique basés sur la FL.

Mots-clés:
Distributed systems; Edge computing; Federated Learning; Privacy; Bias; Fairness; Healthcare data

Références:
[1] N. Rieke, et. al. The Future of Digital Health with Federated Learning. NPJ Digital Medicine 3, 1, 2020.
[2] RBC. The Healthcare Data Explosion.
[3] R. Shokri, et al. Membership Inference Attacks Against Machine Learning Models. IEEE Symposium on Security and Privacy (S&P), May 2017.
[4] Z. Obermeyer, et al. Dissecting racial bias in an algorithm used to manage the health of populations. Science, 366(6464):447-453, Oct. 2019.
[5] N. A. Tomashenko, et. al. Privacy Attacks for Automatic Speech Recognition Acoustic Models in FL. ICASSP 2022.
[6] D. Leslie, et al. Does “AI” stand for augmenting inequality in the era of covid-19 healthcare? BMJ, 372:n304, Mar. 2021.
[7] M. Naseri, et al. Local and Central Differential Privacy for Robustness and Privacy in Federated Learning. NDSS 2022.
[8] H. Jeong, et al. Fairness without Imputation: A Decision Tree Approach for Fair Prediction with Missing Values. In the 36th AAAI Conference on Artificial Intelligence (AAAI), 2022.

Sélection de publications de la responsable scientifique :
• C. Boscher, N. Benarba, F. Elhattab, S. Bouchenak. Personalized Privacy-Preserving Federated Learning. The 25th ACM/IFIP International Middleware Conference, Hong Kong, China, Dec. 2024. (Rank A)
• Y. Djebrouni, N. Benarba, O. Touat, S. Bouchenak, A. Bonifati, P. Da Rosa, P. Felber, V. Marangozova, V. Schiavoni. Bias Mitigation in Federated Learning for Edge Computing. The ACM on Interactive, Mobile, Wearable and Ubiquitous Technologies, UbiComp / IMWUT, 7(4), Melbourne, Australia, Oct. 2024. (Rank A*)
• F. Elhattab, C. Boscher, S. Bouchenak. PASTEL: Privacy-Preserving Federated Learning in Edge Computing. The ACM on Interactive, Mobile, Wearable and Ubiquitous Technologies, UbiComp / IMWUT, 7(4), Melbourne, Australia, Oct. 2024. (Rank A*)
• F. El Hattab, R. Talbi, V. Nitu, S. Bouchenak. Robust Federated Learning for Ubiquitous Computing Through Mitigation of Edge-Case Backdoor Attacks. The ACM on Interactive, Mobile, Wearable and Ubiquitous Technologies, UbiComp / IMWUT, 6(4), Cancun, Mexico, Oct. 2023. (Rank A*)
• Z. Zhao, R. Birke, R. Han, B. Robu, S. Bouchenak, S. Ben Mokhtar, L. Chen. Enhancing Robustness of Online Learning Models on Highly Noisy Data. IEEE Transactions on Dependable and Secure Computing, 18(5), pp. 2177-2192, Sep. 2021. (Rank Q1)

Contexte de travail

Le laboratoire LIRIS est un laboratoire de recherche de renommée internationale dans le domaine de l'informatique et des sciences du numérique. Situé à Lyon, le LIRIS se distingue par son excellence académique et son engagement dans la recherche de pointe. Avec une équipe multidisciplinaire d'experts passionnés, le laboratoire mène des travaux innovants couvrant un large éventail de domaines, tels que l'intelligence artificielle, la vision par ordinateur, les systèmes d'information, la modélisation et la simulation, entre autres. Fort de collaborations nationales et internationales, le LIRIS offre un environnement stimulant et propice à l'épanouissement professionnel, où les idées novatrices et les avancées scientifiques sont encouragées et valorisées.

Ce que nous vous proposons :
• Un environnement de travail stimulant aux contacts des personnels de la recherche
• 44 jours de congés/RTT par an
• D'excellentes conditions de travail (horaires flexibles…)
• Des formations adaptées pour vous accompagner
• Un site accessible en transport en commun
• Le remboursement partiel des titres de transport (75%) + forfait mobilité durable pouvant aller jusqu'à 300€/an


Le poste se situe dans un secteur relevant de la protection du potentiel scientifique et technique (PPST), et nécessite donc, conformément à la réglementation, que votre arrivée soit autorisée par l'autorité compétente du MESR.