Déploiement économe en énergie d'applications dans le continuum edge-réseau-cloud H/F
Nouveau
- CDD Doctorant
- 36 mois
- Doctorat
L'offre en un coup d'oeil
L'unité
Laboratoire d'Informatique, Signaux et Systèmes de Sophia Antipolis
Type de Contrat
CDD Doctorant
Temps de Travail
Complet
Lieu de Travail
06902 VALBONNE
Durée du contrat
36 mois
Date d'Embauche
01/09/2026
Rémuneration
2300,00 € bruts mensuels
Postuler Date limite de candidature : jeudi 30 avril 2026 23:59
Description du Poste
Sujet De Thèse
Déploiement Énergétiquement Efficace d'Applications dans le Continuum Edge-Réseau-Cloud
Contexte et Motivation
Le déploiement d'applications d'IA connaît un changement de paradigme avec l'avènement des réseaux 5G/6G, de l'Internet des Objets (IoT) et de l'informatique en périphérie (edge computing). Cette évolution permet de déployer des services à travers le continuum edge-réseau-cloud [1], en exploitant des ressources hétérogènes allant des appareils en périphérie (par exemple, smartphones, microcontrôleurs) aux centres de données dans le cloud [2, 3, 4]. Ce nouveau paradigme relève des défis critiques tels que la latence, la bande passante et l'efficacité énergétique, mais introduit également de nouvelles complexités en matière d'allocation des ressources, de déploiement des modèles et d'optimisation énergétique.
Parallèlement, les modèles d'IA, en particulier les réseaux de neurones profonds, deviennent de plus en plus complexes, avec la consommation d'énergie et l'empreinte carbone qui émergent comme des préoccupations majeures. Par exemple, l'entraînement d'un seul grand modèle de langage peut émettre autant de CO₂ que cinq voitures sur leur durée de vie, et les tâches d'inférence contribuent de manière significative à l'utilisation d'énergie. Le projet CARECloud (PEPR CLOUD) vise explicitement à réduire l'impact environnemental des infrastructures cloud, ce qui rend ce sujet de thèse hautement pertinent pour les objectifs de durabilité nationale et mondiale.
Objectifs Scientifiques
Cette thèse vise à développer de nouvelles méthodes pour déployer des applications d'IA dans le continuum edge-réseau-cloud, en mettant l'accent sur la réduction de la consommation d'énergie tout en maintenant les performances des modèles. La recherche abordera certains des défis suivants :
* Stratégies de Déploiement Énergétiquement Aware
- Compression de Modèles : Étudier des techniques telles que la quantification, l'élagage (pruning) et la distillation de connaissances pour réduire l'empreinte computationnelle et mémoire des modèles d'apprentissage profond sans sacrifier leur précision [7, 9, 13].
- Systèmes en Cascade : Explorer des architectures à sortie anticipée (early-exit) et des inférences multi-étapes pour sélectionner dynamiquement le modèle le plus adapté (du plus léger au plus lourd) en fonction des contraintes en temps réel (par exemple, niveau de batterie, latence réseau) [10, 11].
- Apprentissage Fédéré : Étudier l'apprentissage fédéré (FL) comme un moyen de distribuer l'entraînement et l'inférence des modèles d'IA à travers les appareils en périphérie, réduisant ainsi le besoin de centralisation des données et les coûts énergétiques associés au transfert de données et au calcul dans le cloud. Le FL permet d'entraîner les modèles localement sur les appareils, en ne communiquant que les mises à jour des modèles (et non les données brutes), améliorant ainsi l'efficacité énergétique et la confidentialité [14].
- Planification Aware des Ressources : Concevoir des algorithmes pour optimiser le placement des tâches (edge vs. cloud) et les politiques de planification pour les charges de travail d'IA, en équilibrant latence, énergie et précision [13].
* Compromis entre Efficacité et Performance
- Analyse Quantitative : Mesurer la consommation d'énergie des charges de travail d'IA dans différents scénarios de déploiement (edge, réseau, cloud) et pour diverses techniques de compression de modèles.
- Configurations Adaptatives : Développer des modèles ajustables qui peuvent être reconfigurés à la volée pour s'adapter à des contraintes environnementales et de ressources variables.
* Impact Environnemental
- Modélisation de l'Empreinte Carbone : Étendre les cadres existants pour estimer les émissions de CO₂ des déploiements d'IA, en tenant compte à la fois de l'énergie de calcul et de l'énergie réseau.
- Optimisation pour la Durabilité : Proposer des stratégies de déploiement d'IA "verte" qui minimisent l'utilisation d'énergie et les émissions de carbone, en ligne avec les objectifs du projet CARECloud.
Activités de Recherche
1 Analyser la consommation d'énergie des déploiements d'IA dans le continuum edge-réseau-cloud.
2 Concevoir des méthodes algorithmiques pour la planification énergétiquement efficace des charges de travail d'IA.
3 Étudier les compromis entre efficacité énergétique et précision des modèles dans les techniques de compression.
4 Développer des cadres de déploiement adaptatifs utilisant des systèmes en cascade et des modèles à sortie anticipée.
5 Évaluer l'impact environnemental des méthodes proposées à l'aide d'outils d'évaluation du cycle de vie.
Compétences Requises
Le profil idéal du candidat comprend :
* Connaissances en apprentissage automatique, en particulier sur les réseaux de neurones, les graph neural networks (GNN) ou l'apprentissage fédéré.
* Solide background mathématique et algorithmique (optimisation, probabilités, algèbre linéaire).
* Expertise en programmation en Python, avec une expérience en PyTorch ou TensorFlow.
* Maîtrise des concepts de mise en réseau et d'informatique en périphérie (par exemple, MEC, IoT, 5G/6G).
* Compétences analytiques pour concevoir et évaluer des algorithmes d'optimisation.
* Maîtrise de l'anglais (essentielle pour la communication scientifique et la collaboration).
Références
[1] H. Hua, Y. Li, T. Wang, N. Dong, W. Li, and J. Cao, “Edge computing with artificial intelligence: A machine learning perspective,” ACM Computing Surveys, vol. 55, no. 9, pp. 1–35, 2023.
[2] S. Wang, T. Tuor, T. Salonidis, K. K. Leung, C. Makaya, T. He, and K. Chan, “When edge meets learning: Adaptive control for resource- constrained distributed machine learning,” in IEEE INFOCOM 2018- IEEE conference on computer communications. IEEE, 2018, pp. 63– 71.
[3] G. Drainakis, P. Pantazopoulos, K. V. Katsaros, V. Sourlas, and A. Amdi- tis, “On the distribution of ml workloads to the network edge and beyond,” in IEEE INFOCOM 2021-IEEE Conference on Computer Communications Workshops (INFOCOM WKSHPS), 2021, pp. 1–6.
[4] W. Gao, Q. Hu, Z. Ye, P. Sun, X. Wang, Y. Luo, T. Zhang, and Y. Wen, “Deep learning workload scheduling in gpu datacenters: Taxonomy, challenges and vision,” arXiv preprint arXiv:2205.11913, 2022.
[5] J. Lin, W.-M. Chen, J. Cohn, C. Gan, and S. Han, “Mcunet: Tiny deep learning on iot devices,” in Annual Conference on Neural Information Processing Systems (NeurIPS), 2020.
[6] M. Sandler, A. Howard, M. Zhu, A. Zhmoginov, and L.-C. Chen, “Mobilenetv2: Inverted residuals and linear bottlenecks,” in Proceedings of the IEEE conference on computer vision and pattern recognition, 2018, pp. 4510–4520.
[7] Y. Cheng, D. Wang, P. Zhou, and T. Zhang, “Model compression and acceleration for deep neural networks: The principles, progress, and challenges,” IEEE Signal Processing Magazine, vol. 35, no. 1, pp. 126– 136, 2018.
[8] J. Yu and T. Huang, “Autoslim: Towards one-shot architecture search for channel numbers,” 2019. [Online]. Available: https://arxiv.org/abs/1903.11728
[9] H. Cai, C. Gan, T. Wang, Z. Zhang, and S. Han, “Once-for-all: Train one network and specialize it for efficient deployment,” in International Conference on Learning Representations, 2020. [Online]. Available: https://openreview.net/forum?id=HylxE1HKwS
[10] Viola, P., & Jones, M. (2001, December). Rapid object detection using a boosted cascade of simple features. In Proceedings of the 2001 IEEE computer society conference on computer vision and pattern recognition. CVPR 2001 (Vol. 1, pp. I-I). Ieee.
[11] Rabanser, S., Rauschmayr, N., Kulshrestha, A., Poklukar, P., Jitkrittum, W., Augenstein, S., ... & Tombari, F. (2025). Gatekeeper: Improving model cascades through confidence tuning. NeurIPS 2025.
[12] Natale, E., Ferré, D., Giambartolomei, G., Giroire, F., & Mallmann-Trenn, F. (2024). On the sparsity of the strong lottery ticket hypothesis. Advances in Neural Information Processing Systems, 37, 40565-40592.
[13] Barros, T. D. S., Giroire, F., Aparicio-Pardo, R., Perennes, S., & Natale, E. (2024, May). Scheduling with fully compressible tasks: Application to deep learning inference with neural network compression. In 2024 IEEE 24th International Symposium on Cluster, Cloud and Internet Computing (CCGrid) (pp. 327-336). IEEE.
[14] Savazzi, S., Rampa, V., Kianoush, S., & Bennis, M. (2022). An energy and carbon footprint analysis of distributed and federated learning. IEEE Transactions on Green Communications and Networking, 7(1), 248-264.
Votre Environnement de Travail
La thèse sera faite au sein du projet CARECloud (Comprendre, Améliorer, Réduire les impacts Environnementaux du Cloud computing) du PEPR CLOUD. Le cloud computing et ses nombreuses déclinaisons offrent aux utilisateurs des capacités de calcul et de stockage considérables. La maturité des techniques de virtualisation a permis l’émergence d’infrastructures virtualisées complexes, capables de déployer et reconfigurer rapidement des ressources virtuelles et élastiques, dans des infrastructures de plus en plus distribuées. Cette gestion des ressources, transparente pour les utilisateurs, donne l’illusion d’un accès à des ressources flexibles, illimitées et quasiment immatérielles. Cependant, la consommation électrique de ces clouds est bien réelle et préoccupante, de même que leurs émissions globales de gaz à effet de serre (GES) et la consommation de matières premières critiques utilisées pour leur fabrication. Dans un contexte où les changements climatiques sont chaque année plus visibles et impressionnants, entraînant des conséquences graves à l’échelle mondiale pour les populations et pour la planète, tous les secteurs (transport, bâtiment, agriculture, industrie, etc.) doivent contribuer à l’effort de réduction des émissions de GES. Les clouds, malgré leur capacité à optimiser les processus des autres secteurs (transport, énergie, agriculture), n’échappent pas à ce constat : la pente croissante de leurs émissions de gaz à effet de serre doit s’inverser, sous peine de gommer leurs éventuels bénéfices dans les autres secteurs. C’est pourquoi le projet CARECloud vise à réduire drastiquement les impacts environnementaux des infrastructures de cloud.
Rémunération et avantages
Rémunération
2300,00 € bruts mensuels
Congés et RTT annuels
44 jours
Pratique et Indemnisation du TT
Pratique et indemnisation du TT
Transport
Prise en charge à 75% du coût et forfait mobilité durable jusqu’à 300€
À propos de l’offre
| Référence de l’offre | UMR7271-FREGIR-002 |
|---|---|
| Section(s) CN / Domaine de recherche | Sciences informatiques : fondements de l'informatique, calculs, algorithmes, représentations, exploitations |
À propos du CNRS
Le CNRS est un acteur majeur de la recherche fondamentale à une échelle mondiale. Le CNRS est le seul organisme français actif dans tous les domaines scientifiques. Sa position unique de multi-spécialiste lui permet d’associer les différentes disciplines pour affronter les défis les plus importants du monde contemporain, en lien avec les acteurs du changement.
Créer une alerte
Ne manquez aucune opportunité de trouver le poste qui vous correspond. Inscrivez-vous gratuitement et recevez les nouvelles offres directement dans votre boite mail.