Déploiement économe en énergie d'applications dans le continuum edge-réseau-cloud H/F

Nouveau

Laboratoire d'Informatique, Signaux et Systèmes de Sophia Antipolis

VALBONNE • Alpes-Maritimes

  • CDD Doctorant
  • 36 mois
  • Doctorat

This offer is available in English version

Cette offre est ouverte aux personnes disposant d’un titre leur reconnaissant la qualité de travailleur handicapé ou travailleuse handicapée.

L'offre en un coup d'oeil

L'unité

Laboratoire d'Informatique, Signaux et Systèmes de Sophia Antipolis

Type de Contrat

CDD Doctorant

Temps de Travail

Complet

Lieu de Travail

06902 VALBONNE

Durée du contrat

36 mois

Date d'Embauche

01/09/2026

Rémuneration

2300,00 € bruts mensuels

Postuler Date limite de candidature : jeudi 30 avril 2026 23:59

Description du Poste

Sujet De Thèse

Déploiement Énergétiquement Efficace d'Applications dans le Continuum Edge-Réseau-Cloud

Contexte et Motivation

Le déploiement d'applications d'IA connaît un changement de paradigme avec l'avènement des réseaux 5G/6G, de l'Internet des Objets (IoT) et de l'informatique en périphérie (edge computing). Cette évolution permet de déployer des services à travers le continuum edge-réseau-cloud [1], en exploitant des ressources hétérogènes allant des appareils en périphérie (par exemple, smartphones, microcontrôleurs) aux centres de données dans le cloud [2, 3, 4]. Ce nouveau paradigme relève des défis critiques tels que la latence, la bande passante et l'efficacité énergétique, mais introduit également de nouvelles complexités en matière d'allocation des ressources, de déploiement des modèles et d'optimisation énergétique.
Parallèlement, les modèles d'IA, en particulier les réseaux de neurones profonds, deviennent de plus en plus complexes, avec la consommation d'énergie et l'empreinte carbone qui émergent comme des préoccupations majeures. Par exemple, l'entraînement d'un seul grand modèle de langage peut émettre autant de CO₂ que cinq voitures sur leur durée de vie, et les tâches d'inférence contribuent de manière significative à l'utilisation d'énergie. Le projet CARECloud (PEPR CLOUD) vise explicitement à réduire l'impact environnemental des infrastructures cloud, ce qui rend ce sujet de thèse hautement pertinent pour les objectifs de durabilité nationale et mondiale.

Objectifs Scientifiques

Cette thèse vise à développer de nouvelles méthodes pour déployer des applications d'IA dans le continuum edge-réseau-cloud, en mettant l'accent sur la réduction de la consommation d'énergie tout en maintenant les performances des modèles. La recherche abordera certains des défis suivants :

* Stratégies de Déploiement Énergétiquement Aware
- Compression de Modèles : Étudier des techniques telles que la quantification, l'élagage (pruning) et la distillation de connaissances pour réduire l'empreinte computationnelle et mémoire des modèles d'apprentissage profond sans sacrifier leur précision [7, 9, 13].
- Systèmes en Cascade : Explorer des architectures à sortie anticipée (early-exit) et des inférences multi-étapes pour sélectionner dynamiquement le modèle le plus adapté (du plus léger au plus lourd) en fonction des contraintes en temps réel (par exemple, niveau de batterie, latence réseau) [10, 11].
- Apprentissage Fédéré : Étudier l'apprentissage fédéré (FL) comme un moyen de distribuer l'entraînement et l'inférence des modèles d'IA à travers les appareils en périphérie, réduisant ainsi le besoin de centralisation des données et les coûts énergétiques associés au transfert de données et au calcul dans le cloud. Le FL permet d'entraîner les modèles localement sur les appareils, en ne communiquant que les mises à jour des modèles (et non les données brutes), améliorant ainsi l'efficacité énergétique et la confidentialité [14].
- Planification Aware des Ressources : Concevoir des algorithmes pour optimiser le placement des tâches (edge vs. cloud) et les politiques de planification pour les charges de travail d'IA, en équilibrant latence, énergie et précision [13].

* Compromis entre Efficacité et Performance
- Analyse Quantitative : Mesurer la consommation d'énergie des charges de travail d'IA dans différents scénarios de déploiement (edge, réseau, cloud) et pour diverses techniques de compression de modèles.
- Configurations Adaptatives : Développer des modèles ajustables qui peuvent être reconfigurés à la volée pour s'adapter à des contraintes environnementales et de ressources variables.

* Impact Environnemental
- Modélisation de l'Empreinte Carbone : Étendre les cadres existants pour estimer les émissions de CO₂ des déploiements d'IA, en tenant compte à la fois de l'énergie de calcul et de l'énergie réseau.
- Optimisation pour la Durabilité : Proposer des stratégies de déploiement d'IA "verte" qui minimisent l'utilisation d'énergie et les émissions de carbone, en ligne avec les objectifs du projet CARECloud.

Activités de Recherche

1 Analyser la consommation d'énergie des déploiements d'IA dans le continuum edge-réseau-cloud.
2 Concevoir des méthodes algorithmiques pour la planification énergétiquement efficace des charges de travail d'IA.
3 Étudier les compromis entre efficacité énergétique et précision des modèles dans les techniques de compression.
4 Développer des cadres de déploiement adaptatifs utilisant des systèmes en cascade et des modèles à sortie anticipée.
5 Évaluer l'impact environnemental des méthodes proposées à l'aide d'outils d'évaluation du cycle de vie.

Compétences Requises

Le profil idéal du candidat comprend :
* Connaissances en apprentissage automatique, en particulier sur les réseaux de neurones, les graph neural networks (GNN) ou l'apprentissage fédéré.
* Solide background mathématique et algorithmique (optimisation, probabilités, algèbre linéaire).
* Expertise en programmation en Python, avec une expérience en PyTorch ou TensorFlow.
* Maîtrise des concepts de mise en réseau et d'informatique en périphérie (par exemple, MEC, IoT, 5G/6G).
* Compétences analytiques pour concevoir et évaluer des algorithmes d'optimisation.
* Maîtrise de l'anglais (essentielle pour la communication scientifique et la collaboration).

Références

[1] H. Hua, Y. Li, T. Wang, N. Dong, W. Li, and J. Cao, “Edge computing with artificial intelligence: A machine learning perspective,” ACM Computing Surveys, vol. 55, no. 9, pp. 1–35, 2023.
[2] S. Wang, T. Tuor, T. Salonidis, K. K. Leung, C. Makaya, T. He, and K. Chan, “When edge meets learning: Adaptive control for resource- constrained distributed machine learning,” in IEEE INFOCOM 2018- IEEE conference on computer communications. IEEE, 2018, pp. 63– 71.
[3] G. Drainakis, P. Pantazopoulos, K. V. Katsaros, V. Sourlas, and A. Amdi- tis, “On the distribution of ml workloads to the network edge and beyond,” in IEEE INFOCOM 2021-IEEE Conference on Computer Communications Workshops (INFOCOM WKSHPS), 2021, pp. 1–6.
[4] W. Gao, Q. Hu, Z. Ye, P. Sun, X. Wang, Y. Luo, T. Zhang, and Y. Wen, “Deep learning workload scheduling in gpu datacenters: Taxonomy, challenges and vision,” arXiv preprint arXiv:2205.11913, 2022.
[5] J. Lin, W.-M. Chen, J. Cohn, C. Gan, and S. Han, “Mcunet: Tiny deep learning on iot devices,” in Annual Conference on Neural Information Processing Systems (NeurIPS), 2020.
[6] M. Sandler, A. Howard, M. Zhu, A. Zhmoginov, and L.-C. Chen, “Mobilenetv2: Inverted residuals and linear bottlenecks,” in Proceedings of the IEEE conference on computer vision and pattern recognition, 2018, pp. 4510–4520.
[7] Y. Cheng, D. Wang, P. Zhou, and T. Zhang, “Model compression and acceleration for deep neural networks: The principles, progress, and challenges,” IEEE Signal Processing Magazine, vol. 35, no. 1, pp. 126– 136, 2018.
[8] J. Yu and T. Huang, “Autoslim: Towards one-shot architecture search for channel numbers,” 2019. [Online]. Available: https://arxiv.org/abs/1903.11728
[9] H. Cai, C. Gan, T. Wang, Z. Zhang, and S. Han, “Once-for-all: Train one network and specialize it for efficient deployment,” in International Conference on Learning Representations, 2020. [Online]. Available: https://openreview.net/forum?id=HylxE1HKwS
[10] Viola, P., & Jones, M. (2001, December). Rapid object detection using a boosted cascade of simple features. In Proceedings of the 2001 IEEE computer society conference on computer vision and pattern recognition. CVPR 2001 (Vol. 1, pp. I-I). Ieee.
[11] Rabanser, S., Rauschmayr, N., Kulshrestha, A., Poklukar, P., Jitkrittum, W., Augenstein, S., ... & Tombari, F. (2025). Gatekeeper: Improving model cascades through confidence tuning. NeurIPS 2025.
[12] Natale, E., Ferré, D., Giambartolomei, G., Giroire, F., & Mallmann-Trenn, F. (2024). On the sparsity of the strong lottery ticket hypothesis. Advances in Neural Information Processing Systems, 37, 40565-40592.
[13] Barros, T. D. S., Giroire, F., Aparicio-Pardo, R., Perennes, S., & Natale, E. (2024, May). Scheduling with fully compressible tasks: Application to deep learning inference with neural network compression. In 2024 IEEE 24th International Symposium on Cluster, Cloud and Internet Computing (CCGrid) (pp. 327-336). IEEE.
[14] Savazzi, S., Rampa, V., Kianoush, S., & Bennis, M. (2022). An energy and carbon footprint analysis of distributed and federated learning. IEEE Transactions on Green Communications and Networking, 7(1), 248-264.

Votre Environnement de Travail

La thèse sera faite au sein du projet CARECloud (Comprendre, Améliorer, Réduire les impacts Environnementaux du Cloud computing) du PEPR CLOUD. Le cloud computing et ses nombreuses déclinaisons offrent aux utilisateurs des capacités de calcul et de stockage considérables. La maturité des techniques de virtualisation a permis l’émergence d’infrastructures virtualisées complexes, capables de déployer et reconfigurer rapidement des ressources virtuelles et élastiques, dans des infrastructures de plus en plus distribuées. Cette gestion des ressources, transparente pour les utilisateurs, donne l’illusion d’un accès à des ressources flexibles, illimitées et quasiment immatérielles. Cependant, la consommation électrique de ces clouds est bien réelle et préoccupante, de même que leurs émissions globales de gaz à effet de serre (GES) et la consommation de matières premières critiques utilisées pour leur fabrication. Dans un contexte où les changements climatiques sont chaque année plus visibles et impressionnants, entraînant des conséquences graves à l’échelle mondiale pour les populations et pour la planète, tous les secteurs (transport, bâtiment, agriculture, industrie, etc.) doivent contribuer à l’effort de réduction des émissions de GES. Les clouds, malgré leur capacité à optimiser les processus des autres secteurs (transport, énergie, agriculture), n’échappent pas à ce constat : la pente croissante de leurs émissions de gaz à effet de serre doit s’inverser, sous peine de gommer leurs éventuels bénéfices dans les autres secteurs. C’est pourquoi le projet CARECloud vise à réduire drastiquement les impacts environnementaux des infrastructures de cloud.

Rémunération et avantages

Rémunération

2300,00 € bruts mensuels

Congés et RTT annuels

44 jours

Pratique et Indemnisation du TT

Pratique et indemnisation du TT

Transport

Prise en charge à 75% du coût et forfait mobilité durable jusqu’à 300€

À propos de l’offre

Référence de l’offre UMR7271-FREGIR-002
Section(s) CN / Domaine de recherche Sciences informatiques : fondements de l'informatique, calculs, algorithmes, représentations, exploitations

À propos du CNRS

Le CNRS est un acteur majeur de la recherche fondamentale à une échelle mondiale. Le CNRS est le seul organisme français actif dans tous les domaines scientifiques. Sa position unique de multi-spécialiste lui permet d’associer les différentes disciplines pour affronter les défis les plus importants du monde contemporain, en lien avec les acteurs du changement.

Le CNRS

Les métiers de la recherche

Créer une alerte

Ne manquez aucune opportunité de trouver le poste qui vous correspond. Inscrivez-vous gratuitement et recevez les nouvelles offres directement dans votre boite mail.

Créer une alerte

Déploiement économe en énergie d'applications dans le continuum edge-réseau-cloud H/F

CDD Doctorant • 36 mois • Doctorat • VALBONNE

Ces offres pourraient aussi vous intéresser !

    Toutes les offres