En poursuivant votre navigation sur ce site, vous acceptez le dépôt de cookies dans votre navigateur. (En savoir plus)
Portail > Offres > Offre UPR8001-PATDAN-011 - Ingénieur (H/F) : Logiciels et datasets pour la perception en robotique

Ingénieur (H/F) : Logiciels et datasets pour la perception en robotique

Cette offre est disponible dans les langues suivantes :
- Français-- Anglais

Date Limite Candidature : jeudi 21 novembre 2024 23:59:00 heure de Paris

Assurez-vous que votre profil candidat soit correctement renseigné avant de postuler

Informations générales

Intitulé de l'offre : Ingénieur (H/F) : Logiciels et datasets pour la perception en robotique
Référence : UPR8001-PATDAN-011
Nombre de Postes : 1
Lieu de travail : TOULOUSE
Date de publication : jeudi 31 octobre 2024
Type de contrat : CDD Technique/Administratif
Durée du contrat : 24 mois
Date d'embauche prévue : 3 février 2025
Quotité de travail : Temps complet
Rémunération : Le salaire est compris entre 2 349€ et 2957€ brut mensuel selon expérience.
Niveau d'études souhaité : Niveau 6 - (Bac+3 ou 4)
Expérience souhaitée : Indifférent
BAP : Informatique, Statistiques et Calcul scientifique
Emploi type : Ingénieur-e en ingénierie logicielle

Missions

Ce poste est à pourvoir dans l’équipe Robotique, Action et Perception (RAP, https://www.laas.fr/en/teams/rap/) du LAAS-CNRS, à Toulouse. Les recherches de l’équipe RAP concernent la conception, l'implémentation et l'évaluation d'algorithmes pour la perception visuelle et le couplage perception-mouvement dans des environnements dynamiques. L’ingénieur(e) recruté(e) travaillera en collaboration étroite avec les permanents et les doctorants de l’équipe sur les projets en cours et à venir impliquant des développements en :
o Vision par ordinateur
o Apprentissage automatique (supervisé ou non, semi-supervisé).
o Fusion de données multi-capteurs.
o Commande et navigation.

Activités

Les activités principales de la personne recrutée consisteront en :
o La participation au déploiement de nouveaux capteurs (caméras, radar, LiDAR, GNSS…) sur les plateformes robotiques de l’équipe RAP (bases mobiles, bras manipulateurs, manipulateurs mobiles, flotte de mini-robots) et à la coordination de ces plateformes.
o L’intégration matérielle et logicielle de fonctions de perception (approches 2D, 3D, multi-capteurs de détection, suivi, reconnaissance) ainsi que leur validation sur plateforme robotique dans des projets en cours relevant des domaines d’application emblématiques de l’équipe : (1) interaction humain-robot par analyse d’expressions faciales, reconnaissance de posture, de gestes ou d’actions humaines ; (2) mobilité (perception d’usagers hétérogènes, navigation, cartographie, etc.) ; (3) robotique agricole (modélisation et segmentation de végétaux en évolution, segmentation sémantique, etc.).
o L’amélioration et le suivi de librairies logicielles associées aux travaux de recherche récents ou en cours.
o La veille scientifique sur les datasets “benchmarks” mis à disposition par les communautés “computer vision”, “automotive” ou “agricultural robotics”, ainsi que sur les librairies open-source majeures de vision 2D et 3D.
o Le renforcement de la collaboration avec le Roboterrium Rob@t de l’Axe Autonomous Land Robotics de l’Équipement d’excellence (Equipex+) TIRREX. La participation à la constitution la forge nationale d’algorithmes et de datasets pour la robotique agricole (Grand Défi Robotique Agricole).
o Le support aux permanents et doctorants dans des projets de recherche en cours et à venir : développements logiciels, intégrations robotiques, co-encadrement de stagiaires, co-signature de publications, gestion de projets…
o La contribution à la préparation de démonstrations dans le cadre de projets ou à destination du grand public.

Compétences

Cette offre s’adresse spécifiquement à un(e) titulaire d’un Master, d’un titre d’Ingénieur ou d’un Doctorat en Robotique (ou équivalent). Les compétences souhaitées pour ce poste sont :
o Très bonnes connaissances en Vision pour la Robotique et Machine Learning.
o Maîtrise de langages de programmation : C, C++, Python.
o Bonne connaissance de bibliothèques open-source : PyTorch ou équivalent, OpenCV, Open3D, PCL…
o Expérience pratique sur des plateformes robotiques, éventuellement sur les architectures pour l’embarquabilité de fonctions de perception.
o Autonomie, travail en équipe.
o Compétences rédactionnelles en Français et Anglais.

Contexte de travail

Ces travaux se dérouleront dans l'équipe Robotique Action Perception, au sein du Département Robotique du LAAS-CNRS, Toulouse, France.
Le salaire est compris entre 2 622.31€ et 3319.29€ brut mensuel selon expérience.
Le poste se situe dans un secteur relevant de la protection du potentiel scientifique et technique (PPST), et nécessite donc, conformément à la réglementation, que votre arrivée soit autorisée par l'autorité compétente du MESR.

Le poste se situe dans un secteur relevant de la protection du potentiel scientifique et technique (PPST), et nécessite donc, conformément à la réglementation, que votre arrivée soit autorisée par l'autorité compétente du MESR.

Contraintes et risques

N/A

Informations complémentaires

Les candidat(e)s doivent constituer un dossier permettant d'établir clairement leur qualification et leur motivation pour ce poste. Le fichier “Curriculum Vitae” à déposer sur le site emploi.cnrs.fr devra contenir les éléments suivants :
- CV
- Lettre de motivation
- Éventuellement : rapports de pré-soutenance et de soutenance de thèse ; liste des publications
- Relevé de notes de dernière année d’études
- Éventuellement : lettres de recommandation