En poursuivant votre navigation sur ce site, vous acceptez le dépôt de cookies dans votre navigateur. (En savoir plus)
Portail > Offres > Offre UMR7503-NATBUS-004 - Ingénieur H/F de recherche ou post-doctorat en traitement automatique du langage: introduction d'informations sémantiques dans un système de reconnaissance vocale

Ingénieur H/F de recherche ou post-doctorat en traitement automatique du langage: introduction d'informations sémantiques dans un système de reconnaissance vocale

Cette offre est disponible dans les langues suivantes :
Français - Anglais

Assurez-vous que votre profil candidat soit correctement renseigné avant de postuler. Les informations de votre profil complètent celles associées à chaque candidature. Afin d’augmenter votre visibilité sur notre Portail Emploi et ainsi permettre aux recruteurs de consulter votre profil candidat, vous avez la possibilité de déposer votre CV dans notre CVThèque en un clic !

Faites connaître cette offre !

Informations générales

Référence : UMR7503-NATBUS-004
Lieu de travail : VANDOEUVRE LES NANCY
Date de publication : mardi 3 septembre 2019
Type de contrat : CDD Scientifique
Durée du contrat : 12 mois
Date d'embauche prévue : 1 novembre 2019
Quotité de travail : Temps complet
Rémunération : autour de 2000 euros
Niveau d'études souhaité : Bac+5
Expérience souhaitée : Indifférent

Missions

Dans des conditions bruyantes, l'acquisition audio est l'un des défis les plus difficiles à réussir pour une reconnaissance automatique de la parole (ASR). Une grande partie du succès repose sur la capacité d'atténuer le bruit ambiant dans le signal et de le prendre en compte dans le modèle acoustique utilisé par l'ASR. Notre système de débruitage DNN (Deep Neural Network) et notre approche pour exploiter l'incertitude ont démontré leur efficacité dans le cadre de la parole bruitée.

L'étape ASR sera complétée par une analyse sémantique. Il a été démontré que les représentations prédictives utilisant des vecteurs continus capturent les caractéristiques sémantiques des mots et leur contexte, et surpassent les représentations basées sur le comptage des mots. L'analyse sémantique sera réalisée en combinant des représentations prédictives utilisant des vecteurs continus et l'incertitude issue du débruitage. Tous nos modèles seront basés sur les puissantes technologies de DNN.

Les performances des différents modules seront évaluées sur des signaux de parole artificiellement bruités et sur des données bruitées réelles.

References

[Nathwani et al., 2018] Nathwani, K., Vincent, E., and Illina, I. DNN uncertainty propagation using GMM-derived uncertainty features for noise robust ASR, IEEE Signal Processing Letters, 2018.

[Nathwani et al., 2017] Nathwani, K., Vincent, E., and Illina, I. Consistent DNN uncertainty training and decoding for robust ASR, in Proc. IEEE Automatic Speech Recognition and Understanding Workshop, 2017.

[Nugraha et al., 2016] Nugraha, A., Liutkus, A., Vincent E. Multichannel audio source separation with deep neural networks. IEEE/ACM Transactions on Audio, Speech, and Language Processing, 2016.

[Sheikh, 2016] Sheikh, I. Exploitation du contexte sémantique pour améliorer la reconnaissance des noms propres dans les documents audio diachroniques”, These de doctorat en Informatique, Université de Lorraine, 2016.

Activités

Activités principales

étude et mise en oeuvre d'un module d'amélioration de la parole bruitée et d'un module de propagation de l'incertitude;
concevoir un module d'analyse sémantique;
concevoir un module prenant en compte les informations sémantiques et l'incertitude.

Compétences

Compétences

Solide formation en mathématiques, apprentissage automatique (DNN), statistiques

Les profils suivants sont les bienvenus, soit:
- Une solide expérience en traitement du signal
ou
- une expérience en traitement du langage naturel
D'excellentes compétences en anglais sont indispensables.

Contexte de travail

Le travail sera effectué dans le laboratoire LORIA / INRIA de l'équipe Multispeech. L'étudiant collaborera avec un partenaire industriel.

On en parle sur Twitter !