Equipe-projet

MULTISPEECH

La parole multimodale en interaction
La parole multimodale en interaction

MULTISPEECH est une équipe-projet commune de l’Université de Lorraine, d’Inria et du CNRS. Elle fait partie du département D4 « Traitement automatique des langues et des connaissances » du LORIA.

Multispeech considère la parole comme un signal multimodal avec différentes facettes : acoustique, faciale, articulatoire, gestuelle, etc. L’objectif général de Multispeech est d’étudier l’analyse et la synthèse des différentes facettes de ce signal multimodal et leur coordination multimodale dans le contexte de l’interaction humain-humain ou humain-ordinateur.

Le programme de recherche est organisé selon les trois axes suivants :

  • Apprentissage efficace en termes de données et préservation de la confidentialité.
  • Extraction d’informations à partir de signaux vocaux.
  • Parole multimodale : génération et interaction.
Centre(s) inria
Centre Inria de l'Université de Lorraine
En partenariat avec
CNRS,Université de Lorraine

Contacts

Responsable de l'équipe

Emmanuelle Deschamps

Assistant(e) de l'équipe

Sylvie Hilbert

Assistant(e) de l'équipe

Delphine Hubert

Assistant(e) de l'équipe

Elsa Maroko

Assistant(e) de l'équipe

Gallown Nizard

Assistant(e) de l'équipe