Vous êtes ici : Réunions » Réunion

Identification

Identifiant: 
Mot de passe : 

Mot de passe oublié ?
Détails d'identification oubliés ?

Traitement du signal pour la voix (Action Audio)

Nous vous rappelons que, afin de garantir l'accès de tous les inscrits aux salles de réunion, l'inscription aux réunions est gratuite mais obligatoire.

Inscriptions closes à cette réunion.

Inscriptions

23 personnes membres du GdR ISIS, et 32 personnes non membres du GdR, sont inscrits à cette réunion.
Capacité de la salle : 70 personnes.

Annonce

Dans le cadre de l'action «Traitement du signal pour l'audio et l?écoute artificielle» du Gdr Isis, nous organisons, le Jeudi 20 Octobre 2022 à l'IRCAM, une seconde journée dédiée «Voix», animée par les orateurs suivants :

Invitation

Nous invitons également les doctorants et post-doctorants souhaitant présenter leur travaux relevant de l’audio de contacter Vincent Lostanlen (vincent dot lostanlen at ls2n dot fr) avant 1er Octobre. Leur présentation se fera avec le format suivant : une brève présentation de 3 minutes en plénière et un poster affiché durant la journée.

Comité d'organisation

Programme

09:30 Accueil (Café)

10:00 Introduction

10:15 Yves Laprie : Prédiction de la forme géométrique du conduit vocal à partir de la suite de phonèmes à articuler

11:15 Thomas Hueber : Acoustic-articulatory modeling: from assistive technologies to the study of speech development mechanisms

12:15 Repas

14:00 Nathalie Henrich Bernadoni : De la théorie source-filtre aux interactions pneumo-phono-résonantiels : la complexité de la voix humaine

15:00 Axel Roebel : Méthodes d'apprentissage profond pour le traitement de la voix

16:00 Présentation des doctorants en salle

16:30 Posters des doctorants (Café)

17:30 Clôture

Résumés des contributions

Yves Laprie : Prédiction de la forme géométrique du conduit vocal à partir de la suite de phonèmes à articuler

L’exposé porte sur la prédiction de la forme géométrique du conduit vocal à partir d’une suite de phonèmes.
Il commencera présenter les différentes approches qui ont été utilisées par le passé, en particulier celles qui reposent sur l’utilisation de modèles articulatoires afin de dresser le panorama des enjeux et des difficultés.
L’exposé portera ensuite sur l’utilisation de l’IRM dynamique afin de capturer les gestes des articulateurs. Comme cinéIRM ne peuvent pas être exploités directement nous présenterons les outils de suivi automatique des articulateurs avec leurs limites. Ensuite nous présenterons l’approche par apprentissage profond de la prédiction de la forme géométrique du conduit vocal dans le plan médio-sagittal en fonction de la suite de phonèmes à articuler.

Yves Laprie est chercheur CNRS au LORIA à Nancy. Mes recherches portent sur la synthèse et la modélisation articulatoire, l'analyse de la parole et l'apprentissage du langage. Ces dernières années j'ai essentiellement travaillé sur l'exploitation de données IRM temps réel.

Thomas Hueber : Acoustic-articulatory modeling: from assistive technologies to the study of speech development mechanisms

Speech production is a complex motor process involving several physiological phenomena, such as the neural, nervous and muscular activities that drive our respiratory, laryngeal and articulatory movements. Modeling speech production, in particular the relationship between articulatory gestures (tongue, lips, jaw, velum) and acoustic realizations of speech, is a challenging, and still evolving, research question. From an applicative point of view, such models could be embedded into assistive devices able to restore oral communication when part of the speech production chain is damaged (articulatory synthesis). They could also help rehabilitate speech sound disorders using a therapy based on biofeedback (and articulatory inversion). From a more fundamental research perspective, such models can also be used to question the cognitive mechanisms underlying speech perception and motor control. In this talk, I will present different studies conducted in our group, aiming at learning acoustic-articulatory models from real-world data, using (deep, but not only) machine learning. First, I will focus on different attempts to adapt a direct or inverse model, pre-trained on a reference speaker, to any new speaker. Then, I will present a recent work on the integration of articulatory priors into the latent space of a variational auto-encoder, for potential application to speech enhancement. Finally, I will describe a recent line of research aiming at studying, through modeling and simulation, how a child learns the acoustic-to-articulatory inverse mapping in a self-supervised manner when repeating auditory-only speech stimuli.

Nathalie Henrich Bernadoni : De la théorie source-filtre aux interactions pneumo-phono-résonantiels : la complexité de la voix humaine

Depuis plus d’un demi-siècle, la théorie source-filtre reste au cœur de la modélisation, de l’analyse et de la synthèse de la voix humaine et de ses expressions, comme la parole et le chant. Dans cette présentation, nous reviendrons sur cette théorie et sur ce qu’elle nous dit de la production vocale humaine. Nous verrons ensuite comment la diversité des gestes phonatoires et articulatoires nous imposent de repenser ce modèle pour y inclure des niveaux d’interaction, que nous détaillerons.

Nathalie Henrich est une scientifique passionnée par la voix humaine sous toutes ses formes d’expressions. Elle est Directrice de Recherche au CNRS dans l’INstitut des Sciences Humaines et Sociale (INSHS), Section Sciences du Langage. Ses projets de recherche portent sur la phonétique expérimentale et clinique de la parole et du chant, sur la caractérisation physiologique et physique des techniques vocales (chant lyrique, chant amplifié, chant du monde), ainsi que sur le développement de techniques expérimentales non invasives et d'avatars vocaux mécatroniques. Elle coordonne la Journée Mondiale de la Voix en France (16 Avril). Elle a reçu une médaille de bronze du CNRS en 2013 pour ses travaux en vocologie.

Axel Roebel: Deep learning methods for voice processing: Neural vocoding for voice transformation.

For some years, the state-of-the-art in speech synthesis and processing has been dominated by data-driven methods and deep neural networks. The use of ever larger amounts of data allows the exploitation of ever more parameters, leading to ever better results. Unfortunately, the increasing computational complexity hinders the widespread application of these models.

In the first part of the talk, we will present our research into data and computationally efficient voice transformation with deep neural networks. We will introduce the Multi-band Excited WaveNet, a deep neural network that integrates a WaveNet into a classical source-filter model. The discussion will motivate model structure and training losses. We will describe the deficiencies of the proposed model and briefly reflect on perspectives considering the rapidly evolving state of the art in neural vocoding.

The second part will then demonstrate ongoing research into applications of the neural vocoder, combining it with dedicated models for intensity, pitch, expressivity or identity transformation.

Bio: Axel Roebel is director of research IRCAM and head of the Analysis/Synthesis team. His research activities center around voice and music synthesis and transformation with strong focus on artistic and industrial applications. After many years or research into various signal processing algorithms he now has shifted his focus towards data driven methods.

Date : 2022-10-20

Lieu : IRCAM, Centre George Pompidou, Paris


Thèmes scientifiques :
A - Méthodes et modèles en traitement de signal

Inscriptions closes à cette réunion.

(c) GdR 720 ISIS - CNRS - 2011-2022.