Nous vous rappelons que, afin de garantir l'accès de tous les inscrits aux salles de réunion, l'inscription aux réunions est gratuite mais obligatoire.
Inscriptions closes à cette réunion.
17 personnes membres du GdR ISIS, et 25 personnes non membres du GdR, sont inscrits à cette réunion.
Capacité de la salle : 100 personnes.
Invitation à journée thématique : Reconnaissance, analyse et interprétation des émotions.
Une journée "Emotion" est organisée à Lyon dans le cadre du projet régional LIMA2, soutenue par le pôle de compétitivité Imaginove et le GdR ISIS (action "Visage, geste, action et comportement"). Son but est d'offrir l'opportunité d'échanges sous forme d'exposés et de discussions entre des chercheurs de différentes communautés (informaticiens, cogniticiens, psychologues, physiologues, ...) travaillant sur l'émotion à partir de différents media et/ou modalités (son, image, vidéo, visage, ...), cette thématique étant aujourd’hui difficile à aborder de part la méconnaissance des mécanismes humains mis en oeuvre. Cet atelier sera composé d'exposés invités (Gérard Bailly (Gipsa-lab), Philippe Guillotel (Technicolor), Marc Mehu (NCCR Affective Sciences, Genève), Catherine Pelachaud (LTCI)) qui se dérouleront dans la matinée et d'exposés sur appel à proposition (l'après-midi).
7 octobre 2013
Amphi DIRAC, Domaine scientifique de la Doua, 69622 VILLEURBANNE CEDEX/p>
Accès : http://oscar.univ-lyon1.fr/appli%2Dexterne/plan/acces_doua.htm
Plan : http://oscar.univ-lyon1.fr/appli-externe/plan/plans/plan_campus_ouest.html
Nous espérons vous voir nombreux à Lyon lundi 7 octobre. Pour les membres du GDR, n'oubliez pas de vous inscrire sur le site (gdr-isis.fr) de facon a vous faire rembourser de vos frais de déplacement.
9h15 : Accueil
9h30 - 10h10 : Parole et mouvements faciaux: données et modèles (Gérard Bailly, GIPSA-Lab)
10h10 - 10h50 : Multimodal emotional behaviors for virtual agent (Catherine Pelachaud, LTCI)
10h50 - 11h10 : Pause Café
11h10 - 11h50 : Les signaux physiologiques pour la mesure des émotions – Application au cinéma (Philippe Guillotel, Technicolor)
11h50 - 12h30 : Les émotions dans une perspective évolutionnaire : fonction, adaptation, et communication (Marc Mehu, NCCR Affective Sciences, Genève)
12h30 - 13h30 : Déjeuner
13h30 - 14h00 : Reconnaissance des émotions à partir de l’audio dans le monde réel (Laurence Devillers, LIMSI)
14h00 - 14h30 : Interaction Homme-Machine Affective : Quels rôles pour le corps ? (Jean-Claude Martin, LIMSI)
14h30 - 14h50 : Reconnaissance des expressions faciales 4D par l'apprentissage des déformations géométrique (Hassen Drira, LIFL)
14h50 - 15h10 : Représentation des expressions faciales pour l'analyse des émotions (Catherine Soladie, IETR)
15h10 - 15h30 : Pause
15h30 - 15h50 : Perception des expressions faciales de douleur chez les kinésithérapeutes et personnes naïves (Elise Prigent, CIAMS)
15h50 - 16h10 : A Large Video Database for Computational Models of Induced Emotion (Yoann Baveye, LIRIS/Technicolor)
16h10 - 16h30 : Estimation sans contact de la microcirculation sanguine du visage (Guillaume Gibert, INSERM)
16h30 - 16h50 : Quantification du stress mental en utilisant des paramètres physiologiques obtenus par webcam (Frédéric Bousefsaf, LCOMS)
16h50 - 17h10 : Application des technologies empathiques pour améliorer l’expérience utilisateur (Adel Lablack, LIFL)
17h10 - 17h20 : Conclusion
Gérard BAILLY (GIPSA-Lab)
La parole véhicule des informations linguistiques, paralinguistiques et non linguistiques. L'encodage de ces informations par les mouvements visibles et audibles de la sphère orofaciale pose le problème de la décomposition et du contrôle des mouvements faciaux en parole émotionnelle et interactive. L'exposé sera d'abord consacré à la présentation de données et modèles d'encodage en parallèle de ces flux d'information. Nous enchainerons sur les enjeux de l'interaction, i.e. du nécessaire couplage de ces modèles avec la scène dans laquelle cette parole audiovisuelle est effectivement produite. Nous ferons ainsi un survol rapide de nos recherches sur le regard et son contrôle dans des interactions face-à-face, montrant l’adaptation des mouvements générés à la tâche, au rôle du locuteur dans l'échange et à l'interlocuteur. Nous poursuivrons en démontrant l'importance de cette adaptation interactive et sociale non seulement pour les mouvements faciaux mais aussi pour les caractéristiques de la parole produite. Nous conclurons l'exposé par une présentation rapide de quelques projets en robotique humanoïde que nous commençons au sein de l'équipe.
Catherine Pelachaud (LTCI)
In this talk I will present our current work toward endowing virtual agents with communicative and emotional capabilities. Several methods have been applied to enrich the repertoire of multimodal behaviors ranging from crowd-sourcing method to motion capture. These behaviors can be displayed with different qualities and intensities to simulate various communicative intentions and emotional states. I will also describe how we model behavior expressivity. Modulating the execution of a behavior with different dynamic qualities allows us to create agents displaying different emotionally-colored behaviors.
Philippe Guillotel and Julien Fleureau (Technicolor)
Les signaux physiologiques varient suivant l’état émotionnel d’une personne. Cette réaction est involontaire et inconsciente ce qui la rend particulièrement intéressante pour mesurer l’affect. Après une présentation des différents signaux physiologiques d’intérêt, nous montrerons comment ces signaux peuvent être utilisés pour mesurer une réaction psycho-émotionnelle qui peut être agréable, désagréable, faible ou forte. Nous verrons que la réponse électrodermale (EDA/GSR), déjà utilisée dans les années 50 dans les détecteurs de mensonges (polygraphe), est certainement la modalité la plus pertinente. Ensuite nous décrirons quelques cas d’usages, et notamment comment mesurer les réactions psychophysiologiques d’une audience au cinéma et ce qu’on peut en déduire quand à l’intérêt du film, ou encore comment aider à la détection de scènes violentes dans une vidéo.
Marc Mehu (NCCR Affective Sciences, Genève)
Les sciences affectives étudient les processus psycho-biologiques impliqués dans l'adaptation de l'organisme à son environnement physique et social. En tant que concept central de cette discipline, l'émotion est l'objet de vifs débats théoriques. La perspective évolutionnaire semble idéalement placée pour clarifier les différents niveaux d'analyse nécessaires à la compréhension des phénomènes affectifs. L'émotion sera présentée comme un processus général d'organisation et de coordination des différentes fonctions exécutives de l'organisme (perception, attention, mémoire, réponses physiologiques et comportementales) en vue d'une optimisation des réponses à l'environnement. La grande diversité de situations environnementales pertinentes pour l'individu demande donc une flexibilité accrue de son répertoire de réponses, ce qui implique un grand nombre d'états émotionnels possibles. Cette flexibilité est sous-tendue par une inter-dépendance entre cognition, émotion, et comportement. Ces idées seront illustrées par des exemples issus de différentes études sur la communication émotionnelle.
L. Devillers, Ch. Chastagnol, A. Delaborde, M. Soury, M. Tahon (LIMSI)
Malgré les progrès réalisés ces dernières années, les systèmes actuels de reconnaissance des émotions montrent leurs limites. Les performances qu’ils atteignent en laboratoire ne se reproduisent pas lorsqu’ils sont confrontés au monde réel. Énormément de difficultés surgissent alors : variabilités de tous types (locuteurs, qualité vocale, conditions acoustiques), problèmes de bruits, définition des annotations affectives... La plupart des études n’évaluent leurs systèmes que sur un seul corpus de données, perdant ainsi de vue la grande diversité des cas d’utilisation dans un usage réaliste. Même si quelques travaux explorent l’évaluation "cross-corpus" des systèmes, ils restent minoritaires aujourd’hui. Nous présenterons les études menées en reconnaissance des émotions dans la parole au LIMSI dans des contextes très différents : interaction humain-machine (robot, agent) ou encore centres d’appels. Le déploiement de la reconnaissance des émotions dans le monde réel présente encore de nombreux défis.
Jean-Claude MARTIN (LIMSI)
Le corps joue un rôle complexe dans les émotions, que ce soit en termes d'expressions corporelles, de gestion de l'équilibre, de communication haptique ou de signaux physiologiques. Dans cette présentation nous décrirons l'approche que nous adoptons dans le groupe CPU du LIMSI à travers différentes études pour contrôler le comportement expressif d'un agent animé, la manière dont il est perçu par des utilisateurs, et symétriquement comment les signaux corporels de l'utilisateur peuvent être utiles pour envisager une interaction adaptée. Nous expliquerons aussi l'approche pluridisciplinaire que nous développons et ses différentes applications (ludiques, pédagogiques, expérimentales). L'ensemble de ces études se situe dans une perspective grandissante de plus grande prise en compte du corps dans les interactions homme-machine affectives.
Hassen Drira, Boulbaba Ben Anmor et Mohamed Daoudi (LIFL)
Nous présentons une approche automatique pour la reconnaissance des expressions faciales dans les séquences vidéos 3D. Dans la solution proposée, la forme du visage 3D est représentée par une collection de courbes radiales. Nous proposons une approche Riemannienne pour la quantification des déformations induites par les expressions faciales. Pour cela, nous proposons un champ scalaire sur le visage qui représente les gradients des chemins géodésiques entre les courbes faciales correspondantes sur deux visages avec des expressions faciales différentes. LDA est appliqué pour réduire la dimension du vecteur caractéristique résultant qui sera suivi de classificateur random forest. Nous présentons des résultats expérimentaux compétitifs avec l'état de l'art.
Catherine Soladie (IETR)
L’analyse des visages est un domaine vaste qui s’étend de la description d’un visage (sa forme et sa couleur) à la détection d’une émotion.
Les travaux réalisés portent sur une solution innovante permettant de définir efficacement une expression d’un visage, indépendamment de la morphologie du sujet. Pour s’affranchir des différences de morphologies entre les personnes, nous utilisons des modèles d’apparence spécifiques à la personne. Contrairement aux approches qui utilisent la méthode « diviser pour régner » pour décrire une expression, nous proposons une solution qui permet à la fois de tenir compte de l’aspect continu de l’espace des expressions et de la cohérence des différentes parties du visage entre elles.
Prigent, M.-A. Amorim (CIAMS)
Il est fondamental pour l’être humain d’être capable de percevoir et comprendre la douleur ressentie par autrui. L’expression faciale de douleur est une information visuelle importante pour estimer le douleur d’un tiers, en effet elle est le comportement le plus fortement corrélé à l’auto-estimation de sa douleur (Craig et al., 2001). Cette étude est une des premières à porter sur la perception et l’intégration de deux types d’informations visuelles fournies par le visage, à savoir la zone du visage contractée et l’intensité de cette contraction. Nous nous sommes intéressés à l’utilisation par les individus des processus de valuation et d’intégration (termes proposés par Anderson, 1981, dans la théorie de l’intégration de l’information) de ces deux types d’information et à l’effet de la familiarité avec le monde médical et la douleur sur l’utilisation de ces processus perceptifs.
Yoann Baveye1,2, Emmanuel Dellandréa1, Liming Chen1, Christel Chamaret2 (LIRIS1 / Technicolor2)
Actuellement, les bases de données existantes composées de vidéos annotées selon l’émotion qu’elles induisent ne sont pas assez grandes pour être utilisées en apprentissage artificiel et souffrent de problèmes de droit d’auteur empêchant leur partage. C’est pourquoi nous proposons LIRIS-ACCEDE : une base de donnée composée de 9800 extraits de films annotés selon la valence induite. Les 9800 extraits sont sous licence « Creative Commons » ce qui rend possible le partage de cette base de donnée sans problème de droit d’auteur.
Guillaume Gibert, David D'Alessandro, Florian Lance (INSERM)
Les émotions ont plusieurs manifestations physiques (e.g., expressions faciales) et physiologiques (e.g., rythme cardiaque) sur le visage. Des mesures physiologiques (par exemple, l’électrocardiogramme) ont été utilisées avec succès pour améliorer la précision des systèmes de reconnaissance d'émotions multimodales. Cependant, ces systèmes sont invasifs car des capteurs doivent être attachés sur les sujets. Basée sur de récents résultats en photopléthysmographie, nous proposons une méthode capable d'estimer en ligne le rythme cardiaque, le rythme respiratoire et la carte des vaisseaux sanguins du visage à partir d'un flux vidéo. Cet ensemble d'informations peut être utilisé pour améliorer la robustesse des systèmes de reconnaissance d'émotions sans contact.
Frédéric Bousefsaf, Choubeila Maaoui, Alain Pruski (LCOMS)
Afin de mieux comprendre le ressenti et les sentiments des personnes âgées ou en situation de handicap face à des situations particulières ou pendant des interactions avec des applications informatiques et aides techniques, une information sur l’état émotionnel est nécessaire. Chez les patients atteints de phobies ou victimes de troubles de stress post-traumatique, l’état émotionnel aide les spécialistes à mieux gérer les thérapies. Nous proposons dans cet article d’extraire des paramètres physiologiques tels que le rythme cardiaque et respiratoire ainsi que la variabilité cardiaque à partir de signaux photopléthysmographiques sur le visage d’une personne. Ces paramètres, importants dans le cadre de la e-santé, sont obtenus par une webcam bas cout et permettent de reconnaitre l’état de stress d’un individu.
Adel Lablack, Marius Bilasco et Chaabane Djeraba (LIFL)
EMPATHIC est un projet européen ITEA2-11005 regroupant 31 partenaires issus de 8 pays et qui se déroule entre 2012 et 2015. L’objectif de ce projet est d’améliorer l’expérience utilisateur en appliquant des « technologies empathiques » afin de comprendre et de répondre aux intentions et aux émotions des utilisateurs lors de l’utilisation des applications. Les technologies développées percevront les émotions et les intentions de leurs utilisateurs, ce qui leur permettra d’adapter en temps réel leur fonctionnement pour optimiser l’expérience utilisateur. L’un des scénarios de ce projet consiste à améliorer l’efficacité des présentations devant un auditoire. Le présentateur est informé grâce à des jauges de l'attention du public grâce à une analyse du regard et de la reconnaissance d’émotions. A l’aide de ces informations sur le public présent dans la salle, le présentateur peut adapter son discours et l’enchainement de sa présentation pour intéresser le maximum de personnes.
Date : 2013-10-07
Lieu : LIRIS LYON
Thèmes scientifiques :
B - Image et Vision
Inscriptions closes à cette réunion.
Accéder au compte-rendu de cette réunion.
(c) GdR IASIS - CNRS - 2024.