Nous vous rappelons que, afin de garantir l'accès de tous les inscrits aux salles de réunion, l'inscription aux réunions est gratuite mais obligatoire.
Inscriptions closes à cette réunion.
8 personnes membres du GdR ISIS, et 0 personnes non membres du GdR, sont inscrits à cette réunion.
Capacité de la salle : personnes.
Dans le cadre du projet régional rhône-alpin LIMA, un groupe de travail a été créé regroupant
des chercheurs intéressés à la fois par la mesure (à travers le son et l'image) et la synthèse de l'émotion.
Ce groupe propose l'organisation d'une journée scientifique à l'échelle nationale avec le soutien du GDR ISIS et du GdR IG le jeudi 25 novembre à Lyon (LIRIS - Bat Nautibus).
L'objectif de cette journée est d'offrir l'opportunité d'échanges sous forme d'exposés et de discussions entre des chercheurs travaillant sur l'émotion à partir de différents média (son, image, vidéo, visages ...) et selon différents points de vue (informatique, cognitif, psychologique...).
La journée sera constituée d'exposés invités (Thierry Pun / CVML, Geneve ; Laurence Devillers / LIMSI, Paris, Mohamed Daoudi / Télécom Lille + quelques autres en attente de réponse) et d'exposés sur appel à propositions à envoyer à Emmanuel Dellandré, Patrick Lambert et Alexandre Meyer avant le 5 novembre.
Emmanuel DELLANDREA
LIRIS, Lyon
http://perso.ec-lyon.fr/emmanuel.dellandrea/
La reconnaissance de la sémantique émotionnelle d'une image prend une place de plus en plus importante dans la communauté de recherche. Elle offre en effet des perspectives nouvelles et motivantes pour retrouver et classer des images selon la charge émotionnelle qu'elles peuvent porter. Cependant, comme tout sujet émergeant, les contributions sur ce thème demeurent relativement rares et beaucoup de pistes doivent être étudiées. Dans ce travail, nous proposons d'évaluer l'efficacité de différents types de descripteurs et de classificateurs pour la reconnaissance d'émotions communiquées par les images. Dans un second temps, nous proposerons l'utilisation de la théorie de l'évidence de Dempster-Shafer qui permet la manipulation et la fusion de connaissances ambiguës et incertaines telles que celles rencontrées dans le traitement des émotions.
Boulbaba BEN AMOR, Ahmed MAALEJ, Mohamed DAOUDI
TELECOM Lille1, LIFL
http://www.telecom-lille1.eu/people/daoudi/
L'analyse automatique des expressions faciales constitue un outil important pour la recherche dans les domaines des sciences de l'étude du comportement et de la psychologie, ainsi que dans les domaines des interfaces homme-machine. Les progrès effectués dans des outils et techniques d'acquisition bidimensionnels (images 2D et vidéo) ont permis l'évolution des méthodes de détection, de suivi et de la reconnaissance de visage, et ont apporté une contribution significative à la reconnaissance d'expressions faciales sur des données 2D. Néanmoins la performance des ces méthodes reste limitée et les techniques utilisées restent contraignantes dues aux phénomènes de variations de pose et d'illumination qui affectent les données brutes. Désormais avec l'avènement de la 3D et le développement de caméras 3D, on dispose de données plus complètes (3D). Dans ce travail, nous proposons d'exploiter l'information tridimensionnelle du visage et de fournir des outils mathématiques issus de la géométrie riemannienne pour la reconnaissance des expressions faciales.
Thierry PUN
Laboratoire de Vision par Ordinateur et Multimédia, Université de Genève, Suisse
http://cvml.unige.ch/MMI
Il est proposé de maintenir l'état d'engagement d'un joueur grâce à l'adaptation de la difficulté d'un jeu à l'état émotionnel du joueur ; cet état est estimé à partir de signaux physiologiques centraux (EEG) et périphériques. La plausibilité de cette approche a été d'abord testée en analysant tant les réponses à des questionnaires que les signaux périphériques et centraux de joueurs utilisant Tetris à trois niveaux de difficulté (ennuyé, engagé, stressé). L'analyse confirme que des niveaux de difficulté différents correspondent à des états émotionnels distincts, et que jouer plusieurs fois au même niveau de difficulté conduit à l'ennui.
Une analyse et classification automatique des signaux a ensuite été mise en uvre pour détecter automatiquement ces états émotionnels. Les résultats obtenus indiquent qu'il est possible d'identifier les trois états, avec une meilleure précision à partir de signaux EEG que périphériques pour des mesures de courte durée. La fusion des signaux EEG et périphériques permet d'obtenir une précision de classification de 63%. Finalement, une analyse de la situation de fin de jeu est proposée, qui pourrait permettre de distinguer un état engagé d'un état stressé.
Laurence DEVILLERS
LIMSI, PARIS
http://www.limsi.fr/Individu/devil/
If our goal is to build emotionally "non-caricatural" Human-Machine Interaction system, we have to focus on real-life databases and natural interaction with genuine emotional cause events instead of on biased data with artificial events. Laurence Devillers will present the research activities carried out at LIMSI-CNRS on "real-life" emotion perception and detection. The field of her research on emotions stretches from emotional expression in the voice to multimodal expression up to emotional and mental states in interaction situation. Applications and projects (robotic, call centre, game, E therapy) will be presented as well as the research challenges.
One fundamental difficulty is the definition itself of the emotional states: emotion, affect, mood, and attitude. The majority of theoretical works do not share the same terminology and the diversity of models of emotion expressions shows both the complexity and the richness of the subject of study. The first objective has been to propose an experimental methodology for working on natural data and also a representation scheme of emotions. The second objective is to find robust audio cues for characterizing emotions and build systems to detect them. The multi-level annotation scheme used integrates the representation of emotions and their emergence context. With real-life data and authentic emotions, the issue is to annotate in a reliable way the emotional behaviour found in the natural corpora. To the complexity of the natural data where emotions are often mixed, adds to the fact that the verbal language of everyday offers to use a large choice of terms allowing to name and nuance the emotions. The subjectivity of the annotation choices is effectively one of the key difficulties of this research domain.
Alexis HELOIR
DFKI équipe EMBOTS Saarbrücken, Germany
http://www.dfki.de/~heloir
http://embots.dfki.de
À la fois au théâtre et au cinéma, l'éclairage a depuis toujours été utilisé pour traduire des émotions et renforcer certains aspects de la personnalité des acteurs. Aujourd'hui, aussi bien dans les productions interactives ou les films d'animation, des systèmes d'éclairage locaux sont utilisés à des fins similaires. Bien que les techniques d'éclairage aient fait l'objet de nombreuses publications, aucune étude n'a à notre connaissance évalué de manière systématique l'influence de l'éclairage sur la perception de la personnalité d'acteurs de synthèse. Lors de cette journée, nous allons présenter une étude empirique s'appuyant sur un questionnaire en ligne permettant aux utilisateurs d'évaluer la personnalité d'agents soumis à des conditions d'éclairage différentes, à la fois dans des situations de monologue et de dialogue.
Christophe VEAUX
IRCAM Analysis - Synthesis Team
http://recherche.ircam.fr/equipes/analyse-synthese/veaux/index.php/Main/HomePage
Des travaux sur la modélisation et la transformation de l'expressivité sont menés à l'ircam depuis 2006 dans le cadre d'une thèse et de divers projets de recherche.
L'analyse des phénomènes prosodiques associés aux émotions s'est appuyée sur des corpus d'émotions actées spécialement enregistrés (plus de 2 heures de parole, en français, correspondant aux émotions de base : joie, peur, colère, tristesse, surprise, dégoût). Nous avons plus particulièrement étudié les modifications de la qualité vocale, de l'articulation et de la courbe intonative. Ainsi l'influence du degré d'articulation a été mise en évidence à partir de la mesure du triangle vocalique. Par ailleurs, une modélisation fine de la source glottique fournit des estimations robustes des descripteurs de la qualité vocale, tel que le degré de relaxation, et rend possible des modifications de cette qualité dans un contexte de synthèse et/ou de transformation de la parole. Enfin un modèle statistique hiérarchique a été proposé pour la représentation des trajectoires des divers paramètres prosodiques.
A partir de ces travaux, nous avons développé un système de transformation qui permet de modifier automatiquement la prosodie d'une voix neutre afin de lui donner une coloration émotive donnée. Différents cibles expressives sont proposées (joie, peur, tristesse, colère) avec la possibilité de varier continuement le niveau d'intensité pour chacune de ces cibles expressives. Les transformations sont obtenues au moyen du vocodeur de phase SuperVP, développé depuis plusieurs années à l'ircam, et qui permet de préserver le réalisme et le naturel des voix transformées.
Des exemples de transformations sont disponibles ici : http://recherche.ircam.fr/anasyn/expresso/index.html
Jean-Claude MARTIN, Matthieu COURGEON, Ning TAN, Céline CLAVEL
LIMSI, PARIS, Interactive Virtual Characters team
http://www.limsi.fr/Individu/martin/
I will give an overview of the research we conduct at LIMSI on Virtual Humans. The focus of our research is on how real humans inspire and perceive virtual humans. On the inspiration side, we use psychological models and corpus-based studies for the definition of models of multimodal expressive behaviors. On the perception side, we conduct perceptive tests and evaluation studies using virtual characters.
I will describe MARC, our platform for the design and the rendering of expressive characters grounded on psychological models of emotion. Recent progress enable the design and rendering of several fully embodied characters to be animated and controlled simultaneously and independently, along with a 3D environment to enable the study of situated social interactions.
I will also describe our work on postures and their combination with facial expressions.
I will conclude with ongoing work about the integration of virtual characters in ambiant / immersive environements.
Yi JI, Khalid IDRISSI
LIRIS, Lyon
https://liris.cnrs.fr/~yji/
Naturally, facial expressions depend on subtle movements of facial muscles to show emotional states. We studied the relations between basic expressions and corresponding facial deformation models, and propose two new textons, VTB and moments on spatiotemporal plane, to describe the temporal behaviour of facial expression and capture the dynamic deformation of facial components. Finally, we evaluated their performance on Cohan-Kanade and MMI databases.By comparison to other methods, the effectiveness of our method is clearly demonstrated.
Date : 2010-11-25
Lieu : Lyon (LIRIS - Bât Nautibus)
Thèmes scientifiques :
B - Image et Vision
Inscriptions closes à cette réunion.
Accéder au compte-rendu de cette réunion.
(c) GdR IASIS - CNRS - 2024.