Vous êtes ici : Réunions » Réunion

Identification

Identifiant: 
Mot de passe : 

Mot de passe oublié ?
Détails d'identification oubliés ?

Sélection des attributs et apprentissage pour la reconnaissance des images dans les bases de données - Bilan de la campagne TRECVID 2010

Nous vous rappelons que, afin de garantir l'accès de tous les inscrits aux salles de réunion, l'inscription aux réunions est gratuite mais obligatoire.

Inscriptions closes à cette réunion.

Inscriptions

14 personnes membres du GdR ISIS, et 0 personnes non membres du GdR, sont inscrits à cette réunion.
Capacité de la salle : personnes.

Annonce

Dans le cadre du thème B Image et Vision du GdR ISIS, nous proposons une journée portant sur l'action 1 (matin) et sur l'action IRIM (après midi).

Demi-journée Action 1 - sélection d'attributs et apprentissage en traitement d'images

La reconnaissance des images est un domaine de recherche qui a été largement étudié par la communauté scientifique. Les travaux proposés dans ce cadre s'adressent principalement à la catégorisation des images issues de différentes sources et aux diverses applications des systèmes de vision par ordinateur. A partir d'une multitude de méthodes d'extraction d'attributs locaux et globaux, une sélection automatique des plus pertinents s'avère nécessaire que se soit en phase d'apprentissage ou en phase de reconnaissance.

L'objectif de cette demi-journée est de faire le point sur des travaux récents dans ce domaine, en privilégiant des développements nouveaux. Nous sollicitons des propositions de communications de nature théorique, méthodologique, et applicative, sur les thèmes suivants (liste non exhaustive) :

Si vous souhaitez présenter des travaux de recherche dans le cadre de cette demi-journée, nous vous invitons à nous faire parvenir vos propositions (Titre + Auteurs + Affiliation + Résumé), par courrier électronique, avant le 15 octobre à : djemal[at]iup.univ-evry.fr, matthieu.cord[at]lip6.fr.

Demi-journée Action IRIM -- Bilan de la campagne TRECVID 2010

L'action IRIM réunit les efforts des équipes françaises dans la réponse au grand challenge international en Indexation et Recherche d'information multimédia. Les questions de sélection et de combinaison des attributs ont été particulièrement étudiés cette année dans la chaîne globale d'extraction des attributs : apprentissage, fusion, et recherche/reconnaissance.

Cette année, le consortium IRIM a également étudié de nouvelles tâches de TRECVID qui exigent le passage à l'échelle en puissance de calcul ainsi qu'en volumétrie de données.


Le programme complet de la journée sera établi et communiqué ultérieurement via le serveur du GDR ISIS.

Khalifa Djemal(IBISC), Jenny Benois-Pineau(LABRI), Mattieu Cord (LIP6), Georges Quénot (IMAG).

Programme

Bilan de la réunion

La journée a réuni une trentaine de participants du monde académique et industriel. Les différentes contributions ont permis d'aborder les problèmes de description et de caractérisation des données, de la sélection des attributs et de la classification. Différents domaines d'applications ont été présentés en reconnaissance d'images par le contenu, en caractérisation d'images texturées et en biomédical.
Dans une deuxième partie, différents aspects de la compétition TRECVID ont été exposés. Un bilan des résultats de la compétition 2010 en général et du consortium IRIM en particulier ont été présentés. Diverses perspectives pour la participation commune de 2011 ont été abordées et discutées.


Demi-journée Action 1 - Sélection d'attributs et apprentissage en traitement d'images

Pause café.

13h00 - 14h30 : Déjeuner.

Demi-journée Action IRIM - Bilan de la campagne TRECVID 2010

Résumés des contributions

Scalable video understanding with weak supervision

Ivan Laptev

Automatic understanding of multimedia, and video in particular, is essential for a number of emerging industries including indexing of professional and user-generated video archives as well as automatic video surveillance. The large scale and the huge diversity of realistic video data in such applications currently presents serious challenges for existing methods.
This talk will address issues in automatic video understanding and will discuss scalable learning methods designed to minimize the prohibitive cost of manual supervision. We will in particular show how video scripts can be efficiently used as a source of weak supervision for training discriminative models of human actions and person identities from video. We will also explore and leverage temporal continuity of the video for learning improved visual models for face attributes.

Stochasticicity: A Tool for Analyzing and Understanding Textures

Abdourrahmane Atto

The presentation concerns texture characterization and analysis by using a randomness attribute called stochasticity. A best basis algorithm is provided for stochastic representation via the wavelet packet decomposition. This algorithm relies on the Kolmogorov stochasticity parameter and the statistical properties of the wavelet packet dictionaries. A best basis under stochasticity consideration makes possible accurate texture description through a dictionary of parametric models. Among the properties of such a representation, we show that texture classification is possible with respect to stochasticity consideration. We also propose content-based stochasticity retrieval with semantics, by learning the stochasticity degree of texture samples.

Adaptive Feature Selection and Multi-Model Classification for Heterogeneous Image Databases

Rostom Kachouri

This work deals particularly with content based image recognition systems in heterogeneous databases. Images in this kind of databases belong to different concepts and represent a heterogeneous content. In this case and to ensure a reliable representation, a broad description is often required. However, the extracted features are not necessarily always suitable for the considered image database. In this presentation, an original feature selection method, that we call Adaptive Feature Selection (AFS), is exposed. While combining both Filter and Wrapper selection techniques, proposed method allows considering only the most adapted features according to the used image database content. Firstly, SVM classifiers are used to evaluate all the extracted features in the training stage. Hence, the assessment of the discriminating power of each feature. The Fisher Linear Discriminant is then used to ensure the feature selection based on the linear distribution of the performed SVM valuations. Moreover, the selected features do not have generally the same performance degrees. Consequently, a specific classification algorithm which considers the discriminating powers of the different selected features is strongly recommended. In this context, we propose a new hierarchical Multi-Model Classification Method (MM-CM) able to ensure a more flexible combination of multiple features. The conducted experiments evince that the meeting of the two methods AFS and MM-CM provides very interesting recognition rate. In addition, the performances of the proposed approaches are demonstrated through a comparison with a set of methods cited in the recent literature of the field.

Improving object classification using semantic attributes

Yu Su

In this talk, I will show how semantic attribute features can be used to improve object classification performance. The semantic attributes used fall into five groups: scene (e.g. ‘road’), colour (e.g. ‘green’), part (e.g. ‘face’), shape (e.g. ‘box’), and material (e.g. ‘wood’). We train classifiers from representative images for 60 semantic attributes. We first assess the accuracy of the individual classifiers, and show that they can be used to predict semantic annotations for test images. We then use output from the set of trained classifiers to create a new low-dimensional image representation. Experiments on data from the PASCAL VOC challenge show that the semantic attribute features achieve an object classification performance close to that of high-dimensional bag-of-words features, and that using a combination of semantic attribute features and bag-of-words features gives a better classification performance than using either feature set alone.

Content-based medical image retrieval

Auréline Quatrehomme

Content-based image retrieval (CBIR) is a very active field of research, especially in radiology. We will describe the framework and caracteristics of these CBIR systems, before overviewing the specificities and difficulties of working on medical images. We will finally present the visual features used in this context.

Date : 2010-12-02

Lieu : Télécom ParisTech, salle C48


Thèmes scientifiques :
B - Image et Vision

Inscriptions closes à cette réunion.

Accéder au compte-rendu de cette réunion.

(c) GdR IASIS - CNRS - 2024.