Vous êtes ici : Réunions » Réunion

Identification

Identifiant: 
Mot de passe : 

Mot de passe oublié ?
Détails d'identification oubliés ?

Analyse et inférence pour les réseaux (journée jointe des GDR ISIS et Phénix)

Nous vous rappelons que, afin de garantir l'accès de tous les inscrits aux salles de réunion, l'inscription aux réunions est gratuite mais obligatoire.

Inscriptions closes à cette réunion.

Inscriptions

10 personnes membres du GdR ISIS, et 12 personnes non membres du GdR, sont inscrits à cette réunion.
Capacité de la salle : 60 personnes.

Annonce

Le GDR ISIS (Information, Signal, Image, viSion) et le GDR Phénix (Physique hors d'équilibre) organisent une journée conjointe d'exposé le lundi 25 novembre 2013 à Paris (à Télécom-Paristech) sur le sujet :
« Analyse et inférence pour les réseaux. »

IMPORTANT - pour compter le nombre de repas à prévoir, merci de vous signaler au plus vite. 

Un objectif sera de se faire rencontrer les communautés en physique statistique, traitement du signal et informatique qui travaillent sur une telle problématique. La journée aura un accent plus marqué vers les approches distribuées dans les réseaux, mais sans se limiter à cela.

La journée sera organisée autour de 6 conférences invitées données par :

Un appel à communication est ouvert. Les communications proposées se feront sous la forme de poster en milieu de journée. Cette session poster (ainsi que le repas pris en commun) permettra de laisser une grande place aux rencontres et discussions entre les chercheurs venant de disciplines variées.

Les propositions de présentation de poster doivent être indiquées à :
Lenka Zdeborova <lenka.zdeborova@gmail.com> et Borgnat Pierre <Pierre.Borgnat@ens-lyon.fr> 
avant le 6 novembre 2013.

Inscription et financement des déplacements : 

La salle accueillant les séminaires ayant 58 places seulement, nous vous invitons à vous inscrire au plus vite.

 Bien cordialement,

Pierre Borgnat (Laboratoire de Physique, ENS de Lyon, CNRS)
Lenka Zdeborova (Institut de Physique Theorique, CEA/Saclay, CNRS)

Programme

« Analyse et inférence pour les réseaux » -- 25 novembre 2013 -- Télécom-Paristech, Amphi SAPHIR

9h30: Accueil des participants et café (en E200) puis exposés en Amphi SAPHIR

10h-10h50 : Florent Krzakala (LPCT, ESPCI) : "Inference, belief propagation, and the spectral redemption"

10h50-11h40 : Marc Lelarge (INRIA, projet DYOGENE, ENS) : "Reconstruction in the Generalized Stochastic Block Model"

11h40-12h30 : Pierre Chainais (LAGIS, projet SequeL, EC Lille) : "Learning a common dictionary over a sensor network"

12h30-13h30 : repas

13h30-14h30 : session posters

14h30-15h20 : Rémi Monasson (LPT, CNRS, ENS) : "Modèles graphiques de l'activité concertée d'une population de neurone et mémorisation chez le rat" 

15h20-16h10 : Pascal Bianchi (LTCI, Telecom ParisTech) : "Optimisation distribuée dans les réseaux d'agents"

16h10-17h00 : Fabrice Rossi (SAMM, Université Paris 1) : "Temporal interaction networks"

17h00 : Discussions, fin de la journée

Résumés des contributions

Inference, Belief propagation, and the spectral redemption

Florent Krzakala (LPCT, ESPCI).

(à venir)

Reconstruction in the Generalized Stochastic Block Model

Marc Lelarge (INRIA, projet DYOGENE, ENS)

(part of this work is joint work with Laurent Massoulie and Jiaming Xu)

The labeled stochastic block model is a random graph model representing networks with community structure and interactions of multiple types. In its simplest form, it consists of two communities of approximately equal size, and the edges are drawn and labeled at random with probability depending on whether their two endpoints belong to the same community or not.

It has been conjectured that this model exhibits a phase transition: reconstruction (i.e. identification of a partition positively correlated with the 'true partition' into the underlying communities) would be feasible if and only if a model parameter exceeds a threshold.

We prove this conjecture for 'not too sparse' graphs. In the very sparse case (finite mean degree), we prove one half of this conjecture, i.e., reconstruction is impossible when below the threshold. In the converse direction, we introduce a suitably weighted graph. We show that when above the threshold by a specific constant,  reconstruction is achieved by (1) minimum bisection, and (2) a spectral method combined with removal of nodes of high degree.

Learning a common dictionary over a sensor network

Pierre Chainais (LAGIS, projet SequeL, EC Lille) (travail avec Cédric Richard (Labo. Lagrange, Université Nice))

We consider the problem of distributed dictionary learning, where a set of nodes is required to collectively learn a common dictionary from noisy measurements. This approach may be useful in several contexts including sensor networks. Diffusion cooperation schemes have been proposed to solve the distributed linear regression problem. In this work we focus on a diffusion-based adaptive dictionary learning strategy: each node records independent observations and cooperates with its neighbors by sharing its local dictionary. The resulting algorithm corresponds to a distributed alternate optimization. Beyond dictionary learning, this strategy could be adapted to many matrix factorization problems in various settings. We illustrate its efficiency on some numerical experiments.

Modèles graphiques de l'activité concertée d'une population de neurones et mémorisation chez le rat

Rémi Monasson (LPT, CNRS, ENS)

(à venir)

Optimisation distribuée dans les réseaux d'agents

Pascal Bianchi (LTCI, Telecom ParisTech)

On considère un réseau de calculateurs autonomes (ou agents) connectés par un graphe. Chaque agent dispose d'une fonction de coût privée qui dépend de ses données locales et de son objectif spécifique. Deux problèmes d'optimisation se posent. Le problème du consensus apparait lorsqu'il s'agit, par exemple, d'apprendre un modèle statistique à partir de données massives et distribuées. Le problème du partage consiste à optimiser la répartition de ressources entre différents agents.

Il s'agit de donner une vision globale de différentes méthodes d'optimisation distribuée. Nous commencerons par expliciter les méthodes dites du premier ordre (gradient, sous-gradient, gradient stochastique, Nesterov) et l'impact de la distribution des calculs sur les performances. Nous verrons dans un deuxième temps une méthode fondée sur l'ADMM (Alternating Direction Method of Multipliers) qui permet de distribuer un problème d'optimisation sur un graphe. Nous terminerons par quelques contributions récentes sur une version asynchrone et randomisée de l'ADMM.

Temporal interaction networks

Fabrice Rossi (SAMM, Université Paris 1)

(à venir)

 

Date : 2013-11-25

Lieu : Paris, Télécom-Paristech (Amphi SAPHIR et E200)


Thèmes scientifiques :
A - Méthodes et modèles en traitement de signal

Inscriptions closes à cette réunion.

(c) GdR IASIS - CNRS - 2024.