Nous vous rappelons que, afin de garantir l'accès de tous les inscrits aux salles de réunion, l'inscription aux réunions est gratuite mais obligatoire.
Inscriptions closes à cette réunion.
105 personnes membres du GdR ISIS, et 73 personnes non membres du GdR, sont inscrits à cette réunion.
Capacité de la salle : 270 personnes.
L'inférence et l'optimisation de systèmes complexes soumis à de nombreuses sollicitations aléatoires ont été appliquées dans un grand nombre de domaines en statistiques appliquées, traitement du signal, traitement du langage, etc. Résoudre les problèmes d'inférence bayésienne est crucial dans ce cadre pour permettre de fournir différentes quantités d'intérêt liées à la loi a posteriori des paramètres ou processus latent, permettant ainsi la prise en compte de l'incertitude des données. Des estimateurs de ces lois a posteriori peuvent être obtenus par exemple grâce aux méthodes de Monte Carlo (séquentielles ou par chaînes de Markov). Cependant, pour les jeux de données complexes ou très massifs (en quantité et en dimension) la loi a priori des paramètres, statiques ou dynamiques, nécessaire à la mise en oeuvre de ces approches est souvent inconnue ou repose sur des routines de simulation de type « boîtes noires ». Dans un tel contexte, les méthodes d'apprentissage profond, réseaux récurrents, réseaux Transformers, etc. ont permis l'obtention de prédictions extrêmement performantes en l'absence de modèles probabilistes. L'utilisation de méthodes bayésiennes remplaçant les états de ces réseaux par des estimations de leurs lois a posteriori permet la prise en compte de l'incertitude dans l'estimation des états latents en lieu et place d'un calcul déterministe.
Cette demi-journée fait suite à une première édition en mai 2020 et propose l'exploration de combinaisons de méthodes bayésiennes avec ces approches afin de répondre au besoin croissant de quantification de l'incertitude et de fiabilité des méthodes numériques récentes.
A 14h par visio-conférence, nous débuterons par un exposé invité d'une heure donné par Gilles LOUPPE (University of Liege) puis nous aurons 2 présentations de 30 minutes ouvertes à travers un appel à contribution.
Les personnes souhaitant présenter leurs travaux sont invitées à faire part de leur intention aux deux organisateurs avant le 30 avril.
14h-15h: Gilles LOUPPE
The frontier of simulation-based inference
15h-15h30: Achille THIN (CMAP, Ecole Polytechnique)
Invertible Flow Non Equilibrium sampling
15h30-16h00: Pedro RODRIGUES (INRIA Saclay)
Leveraging Global Parameters for Flow-based Neural Posterior Estimation
Gilles LOUPPE (University of Liege)
Abstract
Many domains of science have developed complex simulations to describe phenomena of interest. While these simulations provide high-fidelity models, they are poorly suited for inference and lead to challenging inverse problems. We review the rapidly developing field of simulation-based inference and identify the forces giving additional momentum to the field. Finally, we describe how the frontier is expanding so that a broad audience can appreciate the profound influence these developments may have on science.
Keywords: statistical inference, approximate Bayesian computation, neural density estimation, normalizing flow
K. Cranmer, J. Brehmer, and G. Louppe. The frontier of simulation-based inference. PNAS 2020. https://doi.org/10.1073/pnas.1912789117
Achille THIN (CMAP, Ecole Polytechnique)
Abstract
Simultaneously sampling from a complex distribution with intractable normalizing constant and approximating expectations under this distribution is a notoriously challenging problem. We introduce a novel scheme, Invertible Flow Non Equilibrium Sampling (InFine), which departs from classical Sequential Monte Carlo (SMC) and Markov chain Monte Carlo (MCMC) approaches. InFine constructs unbiased estimators of expectations and in particular of normalizing constants by combining the orbits of a deterministic transform started from random initializations. When this transform is chosen as an appropriate integrator of a conformal Hamiltonian system, these orbits are optimization paths. InFine is also naturally suited to design new MCMC sampling schemes by selecting samples on the optimization paths. Additionally, InFine can be used to construct an Evidence Lower Bound (ELBO) leading to a new class of Variational AutoEncoders (VAE).
A. Thin, Y. Janati, S. Le Corff, C. Ollion, A. Doucet, A. Durmus, E. Moulines, C. Robert Invertible Flow Non Equilibrium sampling. HAL - https://hal.archives-ouvertes.fr/hal-03168489
Pedro RODRIGUES (INRIA Saclay)
Abstract
Inferring the parameters of a stochastic model based on experimental observations is central to the scientific method. A particularly challenging setting is when the model is strongly indeterminate, i.e., when distinct sets of parameters yield identical observations. This arises in many practical situations, such as when inferring the distance and power of a radio source (is the source close and weak or far and strong?) or estimating the amplifier gain and underlying brain activity of an electrophysiological experiment. In this work, we present a method for cracking such indeterminacy by exploiting additional information conveyed by an auxiliary set of observations sharing global parameters. Our method extends recent developments in simulation-based inference (SBI) based on normalizing flows to Bayesian hierarchical models.
P. L. C. Rodrigues, T. Moreau, G. Louppe, A. Gramfort. Leveraging Global Parameters for Flow-based Neural Posterior Estimation, arXiv - https://arxiv.org/abs/2102.06477
Date : 2021-05-17
Lieu : Virtuel - Zoom
Thèmes scientifiques :
A - Méthodes et modèles en traitement de signal
T - Apprentissage pour l'analyse du signal et des images
Inscriptions closes à cette réunion.
(c) GdR IASIS - CNRS - 2024.