Nous vous rappelons que, afin de garantir l'accès de tous les inscrits aux salles de réunion, l'inscription aux réunions est gratuite mais obligatoire.
Inscriptions closes à cette réunion.
24 personnes membres du GdR ISIS, et 27 personnes non membres du GdR, sont inscrits à cette réunion.
Capacité de la salle : 100 personnes.
ATTENTION: changement de salle, maintenant en Amphi Estaunié
Journée GDR ISIS & STIC SANTE
"Représentations parcimonieuses, échantillonnage compressé et imagerie médicale"
Les représentations parcimonieuses et l'échantillonnage compressé sont des sujets sur lesquels il existe aujourd'hui des recherches très actives. En particulier, dans le domaine de l'imagerie médicale, ils ont rencontré un important succès dans certaines modalités comme l'IRM, ce qui a motivé divers travaux dans les autres modalités d'imagerie biomédicale.
L'objectif de cette journée commune au GDR ISIS et STIC-Santé est faire le point à la fois sur les avancées méthodologiques récentes, les apports sur le plan applicatif en imagerie biomédicale, et les problèmes ouverts.
Date : 16 Novembre de 10h à 17h
Salle : Télécom ParisTech Amphi Estaunié
Organisateurs : Adrian Basarab (IRIT), Olivier Bernard (CREATIS), Denis Friboulet (CREATIS), Rémi Gribonval (Inria Rennes), Denis Kouamé (IRIT), Hervé Liebgott (CREATIS).
Programme de la journée :
Pierre Vandergheynst (EPFL)
Echantillonnage compressif pour l'IRM
L'échantillonnage compressif (CS) est une nouvelle voie permettant l'acquisition efficace de signaux parcimonieux. Un de ses succès les plus convaincants concerne l'accélération d'acquisition en IRM par sous-échantillonnage de la transformée de Fourier. Dans cet exposé, nous introduirons les concepts de base de l'échantillonnage compressif et verrons comment les représentations parcimonieuses d'images peuvent être utilisées pour obtenir des garanties fortes d'acquisition rapide. L'exemple de l'IRM sera utilisé pour illustrer comment un nouveau processus de mesure peut être implanté sur base de cette nouvelle théorie.
Yohan Lemontagner (Telecom Paristech & Institut Paster)
Reconstruction vidéo exploitant l’échantillonnage compressé et la variation totale 3D en imagerie biologique
Dans le cadre de l’imagerie optique biologique à haute résolution spatiale et temporelle, l’ambition de ce travail est de développer
des méthodes d’imagerie ultrasensibles à très haut débit d’information pour l’imagerie de cellules et de tissus biologiques,
en utilisant les outils mathématiques issus des travaux de Candès et Donoho sur le compressed sensing (CS), et plus généralement sur la reconstruction des signaux parcimonieux (sparse).
Cyril Mory (CREATIS)
Reconstruction du myocarde en angiographie rotationnelle synchronisée à l’électrocardiogramme
Durant la dernière décennie, des fonctionnalités de reconstruction 3D sont apparues sur les appareils de radiologie interventionnelle. Mais pour le coeur, des techniques spécifiques doivent être développées afin d’éviter le flou dû au mouvement cardiaque. En enregistrant l’électrocardiogramme du patient, on peut reconstruire une phase cardiaque précise (typiquement la télédiastole) en ignorant les projections acquises durant les autres phases cardiaques. Ces projections que l’on ignore constituent une perte d’information qu’il faut compenser, par exemple par l’ajout d’information à priori sur la solution. Ce travail présente une méthode de ce type.
Makhlad Chahid (Université de Bordeaux 2 & CNRS)
Hyperspectral Fluorescence Microscopy based on Compressive Sampling
La microscopie de fluorescence peut être abordée sous deux approches différentes, d?une part la microscopie à champ large, dite microscopie optique classique, et la microscopie confocale à balayage laser. Ces deux techniques de microscopie diffèrent par leur schéma d?illumination ou d?excitation ainsi que par leur procédé de détection. Dans les deux cas, l?acquisition d?images est indépendante de l?information contenue dans celles-ci. Cependant, le nombre d?acquisitions N est directement fixé par la théorie classique de l'échantillonnage relative au théorème de Nyquist-Shannon. Cependant, en pratique de nombreuse images d?échantillons biologiques sont compressibles (ou, ont une représentation parcimonieuse), au sens où elles dépendent du nombre K de degrés de liberté qui est plus petit que leur taille réelle N. Récemment, la théorie mathématique du Compressed Sensing (CS) a montré combien et comment elle pouvait tirer partie de la représentation parcimonieuse d?une image (dans une certaine base) pour la reconstruire sans perte d?information tout en réduisant fortement le nombre M d?acquisitions.
Nous présentons ici un nouveau microscope à fluorescence construit et basé sur les principes de la théorie du CS. Il fait usage d?une matrice de micromirroirs (DMD) afin de créer une illumination structurée pour générer des motifs d?illumination ainsi que d?un détecteur à point unique (PMT) pour mesurer l'émission de fluorescence des échantillons observés, dans notre cas des billes fluorescentes ainsi que des cellules vivantes exprimant des protéines fluorescentes. Nous avons atteint des taux de compression N/M allant jusqu?à 64, ce qui signifie que l?image a pu être reconstruite à partir d?un nombre de mesures équivalent à seulement 1,5% du nombre total de pixels de l?image observée. De plus, nous avons également montré que notre schéma d?acquisition basé sur le CS peut être étendu pour obtenir un système d?imagerie hyperspectrale. Nous avons fait l?acquisition d?images avec un codage spectrale sur 128 canaux pour atteindre des taux de compression allant jusqu?à 128.
Nous souhaitons enfin pouvoir discuter des différentes stratégies pour accomplir des taux de compression plus important et donc de réduire encore le nombre de mesures en prenant mieux en compte la parcimonie spatiale de l?image mais surtout la parcimonie introduite par la dimension spectrale.
Ning Chu (L2S)
Inférence Bayesienne via a priori parcimonieux en imagerie aéroacoustique
A Bayesian sparse inference approach in near-field wideband aeroacoustic imaging Recently the improved deconvolution methods using sparse regularization achieve high spatial resolution in aeroacoustic imaging in low Signal-to-Noise Ratio (SNR) cases, but sparse prior and model parameters should be optimized to obtain super resolution and be robust. In this paper, we propose a Bayesian Sparse Inference Approach in Aeroacoustic Imaging to reconstruct both source powers and positions in poor SNR cases, and simultaneously estimate background noise and model parameters. Double Exponential prior model is selected for the sparsity of source spatial distribution and hyper-parameters are estimated by Joint Maximized A Posterior criterion and Bayesian Expectation and Minimization algorithm. On simulated and real data, proposed approach is well applied in near-field wideband monopole and extended source imaging. Comparing to several classical methods, proposed approach is robust to noise, super resolution, wide dynamic range, and source number or SNR are not needed.
Hervé Liebgott (CREATIS)
Compressive sensing en imagerie ultrasonore médicale
One of the fundamental theorem in information theory is the so-called sampling theorem also known as Shannon-Nyquist theorem. This theorem aims at giving the minimal frequency needed to sample and reconstruct perfectly an analog band-limited signal. Compressive sensing (or compressed sensing, compressive sampling) or CS in short is a recent theory that allows, if the signal to be reconstructed satisfies a number of conditions, to decrease the amount of data needed to reconstruct the signal. As a result this theory can be used for at least two purposes: i) accelerate the acquisition rate without decreasing the reconstructed signal quality (e.g. in terms of resolution, SNR, contrast …) ii) improve the image quality without increasing the quantity of needed data.
Even if medical ultrasound is a domain where several potential applications can be highlighted, the use of this theory is extremely recent.
In this paper we will review the basic theory of compressive sensing. The concepts of sparsity and incoherence between decomposition and representation basis, which are necessary conditions for the CS to apply will be presented. Illustrations of the application of CS to other domains will be presented. A review of the existing CS studies in the field of medical ultrasound will be given: reconstruction of pre-beamformed data using CS, reconstruction of 3D ultrasound volumes using CS, bayesian approaches of CS in medical ultrasound, blood velocity estimation from sparse data sets using CS.
Finally the open problems and challenges remaining to be tackled in order to make the application of CS to medical US a reality will be given.
Laurent Condat (GIPSA-Lab)
Estimation optimale d’une séquence non uniforme d’impulsions de Dirac à partir de mesures linéaires bruitées
Nous proposons une nouvelle méthode itérative pour retrouver les positions et amplitudes
d’impulsions de Dirac à partir d’échantillons passe-bas bruités. Hormis quand le niveau de
bruit est très élevé, l’algorithme converge en pratique vers l’estimateur du maximum de vraisemblance.
L’approche repose sur un algorithme récent d’éclatement pour l’optimisation convexe ,
utilisé ici comme heuristique. Les applications de l’estimation de signaux impulsionnels parcimonieux
vont de la communication ultra large bande à l’analyse de signaux biologiques, par ex.
en EEG. L’approche est générique et permet en fait de résoudre une large classe de problèmes
d’approximation matricielle structurée de rang faible.
Quentin Barthélémy (CEA)
Apprentissage de dictionnaires temporels multivariés pour les signaux EEG
L’apprentissage de dictionnaire est une approche récente de traitement du signal, permettant de représenter efficacement un signal sur un dictionnaire redondant appris à partir des données. La représentation est adaptée et n’introduit pas d’a priori d’analyse comme les bases génériques telles que Fourier, Gabor, ondelettes, etc. Ce type de représentations a prouvé ses qualités pour de multiples traitements (représentation, débruitage, inpainting).
Le but de cet exposé est de montrer l’apport de l’apprentissage de dictionnaires temporels aux signaux électroencéphalogrammes (EEG). Considérant toutes les électrodes, la méthode exposée prend en compte l’aspect multivarié des données. Ce modèle permet une grande flexibilité spatiale, à l’inverse modèle multicanal faisant l’hypothèse que les atomes multi-électrodes sont de rang 1. D’autre part, à l’inverse de multiples méthodes de traitement d'EEG qui font une hypothèse de stationnarité temporelle et qui n'étudient que l'aspect spatial des signaux, notre méthode apprend des motifs temporels, invariants par translation.
Cet apprentissage de dictionnaires temporels multivariés est illustré sur données réelles. D'une part, nous montrons qu’un dictionnaire multivarié appris offre une meilleure reconstruction, à parcimonie fixée, que les dictionnaires de Gabor multicanaux classiquement utilisés en représentation de signaux EEG. D’autre part, dans un contexte très bruité, notre méthode est capable d’extraire des évènements EEG s'ils sont quasi-localisés en temps. Pour illustrer cela, nous apprenons un motif multivarié du potentiel évoqué P300 : les décalages temporels présents dans les données sont pris en compte, ce qui est négligé par la plupart des méthodes basées sur une estimation grand average.
Trin Dinh (Université Paris 13)
Sparse patch-based model for single image super-resolution with application to CT and MRI images
In this paper, a novel example-based super resolution (SR) method is introduced. The objective is to estimate a high resolution image from a single low-resolution image. By considering an image as a set of small image patches, our method is performed on each patch with the help of a given database of high and low-resolution image patch pairs. For each given
low-resolution patch, its high resolution version is considered as a sparse positive linear combination of the high-resolution patches from the database. The coefficients of this combination are referred to as the weights, and an sparse weight model is proposed to find
this combination such that the high-resolution patch is consistent with the low resolution patch while being similar to the best candidate high-resolution patches from the database.
Experimental results show the good performance of our method over some state-of-the-art
methods and confirm the efficiency of the proposed method.
Lei Yu (Inria Rennes)
Quantifying Cerebral Blood Flow with ASL: sampling diversity or repetition?
Arterial Spin Labeling (ASL) is a noninvasive perfusion technique which allows the absolute quantification for Cerebral Blood Flow (CBF). The perfusion is obtained from the difference between images with and without magnetic spin labeling of the arterial blood and the captured signal is around 0.5-2% of the magnitude of the labeling images, so the noise is one of the main problems for further data analysis. Classical method, Mono-TI, for CBF quantification is averaging repetitions with only one Inversion Time (TI) - the time delay between labeling and acquisition to allow the labeled blood to arrive the imaging slice. It improves the robustness to noise, however, cannot compensate the variety of Arterial Arrival Time (AAT).
In this work, Diverse-TI is proposed to exploit different TI sampling instants (sampling diversity) to improve the robustness to variety of AAT and simultaneously average repetitions with each TI (sampling repetitions) to improve the robustness to noise. Generally, the sampling diversity is relatively small and can be considered as compressed measurements, thus the Compressive Matched Filter (CMF) enlightened from sparsity is exploited to
directly reconstruct CBF and AAT directly from compressed measurements. Meanwhile, regarding the CBF quantification performance, the compromise between the sampling repetition and sampling diversity is empirically discussed.
Jérôme Landré (CReSTIC)
Représentations parcimonieuses pour la séparation des signaux : quantification en IRM spectroscopique pour l'étude du métabolisme
La spectroscopie par résonance magnétique (SRM) est une technique non invasive d'analyse des informations biochimiques des tissus du corps humain. La quantification des signaux SRM in vivo consiste à extraire les amplitudes ou les surfaces des pics de chacun des métabolites d'intérêt en présence. Les informations fournies par les pics permettent l'aide au diagnostic et au suivi des patients par les praticiens. Cette quantification est rendue difficile en raison du recouvrement important entre les différents pics, de la présence d'un bruit de fond lors des examens (baseline) et du faible rapport signal sur bruit des spectres observés. Les connaissances à priori pour ce problème sont les fréquences centrales des différents métabolites ainsi que le modèle des pics, représentés par des fonctions gaussiennes et lorentziennes. La méthode proposée consiste à réduire l'influence de la baseline, à construire
un dictionnaire de fonctions gaussiennes de fréquences centrales et de largeur connues. Puis, une fois ce dictionnaire construit, l'algorithme FOCUSS non négatif permet une décomposition parcimonieuse du signal SRM considéré utilisant les fonctions du dictionnaire. La solution de l'algorithme permet la séparation des différents pics des métabolites composants le signal SRM observé. La méthode a été testée sur des signaux de spectroscopie simulés et réels. Les résultats obtenus sont meilleurs en terme de performance que l'état de l'art de la quantification SRM.
Date : 2012-11-16
Lieu : Télécom ParisTech salle B551
Thèmes scientifiques :
A - Méthodes et modèles en traitement de signal
B - Image et Vision
Inscriptions closes à cette réunion.
(c) GdR IASIS - CNRS - 2024.