Vous êtes ici : Réunions » Réunion

Identification

Identifiant: 
Mot de passe : 

Mot de passe oublié ?
Détails d'identification oubliés ?

Segmentation d'images biomédicales : quels outils pour l'analyse des données massives, hétérogènes et multimodales ?

Nous vous rappelons que, afin de garantir l'accès de tous les inscrits aux salles de réunion, l'inscription aux réunions est gratuite mais obligatoire.

Inscriptions closes à cette réunion.

Inscriptions

37 personnes membres du GdR ISIS, et 60 personnes non membres du GdR, sont inscrits à cette réunion.
Capacité de la salle : 120 personnes.

Annonce

La segmentation d'images a fait l'objet de recherches très actives depuis plus d?une trentaine d'années. De nombreuses méthodes ont été proposées, fondées, par exemple, sur des approches variationnelles à partir de contours ou de régions predéfinies, des approches basées sur des propriétés statistiques et contextuelles, ou des approches utilisant des connaissances a priori, ou plus récemment sur des méthodes par apprentissage statistique. Néanmoins, cette problématique, parfois rebaptisée avec des dénominations plus attractives telles que "classification" ou "clustering", constitue toujours un défi du traitement de l'image, particulièrement pour l'imagerie biomédicale. La méthode de segmentation automatique idéale et générique n'existe pas encore ; les médecins ont souvent recours à des méthodes semi-automatiques générant des contours qu'ils doivent corriger manuellement. Cette étape constitue ainsi, pour un bon nombre d'applications, un facteur limitant à l'extraction d'information de plus haut niveau, telle que des paramètres de forme, des mesures quantitatives précises, ou l'extraction de certains biomarqueurs d'imagerie.

La recherche en segmentation d'images médicales conserve ainsi un dynamisme fort en se nourrissant des méthodes les plus avancées du traitement de l'image, de l'apprentissage statistique et de la fusion d'information, mais aussi des nouvelles problématiques liées à l'évolution des caractéristiques des données d'imagerie aujourd'hui plus massives, hétérogènes et multimodales.

Une revue récente de MEDIA (janvier 2017) sur le deep learning en imagerie médicale soulignait que 30% des applications de ces méthodes entre 2012 et 2017, concernaient des problématiques de segmentation.

L'objectif de cette journée est de faire un point sur les méthodes les plus innovantes et adaptées aux caractéristiques des données d'imagerie, et discuter des perspectives de recherche à explorer. Nous articulerons cette journée autour de présentations de trois orateurs invités qui couvriront un éventail de méthodes les plus performantes du domaine. Différents domaines d'application et différentes modalités seront couverts, dont la segmentation d'images cardiaques et neurologiques, ainsi que la segmentation massive d'images corps entier.

Nous aurons pour l'occasion des exposés pléniers de H. Müller, Professor in medical informatics at the University Hospitals of Geneva (https://www.hevs.ch/fr/rad-instituts/institut-informatique-de-gestion/collaborateurs/muller-1609), J. Cardoso, lecturer in the Translational Imaging Group (TIG) of UCL Centre for Medical image Computing (CMIC) in London (https://www.ucl.ac.uk/drc/drc-people/research-staff/m-jorge-cardoso), O.Commowick, chargé de recherches à l'INRIA (http://olivier.commowick.org/).

Nous entrelacerons ces exposés de présentations courtes. Si vous souhaitez présenter vos travaux, merci d'envoyer un titre et un résumé à l'équipe organisatrice avant le 5 mars 2018 :

Programme

9h30- 9h40 Présentation de la journée

9h40- 10h40 Benchmarking image segmentation in VISCERAL: from manual annotation to segmentation techniquesand comparisons of techniques

Henning. Müller, Professor in medical informatics at the University Hospitals of Geneva

10h40 - 11h00 Segmentation of Multiple Organs at Risk in CT Images using Deep Anatomical Constraints Learning

Roger Trullo, Caroline Petitjean, Su Ruan, LITIS, Université de Rouen Normandie

11h00 - 11h20 Segmentation multi-structures d?images échocardiographiques par apprentissage automatique

Sarah Leclerc, Carole Lartizien, Thomas Grenier et Olivier Bernard, CREATIS INSA-lyon

11h20 - 11h40 Pause café

11h40 - 12h40 Towards Multiple Sclerosis Lesion Segmentation Transfer to the Clinics: Methods and Evaluation

Olivier Commowick, chargé de recherches à l'INRIA

12h40 - 14h00 Pause déjeuner

14h00 - 15h00 Quantitative Neuroradiology: Machine Learning for Improved Patient Care

Jorge Cardoso, lecturer in the Translational Imaging Group (TIG) of UCL Centre for Medical image

Computing (CMIC) in London

15h00 - 15h20 Traumatic Brain Lesion Quantification based on Mean Diffusivity Changes

Christophe Maggia, Thomas Mistral, Senan Doyle, Florence Forbes, Alexandre Krainik, Damien Galanaud, Emmanuelle Schmitt, Stephane Kremer, Irene Troprès, Emmanuel Barbier, Jean-Francois Payen, Michel Dojat, INSERM- U1216, GIN Grenoble, CHUGA, Pixyl, Inria MISTIS, , APHP Hôpital Pitié Salpetrière , CHU Nancy, CHU Strasbourg, CNRS, UMR 3552

15h20 - 15h40 Towards integrating spatial localization in convolutional neural networks for brain image segmentation

Pierre-Antoine Ganaye, Michaël Sdika, Hugues Benoit-Cattin, CREATIS INSA-Lyon

15h40 - 16h00 Pause café

16h00 - 16h20 Automated 3D Lymphoma Lesion Segmentation from multimodal PET/CT Characteristics

E. Grossiord, H. Talbot, N. Passat, M. Meignan, L. Najman, Institut Universitaire du Cancer de Toulouse, LIGM, CReSTIC, LYSARC Lyon.

16h20 - 16h40 Approche basée patchs pour la segmentation rapide de structures anatomiques

Rémi Giraud, Pierrick Coupé, LaBRI, Bordeaux.

16h40 - 17h00 Caractérisation de la texture d?images multispectrales de cellules sanguines par Local Binary Patterns (LBP)

Alvarez Kossonou, Alain Clément, Université d'Angers

17h00 - 17h15 Table ronde, tous les participants

Résumés des contributions

Présentation de Henning Müller

Title: Benchmarking image segmentation in VISCERAL: from manual annotation to segmentation techniques and comparisons of techniques

abstract: Many techniques exist for the segmentation of a variety of structures in the human body, from manually developing models for structures to data-driven approaches. Evaluation segmentation is not easy as usually human reference standards are taken, but humans usually do not agree on precise annotations, so there is substantial subjectivity in many annotation tasks.

The presentation will cover the experiences made in the VISCERAL organ segmentation benchmark, from the research infrastructure put in place to the comparison of several algorithms. The subjectivity of manual annotations will be explained and how quality will be assured. The advantages of being able to have executables and not only algorithm results results will be analysed as well. Several algorithms can also be used to create a silver standard for annotation and to automatically generate new training data.

Présentation de Olivier Commowick :

Title: Towards Multiple Sclerosis Lesion Segmentation Transfer to the Clinics: Methods and Evaluation

abstract : The processing of magnetic resonance images, especially lesions segmentation, has become a central part of multiple sclerosis diagnosis and prognosis in the past years. To advance the treatment of this disease, a large French cohort is being built at the national level in France (OFSEP). Such databases require precise, automatic, segmentation methods able to reproducibly process these large amounts of data, thereby enabling large cohort studies of disease evolution. The presentation will focus on two sides of this problem: recent developments around atlas-based and machine learning based lesion segmentation techniques, and the objective evaluation of automatic segmentation in MS using an automatic cloud processing infrastructure.

Présentation de Jorge Cardoso :

Title: Quantitative Neuroradiology: Machine Learning for Improved Patient Care

abstract:
Recent developments in artificial intelligence and the availability of large scale medical imaging datasets allow us to learn how the human brain truly looks like from a biological, physiological, anatomical and pathological point-of-view. This learning process can be further augmented by diagnostic and radiological report data available in clinical systems, providing an integrated view of the human interpretation of medical imaging data. This talk will present how these models can learn from big and unstructured data and then be used as tools for precision medicine, where we aim to translate advanced imaging technologies and biomarkers to clinical practice in order to streamline the clinical workflow and improve the quality of care. This process of technical translation requires deep algorithmic integration into the radiological workflow, fully automated image processing, quality control and assurance, extensive validation on clinical grade data, and the deployment of an automated reporting system that summarizes a complex set of imaging biomarkers, highlighting the presence of abnormalities.

Présentations courtes:

1) Roger Trullo, Caroline Petitjean, Su Ruan, LITIS, Université de Rouen Normandie

Titre : Segmentation of Multiple Organs at Risk in CT Images using Deep Anatomical Constraints Learning

Résumé : Computed Tomography (CT) is a standard imaging technique for radiotherapy planning. However, due to low contrast, multi-organ segmentation is a challenge. Since most of the organ borders are ill-defined, we believe spatial relationships between the organs must be taken into account to overcome the lack of contrast. In this paper, we propose a novel framework for the automatic delineation of multi-organ in thoracic imaging. Different from previous works in multi-organ segmentation using deep learning where each organ is segmented separately, we propose two collaborative deep architectures. The aim of combining two networks is to learn anatomical constraints with the first network, and to use them as prior knowledge in the second network to segment each organ. As first network, we use a deep SharpMask architecture, for providing an effective combination of low-level representations with deep high-level features. Next, the second deep network is employed to refine the segmentation of each organ by using the maps obtained on the first network to learn anatomical constraints for guiding and refining the segmentations. Experimental results show encouraging performance on 60 CT scans, comparing with other state-of-the-art methods.

2) Sarah Leclerc , Carole Lartizien, Thomas Grenier et Olivier Bernard, Creatis, insa-lyon

Titre : Segmentation multi-structures d?images échocardiographiques par apprentissage automatique

Résumé: La segmentation des différentes parties du coeur permet l?estimation d'indices cliniques tels que les volumes ventriculaires et la fraction d'ejection nécessaires à l'analyse de la fonction cardiaque et de l'établissement du diagnostique associé. L'imagerie échocardiographique est aujourd'hui la modalité la plus utilisée en routine clinique en raison de son faible coût, de sa nature non invasive et de sa simplicité d'utilisation au lit du patient. Malheureusement, faute d'algorithme automatique suffisamment robuste, le post-traitement des images échographiques est toujours réalisé de façon semi-automatique, ce qui induit des variablités inter-experts des diagnostiques associés.

Les succès récents des méthodes par apprentissage automatique en vision par ordinateur ont poussé la communauté à étudier l'efficacité de telles méthodes en imagerie médicale ces dernières années. Dans ce contexte, nous nous intéressons à deux types d'algorithmes, les forêts aléatoires structurées et l'algorithme d'apprentissage profond U-Net, pour la segmentation multi-structures d?images échocardiographiques 2D.

Nous avons proposé une approche originale basée sur l?extraction à plusieurs échelles de descripteurs pour les SRF, montrant l?intérêt pour une meilleure segmentation de la contextualisation des structures. Celle-ci est également à l?oeuvre dans U-Net. Parallèlement à ce travail, nous avons constitué une base de données multi-structures annotées de 500 patients (2000 images), en collaboration avec le centre hospitalier universitaire de St Etienne et l'université NTNU en Norvège. Des résultats préliminaires particulièrement encourageant seront présentés.

3) Christophe Maggia1;2;3, Thomas Mistral1;2;3, Senan Doyle4 , Florence Forbes2;5, Alexandre Krainik1;2;3, Damien Galanaud6 , Emmanuelle Schmitt7 , Stephane Kremer8 , Irene Troprès 2;3;9;10, Emmanuel Barbier1;2, Jean-Francois Payen1;2;3, Michel Dojat1;2

1 INSERM, U1216, F-38000 Grenoble, France

2 Université Grenoble Alpes, GIN, F-38000 Grenoble, France

3 CHUGA, F-38000 Grenoble, France

4 Pixyl, F-38000 Grenoble, France

5 Inria, MISTIS, F-38330 Montbonnot, France 6 APHP, Hôpital Pitié Salpetrière, F-75000 Paris, France

7 CHU, Hôpital Central, F-54000 Nancy, France

8 CHU de Strasbourg, F-67000 Strasbourg, France

9 CNRS, UMR 3552, F-38000 Grenoble, France

Titre: Traumatic Brain Lesion Quantification based on Mean Diffusivity Changes

Résumé: Abstract. We report the evaluation of an automated method for quantification of brain tissue damage, caused by a severe traumatic brain injury, using mean diffusivity computed from MR diffusion images. Our automatic results obtained on realistic phantoms and real patient images 10 days post-event provided by nine different centers were coherent with four expert manually identified lesions. For realistic phantoms, automated method scores were equal to 0.77, 0.77 and 0.83 for Dice, Precision and Sensibility respectively compared to 0.78, 0.72 and 0.86 for the experts. The inter correlation class (ICC) was 0.79. For 7/9 real cases 0.57, 0.50 and 0.70 were respectively obtained for automated method compared to 0.60, 0.52 and 0.78 for experts with ICC=0.71. Additionally, we detail the quality control module used to pool data from various image provider centers. This study clearly demonstrates the validity of the proposed automated method to eventually compute in a multi-centre project, the lesional load following brain trauma based on MD changes.

4) Pierre-Antoine Ganaye, Michaël Sdika, CREATIS INSA-Lyon.

Titre : Towards integrating spatial localization in convolutional neural networks for brain image segmentation

Résumé : Semantic segmentation is an established while rapidly evolving field in medical imaging. In this paper we focus on the segmentation of brain Magnetic Resonance Images (MRI) into cerebral structures using convolutional neural networks (CNN). CNNs achieve good performance by finding effective high dimensional image features describing the patch content only. In this work, we propose different ways to introduce spatial constraints into the network to further reduce prediction inconsistencies.

A patch based CNN architecture was trained, making use of multiple scales to gather contextual information. Spatial constraints were introduced within the CNN through a distance to landmarks feature or through the integration of a probability atlas. We demonstrate experimentally that using spatial information

5) E. Grossiord 1 , H. Talbot 2 , N. Passat 3 , M. Meignan 4 , L. Najman 2

1 Institut Universitaire du Cancer de Toulouse - Oncopole, Dpt Imagerie, Toulouse, France

2 Universite Paris-Est, ESIEE-Paris, LIGM, CNRS, France ´

3 Universite de Reims Champagne-Ardenne, CReSTIC, France ´

4 The Lymphoma Academic Research Organisation (LYSARC), Lyon, France

Titre : Automated 3D Lymphoma Lesion Segmentation from multimodal PET/CT Characteristics

Résumé : Positron Emission Tomography (PET) using 18F-FDG is recognized as the modality of choice for lymphoma, due to its high sensitivity and specificity. Its wider use for the detection of lesions, quantification of their metabolic activity and evaluation of response to treatment demands the development of accurate and reproducible quantitative image interpretation tools. An accurate tumour delineation remains a challenge in PET, due to the limitations the modality suffers from, despite being essential for quantifying reliable changes in tumour tissues. Due to the spatial and spectral properties of PET images, most methods rely on intensity-based strategies. Recent methods also propose to integrate anatomical priors to improve the segmentation process. However, the current routinely-used approach remains a local relative thresholding and requires important user interaction, leading to a process that is not only user-dependent but very laborious in the case of lymphomas. In this paper, we propose to rely on hierarchical image models embedding multimodality PET/CT descriptors for a fully automated PET lesion detection / segmentation, performed via a machine learning process. More precisely, we propose to perform random forest classification within the mixed spatial-spectral space of component-trees modeling PET/CT images. This new approach, combining the strengths of machine learning and morphological hierarchy models leads to intelligent thresholding based on high-level PET/CT knowledge. We evaluate our approach on a database of multi-centric PET/CT images of patients treated for lymphoma, delineated by an expert. Our method provides good efficiency, with the detection of 92% of all lesions, and accurate segmentation results with mean sensitivity and specificity of 0.73 and 0.99 respectively, without any user interaction.


6) Rémi Giraud, Pierrick Coupé, LaBRI (Bordeaux)

Titre : Approche basée patchs pour la segmentation rapide de structures anatomiques


Résumé : L'étude des structures anatomiques du cerveau sur des images IRM est cruciale dans le cadre de l'étude des maladies neurodégénératives, telles qu'Alzheimer.


Une approche basée patchs utilisant des recalages affines peu coûteux entre le sujet à segmenter et une bibliothèque de modèles pré-segmentés a été proposée dans [1]. Dans cette méthode, la considération exhaustive de tous les patchs de la bibliothèque de modèles dans un schéma de fusion d'étiquettes limite la précision et l'amélioration du temps de calcul (plusieurs minutes par sujet) par rapport à des méthodes basées sur des déformations non linéaires. Pour pallier ces limites, nous avons proposé une nouvelle méthode de segmentation basée patchs nommée OPAL (pour Optimized PatchMatch for Accurate Label fusion) [2]. Un algorithme rapide de recherche de plus proches voisins approchés est adapté pour trouver très rapidement de bonnes correspondances de patchs dans une grande bibliothèque de modèles. Le faible temps de calcul d'OPAL (quelques secondes) permet d'utiliser de nouvelles stratégies de recherche multi-échelles et multi-descripteurs qui améliorent significativement les performances de segmentation. OPAL surpasse les méthodes de l'état-de-l'art jusqu'à atteindre la fiabilité inter-experts de segmentation sur plusieurs bases de données considérées (hippocampe) avec des résultats obtenus en seulement quelques secondes de traitement par image.

Récemment, la méthode a été étendue à la segmentation du cervelet [3], a été intégrée à la plateforme en ligne volBrain [4], et également étendue à la classification de pathologies [5].



Références :
[1] - P. Coupé, J.V. Manjón, V. Fonov, J. Pruessner, M. Robles et L. Collins. Patch-based segmentation using expert priors : Application to hippocampus and ventricle segmentation. NeuroImage (NIMG), 2011
[2] - R. Giraud, V.-T. Ta, N. Papadakis, J.V. Manjón, L. Collins, et P. Coupé. An optimized PatchMatch for multi-scale and multi-feature label fusion. NeuroImage (NIMG), 2016
[3] - J.E. Romero, P. Coupé, R. Giraud, V.-T. Ta, V. Fonov et M.T.M. Park, et al. CERES : A new cerebellum lobule segmentation method. NeuroImage (NIMG), 2017
[4] - J.V. Manjón et P. Coupé. volBrain: an online MRI brain volumetry system. Frontiers in Neuroinformatics, 2016 (

http://volbrain.upv.es/)
[5] - K. Hett, V.-T. Ta, R. Giraud, M. Mondino, J.V. et P. Coupé. Patch-based DTI grading: Application to alzheimer's disease classification. Proc. of Int. Work. on Patch-based Techniques in Medical Imaging (Patch-MI, MICCAI), 2016

7) Alvarez Kossonou, Alain Clément, Université d'Angers

Titre : Caractérisation de la texture d?images multispectrales de cellules sanguines par Local Binary Patterns (LBP).

Résumé: Notre projet s?inscrit dans le contexte de développement de nouvelles techniques destinées au diagnostic du paludisme en Côte d?Ivoire. Des images multispectrales sont acquises grâce à deux microscopes multimodaux et multispectraux. Le premier, est muni de 39 LEDs allant de 375nm à 940nm ; le second, est équipé de lasers de longueurs d?ondes de 405nm, 450nm, 538nm et 638nm. Les images acquises en utilisant nos appareils émanent des modes : Transmission, Réflexion et Diffusion L?analyse de ces images repose sur une analyse de textures multicomposantes basée sur les Local Binary Pattern (LBP).

Largement utilisés depuis les années 1990 sur les images en niveaux de gris, les LBP mettent en ?uvre des relations de voisinage entre les pixels pour détecter des contours indépendamment des variations de luminance. L?adaptation de ces méthodes aux images multicomposantes, consiste à explorer des solutions d?opérateurs LBP hybrides ou vectoriels tenant compte de l?information spatiale et spectrale de nos images. L'objectif final de notre projet est de classifier les cellules sanguines humaines selon qu'elles sont infectées par le paludisme ou pas.

Date : 2018-03-28

Lieu : Amphi Estaunié, Télécom Paristech


Thèmes scientifiques :
B - Image et Vision

Inscriptions closes à cette réunion.

Accéder au compte-rendu de cette réunion.

(c) GdR IASIS - CNRS - 2024.