Vous êtes ici : Réunions » Réunion

Identification

Identifiant: 
Mot de passe : 

Mot de passe oublié ?
Détails d'identification oubliés ?

Extraction d'attributs et apprentissage pour l'analyse des images de télédétection

Nous vous rappelons que, afin de garantir l'accès de tous les inscrits aux salles de réunion, l'inscription aux réunions est gratuite mais obligatoire.

Inscriptions closes à cette réunion.

Inscriptions

71 personnes membres du GdR ISIS, et 110 personnes non membres du GdR, sont inscrits à cette réunion.
Capacité de la salle : 200 personnes.

Annonce

Réunion conjointe GdR-ISIS-CNRS & COMET-TSI-CNES

Extraction d'attributs et apprentissage pour l'analyse des images de télédétection (2nde édition)

Orateurs invités :

Les nouvelles générations de capteur d'imagerie en télédétection permettent d'offrir des images à haute (très haute) résolution spatiale/spectrale avec des fréquences de revisite jamais atteintes auparavant. La disponibilité de grands volumes de données d'images satellitaires et l'émergence de nouvelles méthodes d'apprentissage (deep learning) soulèvent des défis majeurs pour l'interprétation automatique des données de télédétection et d'observation de la Terre.

L'objectif de cette réunion est de faire un point sur les derniers travaux de recherche associés à des méthodes avancées d'apprentissage de données de télédétection. Les contributions attendues peuvent porter sur les thèmes suivants :

Organisateurs :

Abdourrahmane M. ATTO (USMB - LISTIC, abatt@univ-smb.fr)

Lionel BOMBRUN (IMS, lionel.bombrun@ims-bordeaux.fr)

Stéphane MAY (CNES, stephane.may@cnes.fr)

Silvia VALERO (CESBIO, silvia.valero@cesbio.cnes.fr)

Christian GERMAIN (IMS, christian.germain@ims-bordeaux.fr)

Support technique :

Visioconférence : Laurane Charrier et Yajing Yan.

Gestion de serveur ISIS : Michel Jordan, Cédric Dessennes


Programme

[13H30-13H45 : Introduction de la journée]

PAUSE


Résumés des contributions

Détection de dépôts d'avalanches par imagerie SAR: Cas d'étude d'un problème de télédetection avec des données aux informations partielles

Sophie Giffard-Roisin

Achieving reliable observations of avalanche debris is crucial for many applications including avalanche forecasting. The ability to continuously monitor the avalanche activity, in space and time, would provide indicators on the potential instability of the snowpack and would allow a better characterization of avalanche risk periods and zones. In this work, we use Sentinel-1 SAR (synthetic aperture radar) time series data (available every 6 days) and an independent in-situ avalanche inventory (ground truth) to automatically detect avalanche debris in the Alps during the winter season. In this talk, I will mainly focus on how to deal with complex and partial data in machine learning, using different methods from random forests to convolutional neural networks. The main (difficult!) question to solve is how to correctly define the problem, i.e. what do we want to learn and what can we learn with our data?


Mapping continental surfaces with high spatial and temporal resolution satellite image time series: recent advances and remaining challenges for operational applications

Jordi Inglada

The availability of high spatial and temporal resolution image time series acquired by systems like Sentinel-1, Sentinel-2 and Landsat8 combined to recent advances in machine learning make possible the operational cartography (land cover, biophysical variables) of very large areas. CESBIO has been producing land cover maps at 10 m resolution at the country scale for several years and extensions to the estimation of biophysical variables are in the works. This experience has allowed to identify several issues which have only partially been solved up to now. In this presentation, we will introduce some of these methodological locks related to:

Partial and ad-hoc solutions have been proposed for most of these items. However, we argue that an integrated vision allows to propose a research program for the years to come. Its goal should be to provide the remote sensing community with tools and techniques for the efficient exploitation of high resolution image time series for cartographic purposes in a wide range of application domains.


Deep Learning for Time Series Classification: application to Earth Observation time series

Charlotte Pelletier

A time series classification task consists in learning how to assign labels to time series. Recent advances in this field have been marked by a shift towards deep learning methods due to their state-of-the-art results in computer vision and natural language processing tasks. The ability of these techniques to deal with sequential data (e.g., text or audio) and to detect time-invariant characteristics results in various achievements for time series classification in several domains, including remote sensing.
In particular, the availability of satellite image time series acquired at high spatial, spectral, and temporal resolutions, such as the one provided by Sentinel and Landsat constellations, has opened new opportunities. The potential of deep learning techniques for pixel-based classification of these data has recently been shown on BreizhCrops, a crop type dataset. However, the accuracy of such approaches is highly dependent on the availability of a large quantity of correctly labelled data.

In this presentation, we will review state-of-the-art deep learning architectures proposed for time series classification and their performance for pixel-based classification of satellite image time series. We also present a domain adaptation approach that can be used to mitigate the lack of reference data.


Détection d'anomalies sur parcelles agricoles en utilisant des images Sentinel-1 et Sentinel-2: application au blé et au colza

Florian Mouret, Mohanad Albughdadi, Sylvie Duthoit, Denis Kouamé, Guillaume Rieu, Jean-Yves Tourneret

This paper proposes a generic approach for detecting anomalous crop development at the parcel-level based on unsupervised outlier detection techniques. This approach consists of four sequential steps: preprocessing of synthetic aperture radar (SAR) and multispectral images acquired using Sentinel-1 and Sentinel-2 satellites, extraction of SAR and multispectral indicators, computation of zonal statistics at the parcel-level and outlier detection. This paper analyzes different factors that can affect the relevance of the outlier detection results for crop monitoring, such as the considered features and the outlier detection algorithm used. The proposed method is validated on rapeseed and wheat crops located in Beauce (France).


Pixel-Set Encoders and Temporal Self-Attention for Satellite Image Time Series Classification

Vivien Sainte Fare Garnot, Loic Landrieu

We propose a new method for classifying agricultural parcels by crop-type from Sentinel-2 time series. Our approach leverages recent advances in deep learning and introduces two novel modules: the Pixel-Set Encoder (PSE) and the Temporal Attention Encoder (TAE). The PSE is inspired by point cloud processing architectures and exploits the coarseness of Sentinel-2 images resolution with a random sampling scheme. The TAE adapts the self-attention mechanism, used in NLP, to image sequence classification. Combining these modules in a common neural architecture yields new state-of-the-art performance in terms of precision. Furthermore, we show that this architecture considerably improves inference speed, computational efficiency, and memory requirements compared to methods such as RNNs or temporal convolutions.


Évaluation de techniques d'apprentissage profond pour la caractérisation de l'occupation du sol à partir de données de télédétection multi-source, multi-temporelle et multi-échelle

Yawogan Jean Eudes Gbodjo, Olivier Montet, Dino Ienco, Raffaele Gaetano, Stephane Dupuy

Le recours à la télédétection pour le suivi des systèmes de cultures révèle son intérêt depuis plusieurs décennies en permettant des applications comme l'évaluation des surfaces cultivées ou l'estimation des rendements à des échelles locales, régionales et globales. De nos jours, la démocratisation et la multiplication des missions satellitaires offre la possibilité d'acquérir de l'information multi-source pour mieux suivre et caractériser les systèmes agricoles. Néanmoins, l'intégration de ces sources d'information diverses et complémentaires, notamment pour le suivi des systèmes de cultures, reste un défi et un champ de recherche actif. La révolution de la dernière décennie concernant l'apprentissage profond a rapidement gagné le champ de la télédétection et ouvert la voie à de nouvelles applications. Dans cette travail, nous proposons de caractériser les superficies cultivées et en général l'occupation du sol à partir de séries temporelles radar, optique et d'image à très haute résolution spatiale en utilisant des réseaux de neurones convolutionnels. Les résultats obtenus sur l'île de la Réunion (près de 94% de précision globale) ont démontré l'efficacité de la méthode proposée et la plus-value de combiner à la fois les trois sources d'information pour la cartographie de l'occupation du sol par rapport aux études précédentes qui se sont limitées uniquement à la combinaison de 2 sources.


Apprentissage Profond et Fusion des Images HyperSpectrales (Sentinel-3 OLCI, AVIRIS, HICO) et Multi-Spectrales (Sentinel-2, Landsat8 OLI) pour l'Extraction des Attributs (Couleurs de l'Océan)

Ahed Alboody, Matthieu Puigt, Gilles Roussel

Cette présentation s'inscrit dans la télédétection et l'observation satellitaire de données multi-spectrales issues des satellites Sentinel-2 et Landsat8 OLI, et de données hyperspectrales de Sentinel-3, AVIRIS et HICO pour l'observation marine et côtière. Plus particulièrement, Sentinel-2A (S2A) et Sentinel-2B (S2B) fournissent des données qui sont bien résolues spatialement (de 10 à 60 m) mais mal résolues spectralement avec 13 bandes spectrales. Au contraire, les données Sentinel-3A (S3A) et Sentinel-3B (S3B) OCLI contiennent bien plus de bandes spectrales (21 bandes) mais pour une seule résolution spatiale de 300 m.
Pour mieux caractériser le milieu bio-géo-chimique en milieu côtier et l'extraction des attributs comme les couleurs des océans, il est nécessaire d'avoir des données avec la précision spectrale des données Sentinel-3 mais avec la résolution spatiale de Sentinel-2. Pour cela, la fusion de données multi- spectrales et hyperspectrales de résolutions différentes peut être réalisée par des méthodes d'apprentissage profond et des algorithmes de fusion ou pansharpening de plusieurs bandes spectrales. Les verrous à traiter sont les suivants :

  1. Variabilité temporelle : Les images Sentinel-2 et Sentinel-3 ne sont pas acquises en même temps (1 image Sentinel-2 par jour environ contre 1 image Sentinel-3 tous les 5 jours sur les zones d'intérêt), ce qui introduit une variation temporelle des données observées. Par exemple, la présence des nuages et des effets atmosphériques perturbent la scène et les approches développées doivent prendre en compte ces effets et d'autres.
  2. Variabilité spectrale : Même lorsqu'elles sont prises le même jour, les données ne sont pas acquises au même moment, ce qui introduit une variation des spectres des données observées (aussi connu sous le nom de variabilité spectrale).
  3. Variabilité spatiale : Les images Sentinel-2 n'ont pas une résolution spatiale constante selon les bandes spectrales. Lorsque nous voulons les fusionner avec les données Sentinel-3, cela engendre une difficulté supplémentaire, en particulier si nous cherchons à obtenir des données fusionnées ayant une résolution spatiale plus fine que 60 m (qui est la résolution spatiale la plus grossière que l'on peut obtenir à partir de Sentinel-2).

De nombreuses approches récentes ont permis la fusion d'images hyperspectrales et multi spectrales, multi-spectrales ou panchromatiques. Parmi elles, des méthodes basées sur des réseaux profonds de neurones (CNN, GAN, Auto-Encoder) et en particulier, nous avons testé ce modèle Dsen2 d'apprentissage profond spécifique pour la fusion et super-résolution des données Sentinel-2 à partir de données Sentinel-2.
En se basent sur ces modèles, nous nous présentons nos modèles conçus d'apprentissage profond DSenS3 de la fusion d'images hyperspectrales et multi spectrales pour l'extraction des attributs comme les couleurs de l'océan. Nous avons aussi testé des méthodes de fusion des images multi-spectrales fondées sur : (1) des techniques classiques : Gram-Schmidt (GS), Principal Component Analysis (PCA), Color Normalized (Brovey), Hue-Saturation-Value (HSV); (2) des méthodes de fusion d'images basées sur des factorisations matricielles ou tensorielles couplées (CNMF, CSTF).

Date : 2020-10-08

Lieu : Virtuel


Thèmes scientifiques :
B - Image et Vision
T - Apprentissage pour l'analyse du signal et des images

Inscriptions closes à cette réunion.

Accéder au compte-rendu de cette réunion.

(c) GdR 720 ISIS - CNRS - 2011-2022.