Nous vous rappelons que, afin de garantir l'accès de tous les inscrits aux salles de réunion, l'inscription aux réunions est gratuite mais obligatoire.
Inscriptions closes à cette réunion.
25 personnes membres du GdR ISIS, et 2 personnes non membres du GdR, sont inscrits à cette réunion.
Capacité de la salle : 40 personnes.
Imagerie multi/hyperspectrale : problématiques et nouveaux domaines d'applications’’
L’imagerie multispectrale consiste en l’acquisition de dizaines d’images spectrales, chacune d’elles étant une image en niveaux de gris acquise à travers un filtre centré sur une longueur d’onde particulière du spectre électromagnétique. Les imageurs multispectraux ont fait leur apparition au début des années 70 dans le domaine de la télédétection et l’observation spatiale, où leurs propriétés de couverture, répétitivité et précision spectrale (hyper et ultra spectrale) ont été mises à profit pour étudier la signature spectrale des objets au sol.
Longtemps confinée à la télédétection et la mesure en champ lointain du fait du coût des imageurs et leurs contraintes d’entretien, les applications de l’imagerie multispectrale en champ proche connaissent aujourd’hui une forte expansion, grâce aux avancées technologiques récentes à la fois des capteurs d’images et des filtres ; nous entendons par proche toute exploitation ne nécessitant pas un capteur aéroporté ou satellisé. Parmi les domaines d’application les plus prometteurs, on peut citer sans être exhaustif : le contrôle qualité, l’agro-alimentaire, la médecine, la biologie, l'imagerie moléculaire, l’industrie cosmétique, l’étude d’œuvres d’art, l’imprimerie, le patrimoine, etc. Cette diversification a pour conséquence de réactualiser certaines problématiques connues en télédétection (réduction de dimensionnalité des données, apprentissage et classification, visualisation, etc.) dans de nouveaux contextes. L’exploration de champs proches a également donné naissance à de nouvelles problématiques scientifiques (sélection de filtres, dématricage CFA, estimation de la réflectance, intégration de modèles physiques, visualisation, impression, séparation de sources, etc.) auxquelles se confronte une communauté de chercheurs tant académiques qu’industriels.
Dans ce contexte, Le GDR-ISIS organise une réunion, inscrite dans le thème B, autour de l’imagerie multispectrale au sens large. Cette journée sera l’occasion de faire un point et une synthèse des avancées scientifiques liées aux problématiques de l’imagerie multispectrale, de créer des passerelles de communication et de collaboration entre les acteurs des différentes communautés travaillant avec des données multispectrales et enfin de faire émerger les nouveaux problèmes et défis scientifiques.
Cette journée se déroulera à Paris le 4 juillet 2012 et mêlera deux présentations Senior et des communications de jeunes chercheurs.
Les organisateurs :
Nous vous rappelons que, afin de garantir l'accès de tous les inscrits aux salles de réunion, l'inscription aux réunions est gratuite mais obligatoire.
Matin
9h30 – 10h20 : J. Hardeberg. ColorLab Gjovik, Norvège.
« Multispectral colour imaging - ready to come out of the lab soon?»
10h20 – 10h45 : R. Pillay. C2RMF, Musée du Louvre.
« Imagerie multi/hyperspectrale pour la numérisation des œuvres d’art »
============Pause============
11h00 - 11h25 : C. Simon1, R. Schütze2, F. Marzani1, F. Boochs2. 1 LE2I, Dijon, 2 i3mainz Mayence, Allemagne.
« Projection et recalage de données multispectrales sur des modèles 3D »
11h30 – 11h55 : S. Rousseau, D. Helbert, Ph. Carre. Xlim-SIC, Poitiers.
« Détection de signatures spectrales par acquisition comprimée d’une image multispectrale »
12h00 – 12h25 : S.Valero, P.Salembier, J. Chanussot. GIPSA-Lab, Grenoble.
« La segmentation des images hyperspectrales en utilisant l’Arbre Binaire de Partitions »
Après-midi
14h00 – 14h45 : S. Velasco-Forero, J. Angulo. CMM, MINES ParisTech.
« Analyse d'images multivariées à travers des projections aléatoires »
14h50 – 15h15 : A. Le doux. Xlim-SIC, Poitiers.
« Construction d'une morphologie mathématique multispectrale basée distance »
15h20 – 15h45 : E. Villeneuve, H. Carfantan. IRAP, Toulouse.
« Déconvolution de données hyperspectrales pour l'étude de la cinématique de galaxies »
============Pause============
16h00 – 16h25 : X. He1, L. Condat2, J. Chanussot, J. Xia2. 1 GIPSA-Lab, Grenoble, 2 GREYC, Caen.
« Pan-Sharpening par variation totale »
16h30 – 16h55 : I. Meganem1,2, Y. Deville2, S. Hosseini2, Ph. Déliot1, X. Briottet1. 1 ONERA, 2 IRAP, Toulouse.
« Démélange par méthode basée sur la factorisation en matrices non négatives, pour un modèle de mélange linéaire quadratique, sur des images hyperspectrales urbaines »
17h00 – 17h25 : Y. Altman, J-Y. Tourneret, N. Dobigeon. IRIT, Toulouse.
« Détection de mélanges non-linéaire pour l'analyse d'images hyperspectrales »
17h30 – 17h55 : J. Xia, J. Chanussot, X. He. GIPSA-Lab, Grenoble.
« Classifier Ensembles for Remote Sensing Image Classification: A Review »
18h00 : Clôture
« Multispectral colour imaging - ready to come out of the lab soon? »
J. Y. Hardeberg, ColorLab, Gjovik, Norvège
Conventional colour imaging science and technology is based on the paradigm that three variables are sufficient to characterize the colour all surfaces. However, in particular due to the effect of metamerism, three colour channels are sometimes insufficient. In this talk we give an introduction the concept of multispectral colour imaging, and show how increasing the number of colour channels beyond three can resolve limitations of conventional colour image capture and reproduction systems.
Multispectral colour imaging technology has demonstrated its usefulness in several fields of application, e.g. for cultural heritage and medical imaging, however in most cases proposed imaging systems are very expensive, require cumbersome calibration procedures, slow image capture, and highly skilled operators, and therefore their usage are mainly confined to the research labs.
Recently, alternative approaches for multispectral color image acquisition have been proposed, including the two promising ideas of using an extension of the traditional color filter array beyond the conventional three channels, and of using two color cameras with additional optical filters in a stereoscopic configuration. An important feature of these approaches is to avoid taking multiple sequential shots or scanning the scene, thus enabling the capture of non-stationary scenes. In this talk we present briefly our recent research results using these two novel approaches, discuss their advantages and disadvantages, as well as directions for further research aiming for fast and cost-effective acquisition of multispectral colour images.
======***======
« Imagerie multi/hyperspectrale pour la numérisation des œuvres d’art »
R. Pillay. C2RMF, Musée du Louvre
The spectral imaging of art has long been of great interest to museums for conservation, research and documentation purposes. The accurate recording of colour and the ability to distinguish pigments spectrally can be a valuable tool for restorers and art historians. The technology has greatly evolved since the first filter-based multispectral imaging systems in the 1990's to today's high resolution diffraction-grating based hyperspectral imaging systems. An overview of the use and evolution of spectral imaging systems within museum will be given as well as case studies illustrating their use.
======***======
« Projection et recalage de données multispectrales sur des modèles 3D »
C. Simon1, R. Schütze2, F. Marzani1, F. Boochs2. 1 LE2I, Dijon, 2 i3mainz Mayence, Allemagne
Nous nous intéressons au recalage de données multi-capteurs et spécifiquement à la projection de textures multispectrales sur des modèles 3D d’objets du patrimoine (bas-reliefs peints ; peintures murales, etc.). Chacune de ces modalités est individuellement de plus en plus utilisée pour l’étude d’objets du patrimoine culturel. Ainsi, l’obtention de modèles 3D à texture multispectrale serait d’un grand intérêt à la fois à des fins d’analyse et à des fins de communication.
La difficulté du recalage multicapteur vient principalement de la variation de la représentation de l’objet. Ainsi, les points saillants d’une image multispectrale ne correspondent pas forcément à ceux du modèle 3D. Il est donc difficile de trouver des points de repère entre les différents jeux de données. Par ailleurs, puisqu’il s’agit d’objets du patrimoine, l’usage de mires extérieures qui guideraient le recalage est proscrit. De plus, lorsqu’on étudie des surfaces non fermées (telles qu’un pan de mur), il y a de fortes chances que les erreurs s’additionnent plutôt que se compensent et introduisent des déformations de la surface.
Nous basons notre recalage de données multispectrales et 3D sur l’observation extérieure des systèmes d’acquisition par la photogrammétrie. Nous recalons donc les données en nous appuyant sur la position connue de chaque capteur au moment de l’acquisition. Un ensemble de caméras est positionné pour observer les différents capteurs pendant leur utilisation. Pour repérer précisément ces capteurs, ils sont fixés à un objet-mire qui est couvert de repères photogrammétriques. Cette technique est particulièrement adaptée à l’étude du patrimoine car les repères sont placés sur les systèmes d’acquisitions et non sur l’objet d’étude.
Nous avons dans un premier temps effectué un ensemble de simulations permettant de régler les nombreux paramètres inhérents à tout projet photogrammétrique (nombre et type de cameras de suivi, positionnement de ces caméras, taille et caractéristiques de l’objet mire, etc.) Ces simulations ont montré qu’il est possible de repérer le cadre-mire avec une précision de 0,02 mm dans deux situations- type : en utilisant six caméras de suivi lorsqu’on étudie une surface d’environ 1,5 m × 2 et en utilisant quatre caméras de suivi lorsqu’on étudie une surface 0,4 m × 0,7 m. Cette précision est nécessaire pour obtenir un recalage d’une précision d’un demi-pixel multispectral avec les caméras que nous utilisons actuellement.
Nous avons ensuite mis en place plusieurs expériences qui reprennent les caractéristiques issues des simulations. Pour obtenir la précision que nous nous sommes fixés, il est nécessaire de calibrer toutes les optiques en jeu : paramètres intrinsèques des caméras de suivi et des systèmes d’acquisition ;calibrage de l’objet mire ; calibrage entre l’objet mire et les systèmes d’acquisition ; calibrage des positions relatives des caméras de suivi. La chaine d’acquisition entière a été effectuée pour l’étude de deux objets proches de ceux pour laquelle elle a été développée : des peintures et un bas-relief. Les résultats de cette validation ont permis de connaitre la position du système d’acquisition avec une précision comprise entre 0,013 mm et 0,029 mm dans les deux configurations. Ces résultats correspondent en moyenne à ceux que nous avions obtenus en simulation.
Grace aux étapes de calibration et en connaissant la position des systèmes d’acquisitions pour chaque mesure, nous pouvons recaler les vues 3D entre elles. Ensuite nous projetons les acquisitions multispectrales sur le modèle 3D complet. Nous obtenons ainsi un modèle 3D à texture multispectrale de peintures ou de bas-reliefs, sans placer de mire sur la surface de l’objet.
======***======
« Détection de signatures spectrales par acquisition comprimée d’une image multispectrale »
S. Rousseau, D. Helbert, Ph. Carre. Xlim-SIC, Poitiers
L’acquisition d’images multispectrale génère une énorme quantité de données qu’il faut ensuite traiter. D’où des problèmes de compression, de stockage et de transmission.
L’acquisition comprimée ou « compressed sensing » est une discipline récente qui propose de faire l’acquisition directement compressée d’un signal : au lieu d’échantillonner puis de compresser le signal, on fait un nombre réduit de mesures du signal et on le reconstruit ensuite pour analyse.
On peut appliquer ce principe à l’imagerie multispectrale. On dispose de mesures en quantité réduite représentant l’image. On reconstruit ensuite l’image pour divers traitement.
Cet exposé montre qu’on peut aller plus loin. En effet, l’idée de l’acquisition comprimée part du constat suivant : pourquoi faire une acquisition lourde en quantité de données alors qu’on va se débarrasser de la plupart de ces données par une étape de compression ? Dans le cadre d’une détection de signature dans une image multispectrale, on peut faire un constat similaire : est-il nécessaire de reconstruire l’image multispectrale pour uniquement calculer les lieux d’une signature ? Sous quelques hypothèses sur la nature des mesures on peut répondre que non ! On peut ainsi non seulement sauter l’étape de compression présente dans le schéma d’acquisition classique mais aussi la reconstruction de l’image suite à l’acquisition comprimée. Cette reconstruction directe des lieux d’une signature à partir de mesures sur une image multispectrale repose sur des algorithmes de minimisation l1, TV , Besov ou mixte. Les méthodes de « Bregman » et « Split Bregman » permettent de les mettre en œuvre efficacement.
======***======
« La segmentation des images hyperspectrales en utilisant l’Arbre Binaire de Partitions »
S.Valero, P.Salembier, J.Chanussot. GIPSA-Lab, Grenoble
La segmentation des images hyperspectrales est abordée dans ce travail en utilisant une nouvelle représentation hiérarchique d’images hyperspectrales basée sur des régions : l’Arbre Binaire de Partitions. L'ABP être interprétée comme un ensemble de régions de l’image structurées en forme d'arbre. L’arbre binaire de partitions peut être utilisé pour représenter : (i) la décomposition d’une image en régions pertinentes et (ii) les différentes relations d’inclusion des régions dans la scène. Dans ce contexte, la segmentation des images hyperspectrales consiste à extraire de l’ABP une partition de l’image formée par les régions les plus significatives. Cette tâche consiste à supprimer les sous-arbres qui peuvent être remplacés par un seul nœud. Cela est possible si tous les noeuds à l’intérieur d’un sous-arbre appartiennent à la même région dans l’image. Cela signifie que la distance entre eux est faible et la distance entre eux et leurs nœuds voisins est élevé. Dans ce contexte, deux approches différentes sont étudiées. Tout d’abord, la segmentation d’images hyperspectrales est abordée par une stratégie de minimisation d’énergie globale. La seconde approche est fondée sur l’application des coupes normalisées sur les branches de l’ABP. Cette deuxième approche consiste à étudier comment des techniques classiques de partitionnement de graphes peuvent être appliquées sur la structure de l’ABP. Les résultats expérimentaux obtenus sur différents jeux de données pour les différentes approches montrent les qualités de la représentation ABP.
======***======
« Analyse d'images multivariées à travers des projections aléatoires »
S. Velasco-Forero, J. Angulo. CMM, MINES ParisTech.
La motivation de ce travail est sur ??l'incorporation de l'information spatiale dans l'analyse d'images multi/hyper-spectrales par la morphologie mathématique. En raison de la dimensionnalité de ces images, les idées de distance, d'ordre total, de filtres de rang, etc. posent des questions supplémentaires qui ne sont pas présentes dans les images à niveaux de gris. Ainsi, les mesures faites dans des voisinages de pixels de ces images sont très sensibles et souvent impossible à calculer en raison de restrictions théoriques ; par exemple, la matrice de covariance, ne peut pas être calculée si la dimension est plus grande que la taille de l'échantillon. Cet exposé présente les résultats basés sur le paradigme des projections aléatoires pour la détermination d'ordre total intrinsèque à une image multispectrale, et donc sur l’extension des opérateurs morphologiques aux images multispectrales. En outre, cette idée permet l’usage d'algorithmes de détection des anomalies et détection de cibles, de façon robuste et applicable dans des scénarios complexes, car on s’affranchi de l’estimation de la matrice de covariance. De manière un peu plus théorique, nous monterons l’équivalence asymptotique dans la famille des lois à contour elliptique entre l’estimateurs que nous proposons par projections aléatoires et la distance de Mahalanobis.
======***======
« Construction d'une morphologie mathématique multispectrale basée distance »
A. Le doux. Xlim-SIC, Poitiers
La morphologie mathématique repose sur la propriété d'ordonnancement total. En traitement d'images multispectrales cette question impose de spécifier comment construire cet ordre dans un espace n-dimensionnel. Dans cette présentation, nous présentons une nouvelle construction de morphologie mathématique multispectrale. Cette construction est un ordonnancement basé sur des distances entre distributions. Elle ne nécessite aucun pré-ordonnancement et autorise l'écriture de l'élément structurant non plat qui ne peut être défini avec les méthodes déjà existantes. L'élément structurant non plat permet d'étendre l'outil de Hit-or-miss, définit par Barat et appelé MOMP, aux images multispectrales. Cet opérateur permet de créer un gabarit en forme et en contraste entre distributions. Le gabarit permet de trouver des éléments ayant une forme, un contraste par rapport au fond de l'image, tout en étant proche d'une distribution choisie (la notion de proximité étant définie par une distance entre distributions). L'écriture permet également d'étendre plus ou moins la sélection à l'aide d'un paramètre de sélectivité. Quelques résultats seront montrés sur la recherche d'objets particuliers dans la base d'images de Graham Finalyson et Steven Hordley
======***======
« Déconvolution de données hyperspectrales pour l'étude de la cinématique de galaxies »
E. Villeneuve, H. Carfantan. IRAP, Toulouse
L'instrument MUSE est un spectro-imageur intégral de champ qui doit être mis en fonctionnement en 2013, au foyer d'un des télescopes du Very Large Telescope au Chili. Il fournira des cubes de données hyperspectrales à visée astrophysique, constitués d'images de 300x300 pixels à près de 4000 longueurs d'ondes.
Nos travaux ont été effectué dans le cadre de l'ANR DAHLIA dont l'objectif est de proposer des méthodes de traitements adaptées aux données hyperspectrales de type MUSE.
Nous présentons ici des résultats obtenus sur l'estimation de la réponse instrumentale hyperspectrale et sur la déconvolution 3D des galaxies pour l'étude de leur cinématique.
La connaissance de la réponse impulsionnelle de la chaîne d'acquisition, également appelée Point Spread Function (PSF), est nécessaire à différents types de traitements, tels que la fusion, la séparation de sources, et la déconvolution.
Cette PSF hyperspectrale peut être approximée par une PSF séparable spatialement et spectralement.
La PSF spectrale dépend essentiellement de l'instrument et peut-être calibrée une fois pour toutes.
Dans le cas d'observations sans optique adaptative, la PSF spatiale ne varie pas dans le champ, mais varie en fonction de la longueur d'onde. De plus, elle varie en fonction des conditions d'observations et doit donc être estimée à partir des données, par l'observation d'un objet non résolu isolé. Nous proposons d'approximer cette FSF par une fonction de Moffat, donc les paramètres varient en longueur d'onde. Nous présentons ensuite un schéma d'estimation de ces paramètres de variations, estimant simultanément le spectre et la position de l'objet.
Nous nous sommes ensuite intéressés à l'estimation du flux, de la position et de la largeur de raies spectrales, nécessaires à l'étude de la cinématiques de galaxies, en prenant en compte les effets de la PSF.
Nous proposons alors deux méthodes de déconvolution 3D : la première, basée sur l'estimateur du maximum de vraisemblance ; la seconde, introduisant des informations a priori faibles sur les cartes et calcule l'estimateur de l'espérance a posteriori par une méthode de Monte-Carlo par Chaînes de Markov. Ces méthodes sont comparées à des méthodes classiques d'estimations telles que la méthode des moments, sur la base de données hyperspectrales simulées de type MUSE.
======***======
« Pan-Sharpening par variation totale »
X. He1, L. Condat2, J. Chanussot, J. Xia2. 1 GIPSA-Lab, Grenoble, 2 GREYC, Caen
En général, la résolution spectrale d’une image multispectrale (MS) est élevée au prix d’une faible résolution spatiale. Au contraire, une image panchromatique (Pan) offre peu d’information au niveau spectral mais propose en même temps une résolution spatiale élevée. Le pan-sharpening, appelé aussi la fusion d’images, est une technique à l’origine utilisée pour fondre une image MS de faible résolution spatiale avec une image Pan haute résolution pour obtenir une image couleur haute résolution. Pour de nombreuse applications, l’avantage de manipuler des images multispectrales possédant une très haute résolution spatiale a déjà été démontré.
Différents algorithmes de pan-sharpening existent. On distingue généralement trois types d’approches : les méthodes de type projection-substitution [1], les méthodes de type analyse multirésolution [2] et les méthodes variationnelles [3]. L’étude de ces différentes références nous a amenés à choisir les méthodes variationnelles comme support de nos travaux car elles partagent des caractères avec la fonction variation totale. La variation totale est introduite en traitement d’image à l’origine dans le but de régulariser les solutions de problème inverse. Un grand avantage de la variation totale est qu’elle permet de lisser les images sans pour autant détruire le bord des objets.
Pour le problème de pan-sharpening, on cherche une image fusionnée de haute résolution et on observe l’image MS de basse résolution qui peut être considérée comme la somme d’une image sous-échantillonnée à partir de l’image fusionée et d’un bruit centré. Nous présentons une méthode de pan-sharpening à l’aide de la minimisation d’une variante de la variation totale sous contrainte. En plus des calculs des gradients de l’image fusionée, on ajoute un terme concernant le gradient de l’image Pan dans la nouvelle fonction de variation totale. Basé sur cette nouvelle formulation, nous espérons coloriser les pixels de l’image Pan sans détruire le bord des objets. Les résulats expérimentaux montrent que la méthode offre une bonne qualité spatiale.
REFERENCES
[1] V.P. Shah, N.H. Younan, and R.L. King, “An efficient pan-sharpening method via a combined adaptive PCA approach and contourlets,” IEEE Transactions on Geoscience and Remote Sensing, vol. 46, pp. 1323–1335, 2008.
[2] J. Nunez, X. Otazu, O. Fors, A. Prades, V. Palà, and R. Arbiol, “Multiresolution-based image fusion with additive wavelet decomposition,” IEEE Transactions on Geoscience and Remote Sensing, vol. 37, pp. 1204–1211, 1999.
[3] C. Ballester, V. Caselles, L. Igual, J. Verdera, and B. Rougé, “A variational model for P+XS image fusion,” International Journal of Computer Vision, vol. 69, pp. 43–58, 2006.
======***======
« Démélange par méthode basée sur la factorisation en matrices non négatives, pour un modèle de mélange linéaire quadratique, sur des images hyperspectrales urbaines »
I. Meganem1,2, Y. Deville2, S. Hosseini2, Ph. Déliot1, X. Briottet1. 1 ONERA, 2 IRAP, Toulouse
Le démélange spectral consiste retrouver les éléments qui constituent le spectre de chaque pixel d’une image hyperspectrale, c-à-d. les spectres de réflectances des matériaux purs qui composent le pixel (endmembers). La plupart des méthodes existantes sont basées sur des mélanges linéaires des endmembers, ce qui est vrai uniquement lorsque la surface est plane et homogène. Ces hypothèses ne sont pas vérifiées dans le cas des milieux urbains, à cause de la structure 3D des bâtiments.
Dans ce travail on commence donc par établir le modèle de mélange dans le cas des milieux urbains. En partant d’équations physiques basées sur la théorie du transfert radiatif, on aboutit à un modèle linéaire quadratique. Une méthode de démélange adaptée au modèle est ensuite proposée pour extraire les spectres de réflectances des matériaux composants les pixels. Ce travail nous a conduit à une méthode basée sur la Factorisation en Matrices Non Négatives (NMF). Cette classe de méthodes est bien adaptée lorsque les données sont positives et satisfont un modèle linéaire. La méthode proposée est une extension de la NMF pour un modèle linéaire quadratique et est basée sur un nouveau calcul du gradient tenant compte des termes quadratiques dans le modèle. L’algorithme proposé est testé sur des mélanges artificiels de vrais spectres de réflectances. Les premiers résultats sont très encourageants et montrent de bonnes performances.
======***======
« Détection de mélanges non-linéaire pour l'analyse d'images hyperspectrales »
Y. Altman, J-Y. Tourneret, N. Dobigeon. IRIT, Toulouse
Le démélange spectral est un des problèmes majeurs de l'analyse d'images hyperspectrales. Il consiste à identifier les composants macroscopiques présents dans une image hyperspectrale et à déterminer les proportions de ces matériaux dans chaque pixel de l'image. La plupart des algorithmes de démélange actuels supposent que les réflectances des pixels sont des combinaisons linéaires de composantes spectrales pures. Ce modèle a été largement étudié dans la littérature et a donné des résultats intéressants dans la plupart des applications. Cependant, ce modèle semble être inapproprié pour analyser certaines images, en particulier celles en présence d'arbres et de végétation. Les modèles de mélanges non linéaires représentent donc une alternative intéressante au modèle linéaire, considéré comme une approximation au premier ordre. Cependant, les modèles non linaires impliquent généralement une plus grande complexité calculatoire. Il est donc intéressant de pouvoir déterminer les pixels d'une image qui
peuvent être traités à l'aide d'un modèle de mélange linéaire et ceux qui nécessitent d'utiliser des modèles non linéaires plus complexes pour le démélange spectral afin de réduire la complexité du traitement de l'image
======***======
« Classifier Ensembles for Remote Sensing Image Classification: A Review »
J. Xia, J. Chanussot, X. He. GIPSA-Lab, Grenoble
In recent years, classifier ensembles have shown great potential to generate more accurate remote sensing image classification results. In order to give a reference point for classifier ensemble approaches, we give a comprehensive literature review (including diversity measures and combination strategies) which presents an overall architecture of the basic principles and trends behind the design of remote sensing classifier ensembles.
Diversity is a vital requirement for the success of ensemble. The classification results to be combined should be diverse. If the classification results are identical or similar, it would not improve the accuracy by combining them. Different types of diversity measures are used to examine whether they can guide the success of ensemble. In order to introduce the combination strategies clearly, three categories are adopted to summarize the combination strategies: (1) based on training sample manipulation, including Bagging, AdaBoost, MultiBoost etc; (2) concatenation combination. In a concatenation combination, the classification result generated by a classifier is used as the input into the next classifier. The results achieved through each classifier are similarly passed onto the next classifier until a result is obtained through the final classifier in the chain; (3) parallel combination. In a parallel combination, multiple classifiers are designed independently without any mutual interaction and their outputs are combined according to certain strategies. The main design decision is the selection of a reprehensive ensemble approach. Some of the popular and successful ensemble approaches are majority voting, fuzzy integral, D-S evidence theory etc.
The effectiveness of existing and improved algorithms are analyzed and evaluated by multi-source remotely sensed images, including high spatial resolution image (QuickBird), multi-spectral image (Landsat ETM+). Experimental results demonstrate that classifier ensembles can effectively improve the accuracy and stability of remote sensing image classification, and diversity measures play an active role for the combination of multiple classifiers. Furthermore, this survey provides a roadmap to guide future research, algorithm enhancement and facilitate knowledge accumulation of classifier ensembles in remote sensing community
Date : 2012-07-04
Lieu : Paris (Telecom-ParisTech) - Amphi Rubis
Thèmes scientifiques :
B - Image et Vision
Inscriptions closes à cette réunion.
Accéder au compte-rendu de cette réunion.
(c) GdR IASIS - CNRS - 2024.