Vous êtes ici : Réunions » Réunion

Identification

Identifiant: 
Mot de passe : 

Mot de passe oublié ?
Détails d'identification oubliés ?

Codage source-réseau-canal conjoint : vers une vision intégrée des systèmes de communication

Nous vous rappelons que, afin de garantir l'accès de tous les inscrits aux salles de réunion, l'inscription aux réunions est gratuite mais obligatoire.

Inscriptions closes à cette réunion.

Inscriptions

4 personnes membres du GdR ISIS, et 6 personnes non membres du GdR, sont inscrits à cette réunion.
Capacité de la salle : 80 personnes.

Annonce

Il y a près de 65 ans, Shannon a montré dans son théorème de séparation que le codage de source et le codage de canal peuvent être optimisés séparément, sans perte d’optimalité par rapport à une optimisation conjointe, a priori bien plus complexe.

Ce résultat a conduit à l’émergence de deux communautés plus ou moins cloisonnées : d’un côté, les codeurs de sources, à la recherche de représentations les plus compactes possibles de contenus aussi divers que textes, signaux sonores ou vidéos et de l’autre, les codeurs de canaux, en quête de codes atteignant la capacité.

La tendance des systèmes de communication est de favoriser la mobilité, la coopération entre utilisateurs (communication assistée par des relais), la diffusion. Par ailleurs, les délais d’acheminement de données saucissonnées dans des réseaux de communication best effort sont souvent contraints. Toutes ces situations sont finalement bien éloignées des hypothèses sur lesquelles reposent les résultats de Shannon (communication de point à point, stationnarité des sources et des canaux dont les caractéristiques statistiques sont connues, codes de longueur infinie et parfaitement adaptés).

Ceci a conduit de nombreux chercheurs à proposer des schémas de codage source-canal conjoints dans un premier temps, et plus récemment à prendre également en compte les réseaux de communication dans la problématique de l’optimisation de bout en bout des systèmes de communication. Le codage distribué robuste, l’optimisation du codeur de source en tenant compte des imperfections des décodeurs de canal, l’optimisation conjointe des codeurs de source et de canal, les techniques de décodage source-canal ou protocole-canal conjoint sont quelques exemples des travaux très variés entrepris en codage conjoint. Ceux-ci montrent que les communautés du codage de source et du codage de canal se sont en partie rapprochées.

L’objectif de cette journée est de dresser un panorama de la recherche en codage conjoint en général et de montrer les gains que peut apporter une vision intégrée d’un système de communication, où compression, codage de canal et transmission via un réseau ne sont plus considérés et optimisés séparément, mais conjointement.

Les collègues qui souhaitent soumettre une contribution sont priés de contacter les organisateurs avant le 19 octobre.

Cette journée fait suite à la journée pleinière sur la compression et la protection organisée par le thème D du GdR ISIS et prévue pour le 29 octobre à Télécom ParisTech.

Organisateurs

 

Programme

Résumés des contributions

Caractérisation analytique et optimisation de codes source-canal conjoints

Amadou Diallo (Supélec/LSS)

Les codes source-canal conjoints sont des codes réalisant simultanément une compression de données et une protection du train binaire généré par rapport à d'éventuelles erreurs de transmission. Ces codes sont non-linéaires, comme la plupart des codes de source. Leur intérêt potentiel est d'offrir de bonnes performances en termes de compression et de correction d'erreur pour des longueurs de codes réduites.

La performance d'un code de source se mesure par la différence entre l'entropie de la source à compresser et le nombre moyen de bits nécessaire pour coder un symbole de cette source. La performance d'un code de canal se mesure par la distance minimale entre mots de codes ou entre suite de mots de codes, et plus généralement à l'aide du spectre des distances.

Les codes classiques disposent d'outils pour évaluer efficacement ces critères de performance. Par ailleurs, la synthèse de bons codes de source ou de bons codes de canal est un domaine largement exploré depuis les travaux de Shannon. Par contre des outils analogues pour des codes source-canal conjoints, tant pour l'évaluation de performance que pour la synthèse de bons codes restaient à développer, même si certaines propositions ont déjà été faites dans le passé.

Les travaux qui seront présentés concernent les codes source-canal conjoints pouvant être décrits par des automates possédant un nombre fini d'états. Les codes à longueurs variables correcteurs d'erreurs font partie de cette famille. La manière dont un automate peut être obtenu pour un code donné est rappelée.

A partir d'un automate, il est possible de construire un graphe produit permettant de décrire toutes les paires de chemins divergeant d'un même état et convergeant vers un autre état. Nous avons montré que grâce à l'algorithme de Dijkstra, il est alors possible d'évaluer la distance libre d'un code conjoint avec une complexité polynomiale.

Pour les codes à longueurs variables correcteurs d'erreurs, nous avons proposé des bornes supplémentaires, faciles à évaluer. Ces bornes constituent des extensions des bornes de Plotkin et de Heller aux codes à longueurs variables. Des bornes peuvent également être déduites du graphe produit associé à un code dont seule une partie des mots de codes a été spécifiée.

Ces outils pour borner ou évaluer exactement la distance libre d'un code conjoint permettent de réaliser la synthèse de codes ayant des bonnes propriétés de distance pour une redondance donnée ou minimisant la redondance pour une distance libre donnée.

Stratégie de transmission optimale d’images via un codeur JPWL sur canaux radioélectriques MIMO réalistes

Clency Perrine (XLIM/SIC, Université de Poitiers)

Dans cet exposé, nous présentons une stratégie de transmission conjointe exploitant la diversité spatiale du canal sans fil et la scalabilité d’une image codée par JPWL. On propose ainsi une approche originale mettant en correspondance la hiérarchie de la source avec celle d'un canal MIMO issue d’un précodeur basé contenu. Ce dernier permet d’allouer hiérarchiquementla puissance sur les différents sous-canaux SISO relativement aux paramètres de la chaine de transmission afin de maximiser la qualité des images reçues.

Nous proposons ainsi une solution d’adaptation de lien permettant de régler dynamiquement les paramètres de la chaîne (débit de la source, puissance, modulation et code correcteur d’erreurs) en fonction des variations sur le canal de transmission. Notre méthode a donc pour objectif de sélectionner la configuration de codage/transmission qui maximise la qualité de l’image en réception. Elle est évaluée sur une couche physique "réaliste" respectant la norme de transmission IEEE802.11n. La qualité visuelle des images obtenues, au sens du PSNR, de SSIM, et d'une métrique à référence réduite, montre l’intérêt d’une telle stratégie conjointe dans des conditions de transmissions difficiles.

Mot clés : Codage conjoint source-canal, canal MIMO réaliste, précodage MIMO, JPWL, Qualité de Service
Auteurs : J. Abot, C. Perrine, Y. Pousset, C. Olivier, Institut XLIM / SIC, Université de Poitiers.

Iterative Network/Channel Decoding algorithm for the Multiple Access Relay Channel

Xuan Thang Vu (Supélec/LSS)

We study the three node multiple access relay channel under realistic operating conditions. More specifically, in our setup all wireless links are subjected to Rayleigh fading and Gaussian noise. We develop two Joint Network Channel Decoding (JNCD) algorithms, that take into account possible error probability at the relay. It is shown by simulations that, the proposed JNCD algorithms outperforms conventional JNCD algorithm which does not take into account possible decoding error at the relay. In addition, compared with a recently proposed that uses demodulate-and-forward (DMF) protocol, the proposed algorithms outperform with 3.5dB in fully-interleaved Rayleigh fading and 0.7dB in block Rayleigh fading.

Récepteur robuste de type 802.11n

Anissa Mokraoui, L2TI, Institut Galilée, Université Paris 13

Les travaux présentés dans cet exposé traitent le problème de l’amélioration des performances d’une chaîne complète de transmission (de bout en bout) dans le cadre applicatif de téléchargement de flux HTML comprimé via un lien radio-mobile de type 802.11n. Les objectifs fixés sont : (i) l’optimisation de l’emploi de la bande passante en réduisant le nombre de demande de retransmission (ARQ) ; et (ii) l’amélioration du rendu vis-à-vis de l’utilisateur en mobilité dans des conditions difficiles de réception. Dans cette optique, notre récepteur robuste s’appuie sur une approche conjointe de décodage canal-protocole et source-canal.

L’architecture classique des réseaux (modèle OSI) autorise la remontée des paquets vers les couches supérieures uniquement lorsque ces derniers sont sans erreurs, autrement une demande de retransmission du paquet erroné est enclenchée. Pour répondre aux objectifs (i) et (ii), l’architecture réseaux adoptée repose sur le principe de couches « souples » et éventuellement « perméables aux erreurs ». C'est-à-dire que chaque couche protocolaire autorise la remontée de paquets contenant éventuellement des erreurs sur leur charge utile jusqu’à atteindre la couche application où intervient alors notre décodeur robuste de codes deflate (Lempel-Ziv puis Huffman). Ces codes (spécifiés par le protocole d’échange http1.1 pour comprimer un flux HTML avant son téléchargement) sont des codes entropiques à longueur variable donc très vulnérables aux erreurs de transmission. En effet la moindre erreur dans le flux comprimé risque de désynchroniser le décodeur source. Nous avons construit un décodeur robuste de ces codes élaboré sur une stratégie de décodage conjoint source-canal. Ce dernier est construit sur le principe turbo de décodage itératif composé de deux blocs SISO (Soft-Output Soft-Input) concaténés en série. Le premier bloc concerne le décodeur canal (BCJR). Le deuxième bloc (c.a.d le décodeur source) cherche à exploiter toutes les sources de redondance disponibles non seulement dans le flux comprimé mais également dans la syntaxe du langage HTML faisant ainsi intervenir l’algorithme séquentiel à M-chemins auquel nous avons apporté des modifications pour améliorer ses performances de décodage.

La stratégie de couches perméables aux erreurs est rendue possible moyennant l’utilisation de décodeurs robustes d’en-têtes que nous avons développés à tous les niveaux de la pile protocolaire. Ces décodeurs reposent sur des techniques de décodage conjoint canal-protocole qui exploitent toutes les sources de redondances contenues dans la pile protocolaire (en intra-couche et inter-couche) combinées aux redondances introduites par les codes détecteurs d'erreurs pour corriger les en-têtes à chaque niveau de la pile protocolaire. Nous avons ainsi généralisé l’approche de réception conjointe source-canal à une réception conjointe canal-protocole.

L'architecture réseaux adoptée pour le téléchargement de flux HTML comprimé repose sur les encapsulations protocolaires suivantes RTP/UDP-Lite/IPV6/MAC-Lite/Phy-802.11n. Les résultats obtenus sur le simulateur réseaux OMNET++ ont montré la faisabilité et l’intérêt des méthodes conjointes source-canal-protocole vis-à-vis d’une solution classique. De plus la solution développée est conforme au standard IEEE 802.11n puisqu’ aucune modification n’a été apportée coté émetteur.

Ces travaux ont été réalisés dans le cadre du projet ANR intitulé DIffusion et TEléchargement sur liens MObiles Ip (DITEMOI), Janvier 2006 – octobre 2010.

Multiple-Description Coding of Temporal Wavelet Subbands Based on the MQ-Coder Registers of JPEG-2000

Angelo Arrifano (I3S, Université de Nice)

Due to the limited availability of resources on mobile devices, it has not been convenient to store media on them, instead it has been preferable to stream me- dia over the Internet. However, wirelessly streaming media over IP is prone to problems common to all wireless channels, such as round-trip and retrans- mission latencies. The Multiple-Description-Coding (MDC) problem consists in describing an information source by two or more separate descriptions in such manner that the quality of the decoding increases with the number of decoded descriptions. By doing so, in a media streaming scenario where packets are lost, the receiver can opt to decode a lower quality version of a media instead of asking for retransmission of lost packets.

JPEG 2000 offers high-compression, low-distortion capabilities among other important features like progressive transmission, lossless/lossy compression and error resilience. These make JPEG 2000 perfect for wireless transmission of digital still images. Although some error resilience is present on the core JPEG 2000 standard (Part 1), it is not sufficient for most wireless channels. To overcome this problem, some methods and tools are included in Part II of the standard - the JPWL.

In this talk we present a method to encode the temporal wavelet subbands of a motion-compensated (MC) video coder as multiple-descriptions using a modified version of JPEG-2000. The modified JPEG-2000 encoder outputs key MQ-Coder registers which are used by the decoder to pinpoint transmission errors. The decoder can then efficiently choose between available description- information, achieved by a clever exploitation of the Embedded Block Coding with Optimized Truncation (EBCOT) system. The error-detection registries provide an error detection rate comparable to CRC16.

Joint work with Marc Antonini (I3S) and Manuela Pereira (University of Beira Interior / IT Group, Portugal).

Compressive network coding for efficient data gathering in sensor networks

Francesca Bassi (ESME-Sudria)

We address the problem of data collection in a wireless sensor network, where network coding is used for data delivery. The correlation between the measurements is exploited to recover the data at the sink, even in case of rank-deficient network matrix. To this end, the network-coding operations are seen as lossy source compression, achieved by a finite-field random code generated during transmission. Decoding is performed using belief propagation on a factor graph which accounts for the correlation between the sensor measurements.

MAP estimation of the input of an oversampled filter bank from noisy subbands

Manel Abid (Téléom ParisTech et Supélec/LSS)

Oversampled filter banks perform simultaneously subband decomposition and redundancy introduction. This redundancy has been shown to be useful to combat channel impairments, when the subbands are transmitted over a wireless channel, as well as quantization noise. This talk describes several implementation of the maximum a posteriori estimator of the input signal from the noisy quantized subbands obtained at the output of some transmission channel.

In a first approach, the relations between the input samples and the noisy subband samples are described using a factor graph. Belief propagation is then applied to get the posterior marginals of the input samples.

In a second approach, the bounded nature of the quantization noise is explicitely taken into account to build a consistent estimator.

 

Date : 2012-10-30

Lieu : Télécom ParisTech, amphithéâtre Estaunié


Thèmes scientifiques :
D - Télécommunications : compression, protection, transmission

Inscriptions closes à cette réunion.

Accéder au compte-rendu de cette réunion.

(c) GdR IASIS - CNRS - 2024.