Vous êtes ici : Réunions » Réunion

Identification

Identifiant: 
Mot de passe : 

Mot de passe oublié ?
Détails d'identification oubliés ?

Journée Extraction de preuves multimédia: détection de manipulations - identification et authentification de contenus ou de personnes

Nous vous rappelons que, afin de garantir l'accès de tous les inscrits aux salles de réunion, l'inscription aux réunions est gratuite mais obligatoire.

Inscriptions closes à cette réunion.

Inscriptions

10 personnes membres du GdR ISIS, et 20 personnes non membres du GdR, sont inscrits à cette réunion.
Capacité de la salle : 50 personnes.

Annonce

Salle G6-1
Paris Tech Télécom, 46, rue Barrault, 75634 Paris Cedex 13

Orateur invité :

Matthias Kirchner, Reseacher on Multimedia Forensics, IT Security Research Group, Munster University, Germany

Objectif :

Les méthodes de traitement du signal et des images sont utilisées aujourd'hui pour détecter la manipulations des images, pour identifier le capteur qui les a généré, ou encore pour attester de leur authenticité. L'objectif de cette journée est d'effectuer un panorama des compétences Françaises sur le domaine de l'extraction de preuves multimédia (Multimedia Forensics) ou de la biométrie.

Divers types de méthodes pourront être présentées:

Contacts :

Patrick Bas, CNRS Lagis, Lille [patrick.bas@ec-lille.fr] 
et William Puech, ICAR/LIRMM, Montpellier [william.puech@lirmm.fr]

Programme

Salle G6-1
Paris Tech Télécom, 46, rue Barrault, 75634 Paris Cedex 13

10:00 11:00
Matthias Kirchner (Orateur invité) :
I know what you did in your last Photoshop Session: An Introduction to Digital Image Forensics

11:00 11:30
T.H. Thai, R. Cogranne et F. Retraint :
Identification à partir d'une photographie numérique du modèle d'appareil utilisé

11:30 12:00
W. Fan. K. Wang, F. Cayre et Z. Xiong :
JPEG Anti-Forensics Using Non-parametric DCT Quantization Noise Estimation and Natural Image Statistics

12:00 12:30
V. Némesin et S. Derrode :
Biométrie temps-réel de l’iris par asservissement sur des flux vidéo

12:30 14:00
REPAS

14:00 14:30
Olivier Huynh et Bogdan Stanciulescu :
Reconnaissance de personnes par l’utilisation de leur silhouette

14:30 15:00 :
Iu. Tkachenko, W. Puech, O. Strauss, J.-M. Gaudin, C. Destruel, C. Guichard :
Use of Textured Image for Fight Against Forged Documents - Comparison Between the Use of Original Patterns and Modelled Patterns

15:00 15:30
Anh Thu Phan Ho, Bao An Mai Hoang, Wadih Sawaya and Patrick Bas :
Document Authentication Using Graphical Codes: A statistical Analysis

15:30 16:00
Amine NAIT-ALI :
Vers l'identification des personnes par biométrie cachée

16:00 16:30
M. Hasnaoui, M. Mitrea:
Vérification d’intégrité du flux MPEG-4 AVC pour des applications de vidéosurveillance

Résumés des contributions

I know what you did in your last Photoshop Session: An Introduction to Digital Image Forensics

Matthias Kirchner, Reseacher on Multimedia Forensics, IT Security Research Group, Munster University, Germany

While digital images nowadays enrich and affect our everyday lives in innumerable ways, critics have also expressed concerns that it has never been so easy to manipulate image data. This discrepancy calls for techniques to systematically assess the trustworthiness of digital images. Digital image forensics aims to restore some of the lost trust by developing tools to unveil traces of image manipulations and to infer details about the provenance of digital images. Backed with many practical examples, the talk introduces the basic concepts of this still young research field at the intersection of information security, computer forensics, and image processing.

Identification à partir d'une photographie numérique du modèle d'appareil utilisé

T.H. Thai, R. Cogranne et F. Retraint (UTT Troyes).

Le but de cet exposé est de présenter un test statistique pour identifier l'appareil photographique à l'origine d'une photographie non-compressée. Le test statistique proposé est basé sur un modèle de bruit hétéroscédastique propre aux images naturelles. Ce modèle de bruit est caractérisé par deux paramètres qui sont considérés dans ces travaux comme une empreinte unique permettant d'identifier le modèle de l’appareil d’acquisition. La théorie des tests d’hypothèses statistiques est particulièrement pertinente dans le contexte de ces travaux car les propriétés du test proposé doivent être connues. En effet, il peut être demandé la garantie d'une probabilité maximale de fausse-alarme ou de non-détection.

Dans cet exposé, le test optimal du rapport de vraisemblance est d'abord présenté dans le contexte idéal où tous les paramètres du modèle de bruit sont parfaitement connus. Les propriétés statistiques de ce test sont ensuite analytiquement établies et servent de borne supérieure de la puissance qui peut être attendue de tout autre test.

En pratique, l'ensemble des paramètres décrivant une image ne peuvent être connus et en particulier l'espérance des pixels composant une image. Dans ce contexte plus réaliste, deux tests statistiques sont proposés.  Le premier considère le problème d'identification entre deux modèles d'appareils photographiques connus. Il s'agit de décider si une image provient d'un modèle d'appareil M0 ou bien d'un autre modèle M1. Les paramètres caractérisant le bruit hétéroscédastique sont donc supposés connus et les hypothèses  statistiques testées sont alors simples. Le second test proposé aborde le problème d'identification lorsque seulement un modèle d'appareil photographique est connu, c'est à dire lorsque l'on souhaite déterminer si une image provient d'un modèle d'appareil M0 ou bien d'un modèle différent inconnu. Dans ce second cas, les hypothèses statistiques sont composites.

Les résultats numériques montrent qu'en exploitant seulement quelques centaines de pixels des images numériques, les tests proposés obtiennent des performances excellentes : une probabilité de faux-négatif inférieure à 0.1 peut être obtenue avec une probabilité de faux-positif inférieure à 10-3. Plus important, il est également montré que les propriétés statistiques des tests théoriquement établies sont presque exactement vérifiées en pratique. Cela permet d'assurer le respect d'une probabilité d'erreur prescrite (fausse-alarme notamment) et ouvre la voie à l'utilisation de ce type de méthode dans un contexte d'extraction de preuves.

Enfin, les résultats présentés dans cet exposé montrent également que les tests statistiques se comparent favorablement avec l'état de l'art en matière d'identification de la source d'une image numérique. De futurs travaux sont menés en ce moment pour élargir l'approche proposée dans les deux directions suivantes 1) identification du modèle d'appareil photographique à partir d’une image compressée au format JPEG et à partir d'un modèle statistique précis de la distribution des coefficients DCT, et 2) détection de falsifications d'images et certification d'intégrité : l'objectif dans ce cas est d'identifier si des zones d'une même image proviennent de deux appareil distincts, ou de garantir que l'ensemble des zones d'une image sont conformes à un même modèle de bruit.

Références :

[1] T.H. Thai, R. Cogranne and F. Retraint “Camera Model Identification Based on the Heteroscedastic Noise Model”. Accepté pour publication dans IEEE Transactions on Image Processing (à paraître).
[2] T.H. Thai, R. Cogranne and F. Retraint “Camera Model Identification Based on Hypothesis Testing Theory”. European Signal Processing Conference (EUSIPCO-2012) , pp. 1747--1751, 27 - 31 August 2012.

JPEG Anti-Forensics Using Non-parametric DCT Quantization Noise Estimation and Natural Image Statistics

W. Fan. K. Wang, F. Cayre et Z.Xiong (Beihang University, Beijing, Gipsa-Lab, Grenoble)

La communauté considère, avec raison, que l'analyste en forensics va utiliser simultanément plusieurs détecteurs différents pour s'assurer de l'authenticité d'une image. Nous nous intéressons pour la première fois au problème consistant à se mettre dans la peau d'un adversaire qui va chercher à tromper tous ces détecteurs simultanément. Pour cela, nous prenons l'exemple des détecteurs cherchant à détecter si une image a été compressée avec l'algorithme JPEG. Ces détecteurs utilisent des caractéristiques différentes, tant spatiales que fréquentielles : estimation des artefacts dus aux effets de bloc, ou encore de ceux apparaissant dans l'histogramme des coefficients DCT. Nous montrerons que la construction d'une fonction d'objectif dédiée dans le cadre du Maximum A Posteriori avec un modèle d'image récent (Expected Patch Log Likelihood) permet à l'adversaire de mettre en défaut la stratégie de l'analyste.

Biométrie temps-réel de l’iris par asservissement sur des flux vidéo

V. Némesin et S. Derrode (École Centrale Marseille Institut Fresnel).

La biométrie de l'iris est considérée comme l'une des méthodes d’identification de personne les plus fiables étant donné la grande diversité et la stabilité au cours du temps de la texture d’un iris [1]. La plupart des systèmes existants imposent de fortes contraintes d'acquisition, ce qui limite leur utilisation pour les applications tout-public. Aussi, les travaux actuels cherchent à exploiter de manière optimale l’information provenant de multiples images du même œil, aussi bien lors de l’enrôlement que lors de la vérification.

Dans ce contexte, nous nous intéressons aux systèmes d’acquisition vidéo bas coûts (type Web-cam) et à l’exploitation optimale du flux d’images pour construire un iris-code de grande qualité malgré la faible résolution des images et aux flous de bougé et de focalisation inhérents au système d’acquisition [2]. Nous proposons de présenter un algorithme complet d’identification basé sur la fusion des iris-codes des images de bonne qualité sélectionnées à la volée. Outre l’iris-code, l’algorithme produit une carte de fragilité qui représente la confiance que l’on a en chaque bit de l’iris-code ; celle-ci est exploitée dans le calcul de la distance entre un inconnu et une base de modèles. Le traitement « temps-réel » (25 FPS) est atteint avec un PC classique grâce, d’une part, à la poursuite optimale de l’iris par un filtre de Kalman spécifique et, d’autre part, à la décomposition de la reconnaissance d'iris en tâches parallèles.

Nous présenterons les résultats d’une étude complète réalisée sur la base de données MBGC (http://www.nist.gov/itl/iad/ig/mbgc.cfm - 986 vidéos de 137 sujets) selon les critères des courbes ROC, de l'EER et du FRR à FAR=10-6. Nous avons atteint une EER de 0,2%, résultat meilleur que ceux publiés récemment [3].

[1] A. Jain, A. Ross, K. Nandakumar, Introduction to Biometrics, Springer, 2011.
[2] N. Kalka, J. Zuo, N. Schmid, B. Cukic, Estimating and fusing quality factors for iris biometric images, IEEE Trans. on Systems, Man and Cybernetics, Part A: Systems and Humans 40 (3) (2010) 509–524. doi:10.1109/TSMCA.2010.2041658.
[3] K. Hollingsworth, E. Ortiz, K. Bowyer, Improved iris recognition through fusion of Hamming distance and fragile bit distance, IEEE Trans. on Pattern Analysis and Machine Intelligence 33 (12) (2011) 2465–2476. doi:10.1109/TPAMI.2011.89.

Reconnaissance de personnes par l’utilisation de leur silhouette

Olivier Huynh, Bogdan Stanciulescu (CAOR, Departement Mathématiques et Systèmes, MINES ParisTech)
(1) Centre de Robotique – CAOR, Departement Mathématiques et Systèmes, MINES ParisTech Courriel : olivier.huynh@mines-paristech.fr

L’identification de personnes représente un point clé dans le domaine de la sécurité telle que la vidéo-surveillance. Le processus vise à reconnaître une personne dont la signature a été acquise auparavant. Dans le cadre de systèmes visuels à base de caméras, les images sont le plus souvent de moyenne, voire basse résolution. Les moyens biométriques standards tels que reconnaissance de visage sont par conséquent difficilement applicables. La démarche constitue une alternative intéressante mais nécessite l’acquisition de la personne sur une séquence d’images. La plupart des systèmes de ré-identification utilisent une signature englobant l’apparence entière de la personne et se rendent dépendants des habits.

Pour être invariants aux vêtements, nous proposons une méthode qui repose sur une nouvelle approche biométrique utilisant l’information issue de la silhouette du piéton. A l’instar des AAM (Active Appearance Models) utilisés entre autre pour le visage, la silhouette peut être décrite par un ensemble de points : PDM (Point Distribution Model). Afin d’aligner cette distribution de points à l’image courante, nous avons implémenté un modèle statistique d’apprentissage nommé Boosted Deformable Model. Sa convergence se fait en maximisant le score d’un classifieur de type boosting entraîné sur une base d’apprentissage.

Pour disposer d’un point d’initialisation dans notre étape d’alignement, notre système inclue l’implémentation d’un des détecteurs de piéton les plus efficaces de l’état de l’art : Integral Channel Features + FPDW. Ce détecteur de piéton permet de disposer d’une boîte englobante autour de la personne dans l’image et fonctionne en temps réel. Nous obtenons un résultat de 75% de rappel pour 80% de précision sur la base piétonne de l’INRIA.

Nos travaux s’orientent maintenant sur l’exploitation de la silhouette pour différencier telle personne d’une autre. Nous pensons utiliser la position spatiale des points les uns par rapport aux autres en générant une signature de type Shape Context. Cette signature, si elle s’avère suffisamment discriminante, devrait être invariante aux vêtements pour peu que ceux- ci ne déforment pas la silhouette.

De plus, la distribution de points nous permet d’établir des correspondances entre les différentes parties du corps humain et de les comparer deux à deux. Nous envisageons ainsi d’enrichir les techniques actuelles de ré-identification dépourvues d’information spatiale comme les signatures à base de points d’intérêt.

Use of Textured Image for Fight Against Forged Documents - Comparison Between the Use of Original Patterns and Modelled Patterns

Iu. Tkachenko, W. Puech, O. Strauss, J.-M. Gaudin, C. Destruel, C. Guichard (LIRMM Laboratory, Authentication Industries)
1 LIRMM Laboratory, UMR 5506, CNRS, University of Montpellier 2, Montpellier, France
2 Authentication Industries, CAP OMEGA, Rond-point Benjamin Franklin, Montpellier, France

Verification of document legitimacy is a current important problem. In this talk we propose to use a textured image containing a visual message, which can be used for identification of differences between printed legitimate document and printed fake document. The suggested textured image consists of specific patterns which should satisfy some conditions in order to give good recognition results after Print-and-Scan (P&S) process. The identification of a legitimate document is possible by making correlations between the patterns of the textured image with either the original patterns or modelled patterns (which model the P&S process).

Document Authentication Using Graphical Codes: A statistical Analysis

Anh Thu Phan Ho, Bao An Mai Hoang, Wadih Sawaya and Patrick Bas (CNRS Lagis, Telecom-Lille)

We propose to investigate the impact of the channel model for authentication systems based on codes that are corrupted by a physically unclonable noise such as the one emitted by a printing process. The core of such a system is the comparison for the receiver between an original binary code, an original corrupted code and a copy of the original code. This study highlights the fact that the probability of the type I and type II errors can be better approximated, by several orders of magnitude, computing Cramér-Chernoff bound instead of the Gaussian approximation. The practical computation of these error probability is also possible using Monte-Carlo simulations combined with importance sampling. By deriving the optimal test within a Neyman-Pearson setup, a first theoretical analysis shows that a thresholding of the code induces a loss of performance and a second one proposes to optimize the receiver's channel in order to maximize the authentication performances. This is possible when the opponent's channel is identical to the receiver's channel but also when the opponent's channel is different, leading this time to a min-max game between the two players. Finally we evaluate the impact of an uncertainty for the receiver on the opponent channel and we show that the authentication is still possible whenever the receiver can observe forged codes and uses them to estimate the parameters of the model.

Vers l'identification des personnes par biométrie cachée

Amine Nait-Ali (Université Paris-Est Créteil (UPEC), LISSI)

Dans son contexte spécifique, la biométrie consiste à extraire les caractéristiques physiques ou comportementales des personnes afin de les identifier ou de les authentifier. Selon les applications, de nombreuses modalités conventionnelles sont utilisées à des degrés de robustesse aux attaques, plus ou moins importantes.  Après une rapide présentation de ces modalités, on s'intéresse en particulier à l'introduction d'une nouvelle vision de la biométrie, appelée : biométrie cachée "Hidden biometrics". Le principe de la biométrie cachée consiste à exploiter les caractéristiques intrinsèques du corps humain à des fins d'identification. Particulièrement robustes aux attaques, la biométrie cachée nécessite la manipulation de données que l'on peut extraire à  partir de signaux ou d'images, habituellement utilisés dans le domaine médical.  Ainsi, nous aborderons dans cette présentation certaines approches utilisant, entre autres, le signal physiologique, les images à Résonnance Magnétique Nucléaire (RMN), ou les images à Rayon-X.

 

Vérification d’intégrité du flux MPEG-4 AVC pour des applications de vidéosurveillance

M. Hasnaoui, M. Mitrea, Institut Mines-Telcom ; Telcom SudParis ; UMR 8145

Notre étude vouée au tatouage semifragile pour la vérification d’intégrité du flux MPEG-4 AVC a eu lieu dans le cadre du projet ITE2 SPY (http://www.itea2-spy.org/). Un corpus hétérogène de 90 min de vidéos issues des systèmes de vidéosurveillance a été considéré durant l’évaluation expérimentale. 

Afin de pouvoir insérer la quantité d’information requise par les modes de prédiction Intra, l’étude présentée en [2, 3] défini le cadre théorique pour le tatouage multi-symbole à base de modulation d’index de quantification (m-QIM). La règle d’insertion QIM a été généralisée du cas binaire au cas multi symbole et la règle de détection optimale (minimisant la probabilité d’erreur à la détection en condition de bruit blanc, additif et gaussien) a été établie. L’avantage principal est l’augmentation de la quantité d’information insérée par un facteur de log2m tout en respectant les mêmes contraintes de robustesse et de transparence.

Le système de vérification d’intégrité que nous proposons considère donc les modes de prédiction Intra comme signature, la m-QIM comme méthode de tatouage et l’élimination de drift comme solution d’amélioration de la transparence. L’évaluation fonctionnelle montre une robuste face aux attaques de préservation de contenu (exprimée par une BER = 0.08 pour transcodage et bruit additif) et une possibilité de détecter et localiser les attaques de changement de contenu avec Precision = 0.92, Recall = 0.9 ; la précision spatio-temporelle est évaluée à 1/81 de la taille de l’image et respectivement à 9 s. La transparence est évaluée à 43 dB de PSNR, 0.98 de SC, 0.99 de NCC et 126 de DVQ.

[1]  M. Mitrea, M. Hasnaoui, “Semi-fragile watermarking between theory and practice”, Proceedins of the Romanian Academy, Series A, vol. 14, Special issue on Criptology Science, pp. 328-337, 2013.

[2]  M. Hasnaoui, M. Mitrea, “Multi-symbol video watermarking”, Singal Processing: Image Communication, in Press (http://dx.doi.org/10.1016/j.image.2013.07.007), 2013.

[3]  M. Hasnaoui, M. Mitrea, “Semi-fragile watermarking for video surveillance application”, Proceeding of EUSIPCO 2012, pp. 1782–1786, Bucharest, 2012.

[4] M. Hasnaoui, M. Mitrea, “Drift-free MPEG-4 AVC semi-fragile watermarking”, accepted for SPIE Electronic Imaging - Media Watermarking, Security, and Forensics, San Francisco, 2014.

Date : 2013-11-12

Lieu : Paris Tech Télécom, 46, rue Barrault, 75634 Paris Cedex 13


Thèmes scientifiques :
D - Télécommunications : compression, protection, transmission

Inscriptions closes à cette réunion.

Accéder au compte-rendu de cette réunion.

(c) GdR IASIS - CNRS - 2024.