Nous vous rappelons que, afin de garantir l'accès de tous les inscrits aux salles de réunion, l'inscription aux réunions est gratuite mais obligatoire.
Inscriptions closes à cette réunion.
27 personnes membres du GdR ISIS, et 23 personnes non membres du GdR, sont inscrits à cette réunion.
Capacité de la salle : 50 personnes.
Le développement des technologies numériques, notamment autour de l'intelligence artificielle, est un enjeu important pour la préservation, la restauration, l'étude, la création, la compréhension et la valorisation d'objets patrimoniaux tels que les peintures, sculptures, documents anciens, reportages patrimoniaux, monuments ou paysages, dans les domaines artistique, culturel et environnemental. Réciproquement, les problèmes soulevés par ces domaines posent de nouveaux challenges à la communauté scientifique de la vision par ordinateur, du traitement de l'image et de l'apprentissage comme en témoignent l'augmentation des publications et la présence de sessions spéciales dans des conférences de référence de ces domaines.
Les travaux présentés pourront faire état des spécificités propres au patrimoine culturel et naturel (comme la rareté des données, leur évolution dans le temps ou leur fragilité par exemple). Les exposés explorant la multimodalité qui repose sur l'exploitation des modalités disponibles (texte, métadonnées, son, spatialisation, etc.) au service de l'image, sont également encouragés.
La journée est à privilégier en présentiel, avec une possibilité de visio-conférence (merci aux participants qui souhaiteraient y assister à distance de contacter les organisateurs). L'inscription est obligatoire, même à distance.
9h - 9h30 Accueil
9h30 - 10h15 Analyse robuste de grandes collections patrimoniales dans le cadre du projet NewsEye, Antoine Doucet
10h15-10h40 L'intelligence artificielle au service de la restauration de collections de livres anciens, Valérie Lee-Gouet, Camille Simon Chane, Michel Jordan
10h40 - 11h05 Reconnaissance des lieux symbolisés dans les cartes géographiques de l'époque moderne, Charles Sutty, Charlotte Berthier, Carmen Brando, Bertrand Duménieu
11h05 - 11h20 Pause
11h20 - 11h45 Une approche d'extraction des données structurées à partir des plans et registres du cadastre napoléonien, Assia Ahmed-Abdi, Solenn Tual, Nathalie Abadie, Joseph Chazalon, Bertrand Dumenieu, Julien Perret
11h45 - 12h10 Apprentissage auto-supervisé pour le regroupement de décorations de tessons de céramique, Yassine Nasser, Sylvie Treuillet, Matthieu Exbrayat, Sebastien Jesset
12h10 - 12h35 Études de coins automatiques. Pour mieux comprendre l'économie antique, Clément Cornet, Héloïse Aumaître, Romaric Besançon, Julien Olivier, Thomas Faucher, Hervé Le Borgne
12h35 - 13h00 De l'ordre dans le chaos. Analyse a contrario des points de fuite de Jan Van Eyck, Gilles Simon
13h00 - 14h15 Pause méridienne
14h15 - 15h00 Intelligences humaine, collective et artificielle dans le chantier scientifique Notre-Dame de Paris, Livio De Luca
15h00 - 15h25 Création d'un jeu de données pour la détection et la segmentation des phénomènes de dégradation de Notre-Dame de Paris, Laura Willot, Kévin Réby, Adeline Manuel, Valérie Gouet-Brunet, Dan Vodislav, Livio de Luca
15h25 - 15h50 Pour un accès plus inclusif aux tapisseries médiévales par la génération semi-automatique d'objets 3D, Marjorie Redon, Yvain Quéau, Abderrahim Elmoataz
15h50 - 16h05 Pause
16h05 - 16h30 Numérisation d'artefacts archéologiques complexes par photogrammétrie et intelligence artificielle : l'exemple du vase diatrète de Saint-Pierre-l'Estrier, Alexis Heloir, Nicolas Lissarague
16h30 - 16h55 Aikon: AI-Powered Platform for Visual Analysis in Digital Humanities, Ségolène Albouy, Jade Norindr, Mathieu Aubry
16h55 - 17h20 Archaeoscape: Bringing Aerial Laser Scanning Archaeology to the Deep Learning Era, Yohann Perron, Vladyslav Sydorov, Adam P. Wijker, Damian Evans, Christophe Pottier, Loic Landrieu
17h20 - 17h45 Nuages de points 3D pour la reconnaissance de motifs et la synthèse de nouvelles en vue en archéologie, Jean-Emmanuel Deschaud
17h45 Fin de journée
Antoine Doucet
L3I, La Rochelle Université
De nombreux documents ne peuvent être rendus accessibles à une analyse automatique que sous forme d'images numérisées. C'est notamment le cas de tout document historique ou manuscrit, mais aussi celui de nombreux documents numériques natifs, passés sous forme d'image pour diverses raisons (par exemple : conversion de fichier ou passage par l'analogue pour insérer une signature manuscrite, faire un envoi postal, etc.).
Pouvoir analyser le contenu textuel de tels documents numérisés requiert une phase de conversion depuis l'image capturée vers une représentation textuelle, dont une partie clé est la reconnaissance optique de caractères (OCR). Le texte qui en résulte est souvent imparfait, dans une mesure qui est notamment corrélée à la qualité du support initial (qui peut-être tâché, plié, vieilli, etc.) et à la qualité de l'image qui en a été prise.
Cette conférence invitée présentera de récentes avancées permettant d'analyser ce type de corpus de façon robuste au "bruit" visuel. Elle montrera par exemple comment nous avons pu dans le cadre du projet NewsEye créer l'état de l'art en reconnaissance et désambiguïsation cross-lingue des entités nommées (noms de lieux, mais aussi de personnes, et d'organisations) dans des corpus de presse ancienne rédigés en 4 langues entre 1850 et 1950, et ce malgré des corpus particulièrement dégradés. Ce type de résultat ouvre la voie à une indexation à un niveau sémantique avancé, ainsi qu'à une analyse à grande échelle, qui peut notamment s'affranchir des frontières linguistiques (donc, souvent, politiques).
Valérie Lee-Gouet (1), Camille Simon Chane (2), Michel Jordan (2)
(1) AGORA, CY Cergy Paris Université
(2) ETIS, UMR8051, CY Cergy Paris Université / ENSEA / CNRS
Les archives et les bibliothèques patrimoniales sont des lieux de conservation d'ouvrages à la fois fragiles, volumineux et nombreux. Ces ouvrages nécessitent, du fait de leur fragilité, une attention régulière en vue de leur réservation. Cependant, pour la plupart des bibliothèques, il est impossible de surveiller manuellement l'état de chaque ouvrage, c'est pourquoi nous nous intéressons, dans le cadre du projet de thèse de Valérie Lee-Gouet, aux possibilités offertes par l'intelligence artificielle et l'apprentissage automatique pour aider à cette tâche.
L'état sanitaire d'un ouvrage peut être évalué avec fiabilité par examen de l'état de sa reliure, aussi notre travail s'appuie sur les photographies des rayonnages de bibliothèques, sans nécessité de déplacer les ouvrages. Nous avons travaillé sur les reliures de registres du Parlement de Paris conservés aux Archives nationales à Paris (11 000 registres du XVIIIème siècle). Deux bases d'images de ces registres ont été constituées et partiellement annotées manuellement, afin d'identifier d'une part les cotes des registres, et d'autre part sept principales classes d'altérations visibles sur les reliures.
Dans un premier temps, nous segmentons par un réseau Mask R-CNN les images d'étagères afin de séparer chaque registre; nous créons ainsi des imagettes correspondant aux boîtes englobantes de chaque registre reconnu. Dans un deuxième temps, nous appliquons à chaque imagette un Vision Transformer (ViT) pré-entraîné sur ImageNet pour effectuer la classification des altérations sur chaque reliure.
En parallèle, une détection des étiquettes et la reconnaissance du texte permet de faire le lien entre une image de dos de reliure et la cote correspondante. Ainsi les résultats de classification peuvent être associés aux instances de la base de données des reliures et permettre une analyse quantitative de l'état de conservation d'une collection.
Nous présenterons dans cet exposé les résultats obtenus sur la base de données des Archives nationales ainsi que des perspectives d'extension pour des collections d'ouvrages moins homogènes.
Charles Sutty, Charlotte Berthier, Carmen Brando, Bertrand Duménieu
Centre de Recherches Historiques, École des Hautes Etudes en Sciences Sociales
La production de cartes en Europe occidentale a considérablement augmenté à partir du XVIe siècle. Les exemplaires conservés et numérisés constituent un corpus précieux, offrant une vue détaillée des transformations territoriales. Sources essentielles pour l'histoire spatiale, les cartes sont désormais au cœur des humanités numériques, utilisées pour en extraire des données géohistoriques (Varet-Vitu et al., 2020), les rendre recherchables (Hosseini et al., 2022), ou comme support de géolocalisation pour d'autres ressources (Tual et al., 2023).
Les cartes géographiques à petite & moyenne échelle de l'époque moderne utilisent des pictogrammes pour représenter les lieux. Leur détection systématique et transformation en données géographiques structurées est un enjeu pour les humanités numériques spatialisées. Sensiblement différentes des images naturelles, les cartes représentent des dés méthodologiques particuliers pour les approches de vision par ordinateur : nature de l'information visuelle, variabilité des légendes, densité de l'information ou encore l'absence de modèles et de jeux d'entraînement spécialisés. Cependant, les approches de détection par apprentissage profond actuelles permettent d'espérer un saut qualitatif majeur.Notre intervention portera sur les résultats de deux travaux de stage, dont les objectifs ont été (1) de mettre en place une chaîne de traitement pour (2) spécialiser et comparer trois modèles de détection sur la carte de Cassini (XVIIIe siècle), et (3) de produire le premier jeu de données ouvert de la totalité des lieux symbolisés de cette carte. L'expérimentation montre que YOLO produit les meilleurs résultats (mAP=0.18, F1=0.81) tout en étant moins coûteux à entraîner. Une exploration qualitative du modèle YOLO spécialisé permet de comprendre son comportement face à cette tâche. Enfin, nous présenterons les premières expérimentations pour généraliser ce modèle aux cartes géographiques de l'époque moderne, en utilisant des exemplaires numérisés de Gallica (BnF).
Assia Ahmed-Abdi (1), Solenn Tual (1), Nathalie Abadie (1), Joseph Chazalon (3), Bertrand Duménieu (2), Julien Perret (1)
(1) LASTIG, Université Gustave Eiffel, IGN-ENSG
(2) Centre de Recherches Historiques, Ecole des Hautes Etudes en Sciences Sociales
(3) LRE, EPITA
Le cadastre parcellaire a été institué en France par la loi du 15 septembre 1807. L'objectif de ce nouvel outil d'imposition est d'améliorer l'évaluation de la contribution foncière et de mieux répartir son prélèvement entre les citoyens. Ce cadastre, communément appelé cadastre napoléonien, comprend deux types de documents : des plans et des registres. Les plans parcellaires représentent les propriétés et non bâties d'une portion d'une commune. Chaque parcelle est associée à un numéro qui fait office d'identifiant. Les plans n'avaient pas vocation à être mis à jour après leur création. Les registres d'états de sections décrivent les parcelles matérialisées sur ces plans parcellaires au moment de leur production. Enfin, les matrices des propriétaires consignent les évolutions des parcelles (nature, évaluation) et les changements de propriétaires. Le lien entre les plans et les registres est effectué à l'aide des numéros de parcelles et des toponymes qui figurent dans les deux types de documents.
Cette présentation s'attache à décrire une approche d'extraction et de structuration des informations extrêmement riches décrites dans le cadastre napoléonien en tenant compte de son histoire et de ses spécificités. Plus précisément, il s'agit d' éclairer les choix techniques proposés pour ces tâches à la lumière de l'histoire du cadastre et des observations réalisées sur ce très vaste corpus archivistique. L'objectif final est la production d'un graphe de connaissances géohistorique permettant de suivre l'évolution de chaque parcelle à l'aide des informations contenues dans les plans et dans les registres cadastraux. Deux étapes de la chaîne de traitement seront particulièrement détaillées dans la présentation : la détection des textes sur les plans parcellaires et la stratégie d'extraction des informations structurées dans les registres cadastraux. La détection, la transcription et de liage des mots sont les trois étapes principales du traitement du texte inscrit sur les plans cadastraux. Leur automatisation est un sujet crucial pour traiter les milliers de plans qui sont conservés dans les services d'archives. Ces trois tâches ont fait l'objet d'une compétition organisée dans le cadre de la conférence ICDAR 2024. Un jeu de données d'entraînement a été produit à cette occasion à partir des plans cadastraux du département du Val-de-Marne. Des travaux récents concernant la détection du texte ont conduit à l'élaboration de différentes stratégies de fine-tuning du modèle de text spotting TESTR. Des données synthétiques ont été générées à partir du cadastre actuel. Leur intégration dans le processus de fine-tuning entraîne un gain de performances significatif du modèle et ouvre de nouvelles perspectives pour compléter le jeu de données de plans annotés. L'extraction d'informations dans les registres cadastraux est confrontée à un ensemble varié de problématiques comme la grande variabilité des écritures et des structures de pages, la présence d'abréviations en nombre, l'évolution du sens du contenu des colonnes ainsi que l'immensité du corpus à traiter (plusieurs dizaines de milliers de pages pour un seul département). Ces caractéristiques ont été prises en compte dans le choix du modèle de reconnaissance des écritures (Document Attention Network ou DAN), capable de transcrire le texte tout en conservant la structure tabulaire des pages. Le modèle d'annotation des pages de registres utilisées pour l'entraînement à été défini en cohérence avec l'ensemble de la chaîne de production du graphe de connaissances géohistorique.
Yassine Nasser (1), Sylvie Treuillet (1), Matthieu Exbrayat (2), Sébastien Jesset (3)
(1) Laboratoire PRISME, Université d'Orléans
(2) LIFO, Université d'Orléans
(3) Service Archéologique de la Ville d'Orléans
Les archéologues sont souvent confrontés à des difficultés pour associer les motifs en relief présents sur les tessons de céramique découverts lors des fouilles. Ces motifs jouent un rôle fondamental dans la compréhension des réseaux commerciaux de l'Antiquité et fournissent des informations précieuses sur les civilisations passées. La méthode classique repose sur l'estampage manuel des motifs suivi d'une analyse visuelle minutieuse pour vérifier si ces motifs proviennent du même outil, un processus non seulement long mais aussi fastidieux. Les avancées récentes en intelligence artificielle permettent de révolutionner des secteurs comme l'archéologie, où l'automatisation des processus de reconnaissance peut accélérer les découvertes tout en améliorant la précision des analyses.
Ce travail propose une méthode automatisée visant à assister les archéologues dans l'identification et la comparaison rapide et précise des motifs. La méthode suit plusieurs étapes successives, incluant d'abord un prétraitement qui calcule les courbures des tessons scannés en 3D, préservant ainsi l'information de profondeur dans les images 2D extraites. Ce prétraitement aborde également la question de la mise à l'échelle réelle des tessons et de l'augmentation de la base de données d'entraînement. Une fois les données traitées, un modèle de vision transformer est affiné pour extraire des représentations pertinentes de manière auto-supervisée. Enfin, une opération de regroupement de ces représentations est réalisée pour associer les tessons présentant des motifs similaires.
Clément Cornet (1), Héloïse Aumaître (2), Romaric Besançon (1), Julien Olivier (3), Thomas Faucher (2), Hervé Le Borgne (1)
(1) CEA List
(2) Centre d'Études Alexandrines (UAR 3134 CNRS/Ifao)
(3) Bibliothèque nationale de France et IRAMAT-CEB (UMR 5060, CNRS-Univ. d'Orléans)
L'analyse des coins de frappe est essentielle pour quantifier la production monétaire antique et comprendre les liens entre monnayage, politique et histoire. Ce processus, qui consiste à comparer minutieusement chaque paire de monnaies d'un corpus pour identifier celles frappées par les mêmes coins, est long et fastidieux, limitant la taille des corpus étudiables. Bien que quelques tentatives d'automatisation existent, aucune n'a été rigoureusement publiée et évaluée selon les standards de la vision par ordinateur. Nous proposons une approche entièrement automatisée, introduisant plusieurs innovations par rapport aux méthodes précédentes. Notre méthode repose sur une mise en correspondance rapide et robuste des descripteurs locaux, établie de manière automatique. L'élément central de notre approche est un algorithme de clustering innovant, utilisant une métrique intrinsèque - indépendante de toute connaissance préalable ou "vérité terrain" - pour optimiser ses hyper-paramètres clés. Nous avons validé notre approche sur deux corpus de pièces de monnaie grecques, fournissant à la fois une implémentation automatisée et une évaluation des lignes de base précédentes. Les résultats démontrent que notre méthode les surpasse de manière significative. Le code source associé à cette publication est disponible en accès libre (open source) à l'adresse suivante : https://cea-list-lasti.github.io/projects/studies/studies.html. La communauté numismatique peut ainsi l'utiliser pour ses propres recherches. Ce code correspond à la « méthode cœur » permettant de grouper les monnaies en fonction des coins ayant servi à les frapper. Nos travaux se poursuivent selon deux axes: (i)améliorer la robustesse de la méthode pour traiter des collections de monnaies présentant des défis supplémentaires (usure, photos de basse qualité, etc.) (ii) fournir des outils facilitant le traitement d'une chaîne complète d'étude de coins.
Ces travaux sont financés en partie par l'Agence Nationale de la Recherche dans le projet STUDIES (ANR-23-CE38-0014-02).
Gilles Simon
Université de Lorraine, LORIA UMR 7503, équipe TANGRAM
En histoire de l'art, il est généralement admis que le peintre flamand Jan Van Eyck (v. 1390- 1441) ignorait tout de la perspective. Ses peintures sont certes éblouissantes de réalisme, et la représentation de l'espace elle-même ne semble pas dénoter au regard des perspectives mathématiques rencontrées à la même époque à Florence, dans l'entourage de Brunelleschi. Pourtant, lorsque l'on prolonge les lignes de profondeur des Époux Arnolfini - beaucoup l'ont déjà fait - on ne les voit pas se rencontrer en un point unique, comme ce devrait être le cas si la perspective était correcte, mais en de multiples points de fuite, quatre positionnés en losange d'après E. Panofsky, plus de dix disposés de manière chaotique selon J. Elkins, le dernier historien de l'art à avoir tenté d'élucider, sans succès, le « système perspectif » de Jan van Eyck. Ce problème, qui consiste à rechercher des groupes de lignes dont la rencontre à l'intérieur d'une case d'une grille ne peut être le fruit du hasard, se prête particulièrement bien à l'analyse a contrario. Le principe de Helmholtz combiné à un critère de consistance point/segment probabiliste permet en effet de démontrer qu'en réalité, les lignes de profondeur des Époux Arnolfini se regroupent autour de quatre points de fuite équidistants, alignés le long d'un axe vertical légèrement incliné. Et l'on retrouve ce motif dans pratiquement toutes les œuvres du maître, ainsi que dans deux tableaux dont l'attribution à Jan Van Eyck faisait encore débat. Il est la conséquence de l'utilisation d'un dispositif optique, constitué d'un miroir mobile et d'un axe de visée à quatre œilletons, lui-même vertical et légèrement incliné. Cette invention, qui anticipe de plusieurs décennies la « machine à perspective » de Léonard de Vinci, ne manquera pas d'étonner : pourquoi plusieurs œilletons et pourquoi un axe incliné ? Plusieurs hypothèses sont envisagées, dont une s'avère de plus en plus plausible à mesure que les investigations se poursuivent.
Cette découverte résout une énigme séculaire de l'histoire de l'art ; au passage, elle atteste que la vision par ordinateur dite « classique » a encore de beaux jours devant elle.
Livio De Luca
CNRS, MAP (UPR 2002 CNRS)
La recherche sur le patrimoine culturel, située à l'intersection des objets matériels et des études multidisciplinaires, constitue une plateforme pour la production de savoirs collectifs. Le chantier scientifique Notre-Dame de Paris incarne cette dynamique en mobilisant diverses disciplines telles que l'archéologie, l'architecture, l'histoire, la physique, la chimie et l'informatique afin de construire et analyser un vaste corpus de données numériques. Cette approche va au-delà de la simple numérisation d'objets physiques, en explorant les interactions complexes entre les caractéristiques matérielles des objets et les connaissances produites par les chercheurs à travers leurs pratiques. Dans ce contexte, l'intelligence artificielle joue un rôle clé, notamment dans l'analyse d'images pour l'extraction d'informations géométrico-visuelles et la segmentation sémantique, ainsi que dans la structuration et l'enrichissement des vocabulaires scientifiques. Cette conférence présentera les travaux réalisés dans ce projet en matière de production d'un corpus de données sémantiquement enrichies et explorera les premières pistes de recherche en cours pour l'analyse de ces données sous l'angle des relations entre intelligences humaine, collective et artificielle.
Laura Willot (1,2,3), Kévin Réby (1), Adeline Manuel (1), Valérie Gouet-Brunet (2), Dan Vodislav (3), Livio de Luca (1)
(1) CNRS, MAP (UPR 2002 CNRS)
(2) LASTIG, Université Gustave Eiffel, IGN-ENSG
(3) ETIS, ENSEA, CNRS, CY Université
Après l'incendie qui a détruit la majeure partie du toit et des voûtes de la cathédrale Notre-Dame de Paris, de nombreux chercheurs, ingénieurs, historiens et scientifiques se sont réunis pour étudier la cathédrale afin d'aider au processus de restauration de la cathédrale. Dans le cadre de ce Chantier Scientifique, plusieurs méthodes numériques d'acquisition et de gestion de données hétérogènes ont été introduites. Parmi ces données, de nombreuses images ont été acquises puis enrichies au moyen d'annotations concernant notamment les phénomènes de dégradation. Dans un premier temps nous avons choisi de nous concentrer sur les dégradations de la pierre, élément crucial dans l'évaluation des dommages causés par l'incendie et de l'état de la cathédrale avant le début de la restauration.
Dans cette présentation, nous proposons de mettre en avant la première version d'un pipeline de création d'un jeu de données {images + annotations} qui permettra d'entraîner des modèles d'Intelligence Artificielle pour la détection et la segmentation automatique des altérations de la pierre au sein d'images acquises dans le cadre de la restauration de bâtiments du patrimoine culturel. Le pipeline que nous avons mis en place fait appel à des outils et données produits au sein du Groupe de Travail Données Numériques - l'un des 9 Groupes de Travail constituant le Chantier Scientifique - et réexploite ces résultats afin de produire un jeu de données respectant le standard COCO. Ce standard, dont l'utilisation s'est généralisée au sein des communautés de Machine Learning et Deep Learning, définit dans un fichier au format JSON les différents champs normalisés de description des images et des annotations.
Le pipeline proposé évoluera au fur et à mesure de l'intégration de nouvelles données et outils (autres phénomènes de dégradation, liens vers des éléments de thesauri, etc.) et permettra la création d'un jeu de données plus complet afin de fournir à nos experts et à nos chercheurs des outils fiables et interopérables.
Marjorie Redon, Yvain Quéau, Abderrahim Elmoataz
Normandie Université, UNICAEN, ENSICAEN, CNRS, GREYC, Caen
La question de l'accessibilité des œuvres muséales aux personnes aveugles et malvoyantes (PPIVs) est régulièrement soulevée par les associations et les musées. De par leur nature, certaines œuvres, telles que les tapisseries médiévales, ne peuvent être touchées et ne sont souvent pas accessibles via l'audio-description. De plus, la création manuelle de représentations tactiles est coûteuse et complexe, limitant leur disponibilité dans les musées. La Tapisserie de l'Apocalypse et la Tapis- serie de Bayeux sont deux exemples emblématiques. Ces deux œuvres d'art de grande envergure, mesurant 104 mètres sur 4,5 mètres pour la première et 70 mètres sur 50 cm pour la deuxième, sont devenues au fil du temps les objets de nombreuses études. Bien que le Château d'Angers propose des visites guidées adaptées aux personnes aveugles et malvoyantes, celles-ci restent limitées et nécessitent la participation de plusieurs personnes. Par ailleurs, le musée de la Tapisserie de Bayeux propose un espace de découverte tactile où seulement trois des 58 scènes peuvent être explorées.
Dans une volonté de rendre la perception des tapisseries médiévales, telles que celles de Bayeux et de l'Apocalypse, plus inclusive, ce travail propose une méthodologie innovante de création semi-automatique d'objets 3D à partir d'une simple photographie. En recourant à des outils d'intelligence artificielle, comme des algorithmes de segmentation "zero-shot" et des réseaux génératifs antagonistes (GANs), nous sommes en mesure de générer des bas-reliefs imprimés en 3D, rapidement et à moindre coût, permettant une exploration tactile des œuvres. Chaque élément constituant la scène est représenté à une hauteur distincte pour faciliter l'identification par le toucher, tout en reproduisant le micro-relief des broderies. Cette solution offre ainsi une meilleure autonomie dans l'appréciation de l'art, renforçant la satisfaction et la motivation des personnes aveugles et malvoyantes à découvrir ces trésors culturels.
Nicolas Lissarrague (1), Alexis Heloir (2)
(1) LARSH-Devisu, Université Polytechnique Hauts-de-France
(2) LAMIH, Université Polytechnique Hauts-de-France
En novembre 2022, l'INRAP demande à numériser le vase diatrète découvert en 2020 dans la nécropole paléochrétienne de Saint-Pierre-l'Estrier, près d'Autun. Objet exceptionnel par sa rareté, sa complexité et son état de conservation, il est aussi un défi pour les techniques de numérisation par lasergrammétrie ou photogrammétrie.
Nous souhaitons présenter les différentes étapes qui ont finalement permis de restituer une version numérique visuellement fidèle du matériau translucide (verre taillé) composant le vase ainsi que de ses propriétés volumiques (bulles d'air et fissures) :
La conclusion exposera les bénéfices et les inconvénients actuels de la numérisation par photogrammétrie et gaussian splatting, ainsi que des développements futurs qui seraient désirables pour l'étude et la conservation des objets patrimoniaux : conversion du gaussian splatting en modèle 3D, conversion des valeurs de radiance en matériau 3D, calculs sur des volumes de photos importants, exploitation pour la médiation muséographique.
Ségolène Albouy (1), Jade Norindr (2), Mathieu Aubry (1)
(1) LIGM, Ecole des Ponts, Univ Gustave Eiffel, CNRS, Marne-la-Vallée
(2) SYRTE, Observatoire de Paris-PSL, CNRS, Paris
In this presentation, we present Aikon, a modular platform designed to empower humanities scholars in leveraging artificial intelligence and computer vision methods for analyzing large-scale heritage collections. It offers a user-friendly web interface coupled with a powerful API for visualizing, extracting, and analyzing illustrations from historical documents. The platform spans the entire research workflow, from import and storage to analysis and visualization. At its core, Aikon allows researchers to describe their sources, import scans, request automatic processing, and manually refine results. Built on proven technologies and interoperable formats, including established standards such as IIIF, the platform's architecture supports a wide range of visual materials. Aikon's data model, centered around the concepts of Series, Witness, and Content, provides a flexible framework capable of describing diverse source materials while facilitating alignment across varied corpora. The platform's modular structure enables easy integration of additional functionalities, with current applications including illustration extraction, similarity search, and vectorization. Aikon is not tied to any predetermined analysis methods; all stages can be performed manually or automated, with specialized models customizable to specific datasets. This approach ensures adaptability to various research needs while maintaining reproducibility. By fostering interdisciplinary collaboration and sustainability across digital humanities projects, Aikon aims to assist researchers to explore corpora at an unprecedented scale, helping bridging the gap between advanced computational methods and the nuanced requirements of humanities research.
Yohann Perron (1,2), Vladyslav Sydorov (1), Adam P. Wijker (1), Damian Evans (1), Christophe Pottier (1), Loic Landrieu (2)
(1) École française d'Extrême-Orient (EFEO) - Université PSL
(2) LIGM, Ecole des Ponts, Univ Gustave Eiffel, CNRS, Marne-la-Vallée
Airborne Laser Scanning (ALS) technology has transformed modern archaeology by unveiling hidden landscapes beneath dense vegetation. However, the lack of expert-annotated, open-access resources has hindered the analysis of ALS data using advanced deep learning techniques. We address this limitation with Archaeoscape, a novel large-scale archaeological ALS dataset spanning 888 km² in Cambodia with 31141 annotated archaeological features from the Angkorian period. Archaeoscape is over four times larger than comparable datasets, and the first ALS archaeology resource with open-access data, annotations, and models. We benchmark several recent segmentation models to demonstrate the benefits of modern vision techniques for this problem and highlight the unique challenges of discovering subtle human-made structures under dense jungle canopies. By making Archaeoscape available in open access, we hope to bridge the gap between traditional archaeology and modern computer vision methods.
Jean-Emmanuel Deschaud
Centre de Robotique de Mines Paris
Cette présentation sera décomposée en deux partie avec une première partie sur des travaux de comparaison de motifs sur des nuages de points 3D et l'application sur des monnaies et objets celtiques (travaux d'une thèse de 2019 à 2022 financée par l'Université PSL, collaboration entre le Centre de Robotique de Mines Paris et le laboratoire AOROC en Archéologie & Philologie d'Orient et d'Occident de l'ENS). Dans une deuxième partie, nous présenterons des travaux en cours sur le rendu différentiable physico-réaliste de nuages de points pour une visualisation interactive d'environnements réels et l'application au patrimoine culturel pour l'étude d'objets archéologiques et la visite virtuelle de monuments (thèse financée par Mines Paris de 2022 à 2025).
Date : 2024-10-03
Lieu : Géoroom (IGN / 8 Av. Pasteur, 94160 Saint-Mandé / métro ligne 1)
Thèmes scientifiques :
Inscriptions closes à cette réunion.
Accéder au compte-rendu de cette réunion.
(c) GdR IASIS - CNRS - 2024.