Vous êtes ici : Réunions » Réunion

Identification

Identifiant: 
Mot de passe : 

Mot de passe oublié ?
Détails d'identification oubliés ?

Signal/image & Intelligence artificielle pour agriculture numérique

Nous vous rappelons que, afin de garantir l'accès de tous les inscrits aux salles de réunion, l'inscription aux réunions est gratuite mais obligatoire.

Inscriptions closes à cette réunion.

Inscriptions

15 personnes membres du GdR ISIS, et 25 personnes non membres du GdR, sont inscrits à cette réunion.
Capacité de la salle : 100 personnes.

Annonce

Titre : Signal/Image & Intelligence artificielle pour l'agriculture numérique
Lieu : CNRS Ile-de-France Villejuif. 7, rue Guy Môquet 94800 Villejuif. Bâtiment L, salle des conférences.
Date : 24 février 2023

Annonce

L'agriculture numérique suscite de plus en plus d'intérêt dans différentes communautés scientifiques, qui tentent de relever de nombreux défis tels que les systèmes agricoles efficaces, le suivi et la prévision des cultures, la durabilité, l'approvisionnement de la chaîne alimentaire, la gestion de l'eau, ... Les technologies numériques, telles que la télédétection, l'Internet des objets, le traitement du signal et des images, l'intelligence artificielle (IA), modélisation et prédiction, etc. sont des approches clés pour relever ces défis. En effet, les avancées dans les technologies des capteurs et le traitement des données ont ouvert de nouvelles perspectives pour l'agriculture numérique. Dans ce contexte, il existe un besoin croissant de développer de nouvelles méthodes de traitement et analyse automatique des données, notamment celles basées sur l'intelligence artificielle. L'objectif de cette journée est de fournir une occasion de discuter des concepts et techniques liés à l'utilisation de nouvelles approches et développements de l'IA pour les données agricoles.

Pour cette 3ieme édition, nous sollicitons les présentations et les contributions des chercheurs, industriels, ... qui ont entrepris des travaux sur tous les aspects de l'intelligence artificielle en général et de l'apprentissage automatique en particulier pour l'analyse et le traitement des données (signaux, images, ...) dans le contexte de l'agriculture.

Les personnes qui le souhaitent sont donc invitées à soumettre, aux membres organisateurs, une proposition pour présenter leurs travaux (une page maximum). La date limite pour l'envoi des résumés est le 10 février 2023.

Organisateurs :

Adel Hafiane, PRISME, INSA Centre Val de Loire (adel.hafiane@insa-cvl.fr)

Christelle Gée, UMR 1347 Agroécologie, AgroSup Dijon (christelle.gee@agrosupdijon.fr)

Raphaël Canals, PRISME, Université d'Orléans (raphael.canals@univ-orleans.fr)

Programme

Matin (9h30-12h15) : 5 présentations (20 min par présentation - 10min de questions)

9h30-9h45 : Introduction (Adel Hafiane & Christelle Gée)

9h45-10h15 : Détection automatique d'une maladie multi-symptômes de la vigne par Graph Neural Network. Malo Tardif (Laboratoire IMS Bordeaux)

10h15-10h45 : Fusion des images satellites et de données météorologiques pour la détection du mildiou dans les vignes. Maryam Ouhami, Adel Hafiane (Laboratoire PRISME Orléans-Bourges)

10h45-11h15 : Agricultural Satellite Time Series Classification with Deformable Prototypical Sequences. Elliot Vincent (École des Ponts LIGM, INRIA Paris)

11h15-11h45 : Pas d'agriculture de précision sans une gestion intelligente des données et des apprentissages. Anthony Gelibert et Camille Francon (Carbone bee)

11h45-12h15 : Prédictions conformes pour la classification de plantes et d'adventices sous conditions réelles. Paul Melki, Lionel Bombrun, Boubacar Diallo, Estelle Millet, Jérôme Dias, Jean-Pierre Da Costa (Laboratoire IMS Bordeaux, EXXACT Robotics)

Pause déjeuné 12h15-13h30

Après-midi (13h45-15h45) : 4 présentations (20min par présentation, 10min de questions)

13h45-14h15 : Vers une réduction du temps d'annotation en apprentissage supervisé pour l'imagerie des plantes. David Rousseau (Laboratoire LARIS Angers)

14h15-14h45 : Phénotypage avancé du lin fibre assisté par segmentation multi-classes. L. Bernigaud Samatan, B. de Solan, M. Sérouart1, S. Thomas, L. Florin1, G. Daubige (Arvalis, INRAe Avignon, UMT CAPTE Avignon)

14h45-15h15 : Systèmes d'acquisition d'images en proxidétection pour des applications agricoles : retour d'expérience. Barna Kereszte et Florian Rançon (Laboratoire IMS Bordeaux)

15h15-15h45 : Comptage de tetras lyre (Lyrurus tetrix) avec YOLOV3. Emmanuel Denimal, Ludovic Journaux (Institut Agro Dijon)

Discussions et échanges 15h45-16h15

Résumés des contributions

9h45-10h15 : Détection automatique d'une maladie multi-symptômes de la vigne par Graph Neural Network

Malo Tardif (Laboratoire IMS Bordeaux)

La Flavescence dorée (FD) est une maladie de la vigne, causée par le phytoplasme "Candidatus Phytoplasma vitis" lui-même transmis par une cicadelle. La FD entraîne des pertes de rendement importantes voire la mort des ceps si elle n'est pas traitée correctement. Actuellement, les principales méthodes de lutte sont les pulvérisations préventives d'insecticides, l'inspection des parcelles par des experts et le déracinement des vignes infectées. La FD peut être identifiée par 3 symptômes : la décoloration des feuilles, l'absence de lignification des rameaux et le flétrissement des baies. Des symptômes très similaires peuvent également être causés par d'autres maladies ou stress abiotiques, rendant cruciale l'expertise des professionnels. Malheureusement, ces experts n'ont pas la possibilité d'inspecter toutes les parcelles chaque année. Un outil d'aide à la prospection apparait alors indispensable afin de mieux contrôler cette maladie.

Depuis plusieurs années, des études en traitement d'images ont été menées afin d'automatiser ce processus. Cependant, ces études ne se basent que sur les symptômes foliaires, les plus visibles, afin de délivrer leur diagnostic. La méthode de diagnostic des experts repose, quant à elle, sur l'association des trois symptômes sur un même pied, afin de distinguer la FD de ses facteurs confondants. De plus, ces symptômes variant en intensité, couleur et forme, il est important de considérer plusieurs cépages afin de construire un modèle robuste. Partant de ce constat, nous avons choisi d'acquérir nos images en proxidétection, directement dans les rangs de vignes, afin d'avoir la meilleure vue possible des symptômes sur nos images. Des acquisitions en plein champ, accompagnées d'experts, ont été réalisées pendant 2 ans dans le but de construire un jeu d'mages le plus complet possible. Il couvre plus de 1400 images de vignes de 5 variétés différentes présentant des symptômes de FD ou de maladies confondantes.

Afin de délivrer le diagnostic le plus fiable possible, une approche en deux étapes a été développée. La première étape, celle de la détection des symptômes, est réalisée par deux algorithmes de deep learning. Le premier, un algorithme de segmentation (ResUnet), est utilisé pour détecter les grappes et rameaux symptomatiques. Le second, un algorithme de détection (YoloV4-tiny) est entrainé pour détecter les feuilles symptomatiques. La seconde étape du processus consiste à associer ces détections de la meilleure façon pour délivrer le diagnostic final.

La méthode actuellement développée représente ces détections sous la forme d'un graphe. Chaque symptôme détecté et alors représenté par un noeud au sein du graphe. Les noeuds sont ensuite reliés entre eux en fonction de leur distance. Enfin, ce graphe est classifié par un GNN (Graph Neural Network). L'étape de "pooling" du GNN (réduction de sa taille tout en préservant les informations importantes) s'avère cruciale dans la performance de classification. Plusieurs méthodes de pooling (SortPooling, DiffPool, MinCUT) ainsi que différentes versions des graphes (distance à laquelle les noeuds sont reliés, symptômes représentés par les noeuds, vecteurs portés par chaque noeud) ont été testées.

Cette méthode de diagnostic automatique de la FD est également étudiée dans le but de délivrer un diagnostic à l'échelle de la parcelle. Des acquisitions géo-référencées de tous les pieds d'une même parcelle ont été réalisées, permettant la construction d'un unique graphe représentant tous les symptômes détectés. Cette méthode, permettant de relier les symptômes détectés sur des pieds voisins ou sur les 2 faces d'un même pied, apparaît potentiellement plus robuste que la simple classification d'une image représentant l'unique face d'un pied.

10h15-10h45 : Fusion des images satellites et de données météorologiques pour la détection du mildiou dans les vignes

Maryam Ouhami, Adel Hafiane (Laboratoire PRISME Orléans-Bourges)

Les données météorologiques et de télédétection avec apprentissage profond peuvent jouer un rôle central dans la détection des maladies des cultures. Cependant, la combinaison de données hétérogènes telles que la météo et l'imagerie n'est pas bien couverte dans la littérature et reste une tâche difficile. Des développements récents dans les architectures basées sur le mécanisme d'attention, comme les transformateurs, ont montré la possibilité de fusionner des données provenant de différents domaines, tels que le texte et l'image. Dans ce contexte, nous proposons une nouvelle approche de fusion multimodale composée de trois codeurs de type transformateur pour intégrer des données hétérogènes. Le système proposé prend en entrée des données météorologiques quotidiennes d'une zone et des images satellites prises au-dessus de la même région par le satellite Sentinel 2 avec une fréquence de passage d'environ cinq jours. Par conséquent, nous avons abordé d'abord le problème de l'alignement temporel des images satellitaires avec les données météorologiques. La méthode proposée consiste à augmenter artificiellement la fréquence des images satellites en utilisant l'interpolation temporelle et les réseaux convolutifs combinés à des réseaux récurrents (ConvLSTM). Ensuite, une architecture de fusion multimodale combine les informations visuelles et météorologiques en utilisant un encodeur pour les images, un encodeur pour les séries temporelles météorologiques et un encodeur pour la fusion des deux modalités. Les expériences montrent la faisabilité de la méthode avec des résultats prometteurs pour l'identification des maladies comme le mildiou.

10h45-11h15 : Agricultural Satellite Time Series Classification with Deformable Prototypical Sequences

Elliot Vincent (École des Ponts LIGM, INRIA Paris)

Improvements in Earth observation with satellite images allow for sensed data of always higher temporal and spatial resolutions. Leveraging this data for agricultural monitoring will help address future environmental and economic challenges. Pixel-precise segmentation of crops using temporal data is currently explored with methods that either heavily rely on annotated data or that are engineered step by step to compensate the lack of supervision. In this work, we present a new unsupervised method for segmentation of Satellite Image Time Series (SITS). We introduce a prototype-based model for visual time series and show its ability to reconstruct a SITS using meaningful cluster centers that are invariant to spectral deformations and temporal shifts. We show results on par with supervised methods and set up the new state-of-the-art for unsupervised classification of agricultural time series on four recent SITS datasets.

11h15-11h45 : Pas d'agriculture de précision sans une gestion intelligente des données et des apprentissages

Anthony Gelibert et Camille Francon (Carbone bee)

Face à l'accroissement de la population, le développement d'une agriculture engagée dans une transition écologique devient urgent. Alors que la population mondiale approchera les 10 milliards d'habitants en 2050, la production céréalière devra passer de 2,7 à 3,5 milliards de tonnes par an, en seulement 30 ans, sans augmentation significative des terres cultivées [1].

Pour répondre à cette double contrainte, la « pulvérisation intelligente/localisée » (« smart/spot spraying »), l'application de la bonne dose de produits phytosanitaires au bon endroit et au bon moment, constitue, à court terme, l'une des meilleures solutions. Ainsi, plusieurs prototypes ou produits industriels ont vu le jour ces dernières années.

Cependant, en fonction des contextes agronomiques et opérationnels, la tâche s'avère rapidement très complexe [2] et les algorithmes triviaux de Vision par Ordinateur (« Computer Vision ») doivent laisser place à d'autres technologies. Actuellement, la littérature aborde ce problème à l'aide de réseaux de neurones artificiels profonds (« Deep Learning » [3, 4]) appliqués à des images (généralement dans le spectre visible ou infrarouge) acquises en amont des pulvérisateurs.

La mise en oeuvre de ces technologies dans l'agriculture présente toutefois d'importantes contraintes. Les données peuvent avoir une structure ou un contenu très « originales » [5] empêchant ainsi l'emploi des solutions logicielles « classiques ». La phase d'acquisition implique des protocoles couteux (cultures et adventices spécifiques, zone géographique, saison, météo, tracteurs, pulvérisateurs...) et irrigue des modèles aux contextes opérationnels très contraints [6]. Cela demande la mise en place d'un outillage spécifique, dédié, et seule une gestion « intelligente » de l'ensemble du processus d'apprentissage et d'exploitation des modèles permet d'atteindre les performances escomptées.

Cette contribution présente la stratégie de gestion des données, des entrainements et des modèles, mise en oeuvre au sein de la société Carbon Bee, afin de fiabiliser et pérenniser l'exploitation du Deep Learning en agriculture de précision.

Références :

[1] EXEL Industries. L'agriculture de précision en 2022 (2022). https://www.exel-industries.com/la griculture- de- precision- en- 2022
[2] Bossu. Segmentation d'images pour la localisation d'adventices : application à la réalisation d'un système de vision pour une pulvérisation spécifique en temps réel (2007). Thèse de doctorat.
[3] Chaire AgroTIC. Deep Learning et Agriculture ? Comprendre le potentiel et les défis à relever (2018). [4] Kamilaris et Prenafeta-Boldú. Deep learning in agriculture : A survey (2018). Computers and Electronics in Agriculture, vol. 147, pp. 70-90. https://doi.org/10.1016/j.compag.2018.02.016
[5] Germain. Système de détection d'une particularité hyperspectrale (2019). Brevet français 3 098 962.
[6] Germain et Gelibert. Herbicide reduction using Deep Learning based on hyperspectral sensing : fields results (2022). 5th SIMA AgriTech Day by Axema.

11h45-12h15 : Prédictions conformes pour la classification de plantes et d'adventices sous conditions réelles

Paul Melki, Lionel Bombrun, Boubacar Diallo, Estelle Millet, Jérôme Dias, Jean-Pierre Da Costa (Laboratoire IMS Bordeaux, EXXACT Robotics)

La robotique est devenue, dans les dernières années, un enjeu important de l'agriculture de précision, permettant une augmentation de l'efficacité, la fiabilité et la traçabilité de plusieurs tâches cruciales à l'écosystème agricole. Les méthodes de perception automatique constituent la fenêtre à travers laquelle les systèmes robotiques reçoivent les informations provenant du monde, pour ensuite les traiter et prendre des décisions automatiques et indépendantes de l'agriculteur. C'est ainsi que les méthodes d'apprentissage profond - deep learning - sont devenues les méthodes prédictives de choix pour traiter les entrées perceptives et aboutir à des décisions. Leurs prédictions sont généralement correctes dans certains contextes, mais ne sont ni facilement explicables, ni garanties statistiquement. Il est cependant nécessaire de pouvoir associer un degré de fiabilité aux prédictions fournies par les réseaux de neurones, surtout quand le système est conçu pour être déployé en autonomie dans la nature. Dans cet exposé, nous présentons en détails la méthode de prédictions conformes qui permet, sans imposition d'hypothèses sur la distribution des données, de produire des ensembles de prédiction garantissant la présence de la vraie classe à un niveau de confiance spécifié par l'utilisateur. Les résultats de son application pour la classification d'images d'adventices et plusieurs cultures prises sous conditions réelles fortement variées seront également présentés.

13h45-14h15 : Vers une réduction du temps d'annotation en apprentissage supervisé pour l'imagerie des plantes

David Rousseau (Laboratoire LARIS Angers)

Le domaine de la vision pour ordinateur appliqué à l'imagerie des plantes se prête bien aux méthodes d'apprentissage supervisé. D'une part, il est aisé de produire de grandes populations de plantes, d'autres parts de nombreux experts sont habitués à observer et quantifier l'état des végétaux. De plus, l'agriculture amène une diversité de questions en imagerie qui dépasse actuellement la capacité de travail de la communauté de traiteur d'images. Dans un contexte où les algorithmes sont largement partagés, la production des codes pour des algorithmes de l'état de l'art en vision est accessible à tous. Par exemple, ChatGPT peut produire seul des codes de réseaux de neurones correctement commentés. Par conséquent, le goulot d'étranglement pour le développement des solutions de vision devient l'annotation des images. Nous proposons un panorama des différentes méthodes numériques permettant de réduire le temps d'annotation et que nous avons adaptées récemment pour une variété de problèmes d'imagerie des plantes : data augmentation [1,2], modèles génératifs [2], apprentissage par transfert [3], simulation d'images [4,5]. Nous montrons et discutons les gains de temps apportés par ces méthodes en matières d'annotation.

Figure : Image de synthèse automatiquement annotée (gauche) servant à entraîner l'algorithme de détection appliqué sur les images de plantes réelles (droite).

Références :

[1] Douarre, C., Crispim-Junior, C. F., Gelibert, A., Tougne, L., & Rousseau, D. Novel data augmentation strategies to boost supervised segmentation of plant disease. Computers and electronics in agriculture, 2019.
[2] Sapoukhina, N., Samiei, S., Rasti, P., & Rousseau, D. Data augmentation from RGB to chlorophyll fluorescence imaging application to leaf segmentation of Arabidopsis thaliana from top view images. In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. (CVPR). (2019).
[3] Garbouge, H., Rasti, P., & Rousseau, D.. Deep learning-based detection of seedling development from indoor to outdoor. In Systems, Signals and Image Processing: 28th In- ternational Conference, IWSSIP 2021, Bratislava, Slovakia, June 2-4, 2021.
[4] Sapoukhina, N., Boureau, T., & Rousseau, D.Plant disease symptom segmentation in chlorophyll fluorescence imaging with a synthetic dataset. Frontiers in Plant Science, 2022.
[5] Turgut, K., Dutagaci, H., & Rousseau, D. RoseSegNet: An attention-based deep learning architecture for organ segmentation of plants. Biosystems Engineering, 2022

14h15-14h45 : Phénotypage avancé du lin fibre assisté par segmentation multi-classes

L. Bernigaud Samatan, B. de Solan, M. Sérouart1, S. Thomas, L. Florin1, G. Daubige (Arvalis, INRAe Avignon, UMT CAPTE Avignon)

Les méthodes d'apprentissage profond connaissent des développements importants pour l'analyse des données issues de capteurs numériques en agriculture en raison de leur capacité à extraire des informations d'intérêts agronomiques à partir de simples images RGB haute résolution. Parmi les applications possibles de ces méthodes, la segmentation sémantique permet d'attribuer à chaque pixel de l'image une ou plusieurs classes prédéfinies. C'est un outil puissant pour analyser le contenu de scènes agronomiques.

L'Institut technique agricole ARVALIS met en place depuis plusieurs années une stratégie de numérisation de ses activités de phénotypage des plantes. Cela passe par l'équipement des équipes en systèmes de phénotypage (drones, robots ou systèmes portables), ainsi que par le développement de chaînes de traitement complètes pour analyser les données acquises. Le projet Carnot Plant2Pro PHENOFLAX a pour objectif de développer un ensemble de modules de traitements des données de phénotypage fin de la culture de lin fibre au champ. Les principaux traits d'intérêt sont la fraction de couverture du sol par la culture, le taux de sénescence, l'apparition des fleurs puis des capsules, l'état de développement des tiges. Pour répondre aux besoins, nous avons entraîné un algorithme de segmentation multi-classes permettant de distinguer un ensemble de composantes d'intérêt : le lin végétatif (tiges et feuilles), les capsules, les fleurs, les adventices ainsi que le sol

Le modèle développé utilise une architecture de type - Visual Transformers - qui s'est révélée être la plus performante dans ce domaine, anciennement dominé par des architectures de type réseau de neurones convolutionnels. Le jeu de données d'entraînement est constitué de 1000 images obtenues par deux systèmes de proxidétection différents, LITERAL (acquisitions d'images RGB sans contrôle de l'éclairement), et PHENOMOBILE (caméras synchronisées avec flash) sur les essais en lin conduits en 2021 et 2022. Dans les deux cas, la résolution est de l'ordre de 0.5 mm.

Une spécificité des scènes de végétation lorsqu'on s'intéresse à des problématiques multi-classes est le déséquilibre des effectifs entre les classes dans le jeu d'apprentissage. Par exemple les fleurs et capsules de lin sont sous représentées par rapport au lin végétatif. L'utilisation d'une fonction de coût évaluant la performance globale conduit à ne prédire que les classes majoritairement représentées. Pour résoudre ce problème nous avons utilisé une fonction de coût spécifique à ce type d'apprentissage appelée Focal loss, permettant d'attribuer des poids évolutifs à chaque classe en fonction des erreurs du modèle.

Les performances de ce modèle spécifique ont été comparées à celles obtenues par un modèle de segmentation binaire sol/végétation, entraîné sur une large base de données d'apprentissage : le VegAnn dataset, Vegetation Annotation of a large multi-crop RGB Dataset acquired under diverse conditions for image segmentation, constitué de 3800 images avec leur masque d'annotation, disponible en accès libre (https://doi.org/10.5281/zenodo.7126653). Pour évaluer les différences nous nous sommes concentrés sur la différentiation végétation / sol des deux modèles. Pour le modèle lin, les classes fleurs, capsules et adventices ont été fusionnées dans la classe végétation. Les données utilisées pour la comparaison sont les annotations du jeu de test de la base de données lin multi-classes et les annotations, de lin uniquement, du jeu de test du modèle de segmentation binaire sol/végétation.

Les prédictions du modèle spécifique lin se sont révélés être de meilleure qualité que celles du modèle général sur les images de lin. Avec le modèle général nous obtenons un score IoU (Intersection sur Union) de 0.83 (0.93 de justesse) contre un score IoU de 0.87 (0.95 de justesse) pour le modèle spécifique au lin. Ce dernier permet donc une amélioration de l'estimation de certains traits comme le taux de couverture, via une segmentation plus fine végétation/sol mais également par la possibilité d'éliminer les pixels d'adventices. De plus il ouvre la voie au développement de traits spécifiques au lin tels que la fraction de couvertures de fleurs, la maturité des tiges et des capsules, variables nécessaires pour déterminer la date optimale d'arrachage du lin ou encore l'indice de ramification du lin. Il est intéressant de noter que certains de ces traits agronomiques remplacent des mesures existantes mais d'autres ne sont actuellement pas considérés car trop coûteux ou complexes à estimer avec des méthodes traditionnelles.

Dans le cadre de la réunion "Signal/image & Intelligence artificielle pour agriculture numérique" nous mettons l'accent sur le développement du modèle multi-classes mais il est important de préciser que pour l'obtention de traits agronomiques pertinent nous combinons un ensemble de méthodes de traitement du signal et d'apprentissage automatique (XGBoost, stéréovision, ...).

Ce cas d'usage illustre les transformations induites par l'adoption du numérique dans le domaine agricole et met en évidence quelques grandes tendances : (i) les performances des algorithmes de deep learning pour l'analyse d'images complexes ; (ii) La définition de nouveaux traits agronomiques permise par les techniques numériques ainsi que (iii) la spécialisation des méthodes de phénotypage pour une analyse plus détaillée des cultures.

14h45-15h15 : Systèmes d'acquisition d'images en proxidétection pour des applications agricoles : retour d'expérience

Barna Kereszte et Florian Rançon (Laboratoire IMS Bordeaux)

Dans un contexte de transition agricole allant vers des pratiques plus mesurées, la compréhension des dynamiques spatiales et temporelles au sein d'une parcelle est essentielle pour la prise de décision et la conduite des travaux. L'imagerie au champ apporte une solution prometteuse à de nombreux problèmes de conduite de la parcelle, allant de la cartographie des maladies au désherbage localisé. Dans le cas de nos travaux de recherche, nous avons fait le choix d'explorer les possibilités offertes par l'imagerie par proxidétection. Les caméras sont positionnées en face des plantes à une distance d'environ un mètre. Cette proximité permet d'obtenir des informations précises sur l'état de la plante, offrant une meilleure visibilité sur les organes individuels (feuilles, fruits) et sur les éventuels symptômes de maladies, plus difficiles à détecter par télédétection.

L'acquisition des données reste cependant le premier défi lorsque l'on parle d'imagerie agricole. La complexité du milieu naturel, la variabilité des plantes - tant au niveau temporel (développement végétatif) qu'au niveau spatial (hétérogénéités liées au sol) ainsi que les conditions de prise de vue (vibrations, chaleur, poussière, etc.) et l'intégration du capteur sur un vecteur sont autant de problèmes à surmonter. Dans cet exposé, nous présenterons deux systèmes d'acquisition pour la proxidétection au champ : un capteur mobile, embarquable sur les machines agricoles et un capteur fixe, surveillant le développement d'une plante individuelle. Ces capteurs sont le fruit de nos développements durant les 8 dernières années.

Le principe du capteur mobile est de générer une grande quantité d'images lors du passage d'un engin agricole, idéalement une photo par plante. Il se base sur une caméra couleur (RGB) avec une résolution d'environ 1 à 4 pixels/mm² selon la distance à la plante. Le système utilise un flash puissant pour assurer que les conditions d'illumination restent constantes sur toutes les images. L'illumination contrôlée permet de supprimer les zones d'ombre sur les plantes ainsi que d'éliminer le flou de mouvement causé par les vibrations du tracteur. Un fonctionnement automatisé, basé sur des données GNSS, simplifie l'intégration sur le vecteur d'acquisition.

Le capteur fixe est une caméra autonome à bas coût basé sur le concept d'internet des objets, utilisant une architecture Raspberry Pi Zero/Arduino. Ce capteur, une fois installé au champ, acquiert une photo journalière de la plante, ce qui permet de suivre son développement durant la saison végétative. Il utilise une caméra RGB + NIR et est capable d'extraire des informations sur les images puis de transmettre par un réseau sans fil LoRa les résultats vers une base de données en ligne.

15h15-15h45 : Comptage de tetras lyre (Lyrurus tetrix) avec YOLOV3

Emmanuel Denimal, Ludovic Journaux (Institut Agro Dijon)

Dans le cadre d'une collaboration entre l'institut Agro Dijon et le Parc naturel régional du Vercors, des travaux ont été menés pour évaluer les effectifs de Lyrurus tetrix sur des dizaines de milliers d'images. Les images sont obtenues à l'aide de pièges photographique placés à l'année sur différentes zones de leks. Ces images présentent, comme difficulté, une très large variabilité des conditions d'acquisition. Ces variations sont dues au cycle jour/nuit, à la météo, aux saisons, mais également à la distance et la taille des sujets. L'un des principaux défis est notamment de détecter de très petits objets (15×15 pixels) dans de très grandes images (8000×1500 pixels). Nous proposons ici une stratégie de traitement d'image associé à un réseau de type YOLOV3 qui ont permis de réaliser cette tâche automatiquement avec un mAP de 97%.

Date : 2023-02-24

Lieu : CNRS Ile-de-France Villejuif. 7, rue Guy Môquet 94800 Villejuif, Bâtiment L


Thèmes scientifiques :
T - Apprentissage pour l'analyse du signal et des images

Inscriptions closes à cette réunion.

Accéder au compte-rendu de cette réunion.

(c) GdR IASIS - CNRS - 2024.