Vous êtes ici : Réunions » Réunion

Identification

Identifiant: 
Mot de passe : 

Mot de passe oublié ?
Détails d'identification oubliés ?

Capteurs, données et Intelligence artificielle pour l'agriculture

Nous vous rappelons que, afin de garantir l'accès de tous les inscrits aux salles de réunion, l'inscription aux réunions est gratuite mais obligatoire.

Inscriptions closes à cette réunion.

Inscriptions

18 personnes membres du GdR ISIS, et 14 personnes non membres du GdR, sont inscrits à cette réunion.
Capacité de la salle : 100 personnes.

Annonce

L'agriculture moderne est confrontée à de nombreux défis, chacun d'entre eux exigeant des solutions innovantes et une vision stratégique. Par exemple, le changement climatique projette une incertitude sur les pratiques agricoles, d'où la nécessité d'adopter des approches résilientes et adaptables. Parallèlement, l'impact des activités agricoles sur l'environnement exige des pratiques durables qui atténuent les dommages tout en favorisant l'équilibre écologique à long terme. Face à ces préoccupations, la tâche primordiale reste de garantir un approvisionnement alimentaire abondant et nourrissant à une population mondiale croissante, sans compromettre la qualité ou la valeur nutritionnelle. Comme de nombreux domaines, l'agriculture, adoptant une approche pluridisciplinaire, cherche à mobiliser les nouvelles technologies et le numérique pour relever ces défis.

En effet, l'essor de l'agriculture numérique attire de plus en plus l'attention au sein de diverses communautés scientifiques, stimulé par la nécessité de relever de nombreux défis. Parmi ceux-ci figurent la surveillance des cultures, l'optimisation de la production et des ressources, l'automatisation et la robotisation, la gestion des exploitations, ... L'intégration des technologies numériques, telles que la télédétection, l'internet des objets, le traitement des signaux et des images, la modélisation, toutes associées à l'intelligence artificielle constitue une approche prometteuse pour l'agriculture moderne. L'objectif de cette journée est de favoriser les échanges et les discussions autour de ces approches innovantes.

Pour cette quatrième édition, nous invitons les chercheurs, les industriels et jeunes start-up et l'interprofession à présenter leurs travaux portant sur le traitement de données et l'intelligence artificielle dans le contexte agricole. Les personnes qui le souhaitent sont donc invitées à soumettre, aux membres organisateurs, une proposition pour présenter leurs travaux (une page maximum). La date limite pour l'envoi des résumés est le 30 mai 2024.

Présentation invitée

Frédéric Boudon, CIRAD, UMR AGAP.

Organisateurs

Adel Hafiane, PRISME, INSA Centre Val de Loire (adel.hafiane@insa-cvl.fr)
Christelle Gée, UMR 1347 Agroécologie, Institut Agro Dijon (christelle.gee@institut-agro.fr)
Raphaël Canals, PRISME, Université d'Orléans (raphael.canals@univ-orleans.fr)

Programme

Journée thématique GDR IASIS

Capteurs, données et Intelligence artificielle pour l'agriculture

Date : Vendredi 14 juin 2024

Lieu : CNRS Ile-de-France Villejuif. 7, rue Guy Môquet 94800 Villejuif

MATIN (9h30-12h15) : 5 PRÉSENTATIONS (20 min par présentation - 10min de questions)

9h30-9h45 : Introduction (Adel Hafiane & Christelle Gée)

9h45-10h15 : Présentation invitée, Characterizing flowering and production of an apple tree core-collection from Lidar and UAV imagery
Frederic Boudon

CIRAD, Phenomen team, UMR AGAP
Associated Researcher INRIA, Mosaic Team

10h15-10h45 : Réseaux de neurones sur graphes appliqués à la détection par imagerie de maladies multi-symptômes de la vigne
Auteurs : Jean-Pierre Da Costa (1,2), Malo Tardif(1), Marc Greven(2), Barna Keresztes(1,2), Aymeric Deshayes (1)
(1) Laboratoire IMS, CNRS UMR 5218
(2) Bordeaux Sciences Agro

10h45-11h15 : Gain de connaissances sur la variabilité intra-parcellaire spatiale et temporelle grâce à l'utilisation combinée des capteurs imageurs fixes et embarqués
Auteurs : Vu Hoang Ha Pham(1), Jean-Pierre Da Costa (1,2), Florian Rançon(1,2).
(1) Laboratoire IMS, CNRS UMR 5218
(2) Bordeaux Sciences Agro

11h15-11h45 : Segmentation sémantique d'images visibles en cultures associées

Auteurs : Zexing YAO(1), Mathias DUBOUX(1), Emmanuel DENIMAL(2), Christelle GEE(1)

(1) Agroécologie, INRAE, Institut Agro, Univ. Bourgogne Franche-Comté

(2) Institut Agro Dijon, direction scientifique, Cellule d'appui à la Recherche en Science des Données

11h45-12h15 : Leaf segmentation of seedlings using foundation models on RGB-Depth time lapse images
Auteurs : Mathis Cordier (1,2), Cindy Torres (2), Pejman, Rasti (1), David Rousseau (1)
(1) Université d'Angers
(2) Vilmorin - Mikado

Pause déjeuner 12h15-13h30

APRES-MIDI (13h45-15h45) : 5 PRÉSENTATIONS (20 min par présentation, 10min de questions)

13h45-14h15 : Classification de surfaces de sols agricoles à partir de MNT 2.5 D de résolution sub -millimétrique
Auteurs : Edwige Vannier, Richard Dusséaux
LATMOS/IPSL, UVSQ /Paris-Saclay

14h15-14h45 : L'identification des bandes spectrales discriminantes pour la détection de la flavescence dorée
Auteurs : Shurong Zhang, Alban Goupil, Eric Perrin, Valeriu Vrabie

Laboratoire CReSTIC, Université de ReimsChampagne Ardenne

14h45-15h15 : Federated Learning pour classification des maladies des cultures

Auteurs : Denis Mamba Kabala (1), Adel Hafiane (1), Laurent Bobelin (2), Raphaël Canals (1)

(1) Laboratoires PRISME, INSA CVL-Université d'Orléans

(2) Laboratoire LIFO, INSA CVL- Université d'Orléans

15h15-15h45 : YoloV5 et imagerie visible pour l'évaluation des besoins azotés dans les cultures associées

Auteurs : Mathias Duboux(1), Emmanuel Denimal(2), Zexing Yao(1) et Christelle Gée(1)

(1) Agroécologie, INRAE, Institut Agro, Univ. Bourgogne Franche-Comté

(2) Institut Agro Dijon, direction scientifique, Cellule d'appui à la Recherche en Science des Données

15h45-16h15 : Cocao beans moisture content prediction using machine learning model based on color image features

Auteurs : Joel E. AKO (1,2), Kidiyo KPALMA (1), Camille E. N'ZI (2)

(1) Univ Rennes, CNRS, INSA, IETR - UMR 6164, Rennes

(2) Institut National Polytechnique Félix Houphouët Boigny (INP-HB), Unité Mixte de Recherche et d'innovation (UMRI) en Science des Technologies d'Ingénieur (STI), Yamoussoukro, Côte d'Ivoire

Discussions et échanges 16h15-16h45

Résumés des contributions

9h45-10h15 : Présentation invitée
Characterizing flowering and production of an apple tree core-collection from Lidar and UAV imagery

Auteur : Frederic Boudon
CIRAD, Phenomen team, UMR AGAP
Associated Researcher INRIA, Mosaic Team

Assessing flowering and production intensity and timing in orchards is crucial for effective tree management, yield optimization and also to forecast adaptation of varieties in the context of climate change. Flowering and production are influenced by genetic and environmental factors. For now, the traditional methods to assess flowering intensity are based on visual observation and are tedious and qualitative. In this talk, I will first present a pipeline to assess production from Lidar scans using the RandLa-Net model. I will present how we use synthetic data to test and improve the robustness of the approach. I will then present an attempt to predict flowering from UAV imagery.

10h15-10h45 : Réseaux de neurones sur graphes appliqués à la détection par imagerie de maladies multi-symptômes de la vigne

Auteurs : Jean-Pierre Da Costa (1,2), Malo Tardif(1), Marc Greven(2), Barna Keresztes(1,2), Aymeric Deshayes (1)
(1) Laboratoire IMS, CNRS UMR 5218
(2) Bordeaux Sciences Agro

La vigne est une plante sujette à de très nombreuses maladies pouvant entraîner d'importantes pertes de rendement et la mort du pied de vigne infecté. Parmi ces maladies, certaines présentent des symptômes de nature différente, sur plusieurs organes de la même vigne. Leur diagnostic, réalisé en pratique par des experts, est d'autant plus complexe qu'elles présentent de nombreux facteurs confondants. Nos travaux se concentrent sur le développement de méthodologies pour l'acquisition, l'annotation et le traitement des données pour le diagnostic automatique de ces maladies multi-symptômes. Nous ciblons en particulier les jaunisses de la vigne telles que la Flavescence dorée (FD) ou le bois noir. Des acquisitions d'images RGB ont été réalisées directement dans les rangs de vigne pour construire un jeu de données couvrant cinq cépages différents et intégrant des symptômes de maladies confondantes. Trois méthodes de diagnostic automatique de ces maladies sont proposées et comparées. La première méthode (A), inspirée de l'état de l'art, utilise un classifieur basé sur un réseau neuronal convolutif appliqué aux images brutes. Les résultats montrent que cette méthode délivre de bons résultats sur les données contenant très peu de maladies confondantes. Un couple précision-rappel (p ; r) de (0,87 ; 0,84) est obtenu pour la classification des images de vignes affectées par la FD sur un ensemble de données contenant 16% d'images de maladies confondantes. Dans le but d'améliorer ces résultats, deux méthodes ont été développées, toutes deux comportant deux étapes : (1) la détection individuelle des symptômes à l'aide de réseaux neuronaux de détection et de segmentation ; (2) le diagnostic basé sur l'association des symptômes, soit à l'aide d'un classificateur de type Random Forest (méthode B), soit à l'aide d'un réseau neuronal sur graphe (méthode C). Les résultats (p,r) sur le même jeu de données sont de (0,86 ; 0,90) pour la méthode B et de (0,90 ; 0,96) pour la méthode C. Ces résultats démontrent une meilleure efficacité des méthodologies en deux étapes. Ils démontrent également la pertinence de l'imagerie RGB embarquée associée aux approches neuronales pour le diagnostic de ces maladies. Enfin, ces trois méthodes sont testées sur des acquisitions à l'échelle de parcelles entières afin d'établir leur validité dans des cas d'utilisation concrets. Les résultats mettent en évidence les avantages de l'approche par graphe, la contribution significative des vignes environnantes et des deux faces des vignes lors de leur diagnostic automatique et soulignent les défis de l'application réelle de ces méthodologies.

10h45-11h15 : Gain de connaissances sur la variabilité intra-parcellaire spatiale et temporelle grâce à l'utilisation combinée des capteurs imageurs fixes et embarqués
Auteurs : Vu Hoang Ha Pham(1), Jean-Pierre Da Costa (1,2), Florian Rançon(1,2).
(1) Laboratoire IMS, CNRS UMR 5218
(2) Bordeaux Sciences Agro

En agriculture de précision, il est important d'appréhender et de gérer la variabilité intra-parcellaire. Différents capteurs permettent de capter temporellement ou spatialement cette variabilité. C'est le cas de capteurs imageurs dont il est facile de tirer des informations sur l'évolution phénologique des cultures : des caméras fixes fournissent des séries temporelles complètes en quelques sites, des caméras embarquées produisent des cartographies de la parcelle entière à quelques dates seulement. Cette étude, conduite sur des données de simulation, a pour objectif général de discuter le gain de connaissance sur la variabilité spatio-temporelle d'une parcelle apportée par l'utilisation conjointe de ces deux types d'information. Nous présentons tout d'abord une méthode de génération de données simulant l'évolution de la surface foliaire en tout point d'une parcelle viticole ainsi que son double échantillonnage, spatial et temporel, permettant de simuler le processus d'acquisition de données par les deux types de capteurs d'intérêt. Nous proposons différentes approches fondées sur des méthodes d'interpolation spatiale ou spatio-temporelle qui tirent partie des deux sources d'information pour reconstruire l'évolution de notre variable sur la parcelle entière et sur l'ensemble de la saison. Une évaluation expérimentale met en évidence la meilleure performance de reconstruction obtenue par une méthode de krigeage spatio-temporel. Elle nous permet également de discuter du mode d'échantillonnage, montrant l'intérêt d'associer quelques séries temporelles ponctuelles à un petit nombre de cartographies spatiales, et donc de proposer une utilisation innovante des capteurs imageurs de proxidétection.

11h15-11h45 : Segmentation sémantique d'images visibles en cultures associées

Auteurs : Zexing YAO(1), Mathias DUBOUX(1), Emmanuel DENIMAL(2), Christelle GEE(1)

(1) Agroécologie, INRAE, Institut Agro, Univ. Bourgogne Franche-Comté

(2) Institut Agro Dijon, direction scientifique, Cellule d'appui à la Recherche en Science des Données

L'utilisation des techniques de Machine learning et d'intelligence artificielle (IA) pour promouvoir la gestion durable des systèmes de culture est au coeur de ce travail. L'objectif est de développer une approche innovante en combinant ces technologies numériques avec des capteurs simples utilisant l'imagerie visible pour surveiller l'évolution de l'état azoté de la céréale en cultures associées céréale/légumineuse. Cette approche repose sur une segmentation sémantique avec le modèle DeepLabV3+, une technique de Deep Learning. Actuellement les outils disponibles pour évaluer ces besoins sont des pinces ou chlorophylle-mètres (SPAD, n-Tester) qui reposent sur des mesures optiques, mesures indirectes de la teneur en azote des plantes. Ces mesures par contact avec les feuilles sont fastidieuses pour un suivi dynamique au champ. Cela a conduit à explorer l'approche par imagerie visible plus simple techniquement mais qui nécessite une segmentation de l'image pour identifier la culture afin d'évaluer son état azoté. Pour cette étude, nous utilisons les micro-parcelles de l'unité expérimentale de l'INRAE, en nous concentrant sur la culture du Triticale étudiée individuellement, ou en association avec une légumineuse, la féverole. Des images RGB seront acquises à l'aide de smartphones, à différents stades phénologiques de la céréale. La base de données est constituée de 948 photos. L'annotation de la base de données repose sur l'utilisation des modèles IA (Yolo 5 et SAM). Nous avons exploré un nouvel algorithme de segmentation sémantique appelé Deeplabv3+, basé sur l'architecture ResNet50. Le potentiel de cet algorithme à segmenter triticale/féverole est étudié à travers les métriques classiques (mIOU, DiCE). Par la suite, à partir de cette classification nous serons en mesure d'évaluer l'état azoté en comparant nos résultats issus des images avec des mesures de référence prises avec des chlorophylle-mètres (SPAD).

11h45-12h15 : Leaf segmentation of seedlings using foundation models on RGB-Depth time lapse images
Auteurs : Mathis Cordier (1,2), Cindy Torres (2), Pejman, Rasti (1), David Rousseau (1)
(1) Université d'Angers
(2) Vilmorin Mikado

RGB-Depth imaging is a structural imaging modality very common in plant imaging as it enables to capture both color reflectance and 3D surface. This is especially useful to analyze the shoot of the plants if the sole color contrast fails to disentangle easily the touching leaves [1]. In this communication, we consider RGB-Depth time lapse images of young plants (seedling) during their early stages of development [2,3,4]. We investigate individual leaf segmentation via zero-shot learning approaches with RGB-Depth and temporal information. This is obtained with foundation models based on segment or track anything models [5,6] and extends the recent results presented in [7].

[1] Chéné, Yann et al. "On the use of depth camera for 3D phenotyping of entire plants." Computers and Electronics in Agriculture (2012).

[2] Couasnet, Geoffroy, et al. "Growth Data An automatic solution for seedling growth analysis via RGB-Depth imaging sensors." SoftwareX 24 (2023): 101572.

[3] Garbouge, H., Rasti, P., & Rousseau, D. (2021). Enhancing the tracking of seedling growth using RGB-Depth fusion and deep learning. Sensors, 21(24), 8425.

[4] Cordier, M., Torres, C., Rasti, P., & Rousseau, D. (2023). On the Use of Circadian Cycles to Monitor Individual Young Plants. Remote Sensing, 15(11), 2704.

[5] Kirillov, Alexander, et al. "Segment anything." Proceedings of the IEEE/CVF International Conference on Computer Vision. 2023.

[6] Cheng, Yangming, et al. "Segment and track anything." arXiv preprint arXiv:2305.06558 (2023).

[7] Mathis Cordier et al. "Leaf segmentation of seedlings using foundation model on RGB-Depth images." ICCV Computer vision for plant phenotyping and agriculture workshop. 2023.

13h45-14h15 : Classification de surfaces de sols agricoles à partir de MNT 2.5 D de résolution sub -millimétrique
Auteurs : Edwige Vannier, Richard Dusséaux
LATMOS/IPSL, UVSQ /Paris-Saclay

Le sol est à l'interface de l'atmosphère et de l'hydrosphère. A ce titre, il joue un rôle clé dans le cycle de l'eau. L'état de la surface du sol sous-tend les interactions sol-eau telles que l'érosion, la déposition et l'infiltration. En retour, beaucoup de phénomènes interviennent à l'échelle du mètre carré et altèrent la morphologie de la surface. La paramétrisation de la rugosité de surface d'un sol reste un verrou scientifique à lever pour les études menées en géosciences comme pour la surveillance des sols par télédétection. La rugosité du sol est en effet perçue comme un facteur influant et/ou perturbant à modéliser et à cartographier. En science du sol, différents indices de rugosités ont été définis pour caractériser et classifier les surfaces de sols agricoles : la moyenne et l'écart-type des hauteurs, l'indice de chaîne, la tortuosité, les longueurs de corrélation dans la direction des sillons et la direction orthogonale aux sillons, la limite et l'étendue du semi-variogramme, la dimension fractale, l'analyse de l'ombre ou encore le paramètre Z_s ? A partir de modèles numériques de terrain (MNT) mesurés par laser-scanner en plein champ pour différentes pratiques agricoles, nous proposons d'estimer les paramètres usuels de mesure de dispersion et de forme, ainsi que des paramètres issus d'un modèle de la fonction d'autocorrélation bidimensionnelle et des meilleurs paramètres retenus en sciences du sol. Nous étudions la capacité de ces variables à différencier les pratiques agricoles par analyse de la variance et par classification supervisée et non supervisée.

14h15-14h45 : L'identification des bandes spectrales discriminantes pour la détection de la flavescence dorée
Auteurs : Shurong Zhang, Alban Goupil, Eric Perrin, Valeriu Vrabie

Laboratoire CReSTIC, Université de Reims Champagne Ardenne

La flavescence dorée, maladie grave et épidémique, est l'une des principales jaunisses de la vigne. Pour maîtriser son risque de propagation, il est essentiel de développer des outils de détection efficaces et robustes des jaunisses. Dans ce contexte, nous nous intéressons à la conception de méthodes de sélection de bandes spectrales discriminantes, à partir de spectres acquis par spectroscopie infrarouge, bandes qui se doivent être robustes par rapport aux facteurs exogènes (conditions climatiques, traitements phytosanitaires, etc.). L'objectif ultime est de spécifier des capteurs multispectraux adaptés à une prise de décision in situ. Les bandes spectrales peuvent donc avoir des largeurs variées et être en nombre plus ou moins important. Elles doivent permettre de distinguer les jaunisses des témoins, mais aussi d'autres maladies de la vigne (enroulement, esca) ou symptômes confondants (carences, etc.). Pour ce faire, nous avons développé et adapté plusieurs algorithmes de sélection de bandes supervisés, tels que MRMR (Maximization Relevance and Minimization Redundancy), le modèle hiérarchique ascendant, RFE (Recursive Feature Elimination) et SFFS (Sequential Feature Forward Selection). Ensuite, nous avons proposé des mécanismes permettant d'identifier les K bandes les plus fréquemment sélectionnées par ces algorithmes. Ces K bandes sont considérées comme discriminantes pour séparer la jaunisse par rapport aux autres classes confondantes et par rapport aux témoins. Nous avons appliqué ces outils sur des spectres NIR (de 400 à 1000 nm) acquis pendant 4 campagnes d'acquisition été réalisées entre 2020 à 2023 sur du Chardonay. Nous montrons la robustesse des résultats en prenant en compte l'hétérogénéité des facteurs exogènes, chaque année ayant sa spécificité.

14h45-15h15 : Federated Learning pour classification des maladies des cultures

Auteurs : Denis Mamba Kabala (1), Adel Hafiane (1), Laurent Bobelin (2), Raphaël Canals (1)

(1) Laboratoires PRISME, INSA CVL-Université d'Orléans

(2) Laboratoire LIFO, INSA CVL- Université d'Orléans

Les maladies des cultures sont des symptômes causés par des organismes pathogènes ou des conditions environnementales défavorables qui affectent la santé et la productivité des cultures. L'agriculture de précision, qui s'appuie sur les technologies modernes pour améliorer la productivité, a révolutionné la façon dont les agriculteurs gèrent leurs cultures. De nombreux systèmes ont été développés pour la détection et la classification automatique des maladies des cultures en utilisant le traitement d'images et les algorithmes d'apprentissage automatique. Cependant, l'approche centralisée de la collecte des données et de la formation des modèles présente plusieurs limites, notamment des problèmes de confidentialité et de sécurité des données pour les producteurs qui doivent divulguer leurs données privées, une disponibilité limitée des données pour la formation des modèles, des contraintes réglementaires sur la protection des données (RGPD), et des coûts de transfert prohibitifs dans un contexte d'explosion des volumes de données à traiter. Pour relever ces défis, Federated Learning apparaît comme une approche prometteuse. Il permet à plusieurs entités (producteurs) de collaborer ou de travailler ensemble pour former un modèle global plus robuste et plus efficace sans partager de données privées avec un serveur central, garantissant ainsi la confidentialité et la sécurité des données des participants au processus. Dans ce contexte, nous avons développé et étudié des modèles de réseaux neuronaux convolutifs (CNN) et ceux basés sur des mécanismes d'attention (en particulier Vision Transformers, ViT) en utilisant l'approche Federated Learning pour la classification des maladies des cultures. Les résultats obtenus mettent en évidence le potentiel de Federated Learning dans la classification des maladies des cultures, en particulier en ce qui concerne la sécurité des utilisateurs et l'application de la confidentialité des données sensibles.

15h15-15h45 : YoloV5 et imagerie visible pour l'évaluation des besoins azotés dans les cultures associées

Auteurs : Mathias Duboux(1), Emmanuel Denimal(2), Zexing Yao(1) et Christelle Gée(1)

(1) Agroécologie, INRAE, Institut Agro, Univ. Bourgogne Franche-Comté

(2) Institut Agro Dijon, direction scientifique, Cellule d'appui à la Recherche en Science des Données

En agriculture, la fertilisation azotée est essentielle pour le développement des plantes et pour optimiser les rendements. Mais, une surfertilisation azotée peut avoir un impact environnemental négatif. Il est donc essentiel de calculer avec précision l'apport en azote à fournir pour les cultures. La méthode APPI-N repose sur une observation régulière de l'état de nutrition azotée du couvert entre sortie hiver et floraison. L'état de nutrition azotée est évalué par l'INN (Indicateur de Nutrition Azotée) à l'aide de capteurs optiques portatifs de contact tels que les chlorophylle-mètres (SPAD, n-Tester). Cependant ces mesures sont fastidieuses et donc difficile à mettre en oeuvre pour un suivi régulier. Une alternative pour calculer ces apports est l'utilisation de l'imagerie visible et de l'indice de végétation Dark Green Color Index (DGCI) L'essor de l'agroécologie a contribué au retour des associations de culture et l'utilisation de l'imagerie visible et du DGCI peut être limitée dans des cultures en association qui nécessite de sélectionner la culture dans l'image. Cette étude porte sur l'association d'une céréale (Triticale) avec une légumineuse (Féverole), pour l'étude des besoins azotés de la céréale. L'utilisation d'un réseau de neurones (YOLOv5) permet de créer des modèles pour détecter les légumineuses dans l'image pour pouvoir ensuite les masquer. Il est toutefois nécessaire d'avoir un dataset fourni pour entraîner ces modèles. Les photographies ont été prises sur les micro-parcelles de l'unité expérimentale du domaine de l'INRAE à l'aide de cinq smartphones, pour quatre modalités de cultures différentes (triticale pur, féverole pur, triticale avec féverole en inter-rang et en mélange). Les images ont ensuite été annotées pour indiquer les localisations des féveroles et des triticales. Différentes tailles de réseaux ont été entraînés avec 2470 images et leurs performances sont évaluées à l'aide de métriques (mAP, precision et recall) pour caractériser la féverole. Puis la mesure de DGCI sera calculée sur la culture et comparée aux mesures de référence prises avec un chlorophylle-mètre.

15h45-16h15 : Cocao beans moisture content prediction using machine learning model based on color image features

Auteurs : Joel E. AKO (1,2), Kidiyo KPALMA (1), Camille E. N'ZI (2)

(1) Univ Rennes, CNRS, INSA, IETR - UMR 6164, Rennes

(2) Institut National Polytechnique Félix Houphouët Boigny (INP-HB), Unité Mixte de Recherche et d'innovation (UMRI) en Science des Technologies d'Ingénieur (STI), Yamoussoukro, Côte d'Ivoire

The moisture content of cocoa beans is an essential factor in their quality. Modeling it during drying is still problematic due to the wide variation in drying conditions and the wide variation in cocoa bean varieties. This article aims to investigate the possibility of modeling the moisture content of cocoa beans as a function of RGB images features of unshelled cocoa beans. The approach is to extract features, analyze them and then use the most relevant ones to study Machine Learning models. Features are extracted by calculating mean, standard deviation, energy, entropy, kurtosis and skewness of the components of the rgb (RGB normalized), HSV, L*a*b*, YCbCr color spaces without the brightness components. These features are extracted from 4 types of samples, namely 10, 30, 50 and 70 bean samples per image. Feature analysis using the F-test and RReliefF methods shows that the features based on the energy and entropy of the components rg, yb, Cr, Cb, a*, b* and h* are fairly relevant for predicting the water content of cocoa beans. However, they are highly correlated. The selected predictors allow the analysis of linear models, such as Ridge Regression (RR), PLS Regression (PLSR) and non-linear models, such as polynomial, Support Vector Regression (SVR) with rbf kernel, and Decision Trees Regression (DTR). Except RR and PLSR, the other models were preceded by a principal component analysis (PCA) to handle the collinearity problem. The non-linear models give good predictions for the training dataset, with coefficients of determination R2 ranging from 0.94 to 0.96 and RMSE from 3.85 to 4.81. However, there is a significant difference between these results and the predictions of the new datasets. RR and PLSR are stable models but with poor predictions. It is therefore possible to predict the moisture content of cocoa beans from the features of RGB images. However, the prediction of new data from the models designed is still problematic.

Date : 2024-06-14

Lieu : CNRS 7 rue Guy Môquet - 94800 - Villejuif


Thèmes scientifiques :

Inscriptions closes à cette réunion.

Accéder au compte-rendu de cette réunion.

(c) GdR IASIS - CNRS - 2024.