Nous vous rappelons que, afin de garantir l'accès de tous les inscrits aux salles de réunion, l'inscription aux réunions est gratuite mais obligatoire.
Inscriptions closes à cette réunion.
27 personnes membres du GdR ISIS, et 70 personnes non membres du GdR, sont inscrits à cette réunion.
Capacité de la salle : 130 personnes.
Le secteur agricole doit faire face à de nombreux défis et à des changements structurels accentués par la démographie, le changement climatique, l'impact environnemental, les modes de consommation, la compétitivité, etc. Pour relever ces défis, le domaine agricole doit s'adapter et innover en s'appuyant sur les nouveaux moyens technologiques à disposition. Les technologies du numérique (la télédétection, les capteurs, l'internet des objets, le traitement du signal et des images, l'intelligence artificielle, la robotique, l'automatique, ...), se présentent comme un des leviers pour relever ces défis. Dans ce contexte, nous constatons, d'une part, un besoin croissant pour le traitement et l'analyse automatique des données issues de différents types de capteurs : signal, image, etc. D'autre part, les nouvelles méthodes, en particulier celles qui reposent sur des approches d'intelligence artificielle/apprentissage machine, associées aux progrès des calculateurs révolutionnent les domaines du numérique.
L'objectif de cette journée est de solliciter des présentations et des contributions de chercheurs, industriels, ... ayant entrepris des travaux innovants sur tous les aspects de l'intelligence artificielle de manière générale et l'apprentissage machine en particulier pour l'analyse et le traitement de données (signal, images,...) dans le contexte de l'agriculture.
Les personnes qui le souhaitent sont donc invitées à soumettre, aux membres organisateurs, une proposition pour présenter leurs travaux (une page maximum). La date limite pour l'envoi des résumés est le 15 Novembre 2020.
MATIN (8h30-10h30) : 4 PRÉSENTATIONS SCIENTIFIQUES (20 min/présentation)
8h30-8h50 : Introduction à la journée : l'intelligence artificielle en agriculture - Adel Hafiane & Christelle Gée
8h50-9h10 : Toward joint acquisition-annotation of images with egocentric devices for lower-cost machine learning application to apple detection - Salma Samiei (INRAe-LARIS, Angers)
9h10-9h30 : Apprentissage comprimé sur images hyperspectrales de feuilles de pommier atteintes de tavelure - Clément Douarre (LARIS-LIRIS, Lyon)
10 minutes de questions
9h40-10h00 : Application de la segmentation sémantique à la viticulture de précision - Lucas Mohimont (CReSTIC, Reims)
10h00-10h20 : VddNet: Réseau de détection des maladies de la vigne basé sur des images multispectrales et l'information de profondeur - Mohamed Kerkech (PRISME, Bourges)
10 minutes de questions -> Fin de matinée 10h30
APRES-MIDI (13h30-15h30) : 5 PRÉSENTATIONS SCIENTIFIQUES (20 min/présentation)
13h30- 13h50 : Real-Time Multispectral Image Processing and Registration on 3D Point Cloud for Vineyard Analysis-Thibault Clamens (ImVia, Creusot)
13h50-14h10 : Global Wheat Head Dataset : une démarche mutualisée pour automatiser le comptage d'épis de blé - Benoît de Solan (Arvalis, Paris)
14h10-14h30 : CRowNet: Deep Network for Crop Row Detection in UAV Images - M-Dian Bah (PRISME, Orléans)
10 minutes de questions
14h40-15h00 : Utilisation de techniques d'intelligence artificielle pour des opérations de détection et d'identification dans le domaine animalier - Bernard Benet (INRAE, Aubière)
15h00-15h20 : Analyse d'images pour le suivi d'animaux d'élevage - Mathieu Bonneau (INRAE, Guadeloupe)
10 minutes de questions -> Fin d'après-midi 15h30
Salma Samiei, Pejman Rasti, Paul Richard, Gilles Galopin, and David Rousseau.
In the era of machine learning-driven image processing, unequaled performances are accessible with advanced algorithms such as deep learning, which are highly used in computer vision for agriculture and plant phenotyping. The bottleneck is no more the design of algorithms but annotation of the images to be processed. When performed manually, this annotation can be very time consuming and therefore very costly. This time-consuming task is usually performed manually after the acquisition of images. we assess the value of various egocentric vision approaches to perform joint acquisition and automatic image annotation rather than the conventional two steps process of acquisition followed by manual annotation. This approach is illustrated with apple detection in challenging field conditions. We especially stress the interest in terms of time to use such eye-tracking devices on head-mounted systems to jointly perform image acquisition and automatic annotation with a gain of time higher than 10 by comparison with classical image acquisition followed by manual annotation.
Visual abstract of the article. Red dotted line is the conventional two steps of acquisition, and annotation process. We jointly perform image acquisition and image annotation using a head-mounted egocentric device, which simultaneously captures images and the gaze of the person who wears the device and takes benefit of these to annotate images automatically.
Clément Douarre, Carlos Crispim-Junior, Anthony Gelibert, Laure Tougne et David Rousseau
Les maladies affectant les plantes sont la plus grande cause de perte de production agronomique mondiale. A ce titre, que ce soit dans le cadre de supervision de cultivars en serres ou dans la gestion phytosanitaire d'un champ, le traitement automatique d'images a toute sa place dans la lutte contre les parasites et les champignons. Dans ce cadre, l'imagerie hors du domaine du visible apporte une grande valeur ajoutée à la détection de maladies car de nombreux symptômes d'infection sont invisibles à l'il humain [1]. En particulier, les capteurs hyperspectraux sont très utilisés car ils acquièrent des centaines de bandes spectrales contiguës et permettent ainsi la détection de symptômes de façon très fine et précoce [2]. Cependant, la plupart de ces capteurs, dits "à balayage", ont un temps d'acquisition long, parfois incompatibles avec certains impératifs agronomiques [3].
Nous nous intéressons à un capteur hyperspectral dit "instantané", le spectromètre imageur à tomodensitométrie (Computed Tomography Imaging Spectrometer en anglais) [4]. Ce spectromètre acquiert une version compressée du cube hyperspectral de la scène sous la forme d'une image. L'approche standard consiste à reconstruire par la suite le cube hyperspectral à partir de cette image par des algorithmes de problème inverse. Dans le travail présenté [5], nous étudions la possibilité de détection de maladie directement dans l'espace compressé du cube via un réseau de neurones, une approche dite d'apprentissage comprimé [6]. Nous montrons la valeur de cette approche en réalisant une classification binaire d'images de feuilles de pommier atteintes ou non de tavelure du pommier. Cette maladie cause l'apparition de taches sur les feuilles de l'arbre, dont le contraste est au plus fort dans des longueurs d'onde hors du domaine du visible.
Références :
[1] Lowe et al., Hyperspectral image analysis techniques for the detection and classi_cation of the early onset of plant disease and stress (Plant methods, 2017)
[2] Malhein et al., Hyperspectral imaging for small-scale analysis of symptoms caused by di_erent sugar beet diseases (Plant methods, 2012)
[3] Hagen et al., Review of snapshot spectral imaging technologies (Optical Engineering, 2013)
[4] Descour et al., CTIS : experimental calibration and reconstruction results (Applied Optics, 1995)
[5] Douarre et al., On the value of CTIS imagery for neural-network-based classi_cation : a simulation perspective (Applied Optics, 2020)
[6] Lohit et al., Direct inference on compressive measurements using CNNs (IEEE ICIP, 2016)
Lucas Mohimont, François Alin, Nathalie Gaveau, Marine Rondeau, Luiz Angelo Steffenel, Mathias Roesler
L'université de Reims et les laboratoires CReSTIC et RIBP sont impliqués dans la thématique de l'agriculture connectée via le projet Européen H2020 Artificiel Intelligence for Digitizing Industry (AI4DI). Ce projet a pour objectif de montrer la faisabilité de l'intégration des méthodes d'intelligence artificielle au sein des chaines de productions industrielles. Notre équipe et nos partenaires, la maison de Champagne Vranken-Pommery, STMicroelectronics, TechNext et le CEA, interviennent sur la partie agriculture connectée et en particulier sur la viticulture de précision pour la fabrication du champagne.
La qualité du champagne dépend en grande partie de la qualité des raisins. Il est donc important pour les viticulteurs de prendre les bonnes décisions au bon moment afin d'obtenir la meilleure récolte possible. Une première problématique est l'estimation des rendements des récoltes à venir. Cette estimation est nécessaire car les rendements sont limités par des normes afin de maintenir la qualité des produits. Elle est également nécessaire pour organiser correctement les vendanges (problème logistique : combien de vendangeurs ? combien de caisses ? combien de camions ? etc.). L'estimation est habituellement effectuée manuellement en comptant des grappes et des baies sur un petit échantillon aléatoire. La taille de l'échantillon est restreinte car le comptage et la pesée nécessitent le prélèvement des fruits. Une seconde problématique est la détection des maladies dans les parcelles et aux pressoirs. Les maladies ont un impact sur la qualité des raisins et peuvent causer des pertes importantes. La détection de ces maladies est laborieuse car une parcelle peut contenir des milliers de pieds de vigne. Il faut également s'assurer que les fruits malades ne sont pas mélangés aux fruits sains lors du pressurage. Ce tri est effectué manuellement après une inspection visuelle.
L'aspect visuel est un élément important dans ses différentes problématiques car il permet de détecter les symptômes des maladies et compter les fruits. Mais un travailleur humain ne peut pas inspecter rapidement des milliers de vignes. L'application de l'intelligence artificielle et des méthodes de traitement d'images pour résoudre ces problématiques est un sujet de recherche de plus en plus étudié ces dernières années. Un modèle de détection des maladies ou de comptage des fruits pourrait être appliqué sur des parcelles entières plutôt que sur un échantillon restreint. Ces méthodes permettraient donc un traitement non destructif et à grande échelle des vignes. Les méthodes de détection d'objet et de segmentation sont particulièrement pertinentes pour le comptage des grappes de raisin et la détection des symptômes des maladies de la vigne. Une approche classique consiste à extraire un ensemble de caractéristiques représentatives des images afin de réduire leur dimension. Ces caractéristiques sont ensuite utilisées pour entrainer un classifieur (comme les machines à vecteur de support par exemple). Cette approche peut donner de bons résultats et nécessite généralement peu de données. Elle est néanmoins sensible aux conditions d'éclairages et nécessite donc des conditions au moins partiellement contrôlée (lampe, flash, fond artificiel etc.). L'apprentissage profond est une alternative plus récente qui consiste à apprendre les caractéristiques appropriées et le classifieur en même temps à partir des données.
L'apprentissage est « profond » car il s'agit d'entrainer des réseaux de neurones artificiels dotés de plusieurs couches de traitements successives. L'apprentissage profond a obtenu beaucoup de succès dans des tâches d'analyses d'images très différentes (classification, segmentation, détection d'objets, génération d'images artificielles etc.).
Dans le cadre du projet AI4DI, nous avons choisi de développer des méthodes de segmentation sémantique pour résoudre les différentes problématiques liées à la viticulture. La segmentation sémantique consiste à attribuer à chaque pixel une catégorie représentant un objet (exemple : grappe de raisin, feuilles etc.). L'apprentissage profond permet de réaliser cette segmentation sémantique sur des scènes complexes et en conditions naturelles. Cette présentation abordera plus en détails les problématiques (complexités des images à traiter), les méthodes (traitement des images, modèle choisi), les premiers résultats ainsi que les développements futurs.
Auteurs : M. Kerkeche, A. Hafiane, R. Canals
Les pathologies de la vigne génèrent plusieurs problèmes économiques et environnementaux, entraînant de graves difficultés pour l'activité viticole. La détection précoce des maladies de la vigne peut améliorer considérablement le contrôle des maladies de la vigne et éviter la propagation de virus ou de champignons. Actuellement, les technologies de télédétection et d'intelligence artificielle font leur apparition dans le domaine de l'agriculture de précision. Ils offrent un potentiel intéressant pour la gestion des maladies des cultures. Cependant, malgré les progrès de ces technologies, en particulier l'apprentissage profond, de nombreux problèmes présentent encore des défis considérables, comme la segmentation sémantique des images pour la cartographie des maladies. Ici nous présenterons une nouvelle architecture d'apprentissage profond appelée VddNet (Vine Disease Détection Network). L'architecture est basé sur trois auto-encodeurs parallèles intégrant différentes informations (c'est- à-dire visible, infrarouge et information de profondeur). Suivi par un décodeur qui reconstruit et récupère les caractéristiques et attribue une classe à chaque pixel de sortie. Sera aussi présentée, une nouvelle méthode de recalage des orthophotos pour aligner les trois types d'images et permettre le traitement par l'architecture VddNet. Du point de vue expérimentation, l'architecture proposée a été évaluée en la comparant aux architectures les plus connues comme : SegNet, U-Net, DeepLabv3 + et PSPNet. Les architectures d'apprentissage profondes ont été formées sur des données multispectrales et des informations de carte de profondeur générées par des traitements photogrammétriques (3D). Les résultats de l'architecture proposée montrent qu'elle obtient des scores plus élevés que les architectures classiques. Le Figure 1 présente une vue globale de la méthodes proposée.
Thibault Clamens, Georgios Alexakis, Raphaël Duverne, Eric Fauvet, Ralph Seulin, David Fofi
Nowadays, precision agriculture and precision viticulture are under strong development. In order to accomplish effective actions, robots require robust perception of the culture and surrounding environment. Computer vision systems have to enable plant parts identification (branches, stems, leaves, flowers, fruits, and vegetables) and their respective health status. They also have to enable various plants information merging, to measure agronomic indicators, to classify them and to extract data to enable the agriculturist or expert to make a relevant decision. We propose a real-time method to acquire, process and register multispectral images to 3D. The sensors' system consisting of a multispectral camera and a Kinect V2 can be embedded on a ground robot or other terrestrial vehicles. Experiments conducted in the vineyard field demonstrate that it enables agronomic analysis.
Recent agricultural practices require to work as close as possible to the plant with specific actuators, carriers, and sensors. Robotics and new technologies can address some of the difficulties and provide assistance to agricultural workers. Robotics in agriculture necessitate to achieve more complex tasks by designing new instruments and new smart tools. In this contribution, we present a complete computer vision pipeline embedded on a mobile robot, that fuse geometric and radiometric information. We propose:
The data have been acquired in the vineyard. The code is available in open sources, and the database produced for the vines will be available for the community as soon as a full acquisition season can be made. This database would be use for further Artificial Intelligence modules. Analyses resulting from this 2D-3D merger are intended to help solve wine-growing problems such as:
B. de Solan, E. David, S. Madec, F. Baret, A. Comar, M. Weiss
Les techniques de phénotypage des cultures par capteurs de proxidétection connaissent depuis 15 ans environ un intérêt croissant. Ces développements ont été fortement accélérés par la perspective d'applications liées à la « phénomique ». On désigne ainsi l'établissement de liens entre l'information génétique et les caractéristiques morphologiques et fonctionnelles des variétés. Pour ce type d'application, la taille des essais (plusieurs milliers de parcelles aux stades initiaux du processus de sélection) oblige à automatiser l'acquisition des mesures. L'estimation de la densité d'épis de blé est emblématique du phénotypage traditionnel et de ses limites. Il s'agit d'un comptage visuel au champ réalisé sur une surface de l'ordre d'un m². C'est une mesure longue, fastidieuse et assez peu précise du fait de l'échantillonnage restreint. Cette densité est pourtant une composante importante du rendement final./p>
C'est pourquoi l'automatisation du comptage par analyse d'image a fait l'objet de nombreux travaux. Cependant, la diversité de l'objet « épi » selon le génotype ou le stade ainsi que la disposition complexe dans l'espace, avec des occlusions et intersections ne permettait pas d'obtenir des performances de détection suffisantes (Cointault et al., 2007). Les premières tentatives par deep learning sur quelques essais de taille limitée ont montré que la détection des épis dans une image prise au champ était réalisée de manière satisfaisante, moyennant un entraînement sur un jeu de données représentatif du domaine d'application (Madec et al., 2019)./p>
L'étape suivante a consisté à généraliser le modèle de détection des épis en augmentant la diversité du jeu d'apprentissage et en optimisant les procédures d'augmentation de données. Pour cela, le consortium Global WHEAT a été constitué avec des partenaires d'Europe, Asie, Amérique et Australie qui ont mutualisé leurs images de champs de blé. Le jeu de données commun contient 4700 images à l'intérieur desquelles plus de 185.000 épis individuels ont été annotés manuellement (David et al., 2020). Ce jeu de données a été proposé dans le cadre d'un data challenge hébergé par la plateforme Kaggle : le GlobalWheat Challenge, doté d'un prix de 15.000 $. Les 2235 participants ont été évalués sur les performances de leur modèle de détection. Les trois modèles les plus performants ont été implémentés, puis appliqués à des images indépendantes du jeu d'entraînement, acquises depuis 2016 par différents systèmes de phénotypages. Le passage de la détection dans l'image à une estimation de densité a été possible en intégrant la mesure de distance du capteur à la culture permise par ces systèmes, par LiDAR ou stéréovision. Une large comparaison a été réalisée en confrontant les résultats obtenus par analyse d'images avec ceux réalisés par comptages visuels au champ. Les RMSE sont de 60 épis/m² en comparant les résultats par parcelle, sachant que les zones échantillonnées diffèrent. Les comparaisons à l'échelle de la moyenne par modalité (2 à 3 répétitions selon les essais) présentent une RMSE de 35 épis/m², du même de grandeur que l'incertitude associée à la méthode visuelle./p>
Ce cas d'usage illustre les transformations induites par l'adoption du numérique dans le domaine agricole et met en évidence quelques grandes tendances : (i) démocratisation des outils d'acquisition de données au champ par capteurs embarqués sur robots, drones ou système portables ; (ii) performance des algorithmes de deep learning pour l'analyse d'images complexes ; (iii) importance de la mutualisation de données d'origines diverses. Il démontre aussi que les promesses du phénotypage haut débit sont enfin prêtes à se concrétiser. Le développement de l'estimation de nouveaux traits : comptage de plantes, quantification des maladies, compétition vis-à-vis des adventices etc. peut en effet suivre une démarche similaire. La qualité et la quantité des variables ainsi générées ouvrent la voie à des analyses d'une profondeur inédite, au service de l'amélioration génétique mais aussi du développement de nouveaux moyens de protection des plantes ou de la définition de systèmes de cultures innovants./p>
Références :
Cointault, Frédéric, and Pierre Gouton. "Texture or color analysis in agronomic images for wheat ear counting." 2007 Third International IEEE Conference on Signal-Image Technologies and Internet-Based System. IEEE, 2007.
David, E., Madec, S., Sadeghi-Tehran, P., Aasen, H., Zheng, B., Liu, S., ... & Pozniak, C. (2020). Global Wheat Head Detection (GWHD) dataset: a large and diverse dataset of high resolution RGB labelled images to develop and benchmark wheat head detection methods. arXiv preprint arXiv:2005.02162.
Madec, S., Jin, X., Lu, H., De Solan, B., Liu, S., Duyme, F., ... & Baret, F. (2019). Ear density estimation from high resolution RGB imagery using deep learning technique. Agricultural and forest meteorology, 264, 225-234.
Auteurs : M-D. Bah, A. Hafiane, R. Canals
De nos jours, le développement de robots et de tracteurs intelligents pour l'automatisation des semis, de la récolte, du désherbage, etc. transforme l'agriculture. Les agriculteurs passent d'une agriculture où tout est appliqué de manière uniforme à une agriculture beaucoup plus ciblée. Ce nouveau type d'agriculture est communément appelé agriculture de précision. Cependant, pour le guidage autonome de ces machines agricoles et même parfois pour la détection des mauvaises herbes, une détection précise des rangs de culture est nécessaire. Nous avons donc proposé une nouvelle méthode appelée CRowNet qui combine un modèle de CNN appelé S-SegNet basé sur le SegNet et une architecture de CNN basée sur la transformée de Hough (HoughCNet). La performance de la méthode proposée a été comparée quantitativement aux approches traditionnelles et elle a montré un meilleur résultat. De plus, le modèle entraîné sur un champ de culture donné est capable de détecter des rangées dans des images venant de champs différents.
Bernard BENET Anders MARELL Yves BOSCARDIN - Mathieu BONNEAU Laurianne CANARIO
Un logiciel de vision artificielle contenant des fonctions de traitement d'image et d'intelligence artificielle a été développé pour détecter des animaux sur des vidéos enregistrées par des pièges photographiques en milieux forestiers. Les scientifiques et les naturalistes utilisent le suivi par pièges photographiques pour inventorier et suivre les populations animales et la biodiversité de la faune sauvage. De nombreuses vidéos ont été analysées manuellement par des agents de l'INRAE, qui sauvegardent des informations telles que la parcelle forestière sur laquelle la détection animale est effectuée, la date de la vidéo, les plages temporelles de présence animale, l'espèce et la catégorie d'animal détecté, et leur comportement (fixe, mobile). Pour éviter cette tâche fastidieuse manuelle et permettre d'utiliser ce programme de surveillance de la biodiversité à grande échelle, un logiciel de vision qui comprend des opérations de traitement d'images et des méthodes d'intelligence artificielle (trois réseaux de neurones intégrés développés avec les outils Tensorflow, Pytorch et Caffe), a été développé pour détecter, compter et identifier les espèces animales et enregistrer diverses données auxiliaires, sur les vidéos, en prenant en compte des contraintes telles que les conditions d'éclairage très variables dans le sous-bois, les variations de couleur des objets naturels (arbres, herbes, animaux) et les mouvements d'herbe qui ajoutent du bruit aux images. Le logiciel développé permet également de détecter les animaux partiellement cachés par des objets naturels (arbres, herbes, ...).
Une méthode d'intelligence artificielle a été développée pour estimer la posture des truies, parmi quatre postures principales (debout, couché ventre, assis, allaitement) dans des fermes en milieu clos, dans le but de déterminer la durée de chaque posture, pour une truie donnée, au cours du temps, pour des opérations d'élevage de précision (qualité de l'élevage, réduction de la mortalité des porcelets, ). Un réseau de neurones a été créé, avec l'outil Tensorflow, pour obtenir un système de prédiction, en temps réel.
M. Bonneau, L. Canario, Y. Labrune, E. Ricard, B. Benet
Le comportement est un signal émis par l'animal et il revient à l'homme d'en interpréter correctement les multiples informations et leurs variations pour, par exemple percevoir des modifications de son état de santé, ou réaliser des analyses longitudinales, permettant des comparaisons intra et inter individus. Malheureusement, enregistrer le comportement des animaux en continu et sur du long terme, était encore récemment inenvisageable. L'accessibilité croissante des capteurs, comme les accéléromètres ou les cameras, conjuguée aux avancées en IA laisse penser qu'il sera bientôt possible d'acquérir des informations individuelles, fines et à grande échelle sur le comportement des animaux d'élevage. Néanmoins, même si les outils mathématiques pour l'analyse et l'acquisition de telles données sont sûrement déjà existants, des travaux seront nécessaires pour les adapter aux thématiques de l'élevage. C'est dans ce cadre de travail que nous avons exploré certains des outils disponibles en analyse d'images que nous avons testés et développés sur plusieurs espèces animales dans différents environnements.
Dans une première configuration, le but était d'estimer la posture d'une truie bloquée en cage de maternité. Pour estimer sa posture , nous avons comparé deux types de méthodes. En premier, nous avons utilisé une technique simple de segmentation d'images basée sur une méthode de seuillage. Nous avons dégagé de l'image segmentée 14 propriétés de formes sur l'animal, tels que son aire, son périmètre ou encore sa largeur pour prédire la posture de la truie à l'aide d'une méthode de classification par SVM. Dans un deuxième temps, nous avons utilisé une méthode basée sur les réseaux de neurones CNN, qui même si elle nécessite un important ensemble d'apprentissage comparé à la segmentation, est plus stable aux variations individuelles et environnementales. Nous avons testé différentes constructions d'ensemble d'apprentissage et l'accuracy moyenne était autour de 88% pour la segmentation et autour de 95% pour les CNN.
Dans la seconde configuration, il s'agissait d'étudier le comportement d'un cochon libre de ses mouvements dans un enclos individuel. Ici, en plus du problème d'estimation de la posture, il a d'abord été nécessaire de détecter l'animal sur l'image. Ceci a été possible avec une chaîne de 2 CNN différents, nous permettant d'obtenir une sensibilité de 88%, une précision de 85% et une accuracy de 87% pour l'estimation de la posture.
Dans la troisième configuration, il s'agissait de suivre un troupeau de chèvres au pâturage en estimant leur géolocalisation. Une chaîne de 3 CNN a été utilisée, combinée à des techniques d'image registra1on pour retrouver la position des animaux dans la parcelle. Dans ce cas, la précision de la méthode a été évaluée à 91%, avec une sensibilité de 85%.
Cet ensemble de travaux, étalé sur plus de trois années, nous montre que l'analyse d'image semble être une méthode pertinente pour le suivi du comportement des animaux d'élevage. L'image possède de plus quelques éléments pratiques positifs : cela ne nécessite pas de manipulation des animaux, et les données collectées, directement interprétables par l'homme, sont stables et peuvent être lues sur n'importe quel support ou plateforme. Les performances des méthodes testées sont bien évidemment encore perfectibles, notamment en développant un ensemble d'apprentissage de grande taille, par exemple, grâce à la collaboration entre équipes de recherche. Prochainement, nous souhaitons éprouver l'analyse d'image pour une multitude d'environnements. Enfin, la simple fusion d'angles de vues de plusieurs caméras ou la fusion de capteurs (ex. combinaison de données image et accéléromètre en test pour la truie) permettront d'améliorer le niveau de prédiction.
Date : 2020-11-25
Lieu : Vision-conférence
Thèmes scientifiques :
B - Image et Vision
T - Apprentissage pour l'analyse du signal et des images
Inscriptions closes à cette réunion.
Accéder au compte-rendu de cette réunion.
(c) GdR IASIS - CNRS - 2024.