Vous êtes ici : Accueil » Réunions » Réunion

Identification

Identifiant: 
Mot de passe : 

Mot de passe oublié ?
Détails d'identification oubliés ?

Images et data : méthodes d'analyse et modélisation pour l'agriculture numérique

Nous vous rappelons que, afin de garantir l'accès de tous les inscrits aux salles de réunion, l'inscription aux réunions est gratuite mais obligatoire.

Inscriptions closes à cette réunion.

Inscriptions

21 personnes membres du GdR ISIS, et 16 personnes non membres du GdR, sont inscrits à cette réunion.
Capacité de la salle : 80 personnes.

Prise en charge d'un déplacement dans le cadre d'une réunion d'animation

Qui ?

Le GdR ISIS prend en charge les déplacements des organisateurs des réunions et des orateurs. Le GdR prend aussi en charge les déplacements des participants aux réunions membres d'un laboratoire adhérent du GdR dans la limite d'un doctorant et d'un permanent par laboratoire académique et par réunion, ou d'une personne par adhérent du club des partenaires et par réunion.

Quand organiser son déplacement ?

Les demandes de mission et les réservations doivent impérativement être effectuées au moins deux semaines avant la date de la mission.

Comment réserver ?

Annonce

Un des grands défis d'aujourd'hui est de renforcer la productivité agricole tout en réduisant fortement l'utilisation des intrants. Les avancées récentes dans les technologies des robots, drones, ..., ont permis d'ouvrir des pistes prometteuses pour l'agriculture de précision en ce qui concerne l'analyse de données numériques (images, signaux, ...) et leur interprétation. Cette révolution du numérique suscite un intérêt grandissant dans différents domaines de l'agriculture, particulièrement la gestion des intrants chimiques (i.e. : stratégie de désherbage, de diagnostic des maladies, du pilotage de la fertilisation, ...) ou le développement d'outils d'aide à la décision. Dans ce contexte, les méthodes d'analyse des images et modélisation constituent un thème fort pour l'agriculture de précision. Pour ne citer que quelques exemples, la détection et la reconnaissance par imagerie aérienne des maladies ou des espèces végétales envahissantes permettent de planifier des actions ciblées et réduire ainsi l'utilisation d'intrants ; les modèles mathématiques d'évolutions des maladies ou de ces espèces permettront d'agir d'une manière préventive ; l'identification des adventices avec un robot de désherbage permet de réaliser une action plus précise. Cependant, l'analyse des images et des données dans l'agriculture fait face à plusieurs challenges tels que l'occultation entre les espèces végétales, le recalage d'images de différentes modalités prises à différentes échelles spatiales, le suivi spatio-temporel de parcelles, la labélisation des données d'apprentissage, la précision des modèles de prédiction, ...

Le but de cette journée est de réunir des acteurs académiques et industriels pour aborder les besoins, les challenges et les récents développements de méthodes de traitement d'images multimodales, du traitement du signal, d'intelligence artificielle, d'apprentissage automatique, de modélisation des données, ... dans le domaine de l'agriculture.

Présentations chercheurs invités :

Les personnes qui le souhaitent sont donc invitées à soumettre, aux membres organisateurs, une proposition pour présenter leurs travaux (une page maximum). La durée d'une présentation est d'environ 20 minutes. La date limite pour l'envoi des résumés est le 18 février 2019.

Organisateurs :

Programme

Déroulement de la journée du 14 mars

9h30-10h: Réception

10h: début des présentations

10h-10h15: introduction à la thématique

10h15-11h : présentation invitée (30 min +15) : Christophe GUIZARD, Directeur Adjoint de l'UMR ITAP

Présentations des participants (4 présentations de 20min avec 10min questions)

11h-11h30 :présentation 1

Titre : L'analyse multi-capteurs, un enjeu pour une connaissance plus précise des échantillons.

Auteurs : Kévin Jacq, Yves Perrette, Bernard Fanget, Pierre Sabatier, Didier Coquin, Maxime Debret, Fabien Arnaud

11h30-12h : présentation 2
Titre : Estimation of skylight conditions based on leaf-scale wheat images

Auteurs : Kuniaki Uto, Mauro Dalla Mura, Jocelyn Chanussot and Koichi Shinoda

12h-12h30 : présentation 3

Titre : Modèles log-Euclidiens texture-couleur pour l'analyse du couvert végétal en proxidétection viticole.
Auteurs : Florent Abdelghafour, Barna Keresztes, Christian Germain, Jean-Pierre Da Costa

REPAS 12h30-13h45

13h45-14h15 : présentation 4

Titre : Vision et robotique pour la viticulture : état des lieux et perspectives.
Auteurs : Thibault Clamens, Nathan Crombez, Raphaël Duverne, Eric Fauvet, Ralph Seulin, David Fofi

14h15-15h : présentation invitée (30 min +15) : Xavier REBOUD, Direction Scientifique Agriculture - INRA

Présentations des participants (4 présentations de 20min avec 10min questions)

15h-15h30 : présentation 5

Titre : Traitement d'images et apprentissage machine pour la détection de mauvaises herbes en cultures maraîchères

Auteurs : Etienne Belin, Ali Ahmad, Pejman Rasti, Salma Samiei, Remy Guyonneau, Franck Mercier, Lydie Thelier, Matthieu Loumaigne, David Rousseau

15h30-16h : présentation 6

Titre : Labelisation non supervisée des images et apprentissage profond pour la détection des adventices.

Auteurs : M-Dian Bah, Adel Hafiane, Raphaël Canals

PAUSE20 min

16h20-16h50 : présentation 7

Titre : Méthodes structurées d'apprentissage profond pour la classification de parcelles d'agriculture

Auteurs : Vivien Sainte Fare Garnot

16h50-17h10 :présentation 8

Titre : TRACK : Tracking opportunities to develop and strengthen data collection and big data in agri-food chain to increase competitivity of SMEs

Auteurs : Emeline DEFOSSEZ, Vegepolys

17h15 :discussion et fin

Résumés des contributions

L'analyse multi-capteurs, un enjeu pour une connaissance plus précise des échantillons

Auteurs : Christophe Guizard
Affiliation : IRSTEA Montpellier

Résumé : L'agriculteur est aujourd'hui un entrepreneur « du vivant » soumis aux pressions règlementaires, sociétales, aux marchés, aux aléas climatiques. Pour être concurrentiel dans un schéma mondialisé ou seulement respectueux des règles imposées, l'agriculteur du XXIème siècle doit modifier ses pratiques, disposer de nouveaux outils, de nouvelles techniques qui lui apporteront confort et performance, tout en l?accompagnant au quotidien dans ses décisions.

Les capteurs adaptés à la caractérisation des sols, des cultures ou au suivi de l'élevage font partie des verrous parmi les plus complexes à lever. De nouvelles technologies comme les technologies optiques ou électromagnétiques, les technologies de la communication (TIC) enrichissent le domaine des possibles. Ces dernières sont des vecteurs de production de données de masse1 où l'humain a parfois une place clé (crowdsourcing). Ces nouvelles données produites en masse pose aujourd'hui de nouvelles questions autour de leur maitrise, leur fiabilité, pertinence ainsi que leur interopérabilité.

Ces données doivent être transformées en informations pertinentes (ex IA). Elles serviront ensuite à alimenter de nouveaux outils d'aide à la décision, permettront le pilotage d'agroéquipements comme : les systèmes automatisés d'alertes, d'irrigation, de traitement ou de récolte, et permettre une offre de plus en robotisée.

Les verrous à lever sont très nombreux, certains d'entre eux sont anciens mais pas encore vraiment résolus mais d'autres apparaissent au gré des développements technologiques disponibles sur le marché.

1 http://agriculture.gouv.fr/un-portail-de-donnees-pour-linnovation-en-agriculture-la-synthese-du-rapport

L'analyse multi-capteurs, un enjeu pour une connaissance plus précise des échantillons.

Auteurs : Kévin Jacq(1,2), Yves Perrette1, Bernard Fanget1, Pierre Sabatier1, Didier Coquin2, Maxime Debret3, Fabien Arnaud1.
Affiliation :
1 Laboratoire des Environnements, DYnamiques, TErritoires de la Montagne, Université Savoie Mont-Blanc, UMR CNRS 5204,73376 Le Bourget du Lac, France
2 Laboratoire d'Informatique, Systèmes, Traitement de l'Information et de la Connaissance (LISTIC), Université Savoie Mont-Blanc, 74944 Annecy Le Vieux Cedex, France
3 Laboratoire de Morphodynamique Continentale et Côtière, Université de Rouen, UMR CNRS 6143, 76821 Mont-Saint-Aignan, France, Université de Caen, UMR CNRS 6143, 14000 Caen, France

Résumé :
L'analyse à haute résolution pour la caractérisation des échantillons est un des enjeux actuels pour obtenir des informations fines spatiales et structurales (chimie, physique, biologie). Un banc d'analyse multi-modules est en cours de développement au sein du laboratoire EDYTEM. Il sera composé de deux appareils photos (image HD et modelé numérique de surface) ; de capteurs d'imageries hyper spectrales dans les gammes visible et proche-infrarouge, ainsi que de la fluorescence des états stationnaires et du Raman ; de capteurs spectroscopiques de fluorescence des rayons X et résolue en temps dans la gamme UV-visible. L'utilisation simultanée de tous ces capteurs, permettrait de créer un capteur composite avec une haute résolution spatiale, couvrant une large gamme spectrale et donc possédant beaucoup d'informations structurales.
Différents défis technologiques restent à surmonter :
(1) L'unité de base pour comparer les capteurs, qui est le pixel ou voxel, varie d'un capteur à l'autre. Il faut donc au préalable utiliser des méthodes de recalages de signaux (1D) ou d'images (2D) sur une information se recoupant entre les capteurs. Puis ensuite, utiliser les méthodes de fusion de données pour homogénéiser les résolutions spatiales.
(2) Une stratégie est ensuite à déterminer pour l'analyse des données (Classification non supervisée ou supervisée, régression quantitative ou Reconnaissance de formes). A ceci s'ajoute souvent la différence de résolution entre le voxel et la labélisation. Un exemple d'application sera discuté pour l'analyse quantitative de la matière organique.
Une étude de cas sera effectuée sur l'analyse des carottes sédimentaires, mais celle-ci reste applicable pour l'analyse de carottes ou d'échantillons discrets de sol.

Estimation of skylight conditions based on leaf-scale wheat images

Auteurs : Kuniaki Uto1, Mauro Dalla Mura(2,3), Jocelyn Chanussot(2,4) and Koichi Shinoda1
Affiliation :
1 School of Computing, Tokyo Institute of Technology, Tokyo Japan
2 Univ. Grenoble Alpes, CNRS, Grenoble INP, GIPSA-lab, Grenoble, France
3 Tokyo Tech World Research Hub Initiative (WRHI), School of Computing, Tokyo Institute of Technology, Tokyo, Japan
4 Faculty of Electrical and Computer Engineering, University of Iceland, Reykjavik, Iceland
Résumé :
Leaf-scale images of crops based on low-altitude aerial measurements are beneficial to evaluate the crop growth states related to fraction absorbed photosynthetically active radiation (FAPAR), e.g., pigment contents, leaf area index (LAI) and leaf angles. In order to properly deal with the shading distribution of the leaf-scale images, we need to take into account not only the leaf structure and color but also the sunlight conditions, i.e., share of diffuse flux in global radiation, direction of direct sunlight, etc. Moreover, diffuse and direct fluxes should be differentiated when modeling the FAPAR. However, conventional methods based on pyranometers are expensive and separation between diffuse and direct fluxes is difficult. On the other hand, the shading distribution in leaf-scale crop images includes information of sunlight condition, leaf structure, leaf pigments, etc. In this work, we investigate the relationship between statistical properties of close-range color images of wheat leaves, share of diffuse flux in global radiation and solar zenith angle.

Modèles log-Euclidiens texture-couleur pour l'analyse du couvert végétal en proxidétection viticole.

Auteurs : Florent Abdelghafour, Barna Keresztes, Christian Germain, Jean-Pierre Da Costa
Affiliation : IMS, CNRS, Univ. Bordeaux, Bordeaux INP, Bordeaux Sciences Agro
Résumé :
L'estimation de la variabilité spatiale de paramètres agronomiques est d'une importance primordiale pour le développement de l'agriculture de précision, en particulier en viticulture, où les variabilités intra-parcellaires sont exacerbées. L'imagerie couleur en proxidétection est sans doute, du point de vue économique et technique, la technologie la plus abordable et facile à déployer pour réaliser des observations à l'échelle de la plante. Si elle ne permet pas d'accéder à une information radiométrique aussi riche que les technologies hyper spectrales, elle permet en revanche de mener de manière plus exhaustive et répétable des observations réalisées aujourd'hui soit de façon opportuniste par les viticulteurs, soit par des experts dans un cadre expérimental.
Nous abordons dans cet exposé la description de la structure de la canopée à l'échelle de la plante ainsi que la détection de symptômes foliaires d'une maladie cryptogamique, en l'occurrence le Mildiou (Plasmopara viticole). Le système d'acquisition est composé d'une caméra industrielle, d'une optique grand angle, d'un flash et d'un ordinateur. Embarqué sur engin agricole ou sur tout autre vecteur, il permet d'acquérir des images dans le plan de palissage de la vigne, en éclairage contrôlé, à une cadence compatible avec les opérations culturales classiques. Les images délivrées présentent une résolution submillimétrique permettant d'accéder à la fois à une information de texture et de couleur.
Les algorithmes développés visent à segmenter les différents organes de la vigne (feuilles, inflorescences ou grappes, tiges) et, le cas échéant, à détecter la présence de maladies sous la forme de taches plus ou moins diffuses sur le feuillage. La chaîne de traitement se déroule en quatre étapes : (i) extraction de l'arrière-plan, (ii) mesures d'attributs texturaux à l'échelle du pixel, (iii) classification des pixels et (iv) régularisation spatiale. L'étape (i) est basée uniquement sur les informations de couleur. Pour l'étape (ii), la couleur est représentée à l'aide d'un triplet RVB tandis que la texture est décrite à l'aide du tenseur de structure local (LST), i.e. la covariance locale du gradient. Deux variantes sont proposées pour associer les informations de couleur et de texture dans une seule et même représentation euclidienne. La première consiste à calculer le LST à partir de gradients entendus à la couleur avant de lui appliquer une transformation log-euclidienne ; la seconde consiste à projeter préalablement le LST dans l'espace log-euclidien avant de lui adjoindre l'information de couleur. L'étape (iii) est un processus de décision bayésien basé sur l'estimation préalable de modèles gaussiens multivariés. Enfin, l'étape (iv) combine relaxation stochastique et filtrage morphologique.
Cette chaîne de traitement a été appliquée à une quinzaine d'images prises sur deux parcelles de Merlot Noir, à trois stades phénologiques clés. Les performances de classification sont mesurées en termes de rappel et de précision par validation croisée. Les deux applications ont été considérées : segmentation des organes de la vigne et détection de Mildiou. Dans le premier cas, les taux de rappel et de précision atteignent entre 85% et 95% selon les variantes utilisées et les stades phénologiques. Ils laissent envisager l'utilisation de ces outils à des fins, par exemple, d'estimation de vigueur ou de rendement. Dans le second cas, plus prospectif, les résultats obtenus sont plus modestes avec un rappel convenable (jusqu'à 75%) mais une précision plus faible (inferieure à 50%) qui s'explique par différents facteurs comme la difficulté d'annotation pour la constitution de la base d'apprentissage, la présence de phénomènes confondants ou le caractère diffus des symptômes recherches.

Vision et robotique pour la viticulture : état des lieux et perspectives.

Auteurs : Thibault Clamens, Nathan Crombez, Raphaël Duverne, Eric Fauvet, Ralph Seulin, David Fofi
Affiliation : VIBOT ERL CNRS 6000, ImViA EA 7535, Université de Bourgogne Franche-Comté
Résumé :
L'objectif de l'équipe VIBOT est d'utiliser la vision par ordinateur pour des applications en robotique comme : la reconstruction 3D, la localisation, la cartographie, l'estimation de trajectoire, la détection d'obstacles, la reconnaissance d'objets, l'analyse de scènes fortement dynamiques. Les thèmes de recherche principaux sont l'imagerie non conventionnelle pour la robotique, la reconstruction, et l'analyse de scènes.
Le Vinipôle Sud Bourgogne est un pôle de compétences pour favoriser une viticulture durable en Saône-et-Loire (Bourgogne). Sa mission est de développer de nouvelles techniques et des outils de pilotage stratégiques pour les viticulteurs afin de les aider à raisonner leurs pratiques dans un esprit de durabilité. Le Vinipôle Sud Bourgogne et l'ERL VIBOT sont partenaires dans le projet CHAIF dont le but est de rendre une pulvérisation plus intelligente de produits phytosanitaires sur la vigne. La haie foliaire est caractérisée en temps réel par une mesure LIDAR et l'estimation de la trajectoire du véhicule par odométrie. Le dispositif développé peut être indifféremment monté sur un robot mobile ou sur un enjambeur viticole. Le système conçu grâce à ce projet fait l'objet d'une demande de brevet.
Nous avons initié des travaux de recherche sur le thème de l'analyse et de l'inspection de sites viticoles par systèmes multi-capteurs en octobre 2018. Ceci nous a conduit à élaborer un premier état de l'art sur la robotique viticole.
Le suivi de l'état agronomique des parcelles requiert plusieurs types d'informations issues de capteurs variés (LIDAR, caméra RGB, caméra polarimétrique, caméra infrarouge). Nous présenterons un travail sur l'alignement automatique d'images 2D sur un modèle 3D en utilisant à la fois des caractéristiques géométriques et visuelles avec une approche PSO (Particle Swarm Optimization) pour fusionner des données multimodales.
L'objectif est de classifier et d'analyser les données après la reconstruction 3D enrichie de la capture multimodale. L'application est le suivi intelligent et robotisé de la croissance de la vigne et du raisin. Les modalités d'images seront choisies en fonction des indicateurs agronomiques utiles à l'analyse de la vigne. La méthode retenue se veut suffisamment générique pour assurer une flexibilité au système, le rendant fonctionnellement indépendant des modalités choisies.

Présentation invitée

Auteurs : Xavier REBOUD
Affiliation : Direction Scientifique Agriculture - INRA
Résumé :
La communauté scientifique peut s'interroger pour savoir si la révolution numérique est porteuse de promesses pour rendre plus rapide, plus direct et plus simple l'avènement d'une agriculture durable sur tous les fronts économiques, environnementaux et sociaux. Les travaux scientifiques en agroécologie soulignent l'importance des processus biologiques qui sous-tendent l'efficacité et la maitrise des pratiques. Le constat est qu'encore trop peu d'avancées numériques visent explicitement à alimenter la qualification, la quantification puis la certification du fonctionnement de l'agroécosystème ou permettre un pilotage de processus éminemment dynamiques. On peut énoncer sans grand risque que les voies numériques cantonnées dans l'optimisation et la précision ne viendront pas redonner à l'agriculture ses lettres de noblesse ni restaurer la confiance, juste poursuivre dans la voie de son industrialisation et de sa standardisation. On pourra partager une réflexion et quelques illustrations sur ce que le numérique non seulement peut mais doit mettre en chantier. Son pouvoir transformant réside dans la capacité à « rendre visible l'invisible » : la réalité des régulations biologiques, la perception du milieu par ses occupants eux-mêmes, l'efficience des flux de matière et d'énergie, le couplage explicite des productions alimentaires à leur origine et mode de production

Traitement d'images et apprentissage machine pour la détection de mauvaises herbes en cultures maraîchères

Auteurs : Etienne Belin1, Ali Ahmad1, Pejman Rasti1, Salma Samiei1, Remy Guyonneau1, Franck Mercier1, Lydie Thelier2, Matthieu Loumaigne3, David Rousseau1.
Affiliation :
1LARIS, UMR INRA IRHS, Université d'Angers, 62 avenue Notre Dame du Lac, 49000 Angers, France.
2ArchE, UMR INRA IRHS, 42 rue Georges Morel, CS 60057, 49071 Beaucouzé Cedex, France.
3Moltech Anjou, Université d'Angers, 2 boulevard Lavoisier, 49000 Angers, France.
Résumé :
Le contrôle des mauvaises herbes représente un enjeu important dans la productivité agricole où l'on vise à augmenter le rendement des cultures tout en réduisant les produits phytosanitaires destinés au contrôle des mauvaises herbes. Dans ce contexte, les robots automatisés couplés à des systèmes de vision par ordinateur peuvent apporter des solutions robustes pour une détection précise des mauvaises herbes dans les cultures. Dans cette communication, on propose de présenter des développements récents autour de l'intégration et le traitement de données images acquises via une plateforme mobile pour le désherbage en culture maraîchère de salades, dans des conditions de culture non- dense et dense. Dans le cadre de ces travaux, des challenges pour le traitement de ces images ont été soulevés, depuis les méthodes de segmentations et de filtrage pour limiter les effets des conditions d'acquisitions jusqu'aux approches d'intelligences d'artificielles où plusieurs méthodes ont été appliquées dans le cas de la culture dense pour comparer leurs performances. Ces performances ont été évaluées sur la base d'un ensemble de données synthétiques annotées, générées par un simulateur, et disponibles sous la forme d'un data challenge.

Labelisation non supervisée des images et apprentissage profond pour la détection des adventices.

Auteurs : M-Dian Bah1, Adel Hafiane2, Raphaël Canals1
Affiliation :
1University of Orleans, PRISME, EA 4229, F45072 Orleans, France
2INSA Centre Val de Loire, PRISME, EA 4229, F18020 Bourges, France
Résumé :
Aujourd'hui, pour réduire la quantité de produits chimiques utilisés dans les cultures tout en continuant d'augmenter la productivité, de plus en plus d'agriculteurs se tournent vers l'agriculture de précision. L'agriculture de précision consiste à mettre les bonnes doses de produit au bon moment et au bon endroit. Cependant, malgré les progrès importants réalisés dans les systèmes d'acquisition, la détection automatique des mauvaises herbes demeure l'un des principaux défis de l'agriculture de précision. Au cours des dernières années, les techniques d'apprentissage profond (deep learning) ont permis d'obtenir des résultats impressionnants dans différents problèmes de classification complexes. Cette approche nécessite cependant une certaine quantité de données d'apprentissage, et la création de grands ensembles de données agricoles avec des annotations au niveau des pixels effectuées par un expert est une tâche qui prend beaucoup de temps. Lors de la présentation, dans le cadre d'une application de détection des mauvaises herbes dans les parcelles à partir d'images acquises par un drone, nous exposerons une nouvelle méthode d'apprentissage entièrement automatique utilisant des réseaux convolutionnels neuronaux (CNN) avec un ensemble de données d'entraînement collectées de façon non supervisée.

Méthodes structurées d'apprentissage profond pour la classification de parcelles d'agriculture

Auteurs : Vivien Sainte Fare Garnot
Affiliation : Univ. Paris-Est, LASTIG-STRUDEL, IGN-ENSG
Résumé :
La classification des parcelles d'agriculture est un outil important pour la gestion du territoire, l'allocation des subventions, et la surveillance environnementale. Les dernières années ont vu se multiplier les sources de données publiques à moyenne et haute résolution, et faible temps de revisite. La mission Sentinel-2 de l'Agence Spatiale Européenne fournit par exemple des images multi-spectrales tous les cinq jours, à une résolution allant jusqu'à 10 mètres, et ce avec une couverture globale. Ces séries temporelles d'images satellites (STIS) constituent une source de données de choix pour la classification de parcelles agricoles à grande échelle.
Les approches traditionnelles pour réaliser cette tâche reposent sur des méthodes de machine learning éprouvées telles que les Random Forest (RF) ou Support Vector Machine (SVM). Bien que proposant des modèles facilement interprétables, ces méthodes négligent les structures spatiale et temporelles présentes dans les STIS. Le rapide développement récent de l'apprentissage profond, a fourni un nouveau jeu d'outils très efficaces pour extraire ce genre d'information : les réseaux de neurones convolutionnels (CNN) se montrent très performants pour extraire la structure spatiale d'images, tandis que les réseaux récurrents (RNN) ont prouvé leur capacité à extraire la structure de données séquentielles. Enfin ces deux types peuvent être combinés dans des architectures hybrides (RCNN) capables d'adresser les dimensions spatiale et temporelle des données.
Dans le travail présenté, nous étudions plusieurs modèles structurés d'apprentissage profond pour la classification de parcelles sur des SITS multi-spectrale Sentinel-2. En particulier, notre objectif est d'évaluer l'importance respective des structures spatiales et temporelles dans ces données. Avec cet objectif, nous considérons plusieurs modèles de type CNN, RNN ou RCNN et évaluons leurs performances sur un jeu de données d'images Sentinel-2 disponibles gratuitement. Nous constatons que les approches les plus performantes sont les architectures hybrides pour lesquelles la plupart des paramètres (jusqu'à 90%) sont affectés à la modélisation de la structure temporelle des données.

TRACK : Tracking opportunities to develop and strengthen data collection and big data in agri-food chain to increase competitivity of SMEs

Auteurs : Emeline Defossez
Affiliation : Vegepolys
Résumé :
VEGEPOLYS is the French competitiveness cluster that brings together companies involved directly and indirectly in plant growing with research institutes, trade associations, unions, and development bodies as well as local chambers of trade and commerce. Its network gathers 420 members: firms, research and training centers in the plant field around some innovative projects to strengthen the firms' competitiveness. All of them are involved in the horticultural sector, all along the plant value chain, from agro furniture to delivery of fresh products to final consumers.
VEGEPOLYS dedicated a large part of its technological roadmap to new technologies for agriculture (ie sensors and indicators for crop monitoring, means of action on fields for selective or precision farming).
So as to better support AgTech SMEs, VEGEPOLYS is leading the European TRACK project that is co-funded by the COSME program (EU) and gathers five European clusters from France, Romania, Spain, Netherlands and Italy cooperate in this project. TRACK aims to create an interregional ecosystem in the field of data collection, big data and traceability in agri-food chain.
TRACK helps SMEs increase their innovation and improve their international business plan in the fields of Traceability and Big Data. TRACK aims at creating a favourable interregional ecosystem fitting specific requirements of agri-food chain and associated joint investments toward advanced agri-food industry 4.0. It will be achieved through the intensification of cross-pollination between information and communication technologies (ICT) / traceability and big data (TBD) sectors, in priority SMEs, and actors of the agri-food industry.
TRACK project lasts 24 months. The starting date was October 1st 2018. A final reporting is due on October 2020.
One of the work packages deals with tracking opportunities to develop and strengthen data collection, big data and traceability in agri-food chain. As the project is at its beginning, the presentation will deal with TRACK's objectives and opportunities for researchers (ie networking, possibilities to develop partnership with SMEs, involvement in dedicated event on the thematic ...) and some of the first results on agrifood challenges and AgTech SME's needs to address the agricultural market will be presented.

Date : 2019-03-14

Lieu : CNRS - Délégation Paris-Villejuif - Site d'Ivry-sur-Seine (Paris A); 27, rue Paul Bert - 94204 Ivry-sur-Seine


Thèmes scientifiques :
A - Méthodes et modèles en traitement de signal
B - Image et Vision
T - Apprentissage pour l'analyse du signal et des images

Inscriptions closes à cette réunion.

Accéder au compte-rendu de cette réunion.

(c) GdR 720 ISIS - CNRS - 2011-2019.