Vous êtes ici : Réunions » Réunion

Identification

Identifiant: 
Mot de passe : 

Mot de passe oublié ?
Détails d'identification oubliés ?

Cluster d'architectures à base de SoC pour des calculs hautes performances (2)

Nous vous rappelons que, afin de garantir l'accès de tous les inscrits aux salles de réunion, l'inscription aux réunions est gratuite mais obligatoire.

Inscriptions closes à cette réunion.

Inscriptions

17 personnes membres du GdR ISIS, et 14 personnes non membres du GdR, sont inscrits à cette réunion.
Capacité de la salle : 50 personnes.

Annonce

Pour une meilleure organisation, la journée sera décomposée en plusieurs demi journées, vendredi 11 décembre matin et mercredi 20 janvier 2021 matin.

Une 3ème journée est en cours de planification avec des interventions de ATOS et ST Microelectronics Le Mans.

Cloud, Fog et Edge computing sont des terminologies de plus en plus répandues à l'ère de l'internet des objets (IoT Internet of Things), aussi bien pour IoT grand public qu'industriel (IIoT). Elles constituent des couches de l'architectures où chacune d'entre elle possède des caractéristiques et des usages propres.

L'augmentation des données à traiter accroit de manière exponentielle et les systèmes de captation et de traitement ainsi que les infrastructures qui les hébergent doivent s'adapter à ces flux de données en évolution massives. L'augmentation des applications industrielles et des usages nécessitent également de proposer de nouvelles architectures et systèmes intégrant des composants spécifiques (type FPGA, SoC, MPSoC...), et de nouvelles infrastructures pour la gestion et l'exploitation efficace de ces ressources. L'intelligence artificielle (IA) a amené à révolutionner les applications industrielles et la gestion des infrastructures, la conception de nouvelles architectures de calcul toujours plus performantes.

L'objectif de cette journée est de faire un état des lieux des travaux réalisés dans les architectures et infrastructures de Cloud, Fog et Edge Computing mettant en oeuvre des systèmes de traitement embarqués dédiés. L'adéquation des applications en IA avec ces nouvelles technologies et paradigmes seront également abordées, ainsi que tout autre application.

Mots clés : Cloud/Edge/Fog Computing, System On Chip, système embarqué, FPGA, IA, architectures de calcul, optimisations

Appel à contributions

Les personnes souhaitant présenter leurs travaux à cette journée sont invitées à envoyer, par e-mail, leur proposition (titre et résumé de 1 page maximum) aux organisateurs avant le 24 novembre 2020.

Organisateurs

Programme

Programme provisoire de la journée

Mercredi 20 janvier 2021 matin :

9h-9h10: ouverture de la session

9h10- 10h: Cluster d'architectures à base de SoC pour des calculs hautes performances, Nicolas Gac, Université Paris Saclay.

10h-10h55: Unsupervised learning for data reduction, Slavisa Jovanovic, Université de Lorraine

10h55-11h10: Accélération de l'inférence d'un CNN paramétrable sur des composants FPGAs déployés dans un cluster, Chen Wu, Université Jean Monnet Saint Etienne

11h10-12h: La plateforme FogGuru d'expérimentation fog computing pour les villes intelligentes, Guillaume Pierre, IRISA

Résumés des contributions

Cluster d'architectures à base de SoC pour des calculs hautes performances

Nicolas Gac, Université Paris Saclay

Les cartes de type GPU/FPGA sont particulièrement adaptées à l'accélération d’opérateurs utilisés pour la résolution de problèmes inverses en grande dimension. Ces opérateurs expriment en effet une forte intensité de calcul. Mais les applications associées à des instruments de grande taille requiert une accélération supplémentaire avec la distribution des calculs sur plusieurs cartes sur un même noeud ou sur plusieurs noeuds de calcul. Lors de cet exposé, les performances obtenues sur FPGA à l'aide d'outils HLS pour l'accélération de la paire de projection/rétroprojection utilisée en reconstruction tomographique seront tout d’abord comparées à celles obtenues sur GPU ; puis des distributions de calcul sur serveur multiGPU pour la tomographie et la radioastronomie seront présentées ; enfin, les enjeux du projet collaboratif Dark-Era (IETR/IRISA/L2S/Lagrange/Obs Nançay) visant à développer un outil de prototypage pour le supercalculateur SKA en radioastronomie seront exposés.

La plateforme FogGuru d'expérimentation fog computing pour les villes intelligentes

Guillaume Pierre, IRISA

Le projet européen FogGuru vise entre autres à développer une expérimentation grandeur nature de technologies de type "fog computing" dans la ville de Valencia (Espagne). Dans cette présentation je décrirai le travail réalisé par trois doctorants de novembre 2019 à mai 2020 pour développer une plate-forme de type "fog computing" intégrée au réseau sans fil LoRa qui permet le traitement optimisé de données de consommation d'eau provenant de compteurs d'eau intelligents. Je présenterai une vidéo de la démo de ce système, puis poursuivrai avec l'extension prévue de ces travaux (septembre 2020 - mars 2021) pour la création d'un "FabLab" des données, en coopération avec la Marina de Valencia, qui permettra à tout un chacun d'expérimenter les technologies "fog computing" en conditions réelles.

Unsupervised learning for data reduction

Slavisa Jovanovic, Université de Lorraine

In the era of the Internet of Things (IoT) and Big Data (BD), a huge amount of data of different type is permanently generated and collected by sensing systems over time. Depending on the nature of the application, these collected data should be processed often in real time with hard timing constraints in order to extract useful information needed for prediction purposes or control decisions. The collected data streams often include redundant information making the overall computing workloads more challenging. A common solution is to reduce the dimensionality (clustering, vector quantization, compression, etc) of the collected data before their further processing. Among techniques commonly used for the data dimensionality reduction and clustering we find Self-organizing Feature maps (SOMs). Their inherent property of topology preservation and unsupervised learning of processed data put them in the front of candidates for data reduction. However, the high computational cost of SOMs limits their use to offline approaches and makes the online real-time high-performance SOM processing more challenging. In the presented work, main attention is drawn on the challenges and trends in hardware implementations of SOMs.

Accélération de l'inférence d'un CNN paramétrable sur des composants FPGA déployés dans un cluster

Chen Wu, Université Jean Monnet, Saint Etienne

Depuis 2013, le réseau de neurones convolutif (CNN) est déployé sur des composants programmables de type Field Programmable Gate Array(FPGA) pour accélérer le processus d'inférence avec un coût énergétique bas par rapport aux autres solutions. Récemment, les clusters intégrant des composants FPGA comme ressources de calculs sont devenus une solution attractive : ce paradigme permet d'utiliser au mieux les infrastructures logicielles ou matérielles des FPGAs en fonction des fonctionnalités recherchées et des ressources FPGA disponibles. Nous proposons un framework qui génère des modèles de CNN sur les FPGA disponibles et choisi le ou les composants FPGAs appropriés et disponibles dans le cluster. Le modèle TensorFlow est utilisé en entrée pour récupérer le modèle, les paramètres d'implantation et les coefficients précédemment obtenus. Ce framework permet de charger et recharger les coefficients du CNN, ainsi que la base d'images sans aucune ré implémentation matérielle. Le framework proposé permet à un ingénieur en machine learning de réaliser les inférences de ses modèles CNNs sur FPGAs sans aucune compétence matérielle.

Date : 2021-01-20

Lieu : visio


Thèmes scientifiques :
C - Algorithme-architecture en traitement du signal et des images

Inscriptions closes à cette réunion.

Accéder au compte-rendu de cette réunion.

(c) GdR IASIS - CNRS - 2024.