Vous êtes ici : Réunions » Réunion

Identification

Identifiant: 
Mot de passe : 

Mot de passe oublié ?
Détails d'identification oubliés ?

Cluster d'architectures à base de SoC pour des calculs hautes performances

Nous vous rappelons que, afin de garantir l'accès de tous les inscrits aux salles de réunion, l'inscription aux réunions est gratuite mais obligatoire.

Inscriptions closes à cette réunion.

Inscriptions

21 personnes membres du GdR ISIS, et 15 personnes non membres du GdR, sont inscrits à cette réunion.
Capacité de la salle : 50 personnes.

Annonce

Pour une meilleure organisation, la journée sera décomposée en plusieurs demi journées, vendredi 11 décembre matin et mercredi 20 janvier 2021 matin.

Une 3ème journée est en cours de planification avec des interventions de ATOS et ST Microelectronics Le Mans.

Cloud, Fog et Edge computing sont des terminologies de plus en plus répandues à l'ère de l'internet des objets (IoT Internet of Things), aussi bien pour IoT grand public qu'industriel (IIoT). Elles constituent des couches de l'architectures où chacune d'entre elle possède des caractéristiques et des usages propres.

L'augmentation des données à traiter accroit de manière exponentielle et les systèmes de captation et de traitement ainsi que les infrastructures qui les hébergent doivent s'adapter à ces flux de données en évolution massives. L'augmentation des applications industrielles et des usages nécessitent également de proposer de nouvelles architectures et systèmes intégrant des composants spécifiques (type FPGA, SoC, MPSoC...), et de nouvelles infrastructures pour la gestion et l'exploitation efficace de ces ressources. L'intelligence artificielle (IA) a amené à révolutionner les applications industrielles et la gestion des infrastructures, la conception de nouvelles architectures de calcul toujours plus performantes.

L'objectif de cette journée est de faire un état des lieux des travaux réalisés dans les architectures et infrastructures de Cloud, Fog et Edge Computing mettant en oeuvre des systèmes de traitement embarqués dédiés. L'adéquation des applications en IA avec ces nouvelles technologies et paradigmes seront également abordées, ainsi que tout autre application.

Mots clés : Cloud/Edge/Fog Computing, System On Chip, système embarqué, FPGA, IA, architectures de calcul, optimisations

Appel à contributions

Les personnes souhaitant présenter leurs travaux à cette journée sont invitées à envoyer, par e-mail, leur proposition (titre et résumé de 1 page maximum) aux organisateurs avant le 24 novembre 2020.

Organisateurs

Programme

Programme provisoire de la journée

Vendredi 11 décembre 2020 matin :

Mercredi 20 janvier 2021 matin :

Résumés des contributions

Cloud Computing as a Public Utility: Opportunities and Challenges

Tahar Kechadi, University College, Dublin

It was predicted few decades ago that Computation will be organised as public utility. The Cloud Computing model, which facilitates the delivery of computations on-demand, is just doing that, much like the key home utilities such as gas and electricity. While, its main objective is to use computing resources on demand and from anywhere, the technologies used to build are not new. In fact, utility computing, mobile computing, grid computing, and on-demand computing concepts were there before cloud to provide easy access to computing resources. Cloud Computing can be seen as a wrapper of traditional distributed systems by offering shared computational power that can be used as needed. Therefore it inherits all the challenges that we can find in distributed and grid computing concepts. In this presentation we will loo at various challenges of Cloud Computing and how can be made a public computing utility of the near future, by examining ways of reducing energy consumption, improving performance, and respond to the users needs.

Efficient Scheduling of Application onto cloud FPGAs

Matteo Bertolino, Telecom Paris

This work has been realized in Télécom Paris and it has been financed by Nokia Bell Labs France. It founds its motivations in the increasing usage of hardware accelerators such as FPGAs and their recent integration in modern cloud data centers. In some cases, servers and FPGAs are rented to users and the cost is related to the utilization time. Thus, offering a better sharing of FPGA pools would interest all stakeholders, namely cloud providers and users. We focus on scheduling and, in particular, we focus on makespan minimization of applications. The vast majority of related work is either based on slow and precise algorithms or on fast heuristics whose quality is far from the optimum. We therefore propose a scheduling solution characterized by a good quality in terms of makespan while keeping the decision time in the order of tens of milliseconds for common applications.

YAAAAS: Yet Another Acceleration As A Service?

Julien Lallet, NOKIA Lannion

Dans cet environnement de déploiement d'application virtualisé qu'est le cloud, les FPGAs sont de plus en plus présent et exploités pour l'accélération d'algorithmes de traitements de données tels que l'intelligence artificiel, la reconnaissance d'images, l'analyse massive de données etc. Dans un soucis d'efficacité, de recherche d'optimisation et de flexibilité dans l'utilisation des ressources de calculs, le déploiement des services dans le cloud se fait de plus en plus sous la forme de micro applications (docker etc.) à l'aide de plateformes d'orchestration (kubernetes etc.). Un état des lieux des solutions d'accélération FPGA existantes pour le cloud (Amazon, Microsoft, Alibaba etc.) montre que celles-ci ne vont pas dans le sens de l'évolution du déploiement dans le cloud par micro services. En effet, le partage d'une ressource FPGA se fait exclusivement par service dans un temps imparti. Nous présenterons les solutions que nous avons apportées à notre plateforme d'accélération FPGA afin d'obtenir l'efficacité, l'optimisation, la flexibilité de déploiement des microservices logiciels. Nous présenterons également l'intérêt de cette solution sur le déploiement d'un VRAN (Virtual Radio Access Network) 4G containerisé et accéléré sur la plateforme d'accélération précédemment présentée.

Une approche multi-agent pour un partage efficace des IP as a services dans le cloud FPGA

Rym Skhiri, Université de Monastir

Le déploiement de composants FPGA dans le cloud est proposé sous des différents services (FPGA Tools as a Service, Platform as a Service, FPGA Resources as a services) pour permettre l'accélération de ressources de calcul. Les solutions actuelles permettent de répondre à certains challenges mais l'expertise matériel de l'utilisateur du cloud reste nécessaire : pas de frontière entre le concepteur d'applications et l'expert matériel.

Nous proposons un nouveau service (IP as a Service) permettant d'intégrer le concepteur matériel dans le cloud et permettant au concepteur d'applications d'exploiter facilement et rapidement les IP (Intellectual Property). La formalisation du système propose l'intégration d'agents permettant une gestion et un partage maximale des IPs pouvant répondre ainsi aux besoins de plusieurs concepteurs d'application.

Date : 2020-12-11

Lieu : visio


Thèmes scientifiques :
C - Algorithme-architecture en traitement du signal et des images

Inscriptions closes à cette réunion.

Accéder au compte-rendu de cette réunion.

(c) GdR 720 ISIS - CNRS - 2011-2022.