CITI Seminar of Julie Dumas (Université Grenoble Alpes) on May 21 at 11am

Title: Cohérence de caches dans les architectures manycores et simulation

Date and Place: 21 / 05 / 2019 11:00 in TD-C

Host: Guillaume Salagnac

Abstract:

Les besoins en calcul toujours plus important ainsi que la prise en compte de l’efficacité énergétique ont conduit au développement des architectures manycores dont les travaux de recherche sont nombreux et en particulier autour du modèle mémoire. Si nous considérons les machines à mémoire partagée, le passage à l’échelle des protocoles de cohérence de caches est un problème encore ouvert. En effet, les protocoles basés sur l’espionnage, qui doivent transmettre à tous les caches les informations de cohérence, engendrent un nombre important de messages dont peu sont effectivement utiles. En revanche, les protocoles avec répertoires visent à n’envoyer des messages qu’aux caches qui en ont besoin. Dans ce cas, lorsque l’on augmente le nombre de cœurs, la taille du répertoire augmente en largeur et en profondeur et peut même dépasser la taille des données présentent dans les caches. Pour passer à l’échelle, un protocole doit émettre un nombre raisonnable de messages de cohérence et limiter le matériel utilisé pour la cohérence et en particulier pour la mémorisation du répertoire. Dans cette présentation, nous parlerons de DCC (Dynamic Coherent Cluster), une représentation dynamique de la liste des copies pour la cohérence de caches. Dans un second temps, nous nous intéresserons à la simulation de ces architectures qui freinent leur développement. En effet, plus un simulateur est précis plus les temps de simulation sont importants. Une des raisons est que la grande majorité des simulateurs ne s’exécutent pas en parallèle, ainsi une simulation de N cœurs est faite sur un seul cœur physique. Afin d’évaluer rapidement une architecture, nous proposerons un modèle de cache à haut niveau d’abstraction dans lequel des traces provenant d’un simulateur précis (gem5) sont injectées. DCC et d’autres représentations de la liste des copies seront évaluées à l’aide de cette méthodologie.

Biography:
Julie Dumas a obtenu sa thèse de doctorat en informatique à l’Université Grenoble Alpes en 2017. Ses travaux de recherche s’articulent autour de l’architecture des ordinateurs et plus particulièrement à la gestion de la mémoire dans les architectures de type manycores ainsi qu’aux techniques de simulation de ces dernières.


CITI Seminar of Yann Orlarey (Grame, Lyon) on May 6 at 10:30am

Title: Contributions to symbolic music representation, digital lutherie and music programming languages

Date and Place: 06 / 05 / 2019 10:30 in TD-C

Host: Florent de Dinechin

Abstract:
The presentation aims to give an overview of the research activities in Computer Music carried out at Grame (Centre National de Création Musicale) in Lyon. These activities include symbolic music representation (with the Guido http://guidolib.sourceforge.net/ and INScore http://inscore.sourceforge.net/ projects), new digital lutherie and music programming languages. In particular, we will present Faust (https://faust.grame.fr and https://github.com/grame-cncm/faust), a synchronous functional programming language specialized in real-time sound synthesis and signal processing. The talk will conclude with some live demos of Faust, showing how it can be used for a wide variety of audio applications, from small embedded systems to procedural audio on the Web, as well as musical instruments on smartphones.

Biography:
Yann Orlarey is currently the scientific director of Grame. His research work focuses on the design and implementation of programming languages for musical and sound creation, with a particular interest in lambda-calculus, functional programming, and real-time and compilation techniques.


CITI Seminar of Thomas Begin (LIP, UCBL Lyon 1) on April 2 at 11am

Title: Contributions to the Performance Modeling of Computer Networks
Date and Place: 02 / 04 / 2019 11:00 in TD-C
Host: Jean-Marie Gorce and Florent de Dinechin
Abstract:
In this talk, I will present some of my contributions to the fields of performance evaluation and computer networks. I will first discuss a new modeling framework to evaluate the performance of DPDK-based virtual switches in the context of NFV (Network Function Virtualization) networks. Then, I’ll describe a scalable stochastic model to accurately forecast the performance of an IEEE 802.11-based network. Finally, I will introduce an original reduced-state description for multiserver queues that breaks the combinatorial complexity inherent to the classical state description and that can easily handle examples with hundreds of servers.

 

Biography:
Thomas Begin received his Ph.D. degree in Computer Science from UPMC (U. Paris 6) 2008. He was a post-doctoral fellow at UC Santa Cruz in 2009. Since 2009, he is an Associate Professor at UCBL (U. Lyon 1) in the Computer Science department. During the 2015-2016 academic year, he was on research leave at DIVA lab – University of Ottawa. T. Begin research interests are in performance evaluation, future network architecture, and system modeling. His principal applications pertain to high-level modeling, wireless networks, resource allocation and queueing systems.

CITI is hiring a PhD Student

Une bourse de thèse à pourvoir sur la télé alimentation d’objets communicants

 

Title: Nouvelles stratégies de télé alimentation d’objets communicants en utilisant des techniques de formation de faisceau distribuée
Keywords: Communications radio, formation de faisceau, transmission de puissance sans fil, synchronisation, automatique
Location: CITI laboratory, INSA Lyon, France
Funding: 3-year
Contact: Florin Doru HUTU <florin-doru.hutu@insa-lyon.fr>

Summary
Cette thèse adresse le problème de la synchronisation et de la mise en cohérence de phase des sources distribuées géographiquement. L’application envisagée est celle de la transmission de puissance sans fil en mettant en place des stratégies de type formation de faisceau distribuée. Ce projet souhaite aborder la problématique de la transmission de puissance sans fil vers un objet communicant à faible ressources énergétiques aussi bien de point de vue système de communication mais aussi du point de vue automatique. En automatique, le problème traité ici s’apparente à celui de la synchronisation d’un réseau de systèmes à retard ou bien à celui du suivi de trajectoire de référence. Les outils théoriques appliquées à ce scénario concret seront la commande de systèmes multi-agents, la commande de système à retard et l’observation de retard. Ces stratégies seront adaptées pour répondre aux contraintes matérielles des instruments de génération et d’analyse des signaux du laboratoire CITI. En effet, les « transcepteurs » vectoriels de signaux (VST) PXI-5646 de Nationals Instruments sont ciblés dans un premier temps pour ensuite passer à une échelle supérieure en utilisant la plateforme CorteXlab.

More information here.


PhD Defence: “Déploiement et ordonnancement de réseaux de capteurs sans fil pour le suivi de la pollution de l’air”, Ahmed BOUBRIMA, Chappe Amphitheater, CITI, 12th of March 2019, at 10h00

Title

Déploiement et ordonnancement de réseaux de capteurs sans fil pour le suivi de la pollution de l’air

Abstract

Les réseaux de capteurs sans fil (RCSF) sont largement utilisés dans les applications environnementales où l’objectif est de détecter un phénomène physique tel que la température, l’humidité, la pollution de l’air, etc. Dans ce contexte d’application, l’utilisation de RCSF permet de comprendre les variations du phénomène et donc être en mesure de prendre des décisions appropriées concernant son impact. En raison des limitations de ses méthodes de suivi traditionnelles et de sa grande variabilité spatiale et temporelle, la pollution de l’air est considérée comme l’un des principaux phénomènes physiques qui restent à étudier et à caractériser. Dans cette thèse, nous considérons trois applications concernant l’utilisation de RCSF pour le suivi de la pollution de l’air : la cartographie en temps réel de la qualité de l’air, la détection de dépassements de seuils des polluants et la correction de modèles physiques qui simulent le phénomène de dispersion de la pollution. Toutes ces applications nécessitent de déployer et d’ordonnancer minutieusement les capteurs afin de mieux comprendre la pollution atmosphérique tout en garantissant un coût de déploiement minimal et en maximisant la durée de vie du réseau. Notre objectif est de résoudre les problèmes de déploiement et d’ordonnancement tout en tenant compte des caractéristiques spécifiques du phénomène de la pollution de l’air. Nous proposons pour chaque cas d’application une approche efficace pour le déploiement de noeuds capteurs et puits. Nous proposons également une approche d’ordonnancement adaptée au cas de la correction de modèles physiques. Nos approches d’optimisation prennent en compte la nature physique de la pollution atmosphérique et intègrent les données réelles fournies par les plateformes existantes de suivi de la qualité de l’air. Dans chacune de nos approches d’optimisation, nous utilisons la programmation linéaire en nombres entiers pour concevoir des modèles d’optimisation adaptés à la résolution de petites et moyennes instances. Pour traiter les grandes instances, nous proposons des heuristiques en utilisant des techniques de relaxation linéaire. Outre nos travaux théoriques sur le suivi de la pollution atmosphérique, nous avons conçu et déployé dans la ville de Lyon un réseau de capteurs de pollution économe en énergie. Sur la base des caractéristiques de notre système et des jeux de données de la pollution atmosphérique, nous avons évalué l’efficacité de nos approches de déploiement et d’ordonnancement. Nous présentons et discutons dans cette thèse les résultats d’évaluation de performances ainsi que des lignes directrices pour la conception de systèmes de suivi de la pollution de l’air. Parmi nos principales conclusions, nous soulignons le fait que la taille optimale du réseau de capteurs dépend du degré de variation des concentrations de pollution dans la région de déploiement.

 

Jury

  • Marcelo DIAS DE AMORIM, Directeur de recherche, CNRS, Rapporteur
  • Andrzej DUDA, Professeur des universités, Grenoble INP-ENSIMAG, Rapporteur
  • Aline CARNEIRO VIANA, Chargée de recherche HDR, INRIA, Examinatrice
  • Isabelle GUERIN-LASSOUS, Professeur des universités, Univ. Lyon 1, Examinatrice
  • Thomas NOEL, Professeur des universités, Université de Strasbourg, Examinateur
  • Hervé RIVANO, Professeur des universités, INSA de Lyon, Directeur de thèse
  • Walid BECHKIT, Maitre de conférences, INSA de Lyon, Co-directeur de thèse
  • Claire CHAPPAZ, Atmo Auvergne-Rhône-Alpes, Invitée

CITI Seminar of Eddy Caron (LIP, École Normale Supérieure de Lyon) on March 19 at 11am

Title: Once upon a time … the deployment
Date and Place: 19/03/ 2019 11:00 in TD-C
Host: Jean-Marie Gorce and Florent de Dinechin
Abstract:
In large distributed systems the resource managements is one key of the efficient. And the deployment of the elements on resources are hidden everywhere, across the network, across the virtualization, across many infrastructures, etc. Through 6 stories we will discover many points of view of the deployment. First adventure, we will see how to deploy a middleware with self-stabilization skill. In the second story, be afraid, we will see how to deploy a secure Cloud Infrastructure. In the following story, we will introduce a deployment tool for reproducibility. The licenses deployment is another weird story with a lot of mysteries. An unbelievable story to deploy a data-driven microservices infrastructure. And finally, we will try to clear up the Fog deployment.

 

Biography:
Eddy Caron is an Associate Professor at Ecole Normale Supérieure de Lyon and holds a position with the LIP laboratory (ENS Lyon, France). He is a member of AVALON project from INRIA and Technical Manager for the DIET software package. He received his PhD in C.S. from University de Picardie Jules Verne in 2000 and his HDR (Habilitation à Diriger les Recherches) from the Ecole Normale Supérieure de Lyon in 2010. His research focuses on distributed computing environment, from P2P to Grid, Cloud and Edge computing. At the middleware level, he deals with a large scope of subjects (scheduling, workflow management, data management, energy management, security, software management, etc.)  with the same point of view of the resource magement in heterogeneous environments.
He is involved in many program committees (as HCW, IPDPS, ISPA, CloudTech, etc.). Since 2000, he contributed to more than 30 articles in journal or book chapter and more than 80 publications in international conferences. He was co-chair of the GridRPC working group in OGF. He was coordinator of two french ANR project (LEGO and SPADES). He was workpackage leader in the European project Seed4C around the security. He is the supervisor of 15 Phd (4 in progress). He teaches Distributed system, Architecture Operating System and Network, Grid and Cloud, etc. Moreover he was the Co-funder and Scientific Consultant of a company (SysFera). Deputy Director in charge of call for projects, research transfert and international affairs for the LIP Laboratory.  See http://graal.ens-lyon.fr/~ecaron for further information.

CITI Seminar of Alain Tchana (I3S, Université de Nice Sophia-Antipolis) on February 22 at 11AM

Title: Blablabla Virtualisation
Date and Place: 22/02/2019 at 11:00 in TD-C
Host: Jean-Marie Gorce and Florent de Dinechin
Abstract:
This talk will focus on virtualized infrastructure filed. In this domain, I aim at minimizing electricity consumption while improving application performance. To achieve the first goal, I work both at the entire datacenter level (by providing better VM placement strategies) and at the physical machine level (by providing better power management policies). Concerning the second goal, I work both at the VM monitor level (for minimizing its overhead) and at the VM’s operating system (OS) level (for making it aware of the fact that it is virtualized).

 

Biography:
Alain Tchana received his Ph.D. in computer science in 2011 at Institut National Polytechnique de Toulouse. The research topic of his Ph.D. was autonomic computing applied to cloud environments. He then spent two yeas as a postdoc at Université Joseph Fourier. During that time, he worked on building benchmarking systems. From September 2013 to September 2018, he was Associate Professor at Institut National Polytechnique de Toulouse. He was member of SEPIA research group at IRIT laboratory. His main research domain is virtualization. Since September 2018, he is full professor at Université de Nice Sophia-Antipolis. He is member of Scale research group at I3S. He continues to work in the virtualization domain.

CITI Talk: “Wired team presentation and discussions about blockchain”, Stéphane Frenot (INSA-Lyon, CITI) on February 15th at 11am

Title

Wired team presentation and discussions about blockchain

 

Summary

La blockchaines sont des technologies de stockage et de transmission d’informations, permettant la constitution de registres répliqués et distribués, sans organe central de contrôle, sécurisées grâce à la cryptographie, et structurées par des blocs liés les uns aux autres, à intervalles de temps réguliers. Elles sont utilisées par un certain nombre d’acteurs et suscitent de très nombreux débats aussi bien au coin café qu’à l’organisation mondiale du commerce.

En tant que membre du laboratoire de recherche CITI, je me sens concerné par ces technologies, et me demande de ce que nous devons en faire.
Je propose dans ce séminaire de vous présenter ma compréhension des systèmes blockchaines et de vous partager mon point de vue de concepteur d’applications distribuées et pair-à-pair sur le Web.

Bio

Stéphane Frénot a participé à la création du CITI en 2001. Il est spécialisé dans le génie logiciel et les application distribuées. Il a été responsable du thème middleware et de l’équipe INRIA Amazones au laboratoire. Puis il a participé au projet exploratoire INRIA Dice sur les plateformes d’intermédiations. Depuis 1an il est directeur du département Télécommunications Service et Usages de l’INSA où il enseigne le génie logiciel, les systèmes distribués et l’innovation.

Il a travaillé sur les architectures à composants logiciels, les systèmes pairs-à-pairs pour le déploiement de composants et sur un modèle de programmation orienté flux pour Javascript. Il a participé au dépôt de trois brevets : dans l’iot domestique, dans les flux javascript et dans un protocole de vote. Enfin il est responsable du développement de la plateforme Jumplyn de gestion de projets étudiants actuellement en test sur l’INSA pour la gestion des stages.


CITI Talk: “Wireless Networks Design in the Era of Deep Learning: Model-Based, AI-Based, or Both?”, Marco Di RENZO (CR CNRS, L2S) on February 13th at 11am

Title

Wireless Networks Design in the Era of Deep Learning: Model-Based, AI-Based, or Both?

 

Summary

This work addresses the use of emerging data-driven techniques based on deep learning and artificial neural networks in future wireless communication networks. In particular, a key point that will be made and supported throughout the work is that data-driven approaches should not replace traditional design techniques based on mathematical models. On the contrary, despite being seemingly mutually exclusive, there is much to be gained by merging data-driven and model-based approaches. To begin with, a detailed presentation is given for the reasons why deep learning based on artificial neural networks will be an indispensable tool for the design and operation of future wireless communications networks, as well as a description of the recent technological advances that make deep learning practically viable for wireless applications. Our vision of how artificial neural networks should be integrated into the architecture of future wireless communication networks is presented, explaining the main areas where deep learning provides a decisive advantage over traditional approaches. Afterwards, a thorough description of deep learning methodologies is provided, starting with presenting the general machine learning paradigm, followed by a more in-depth discussion about deep learning. Artificial neural networks are introduced as the peculiar feature that makes deep learning different and more performing than other machine learning techniques. The most widely-used artificial neural network architectures and their training methods will be analyzed in detail. Moreover, bridges will be drawn between deep learning and other major learning frameworks such as reinforcement learning and transfer learning. After introducing the deep learning framework, its application

to wireless communication is addressed. This part of the work first provides the state-of-the-art of deep learning for wireless communication networks, and then moves on to address several novel case-studies wherein the use of deep learning proves extremely useful for network design. In particular, the connection between deep learning and model-based approaches is emphasized, proposing several novel techniques for cross-fertilization between these two paradigms. For each case-study, it will be shown how the use of (even approximate) mathematical models can significantly reduce the amount of live data that needs to be acquired/measured to implement data-driven approaches. For each application, the merits of the proposed approaches will be demonstrated by a numerical analysis in which the implementation and training of the artificial neural network used to solve the problem is discussed. Finally, concluding remarks describe those that in our opinion are the major directions for future research in this field.