PROGRAMME DES JOURNEES EMSoC RECHERCHE

23 et 24 Octobre 2008, Villard de Lans


•  9h00-9h30 :Accueil

•  9h30-10h00 : Introduction aux Journées, Dominique Borrione

Bilan du projet EMSoC Recherche, présentation du projet SEMBA

•  10h00-10h30 : Projets du Pôle Minalogic, Laurent Julliard

•  10h30-11h00 : Pause café

•  11h00-12h30 : Composants Hétérogènes et Modélisation (UML, System-C),

Organisé par Florence Maraninchi (VERIMAG)

•  Giovanni Funchal (VERIMAG-STMicroelectronics), Composants et niveaux d'abstraction pour la conception des systèmes-sur-puce.

Les systèmes-sur-puce sont des dispositifs électroniques complexes composés de plusieurs processeurs, mémoires, décodeurs, etc. Ces systèmes sont intégrés dans des produits haute-technologie comme des téléphones portables, assistants personnels, baladeurs musique/vidéo et, pourquoi pas, ceux qui font tout ça à la fois ! Pour faire face à la complexité du développement de ces systèmes, l'industrie utilise des abstractions qu'on appelle les modèles transactionnels (TLM pour transaction-level modeling). Ces modèles offrent deux avantages majeures pour le développement logiciel : la simulation rapide et une disponibilité tôt dans le flôt de développement. Ces modèles sont également utilisés pour la validation et pour l'évaluation de performance. Du point de vue de la recherche en revanche, ces modèles n'ont pas encore une sémantique très claire : bien que l'on ait une intuition sur ce que l'on voudrait qu'un modèle donné représente, on ne sait pas dire exactement ce qu'il représente. Nous étudions ce problème dans le cadre d'une coopération STMicroelectronics/Verimag.

•  Khaled Rahmouni (Schneider Electric/ TIMA SLS), Méthodes de modélisation et d'exploration d'architectures Hw/Sw pour des SoC destinés à la protection des réseaux électriques moyenne tension.

Les travaux qui seront présentés concernent :

La modélisation SystemC niveau CABA de la carte de traitement d'un relais de protection moyenne tension :

1. Architecture matérielle modélisée en SystemC
2. Code binaire utilisé pour valider le modèle de la carte
3. Résultats obtenus, difficultés rencontrées, perspectives d'avenir.

Les travaux d'exploration d'architecture sur ce modèle SystemC de la carte

1. Cas d'étude qui propose une solution à une problématique récurrente dans les relais de protection
2. Architecture proposée et implémentation de celle-ci
3. Résultats et perspectives.

•  Jean Arnaud (LIG-SARDES), Modeling and Capacity Planning of Clusters of Multi-Tier Application.

Althrough clustering of multi-tier systems provides a means for supporting scalable web applications, their ad-hoc configuration poses significant challenges to the performance and economical costs of multi-tier applications. We present the design and implementation of Moka --- a utility-aware framework for modeling multi-tier systems and planning their capacity and optimal configuration. Our contribution is threefold. First, we identify two levels of configurations of clusters of multi-tier systems, local configuration that applies at server's level and architectural configuration that relates to the clusters of servers in a multi-tier architecture. The combination of these two levels of configurations improves the overall performance and costs of clusters of multi-tier applications. Second, we present an objective function for characterizing the impact of local and architectural configurations on the performance and cost of multi-tier systems. Third, we develop utility-aware capacity planning algorithms for efficiently calculating local and architecural configurations of multi-tier systems, and discuss their optimality. Our experiments on an e-commerce auction site and a soccer web site show that Moka is able to produce optimal local and architectural configurations for these multi-tier applications. In addition, the evaluation shows that Moka can improve the efficiency of capacity planning by a factor of two in a two-tier application.

•  12h30-14h00 : Déjeuner

•  14h00-15h30 : Réseaux, Middleware, Systèmes d'Exploitation pour l'Embarqué.

Organisé par Fabrice Théoleyre (LIG)

•  Wassim Znaidi (CITI), Detecting Wormhole Attacks in Wireless Networks Using Local Neighborhood Information.

Les réseaux de capteurs constituent un axe de recherche très fertile ces dernières années. Cette technique se développe dans différents domaines comme l'environnement, l'industrie, le commerce, la médecine, l'armée etc. Ces réseaux sont formés en général d'un grand nombre de nœuds utilisant des liaisons sans fils pour communiquer entre eux. Les réseaux de capteurs ont pour objectif de collecter des informations et d'interagir avec l'environnement où ils sont insérés. Un nœud capteur est caractérisé aussi par des capacités restreintes en énergie, calcul, mémoire et sa portée de communication. En raison de ces contraintes, ces réseaux représentent alors une cible très importante pour de nombreuses attaques. Une des plus dangereuse attaques connue dans les WSN est l'attaque Wormhole. Cette attaque consiste en effet à créer un tunnel (en général assez long) entre deux nœuds malicieux leurs permettant de communiquer d'une façon ''illégale''. Dans cette présentation, nous proposons un algorithme efficace qui permet de détecter et de réagir face à la présence d'une telle attaque dans un réseau de capteurs. Notre proposition est basé sur la connaissance local du voisinage d'un nœud capteurs ainsi que le calcul des paramètres de connectivité du réseau. Notre approche permet ainsi une détection à 100% de l'attaque wormhole pour un réseau de capteurs dense.

•  Sadaf Tanvir (Drakkar), Localization in WSNs : Strategies to reduce energy consumption.

Randomly deployed nodes in a wireless sensor network (WSN) may use their location for routing or delivering meaningful information. Many WSN localization methods have been investigated in terms of their convergence, position refinement or need of a reference coordinate system. In this presentation, we talk about three of our proposed approaches of two-way ranging based localization and compare their energy consumption in terms of communication cost. We show that intuitive implementation of localization with beacon or hello messages can be improved if we take advantage of the so-called "localization wave-front" generated by a proper start-up of such a network wide process.

•  Vincent Roca (Planète), Les codes correcteurs d'erreurs de niveau applicatif (AL-FEC) et leurs applications.

Après un survol des activités de l'équipe INRIA Planète autour de la sécurité et des systèmes de diffusion, cette présentation s'intéressera à une brique capitale pour de nombreuses applications : les codes correcteurs d'erreurs (FEC) pour des "canaux à effacement de paquets". Ces codes, qui habituellement opèrent au niveau des couches transport ou application (d'où leur nom, AL-FEC), sont complémentaires des codes que l'on trouve au niveau de la couche physique. Un avantage des AL-FEC est qu'ils sont facilement implantés au sein de codecs logiciels, ce qui apporte une grande flexibilité : ils peuvent opérer sur de très gros blocs, là où les codes de la couche physique sont souvent limités par la mémoire disponible au sein du chipset, ils peuvent prendre en compte les contraintes applicatives en jouant dynamiquement sur la taille des blocs d'encodage, sur le volume d'informations de redondance ajoutées, et même en fournissant différents niveaux de protection. Nous présenterons pour finir les principaux champs d'application possibles pour ces codes. A noter que ce thème est développé dans le cadre du projet ANR RNRT 2006, CAPRI-FEC, labelisé par Minalogic.

•  15h30-18h00 : Pause café et Session Posters

e des exposés, vendredi 24 octobre.


•  9h00-10h00 : Validation des Systèmes (Test, Vérification, Certification).

Organisé par Rachid Echahed (LIG)

•  Ajitha Rajan  (LIG/Vasco), Coverage Metrics for Requirements-Based Testing.

In software development, validation that the software meets the customer requirements is accomplished through manual inspections and testing. Current practices in software validation rely on the engineering judgment of domain experts to determine whether or not the tests developed for validation adequately exercise the requirements. There is no objective way of determining the adequacy of validation tests. The work in this presentation tackles this problem by defining objective metrics termed, requirements coverage metrics, that helps determine whether the behaviors specified by the requirements have been adequately tested during software validation. We define coverage metrics directly on the structure of high-level software requirements. These metrics provide objective, implementation-independent measures of how well a validation test suite exercises a set of requirements. We focus on structural coverage criteria on requirements formalized as Linear Temporal Logic (LTL) properties. These criteria can also be used to automatically generate requirements-based test suites so that the high-cost of manually developing test cases from requirements is reduced. To achieve this, we developed a framework that automates the generation of requirements-based test cases providing requirements coverage. We illustrate the usefulness of the proposed metrics and test case generation technique with empirical investigations on realistic examples from the civil avionics domain.

•  Youssef Serrestou (LCIS), Optimisation de la qualité de la vérification fonctionnelle par analyse de mutation.

La vérification fonctionnelle doit impérativement garantir la qualité de la conception des systèmes intégrés dont les complexités augmentent sans cesse. A cette fin, de 60% à 70% de l'effort et du temps de conception sont consacrées à la vérification fonctionnelle qui est ainsi devenue un goulot d'étranglement dans le flot de conception. Cette tendance ne peut que s'accentuer d'où la nécessité de développer de nouveaux outils d'aide à la vérification. L'objectif de ce travail est de proposer une nouvelle méthode d'aide à l'automatisation de la vérification fonctionnelle en permettant, conjointement, de qualifier et d'améliorer l'environnement de vérification. L'approche proposée est basée sur l'analyse de mutation pour évaluer la qualité de l'environnement de vérification et sur des modèles d'algorithmes génétiques pour optimiser cette qualité. De plus, cette analyse de mutation est accélérée en utilisant une plateforme reconfigurable à base de FPGA. La plateforme ALIGATOR génère automatiquement des données de vérification adéquates au critère de mutation. Ces données permettent d'effectuer la validation de conception d'une implémentation HDL relativement à ses spécifications.

•  10h00-11h30 : Pause café et Session Posters

• 11h30-12h30 : Continuation du thème Validation des Systèmes (Test, Vérification, Certification).

Organisé par Rachid Echahed (LIG)

•  Pascal Raymond, Lutin : Programmation de systèmes réactifs indéterministes.

Nous proposons un langage permettant de spécifier des comportements réactifs indéterministes et stochastiques. Un tel langage peut être utile au cours du développement et de la validation des systèmes embarqués : modélisation de l'environnement physique, spécification de scénarios de test génériques, abstraction de composants matériels etc. Ce langage s'inspire le la lignée des langages synchrones, comme Lustre ou Esterel, et possède une sémantique opérationnelle formelle.

•  12h30-14h00 : Déjeuner

•  14h00-15h00 : Organisation du Projet SEMBA, discussion



• Album Photo...Cliquez sur les photos pour les agrandir