• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 35
  • 12
  • 3
  • Tagged with
  • 52
  • 32
  • 32
  • 17
  • 16
  • 16
  • 16
  • 15
  • 15
  • 14
  • 13
  • 12
  • 9
  • 9
  • 9
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Intergiciels pour applications distribuées sur réseaux dynamiques

Mahéo, Yves 21 April 2011 (has links) (PDF)
Les réseaux cibles des applications distribuées ont connu une évolution significative ces dernières années, faisant apparaître un dynamisme croissant. Une première caractéristique des réseaux dynamiques est la volatilité, qui implique que certaines machines du réseau peuvent être amenées à ne plus participer à l'application, de façon temporaire ou définitive. Une autre caractéristique est apparue avec l'avènement de l'informatique mobile : dans un contexte où les machines sont mobiles et communiquent par radio, la portée limitée des transmissions induit de fréquents changements de topologie du réseau. Nos travaux concernent deux catégories de réseaux dynamiques. Dans un premier temps, nous nous sommes intéressés aux applications relevant du Grid Computing et plus particulièrement aux applications parallèles ciblant des grappes non dédiées, c'est-à-dire à des ensembles de stations de travail hétérogènes banalisées reliées par des réseaux d'interconnexion eux aussi banalisés, offrant donc des performances variables. Dans un deuxième temps, nous avons considéré des réseaux cibles de l'informatique ambiante. Nous avons en particulier étudié les réseaux mobiles ad hoc discontinus, c'est-à-dire des réseaux formés spontanément à partir de machines mobiles communiquant par radio directement entre elles, sans passer par une infrastructure fixe, et dont la topologie est telle qu'ils ne se présentent pas sous la forme d'une seule composante connexe mais plutôt d'un ensemble d'îlots de communication distincts. Pour faciliter le développement et l'exploitation des applications distribuées sur réseaux dynamiques, il apparaît utile de s'appuyer sur des paradigmes de programmation de haut niveau tel que ceux mis en avant dans l'approche orientée composants et l'approche orientée services. Ces approches permettent notamment un découplage entre les entités de l'application, facilitant la gestion de la complexité du développement et du déploiement des applications dans un environnement dynamique. La plupart des technologies de composants et de services ont été conçues pour des réseaux stables et ne conviennent généralement pas aux applications sur réseaux dynamiques. Les travaux que nous avons menés ont eu pour objectif de faciliter l'exploitation des composants et services dans un contexte dynamique. Nous nous sommes surtout focalisés sur le support à l'exécution des applications bâties à partir de composants et services, ce support prenant la forme d'un intergiciel, c'est-à-dire d'un ensemble de services logiciels construits au-dessus des systèmes d'exploitation et des protocoles de communication, et invoqués par les composants de l'application. Nos contributions sont présentées à travers trois projets principaux : le projet Concerto, portant sur la définition d'un modèle de composants parallèles associé à un intergiciel pour des applications devant être déployées sur des grappes de stations de travail banalisées ; le projet Cubik, étendant le modèle de composants Fractal et proposant un support pour le déploiement et l'exécution de composants ubiquitaires pour réseaux dynamiques ; et le projet Sarah, s'attachant à la construction d'une plate-forme à services bâtie au dessus d'un protocole de communication adapté aux réseaux mobiles ad hoc discontinus.
42

Contribution to the management of large scale platforms: the Diet experience

Caron, Eddy 06 October 2010 (has links) (PDF)
10 ans. 10 ans de recherches autour du calcul haute performance dans des environnements distribués. Et tout au long de ces années, le développement d'un intergiciel appelé DIET comme liant de ces recherches. Aujourd'hui la naissance d'une start'up autour de DIET, offre à cet intergiciel une autre vie. Ce tournant me donne alors l'occasion de proposer une vision que j'espère complète de cette aventure. A travers l'expérience de DIET, il sera intéressant d'évoquer les problèmes de recherche inhérents au développement complet d'un intergiciel de grille et de Cloud pour le calcul haute performance. Les aspects d'interoperabilités seront tout d'abord évoqués au travers des efforts de standardisation du GridRPC, et nous verrons comment DIET répond au problème de la localisation de ressources. Le problème de l'extensibilité sera ensuite traité au travers de l'architecture proposée. Nous verrons ensuite la réponse faite pour la découverte de services qui partant d'un besoin de notre intergiciel débouchera sur une solution générique. Ces premiers travaux évoqués se focalise côté client. Côté serveur nous évoquerons la solution mise en place pour la gestion des ressources. L'étape suivante sera de s'intéresser au déploiement et à la planification de ce déploiement. Conformément à notre objectif initial de fournir un outil complet, nous aborderons ensuite les problèmes liés à la gestion de données. Nous mettrons ensuite en lumière un des points forts de DIET qui est la réponse de ce dernier aux problèmes d'ordonnancement sur des environnements hétérogènes. Ce qui nous conduira jusqu'à la gestion des workflows dans notre intergiciel. Enfin pour conclure je vous présenterai différents cas d'utilisation de DIET sur des applications réelles et variées dont la plateforme du projet Décrypthon qui utilise notre intergiciel dans un cadre de production.
43

Adaptation dynamique d'applications multimédia à leur contexte d'exécution dans les réseaux du futur

Billet, Yves-Gaël 12 October 2012 (has links) (PDF)
L'objectif de cette thèse est d'apporter une réponse à la problématique d'adaptation automatique et dynamique des services numériques au sein des réseaux du futur (NGN). Pour cela, notre contribution s'articule autour d'un intergiciel qui prend en charge les fonctions de gestion du contexte pour les services numériques ; ceci pour permettre l'émergence de services numériques sensibles au contexte dans les réseaux du futur. L'originalité de ces travaux dans les NGN se situe dans le modèle de conception pour des services numériques sensibles au contexte où l'on découple la logique métier du service numérique de la logique de gestion du contexte. Plus spécifiquement nous définissons la notion de signature de contexte, propre à chaque service numérique, qui permet d'identifier les situations d'usage du service numérique et accompagne l'intergiciel dans le choix de la modalité d'exécution la plus performante. Elle est liée au service numérique sensible au contexte dès sa conception. Lors du déploiement du service dans le serveur d'applications, la signature de contexte est désolidarisée de la logique métier et se voit insérée dans la base de connaissance de l'intergiciel. La signature fait ainsi le lien entre l'intergiciel et le service numérique. Elle permet d'activer l'ensemble des fonctions de traitement du contexte que nous avons modélisées sous la forme d'une chaîne de traitement du contexte. Cette approche assure une séparation des deux logiques qui composent un service numérique sensible au contexte. Les concepteurs de tels services peuvent alors se concentrer sur le développement de la logique métier sans se soucier des fonctions de gestion du contexte
44

Robusta : Une approche pour la construction d'applications dynamiques

Rudametkin, Walter 21 February 2013 (has links) (PDF)
Les domaines de recherche actuels, tels que l'informatique ubiquitaire et l'informatique en nuage (cloud computing), considèrent que ces environnements d'exécution sont en changement continue. Les applications dynamiques ; où les composants peuvent être ajoutés, supprimés pendant l'exécution, permettent a un logiciel de s'adapter et de s'ajuster à l'évolution des environnements, et de tenir compte de l'évolution du logiciel. Malheureusement, les applications dynamiques soulèvent des questions de conception et de développement qui n'ont pas encore été pleinement explorées. <br> Dans cette thèse, nous montrons que le dynamisme est une préoccupation transversale qui rompt avec un grand nombre d'hypothèses que les développeurs d'applications classiques sont autorisés à prendre. Le dynamisme affecte profondément la conception et développement de logiciels. S'il n'est pas manipulé correctement, le dynamisme peut " silencieusement " corrompre l'application. De plus, l'écriture d'applications dynamiques est complexe et sujette à erreur. Et compte tenu du niveau de complexité et de l'impact du dynamisme sur le processus du développement, le logiciel ne peut pas devenir dynamique sans (de large) modification et le dynamisme ne peut pas être totalement transparent (bien que beaucoup de celui-ci peut souvent être externalisées ou automatisées). <br> Ce travail a pour but d'offrir à l'architecte logiciel le contrôle sur le niveau, la nature et la granularité du dynamisme qui est nécessaire dans les applications dynamiques. Cela permet aux architectes et aux développeurs de choisir les zones de l'application où les efforts de programmation des composants dynamiques seront investis, en évitant le coût et la complexité de rendre tous les composants dynamiques. L'idée est de permettre aux architectes de déterminer l'équilibre entre les efforts à fournir et le niveau de dynamisme requis pour les besoins de l'application.
45

Synthèse dynamique de médiateurs dans les environnements ubiquitaires

Bennaceur, Amel 18 July 2013 (has links) (PDF)
Assurer l'interopérabilité de manière dynamique et automatique demeure un enjeu majeur dans le développement et la mise en œuvre des systèmes logiciels modernes. En effet, ces systèmes comprennent souvent plusieurs composants qui fonctionnent conjointement afin de satisfaire aux exigences des utilisateurs. Toutefois, les disparités pouvant exister entre les interfaces et les comportements de ces composants les empêchent de fonctionner ensemble, c'est-à-dire d'interopérer. Les solutions existantes visent à concilier ces disparités à travers la mise en œuvre d'intergiciels ou la génération de médiateurs. La mise en œuvre d'intergiciels n'offre qu'une solution statique, inadaptée aux environnements fortement dynamiques, tels que les environnements ubiquitaires. Les approches pour la génération de médiateurs requièrent que les correspondances entre les interfaces des composants soient préalablement spécifiées, et n'offrent de ce fait qu'une solution partiellement automatique à l'interopérabilité. Ainsi, les solutions existantes se révèlent souvent insuffisantes, particulièrement dans les environnements où les composants devant interopérer ne sont connus qu'à l'exécution. Dans cette thèse, nous définissons une approche à l'interopérabilité basée sur la synthèse automatique de médiateurs. Tout d'abord, nous intégrons la programmation par contraintes et le raisonnement ontologique afin d'inférer les traductions nécessaires pour pallier les différences entre les interfaces des composants. Ces traductions servent de base à la synthèse de médiateurs qui coordonnent les comportements des composants afin de garantir l'absence d'interblocage lors de leurs interactions. Enfin, nous procédons à l'analyse et la génération des messages au niveau intergiciel de façon à implémenter ces médiateurs. Pour valider notre approche, nous avons développé un prototype, appelé MICS, qui effectue la synthèse dynamique de médiateurs afin d'assurer l'interopérabilité entre composants en dépit de leurs différences aussi bien au niveau applicatif qu'au niveau intergiciel. Nous avons également expérimenté MICS en considérant plusieurs cas d'études allant de la médiation entre messageries instantanées à la gestion de l'interopérabilité dans les systèmes de systèmes. Cela nous a permis d'une part de démontrer la viabilité de notre solution et d'autre part d'évaluer son efficacité.
46

Système de gestion de flux pour l'Internet des objets intelligents / Data stream management system for the future internet of things

Billet, Benjamin 19 March 2015 (has links)
L'Internet des objets (ou IdO) se traduit à l'heure actuelle par l'accroissement du nombre d'objets connectés, c'est-à-dire d'appareils possédant une identité propre et des capacités de calcul et de communication de plus en plus sophistiquées : téléphones, montres, appareils ménagers, etc. Ces objets embarquent un nombre grandissant de capteurs et d'actionneurs leur permettant de mesurer l'environnement et d'agir sur celui-ci, faisant ainsi le lien entre le monde physique et le monde virtuel. Spécifiquement, l'Internet des objets pose plusieurs problèmes, notamment du fait de sa très grande échelle, de sa nature dynamique et de l'hétérogénéité des données et des systèmes qui le composent (appareils puissants/peu puissants, fixes/mobiles, batteries/alimentations continues, etc.). Ces caractéristiques nécessitent des outils et des méthodes idoines pour la réalisation d'applications capables (i) d'extraire des informations utiles depuis les nombreuses sources de données disponibles et (ii) d'interagir aussi bien avec l'environnement, au moyen des actionneurs, qu'avec les utilisateurs, au moyen d'interfaces dédiées. Dans cette optique, nous défendons la thèse suivante : en raison de la nature continue des données (mesures physiques, évènements, etc.) et leur volume, il est important de considérer (i) les flux comme modèle de données de référence de l'Internet des objets et (ii) le traitement continu comme modèle de calcul privilégié pour transformer ces flux. En outre, étant donné les préoccupations croissantes relatives à la consommation énergétique et au respect de la vie privée, il est préférable de laisser les objets agir au plus près des utilisateurs, si possible de manière autonome, au lieu de déléguer systématiquement l'ensemble des tâches à de grandes entités extérieures telles que le cloud. À cette fin, notre principale contribution porte sur la réalisation d'un système distribué de gestion de flux de données pour l'Internet des objets. Nous réexaminons notamment deux aspects clés du génie logiciel et des systèmes distribués : les architectures de services et le déploiement. Ainsi, nous apportons des solutions (i) pour l'accès aux flux de données sous la forme de services et (ii) pour le déploiement automatique des traitements continus en fonction des caractéristiques des appareils. Ces travaux sont concrétisés sous la forme d'un intergiciel, Dioptase, spécifiquement conçu pour être exécuté directement sur les objets et les transformer en fournisseurs génériques de services de calcul et de stockage.Pour valider nos travaux et montrer la faisabilité de notre approche, nous introduisons un prototype de Dioptase dont nous évaluons les performances en pratique. De plus, nous montrons que Dioptase est une solution viable, capable de s'interfacer avec les systèmes antérieurs de capteurs et d'actionneurs déjà déployés dans l'environnement. / The Internet of Things (IoT) is currently characterized by an ever-growing number of networked Things, i.e., devices which have their own identity together with advanced computation and networking capabilities: smartphones, smart watches, smart home appliances, etc. In addition, these Things are being equipped with more and more sensors and actuators that enable them to sense and act on their environment, enabling the physical world to be linked with the virtual world. Specifically, the IoT raises many challenges related to its very large scale and high dynamicity, as well as the great heterogeneity of the data and systems involved (e.g., powerful versus resource-constrained devices, mobile versus fixed devices, continuously-powered versus battery-powered devices, etc.). These challenges require new systems and techniques for developing applications that are able to (i) collect data from the numerous data sources of the IoT and (ii) interact both with the environment using the actuators, and with the users using dedicated GUIs. To this end, we defend the following thesis: given the huge volume of data continuously being produced by sensors (measurements and events), we must consider (i) data streams as the reference data model for the IoT and (ii) continuous processing as the reference computation model for processing these data streams. Moreover, knowing that privacy preservation and energy consumption are increasingly critical concerns, we claim that all the Things should be autonomous and work together in restricted areas as close as possible to the users rather than systematically shifting the computation logic into powerful servers or into the cloud. For this purpose, our main contribution can be summarized as designing and developing a distributed data stream management system for the IoT. In this context, we revisit two fundamental aspects of software engineering and distributed systems: service-oriented architecture and task deployment. We address the problems of (i) accessing data streams through services and (ii) deploying continuous processing tasks automatically, according to the characteristics of both tasks and devices. This research work lead to the development of a middleware layer called Dioptase, designed to run on the Things and abstract them as generic devices that can be dynamically assigned communication, storage and computation tasks according to their available resources. In order to validate the feasability and the relevance of our work, we implemented a prototype of Dioptase and evaluated its performance. In addition, we show that Dioptase is a realistic solution which can work in cooperation with legacy sensor and actuator networks currently deployed in the environment.
47

Intergiciel sémantique pour la recherche des services de l'internet des objets / Semantic-based middleware for IoT service search

Ben Fredj, Sameh 27 October 2014 (has links)
Avec l’avènement de l’Internet des Objets, nous sommes confrontés à une prolifération des appareils connectés répartis sur des emplacements physiques, appelés des espaces intelligents et qui offrent des services de l’Internet des Objets. La découverte simple et transparente de ces services est cruciale pour le succès de l’Internet des Objets. Les caractéristiques des services de l’Internet des objets, tels que leur nombre, leur hétérogénéité et leur dynamicité induite par la mobilité des appareils connectés, rendent leur découverte difficile. Dans cette thèse, nous proposons une architecture de système et ses mécanismes associés pour permettre une découverte efficace et scalable des services de l’Internet des Objets, en se basant sur le Web Sémantique et en supportant des contextes dynamiques. Notre approche repose sur les passerelles distribuées qui intègrent des mécanismes de regroupement, d’agrégation de l’information et de routage sémantique. / With the advent of the Internet of Things (IoT), we are facing a proliferation of connected devices distributed over physical locations, so called smart spaces and offering IoT services. Enabling an easy and seamless discovery of these IoT services is crucial for the success of the Internet of Things. The characteristics of IoT services, such as their sheer number, their heterogeneity and their dynamicity induced by the mobility of the related devices, make discovering them a challenge. In this thesis, we propose a system architecture and the associated mechanisms to enable efficient and scalable semantic-based IoT service discovery supporting dynamic contexts. Our approach relies on distributed semantic gateways that embed clustering, information aggregation and semantic routing mechanisms.
48

Hybrid real-time operating system integrated with middleware for resource-constrained wireless sensor nodes / Système d'exploitation temps-réel hybride intégré avec un middelware pour les noeuds capteurs sans fil contraints en ressources

Liu, Xing 30 June 2014 (has links)
Avec les avancées récentes en microélectronique, en traitement numérique et en technologie de communication, les noeuds de réseau de capteurs sans fil (noeud RCSF) deviennent de moins en moins encombrants et coûteux. De ce fait la technologie de RCSF est utilisée dans de larges domaines d’application. Comme les noeuds RCSF sont limités en taille et en coût, ils sont en général équipés d’un petit microcontrôleur de faible puissance de calcul et de mémoire etc. De plus ils sont alimentés par une batterie donc son énergie disponible est limitée. A cause de ces contraintes, la plateforme logicielle d’un RCSF doit consommer peu de mémoire, d’énergie, et doit être efficace en calcul. Toutes ces contraintes rendent les développements de logiciels dédiés au RCSF très compliqués. Aujourd’hui le développement d’un système d’exploitation dédié à la technologie RCSF est un sujet important. En effet avec un système d’exploitation efficient, les ressources matérielles d’une plateforme RCSF peuvent être utilisées efficacement. De plus, un ensemble de services système disponibles permet de simplifier le développement d’une application. Actuellement beaucoup de travaux de recherche ont été menés pour développer des systèmes d’exploitation pour le RCSF tels que TinyOS, Contiki, SOS, openWSN, mantisOS et simpleRTJ. Cependant plusieurs défis restent à relever dans le domaine de système d’exploitation pour le RCSF. Le premier des défis est le développement d’un système d’exploitation temps réel à faible empreinte mémoire dédié au RCSF. Le second défi est de développer un mécanisme permettant d’utiliser efficacement la mémoire et l’énergie disponible d’un RCSF. De plus, comment fournir un développement d’application pour le RCSF reste une question ouverte. Dans cette thèse, un nouveau système d’exploitation hybride, temps réel à énergie efficiente et à faible empreinte mémoire nommé MIROS dédié au RCSF a été développé. Dans MIROS, un ordonnanceur hybride a été adopté ; les deux ordonnanceurs évènementiel et multithread ont été implémentés. Avec cet ordonnanceur hybride, le nombre de threads de MIROS peut être diminué d’une façon importante. En conséquence, les avantages d’un système d’exploitation évènementiel qui consomme peu de ressource mémoire et la performance temps réel d’un système d’exploitation multithread ont été obtenues. De plus, l’allocation dynamique de la mémoire a été aussi réalisée dans MIROS. La technique d’allocation mémoire de MIROS permet l’augmentation de la zone mémoire allouée et le réassemblage des fragments de mémoire. De ce fait, l’allocation de mémoire de MIROS devient plus flexible et la ressource mémoire d’un noeud RCSF peut être utilisée efficacement. Comme l’énergie d’un noeud RCSF est une ressource à forte contrainte, le mécanisme de conservation d’énergie a été implanté dans MIROS. Contrairement aux autres systèmes d’exploitation pour RCSF où la conservation d’énergie a été prise en compte seulement en logiciel, dans MIROS la conservation d’énergie a été prise en compte à la fois en logiciel et en matériel. Enfin, pour fournir un environnement de développement convivial aux utilisateurs, un nouveau intergiciel nommé EMIDE a été développé et intégré dans MIROS. EMIDE permet le découplage d’une application de système. Donc le programme d’application est plus simple et la reprogrammation à distance est plus performante, car seulement les codes de l’application seront reprogrammés. Les évaluations de performance de MIROS montrent que MIROS est un système temps réel à faible empreinte mémoire et efficace pour son exécution. De ce fait, MIROS peut être utilisé dans plusieurs plateformes telles que BTnode, IMote, SenseNode, TelosB et T-Mote Sky. Enfin, MIROS peut être utilisé pour les plateformes RCSF à fortes contraintes de ressources. / With the recent advances in microelectronic, computing and communication technologies, wireless sensor network (WSN) nodes have become physically smaller and more inexpensive. As a result, WSN technology has become increasingly popular in widespread application domains. Since WSN nodes are minimized in physical size and cost, they are mostly restricted to platform resources such as processor computation ability, memory resources and energy supply. The constrained platform resources and diverse application requirements make software development on the WSN platform complicated. On the one hand, the software running on the WSN platform should be small in the memory footprint, low in energy consumption and high in execution efficiency. On the other hand, the diverse application development requirements, such as the real-time guarantee and the high reprogramming performance, should be met by the WSN software. The operating system (OS) technology is significant for the WSN proliferation. An outstanding WSN OS can not only utilize the constrained WSN platform resources efficiently, but also serve the WSN applications soundly. Currently, a set of WSN OSes have been developed, such as the TinyOS, the Contiki, the SOS, the openWSN and the mantisOS. However, many OS development challenges still exist, such as the development of a WSN OS which is high in real-time performance yet low in memory footprint; the improvement of the utilization efficiency to the memory and energy resources on the WSN platforms, and the providing of a user-friendly application development environment to the WSN users. In this thesis, a new hybrid, real-time, energy-efficient, memory-efficient, fault-tolerant and user-friendly WSN OS MIROS is developed. MIROS uses the hybrid scheduling to combine the advantages of the event-driven system's low memory consumption and the multithreaded system's high real-time performance. By so doing, the real-time scheduling can be achieved on the severely resource-constrained WSN platforms. In addition to the hybrid scheduling, the dynamic memory allocators are also realized in MIROS. Differing from the other dynamic allocation approaches, the memory heap in MIROS can be extended and the memory fragments in the MIROS can be defragmented. As a result, MIROS allocators become flexible and the memory resources can be utilized more efficiently. Besides the above mechanisms, the energy conservation mechanism is also implemented in MIROS. Different from most other WSN OSes in which the energy resource is conserved only from the software aspect, the energy conservation in MIROS is achieved from both the software aspect and the multi-core hardware aspect. With this conservation mechanism, the energy cost reduced significantly, and the lifetime of the WSN nodes prolonged. Furthermore, MIROS implements the new middleware software EMIDE in order to provide a user-friendly application development environment to the WSN users. With EMIDE, the WSN application space can be decoupled from the low-level system space. Consequently, the application programming can be simplified as the users only need to focus on the application space. Moreover, the application reprogramming performance can be improved as only the application image other than the monolithic image needs to be updated during the reprogramming process. The performance evaluation works to the MIROS prove that MIROS is a real-time OS which has small memory footprint, low energy cost and high execution efficiency. Thus, it is suitable to be used on many WSN platforms including the BTnode, IMote, SenseNode, TelosB, T-Mote Sky, etc. The performance evaluation to EMIDE proves that EMIDE has less memory cost and low energy consumption. Moreover, it supports small-size application code. Therefore, it can be used on the high resource-constrained WSN platforms to provide a user-friendly development environment to the WSN users.
49

R-*, Réflexion au Service de l'Évolution des Systèmes de Systèmes

Labéjof, Jonathan 20 December 2012 (has links) (PDF)
Dans un monde de plus en plus connecté, le besoin d'interconnecter des systèmes hétérogènes apparait de plus en plus présent. Les Systèmes de Systèmes (SoS) sont une approche de supervision et de contrôle global où les systèmes constituants sont caractérisés comme des sous-systèmes du SoS. Certains de ces sous-systèmes peuvent être sujets à un environnement dynamique leur demandant d'évoluer pour répondre à de nouvelles exigences, voire de s'adapter s'ils doivent répondre à un besoin de disponibilité. La principale difficulté dans la gestion des évolutions possibles est qu'elles peuvent impacter plusieurs sous-systèmes connectés, et par extension, une vision globale comme celle proposée par un système de systèmes. Ainsi, les problèmes d'évolution et d'adaptation d'un SoS se posent. Dans un cadre d'ingénierie logicielle, cette thèse propose l'approche R-* qui soutient l'hypothèse que plus un système est Réflexif, et plus il devient capable de s'adapter, et donc d'évoluer. Trois contributions majeures et un cas d'utilisation évalu ́e sont proposés pour justifier l'intérêt de R-*. R-DDS et R-MOM ajoutent la capacité de réflexivité dans des sous-systèmes de communication asynchrones, et R-EMS ajoute la capacité de réflexivité sur la vision globale d'un SoS, incluant ses sous-syst'emes et son environnement. R-DDS ajoute la réflexivité à l'intergiciel de Service de Distribution de Données dédié aux domaines du temps-réel et de l'embarqué. R-MOM remonte en abstraction pour proposer la réflexivité au niveau des fonctionalités d'un intergiciel asynchrone. R-EMS est un système de gestion d'environnement réflexif en support de l'utilisation d'un SoS. Finalement, le cas d'utilisation est une implémentation d'un sous-modèle du système de systèmes TACTICOS de THALES, qui servira également d'environnement d'évaluation.
50

Déploiement auto-adaptatif d'intergiciel sur plate-forme élastique / Self-adaptive deployment for middleware on elastic platform

Faye, Maurice-Djibril 10 November 2015 (has links)
Nous avons étudié durant cette thèse les moyens de rendre le déploiement d'un intergiciel auto-adaptatif. Le type d'intergiciel que nous avons considéré ici est hiérarchique (structure de graphe) et distribué. Chaque sommet du graphe modélise un processus qui peut être déployé sur une machine physique ou virtuelle d'une infrastructure de type grille/cloud, les arêtes modélisent des liens de communications entre processus. Il offre aux clients des services de calcul haute performance. Les infrastructures de grilles/cloud étant élastiques (perte et ajout de nœuds), un déploiement statique n'est pas la solution idéale car en cas de panne on risque de tout reprendre à zéro, ce qui est coûteux. Nous avons donc proposé un algorithme auto-stabilisant pour que l'intergiciel puisse retrouver un état stable sans intervention extérieure, au bout d'un temps fini, lorsqu'il est confronté à certains types de pannes. Les types de pannes que nous avons considérés sont les pannes transitoires (simulé par la perte de nœuds, l'ajout de nouveaux nœuds, la perte de liens entre deux nœuds). Pour évaluer ces algorithmes, nous avons conçu un simulateur. Les résultats des simulations montrent qu'un déploiement, sujet à des pannes transitoires, s'auto-adapte. Avant d'en arriver à la phase de programmation du simulateur, nous avons d'abord proposé un modèle d'infrastructure distribuée (ce modèle permet de décrire des environnements de type grille/cloud), un modèle pour décrire certains types d'intergiciels hiérarchiques et enfin un modèle pouvant décrire un intergiciel en cours d'exécution (processus déployés sur les machines). / We have studied the means to make a middleware deployment self-adaptive. Our use case middleware is hierarchical and distributed and can be modeled by a graph. A vertex models a process and an edge models a communication link between two processes. The middleware provides high performance computing services to the users.Once the middleware is deployed on a computing infrastructure like a grid or cloud, how it adapt the changes in dynamic environment? If the deployment is static, it may be necessary to redo all the deployment process, which is a costly operation. A better solution would be to make the deployment self-adaptive. We have proposed a rules-based self-stabilizing algorithm to manage a faulty deployment. Thus, after the detection of an unstable deployment, caused by some transients faults (joining of new nodes or deletion of existing nodes which may modify the deployment topology), the system will eventually recover a stable state, without external help, but only by executing the algorithm.We have designed an ad hoc discrete events simulator to evaluate the proposed algorithm. The simulation results show that, a deployment, subjected to transients faults which make it unstable, adapts itself. Before the simulator design, we had proposed a model to describe a distributed infrastructure, a model to describe hierarchical middleware and a model to describe a deployment, that is the mapping between the middleware processes and the hardware on which they are running on.

Page generated in 0.4742 seconds