• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 47
  • 36
  • 7
  • 1
  • Tagged with
  • 90
  • 43
  • 42
  • 34
  • 30
  • 19
  • 17
  • 17
  • 16
  • 16
  • 16
  • 15
  • 15
  • 15
  • 15
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Low-temperature based thermal micro-grids : operation and performance assessments / Micro-réseaux de chaleur urbains basse température : évaluation du fonctionnement et de la performance

Castro Flores, Jose Fiacro 04 July 2018 (has links)
L’utilisation d'énergie en milieu urbain est essentielle pour le bon fonctionnement de notre société, en particulier pour les besoins de chauffage qui est un élément central de notre système énergétique souvent considéré comme allant de soi. Dans ce cadre, les systèmes énergétiques urbains et en particulier les réseaux de chaleur urbains ont besoin d’évoluer pour s'adapter à la transition à venir vers un système énergétique durable. Ce travail de recherche a pour objectif de présenter, de discuter et d’évaluer, du point de vue technico-économique, le concept de micro-réseaux de chaleur urbains basse température comme réseaux secondaires de distribution de chaleur actifs. Dans cette thèse, une approche méthodologique mixte basée sur la simulation analytique pour l'évaluation des alternatives est développée et discutée pour étudier une combinaison de technologies associées aux sous-stations basse température. Les principaux résultats de ce travail couvrent : le développement d’un modèle amélioré de charges thermiques agrégées ; la comparaison des performances des réseaux basse température ; l’analyse des avantages et des inconvénients des sous-stations actives couplées à des sources de chaleur ou du stockage distribuées ; et les effets d’une température de retour du réseau primaire plus basse. Les conclusions révèlent que la conception et le fonctionnement intégrés du micro-réseau de chaleur urbain actif ont le potentiel d'améliorer les performances de l'ensemble du système, afin de relever ses défis d'une manière efficace et rentable. Ce travail fait progresser les connaissances actuelles sur le chauffage urbain en identifiant les synergies et les enjeux associés, en vue de que ces technologies jouent un rôle clé dans le futur système énergétique intelligent et durable. / Energy use in the urban environment is vital for the proper functioning of our society, and in particular, comfort heating –and cooling– is a central element of our energy system that is often taken for granted. Within this context, district energy systems and especially, district heating (DH) systems must evolve to adapt to the upcoming decades-long transition towards a sustainable energy system. This dissertation seeks to introduce, discuss, and asses from a techno-economic perspective, the concept of low-temperature based thermal micro-grids (subnets) as active distribution thermal networks. For this purpose, a mixed methodological approach based on analytical simulation for the assessment of alternatives is developed and discussed to evaluate a set of technologies. Key findings of this research include: an updated and improved model of aggregated heat loads; the identification of differences in load and temperature patterns for certain LT subnets; the analysis of benefits and drawbacks of active substations with distributed heat sources and/or storage; and the impact of the reduction of the primary network return temperature, which leads to lower generation & operating costs. These outcomes reveal that the integrated design and operation of the active thermal micro-grid have the potential to improve the performance of the entire system, to address the matter of providing comfort heating in an effective and cost-efficient manner. This work advances the current DH knowledge by identifying synergies and challenges that arise with these new developments, in order for DH to play a key role in the future smart and sustainable energy system.
62

Méthodes d'optimisation pour le traitement de requêtes réparties à grande échelle sur des données liées / Optimization methods for large-scale distributed query processing on linked data

Oğuz, Damla 28 June 2017 (has links)
Données Liées est un terme pour définir un ensemble de meilleures pratiques pour la publication et l'interconnexion des données structurées sur le Web. A mesure que le nombre de fournisseurs de Données Liées augmente, le Web devient un vaste espace de données global. La fédération de requêtes est l'une des approches permettant d'interroger efficacement cet espace de données distribué. Il est utilisé via un moteur de requêtes fédéré qui vise à minimiser le temps de réponse du premier tuple du résultat et le temps d'exécution pour obtenir tous les tuples du résultat. Il existe trois principales étapes dans un moteur de requêtes fédéré qui sont la sélection de sources de données, l'optimisation de requêtes et l'exécution de requêtes. La plupart des études sur l'optimisation de requêtes dans ce contexte se concentrent sur l'optimisation de requêtes statique qui génère des plans d'exécution de requêtes avant l'exécution et nécessite des statistiques. Cependant, l'environnement des Données Liées a plusieurs caractéristiques spécifiques telles que les taux d'arrivée de données imprévisibles et les statistiques peu fiables. En conséquence, l'optimisation de requêtes statique peut provoquer des plans d'exécution inefficaces. Ces contraintes montrent que l'optimisation de requêtes adaptative est une nécessité pour le traitement de requêtes fédéré sur les données liées. Dans cette thèse, nous proposons d'abord un opérateur de jointure adaptatif qui vise à minimiser le temps de réponse et le temps d'exécution pour les requêtes fédérées sur les endpoints SPARQL. Deuxièmement, nous étendons la première proposition afin de réduire encore le temps d'exécution. Les deux propositions peuvent changer la méthode de jointure et l'ordre de jointures pendant l'exécution en utilisant une optimisation de requêtes adaptative. Les opérateurs adaptatifs proposés peuvent gérer différents taux d'arrivée des données et le manque de statistiques sur des relations. L'évaluation de performances dans cette thèse montre l'efficacité des opérateurs adaptatifs proposés. Ils offrent des temps d'exécution plus rapides et presque les mêmes temps de réponse, comparé avec une jointure par hachage symétrique. Par rapport à bind join, les opérateurs proposés se comportent beaucoup mieux en ce qui concerne le temps de réponse et peuvent également offrir des temps d'exécution plus rapides. En outre, le deuxième opérateur proposé obtient un temps de réponse considérablement plus rapide que la bind-bloom join et peut également améliorer le temps d'exécution. Comparant les deux propositions, la deuxième offre des temps d'exécution plus rapides que la première dans toutes les conditions. En résumé, les opérateurs de jointure adaptatifs proposés présentent le meilleur compromis entre le temps de réponse et le temps d'exécution. Même si notre objectif principal est de gérer différents taux d'arrivée des données, l'évaluation de performance révèle qu'ils réussissent à la fois avec des taux d'arrivée de données fixes et variés. / Linked Data is a term to define a set of best practices for publishing and interlinking structured data on the Web. As the number of data providers of Linked Data increases, the Web becomes a huge global data space. Query federation is one of the approaches for efficiently querying this distributed data space. It is employed via a federated query engine which aims to minimize the response time and the completion time. Response time is the time to generate the first result tuple, whereas completion time refers to the time to provide all result tuples. There are three basic steps in a federated query engine which are data source selection, query optimization, and query execution. This thesis contributes to the subject of query optimization for query federation. Most of the studies focus on static query optimization which generates the query plans before the execution and needs statistics. However, the environment of Linked Data has several difficulties such as unpredictable data arrival rates and unreliable statistics. As a consequence, static query optimization can cause inefficient execution plans. These constraints show that adaptive query optimization should be used for federated query processing on Linked Data. In this thesis, we first propose an adaptive join operator which aims to minimize the response time and the completion time for federated queries over SPARQL endpoints. Second, we extend the first proposal to further reduce the completion time. Both proposals can change the join method and the join order during the execution by using adaptive query optimization. The proposed operators can handle different data arrival rates of relations and the lack of statistics about them. The performance evaluation of this thesis shows the efficiency of the proposed adaptive operators. They provide faster completion times and almost the same response times, compared to symmetric hash join. Compared to bind join, the proposed operators perform substantially better with respect to the response time and can also provide faster completion times. In addition, the second proposed operator provides considerably faster response time than bind-bloom join and can improve the completion time as well. The second proposal also provides faster completion times than the first proposal in all conditions. In conclusion, the proposed adaptive join operators provide the best trade-off between the response time and the completion time. Even though our main objective is to manage different data arrival rates of relations, the performance evaluation reveals that they are successful in both fixed and different data arrival rates.
63

Analyse Structurelle pour le Diagnostic des Systèmes Distribués / Structural analysis for the diagnosis of distributed systems

Perez zuniga, Carlos gustavo 21 August 2017 (has links)
Les récents développements des systèmes technologiques ont mené à une complexification des comportements des systèmes actuels. Une solution pour gérer cette complexité croissante consiste à les considérer comme un ensemble de sous-systèmes hétérogènes et à développer des techniques distribuées pour les contrôler et les gérer. Cette solution soulève plusieurs problèmes. Tout d’abord, l’augmentation de la taille et du nombre de composants entraîne immanquablement l’augmentation du nombre de fautes qui peuvent conduire le système dans un état de défaillance critique. De fait, parmi les fonctions opérationnelles, les tâches de détection et d’isolation des fautes (Fault Detection and Isolation ou FDI), de maintenance et de réparation sont devenues prédominantes et elles influent considérablement sur le coût total des produits finaux.Cette thèse porte sur la détection et l’isolation de fautes. Parmi les différentes méthodes pour générer des tests de diagnostic utilisant la redondance analytique, cette thèse adopte l’approche par espace de parité qui utilise les relations de redondance analytique (RRA). Étant donné un modèle du système sous la forme d’un ensemble d’équations différentielles, les RRA sont des relations obtenues à partir du modèle en éliminant les variables non mesurées. Ceci peut être effectué dans un cadre analytique en utilisant la théorie de l’élimination. Une autre solution consiste à utiliser l’analyse structurelle. L’analyse structurelle est basée sur une abstraction du modèle qui ne conserve que les liens entre variables et équations. Malgré son apparente simplicité, l’analyse structurelle fournit un ensemble d’outils puissants, s’appuyant sur la théorie des graphes, pour analyser et inférer des informations sur le système. Par ailleurs, elle a l’avantage de s’appliquer indifféremment sur les systèmes linéaires ou non linéaires.L’objectif de cette thèse est de développer des techniques efficaces basées sur l’analyse structurelle pour le diagnostic des systèmes continus distribué. Dans ce cadre, le système se décompose en un ensemble de sous-systèmes en fonction de contraintes fonctionnelles, géographiques ou de confidentialité. La thèse se divise principalement en deux parties :• la première partie cherche à mettre à lumière, à partir des modèles structurels obtenus au niveau des sous-systèmes, les redondances qui généreront des tests de diagnostic pertinents au niveau du système global,• la deuxième partie vise à formuler et résoudre le problème d’optimisation lié au choix d’un sous-ensemble de tests de diagnostic au niveau des sous-systèmes permettant une diagnosticabilité maximale pour le système global.La première partie utilise le concept d’ensemble minimal structurellement surdéterminé guidé par les fautes (Fault-Driven Minimal Structurally Overdetermined Set ou FMSO set). Ce concept est introduit dans la thèse. Il s’agit d’un sousensemble d’équations du modèle avec une redondance minimale à partir de laquelle une RRA sensible à un ensemble de fautes peut être obtenu. Deux solutions pour générer des ensembles FMSO pour le système global sont présentées, d’une part dans un cadre décentralisé avec des superviseurs imbriqués suivant une hiérarchie; d’autre part dans un cadre totalement distribué. Ces solutions sont basées sur les propriétés des ensembles FMSO au niveau des sous-systèmes qui sont présentées dans la thèse. La deuxième partie pose un problème d’optimisation dans le cadre d’une recherche heuristique et propose trois solutions basées sur un algorithme A* itératif combiné avec une fonction capable d’évaluer si un ensemble FMSO au niveau global peut être obtenu à partir des ensembles FMSO locaux sélectionnés. Les concepts introduits dans la thèse et les résultats sont appliqués à deux cas d’étude industriels. Le premier est une usine de désalinisation. Le second est un système de détermination et de contrôle d’attitude pour un satellite en orbite basse. / The recent development of technological systems implies a high complexity of behaviors for today’s systems. An answer to the increased system’s complexity is to look at them as a multitude of heterogeneous subsystems and develop distributed techniques to control and manage them. This raises a number of problems. Firstly, as the size and number of components increase, so does the number of fault occurrences that may drive the system to undergo critical failures. Fault detection and isolation (FDI), maintenance and repair are an increasing part of the operational everyday’s tasks and they impact drastically the total cost of final products.This thesis focuses on fault detection and isolation. Among the different methods to generate diagnosis tests by taking advantage of analytical redundancy, this thesis adopts the so-called parity space approach based on analytical redundancy relations (ARRs). Given a model of the system in the form of a set of differential equations, ARRs are relations that are obtained from the model by eliminating non measured variables. This can be performed in an analytical framework using elimination theory but another way of doing this is to use structural analysis. Structural analysis is based on a structural abstraction of the model that only retains a representation of which variables are involved in which equations. Despite the rusticity of the abstract model, structural analysis provides a set of powerful tools, relying on graph theory, to analyze and infer information about the system. Interestingly, it applies indifferently to linear or nonlinear systems. The goal of this thesis is to develop effective techniques based on structural analysis for diagnosis of distributed continuous systems. In this framework, the system is decomposed into a set of subsystems according to functional, geographical or privacy constraints. The thesis is organized in two parts:• highlighting the redundancies that are built into the global structural model and that can be used to generate diagnosis tests starting from the redundancies existing in the subsystem’s models,• formulating and solving the optimization problem linked to the choice of a subset of diagnosis tests at the subsystems level that can lead to a set of diagnosis tests achieving maximum diagnosability for the global system.The first part takes benefit of the concept of Fault-Driven Minimal Structurally Overdetermined Set (FMSO set) that is introduced in the thesis. An FMSO set determines a subset of equations of the model with minimal redundancy from which an ARR sensitive to a set of faults can be obtained. Two solutions for generating FMSOs for the global system are presented, in a decentralized framework with supervisors at each level of a hierarchy and in a totally distributed framework.These are based on the properties of the FMSO sets for the subsystems in relation to those of the global system derived in the thesis.
64

Optimizing Communication Cost in Distributed Query Processing / Optimisation du coût de communication des données dans le traitement des requêtes distribuées

Belghoul, Abdeslem 07 July 2017 (has links)
Dans cette thèse, nous étudions le problème d’optimisation du temps de transfert de données dans les systèmes de gestion de données distribuées, en nous focalisant sur la relation entre le temps de communication de données et la configuration du middleware. En réalité, le middleware détermine, entre autres, comment les données sont divisées en lots de F tuples et messages de M octets avant d’être communiqués à travers le réseau. Concrètement, nous nous concentrons sur la question de recherche suivante : étant donnée requête Q et l’environnement réseau, quelle est la meilleure configuration de F et M qui minimisent le temps de communication du résultat de la requête à travers le réseau?A notre connaissance, ce problème n’a jamais été étudié par la communauté de recherche en base de données.Premièrement, nous présentons une étude expérimentale qui met en évidence l’impact de la configuration du middleware sur le temps de transfert de données. Nous explorons deux paramètres du middleware que nous avons empiriquement identifiés comme ayant une influence importante sur le temps de transfert de données: (i) la taille du lot F (c’est-à-dire le nombre de tuples dans un lot qui est communiqué à la fois vers une application consommant des données) et (ii) la taille du message M (c’est-à-dire la taille en octets du tampon du middleware qui correspond à la quantité de données à transférer à partir du middleware vers la couche réseau). Ensuite, nous décrivons un modèle de coût permettant d’estimer le temps de transfert de données. Ce modèle de coût est basé sur la manière dont les données sont transférées entre les noeuds de traitement de données. Notre modèle de coût est basé sur deux observations cruciales: (i) les lots et les messages de données sont communiqués différemment sur le réseau : les lots sont communiqués de façon synchrone et les messages dans un lot sont communiqués en pipeline (asynchrone) et (ii) en raison de la latence réseau, le coût de transfert du premier message d’un lot est plus élevé que le coût de transfert des autres messages du même lot. Nous proposons une stratégie pour calibrer les poids du premier et non premier messages dans un lot. Ces poids sont des paramètres dépendant de l’environnement réseau et sont utilisés par la fonction d’estimation du temps de communication de données. Enfin, nous développons un algorithme d’optimisation permettant de calculer les valeurs des paramètres F et M qui fournissent un bon compromis entre un temps optimisé de communication de données et une consommation minimale de ressources. L’approche proposée dans cette thèse a été validée expérimentalement en utilisant des données issues d’une application en Astronomie. / In this thesis, we take a complementary look to the problem of optimizing the time for communicating query results in distributed query processing, by investigating the relationship between the communication time and the middleware configuration. Indeed, the middleware determines, among others, how data is divided into batches and messages before being communicated over the network. Concretely, we focus on the research question: given a query Q and a network environment, what is the best middleware configuration that minimizes the time for transferring the query result over the network? To the best of our knowledge, the database research community does not have well-established strategies for middleware tuning. We present first an intensive experimental study that emphasizes the crucial impact of middleware configuration on the time for communicating query results. We focus on two middleware parameters that we empirically identified as having an important influence on the communication time: (i) the fetch size F (i.e., the number of tuples in a batch that is communicated at once to an application consuming the data) and (ii) the message size M (i.e., the size in bytes of the middleware buffer, which corresponds to the amount of data that can be communicated at once from the middleware to the network layer; a batch of F tuples can be communicated via one or several messages of M bytes). Then, we describe a cost model for estimating the communication time, which is based on how data is communicated between computation nodes. Precisely, our cost model is based on two crucial observations: (i) batches and messages are communicated differently over the network: batches are communicated synchronously, whereas messages in a batch are communicated in pipeline (asynchronously), and (ii) due to network latency, it is more expensive to communicate the first message in a batch compared to any other message that is not the first in its batch. We propose an effective strategy for calibrating the network-dependent parameters of the communication time estimation function i.e, the costs of first message and non first message in their batch. Finally, we develop an optimization algorithm to effectively compute the values of the middleware parameters F and M that minimize the communication time. The proposed algorithm allows to quickly find (in small fraction of a second) the values of the middleware parameters F and M that translate a good trade-off between low resource consumption and low communication time. The proposed approach has been evaluated using a dataset issued from application in Astronomy.
65

Un système de médiation distribué pour l'e-santé et l'épidémiologie / A shared mediation system for E-health and epidemiology

Cipière, Sébastien 12 July 2016 (has links)
À ce jour, les mesures de risque des cancers ou d’efficacité de leur suivi, se font à partir de recueils de données médicales spécifiques initiés par les médecins épidémiologistes. Ces recueils disposent néanmoins de certaines limites : perte d’information, biais de déclaration, absence de données pour un risque non connu, biais de mesure (par exemple pour les données de nature médico-économiques). Le partage sécurisé de données médicales entre différentes structures médicales publiques et/ou privées est à ce jour en pleine mutation technologique. Les technologies proposées doivent rendre possible un partage électronique et sécurisé de ces données de manière à les rendre disponible à tout instant dans le cadre de l’observation sanitaire à l’évaluation de prises en charge ou de politiques de santé. Pour répondre à ces besoins, l’infrastructure GINSENG se base sur des informations produites dans le cadre des soins, sans nouvelles modalités de recueil, permettant à la fois une vitesse d’accès à l’information et une exhaustivité accrue. Ce recueil se fait par ailleurs avec de meilleures garanties d’anonymat et un chaînage de l’information médicale pour chaque patient. Une autorisation de la CNIL a été octroyée à l’infrastructure informatique du projet ainsi qu’à son utilisation pour le suivi des cancers en octobre 2013. Depuis le portail web e-ginseng.com, les médecins habilités s’authentifient grâce à leur Carte de Professionnel de Santé (CPS). Chaque patient, dont les données médicales sont réparties dans les établissements de santé, est identifié avec son accord, par les attributs suivants : nom, prénom, année et mois de naissance ainsi que son code postal de résidence avant d’être assigné à un numéro d’identification unique et anonyme. La mise à jour des données médicales de chaque patient est réalisée une fois par semaine ; chaque médecin peut alors consulter toutes les informations médicales relatives à chaque patient par une simple connexion au réseau. Ces informations lui apparaissent sous forme d’une arborescence d’évènements médicaux. Par exemple, un médecin chargé du suivi des patients dans le cadre du dépistage organisé pourra accéder directement depuis le portail web aux informations médicales dont il aura besoin pour établir une fiche médicale exhaustive du parcours du patient pour lequel un cancer aurait été détecté ou bien une suspicion de cancer qui se serait avérée négative suite à plusieurs examens médicaux. Un médecin épidémiologiste peut également réaliser des requêtes statistiques d’envergure sur les données médicales afin de répondre à des questions d’intérêt en santé publique. Pour aller plus loin, les requêtes épidémiologiques lancées sur les données médicales peuvent être couplées à des informations d’utilité publique recueillies sur d’autres bases de données en accès libre sur internet. L’infrastructure informatique GINSENG est actuellement déployée pour le suivi des cancers en région Auvergne entre les structures de gestion du dépistage organisé du cancer (SGDO) et le cabinet d’anatomie et cytologie pathologiques (ACP) Sipath-Unilabs. Le recours à un hébergeur de données de santé (HADS), nommé Informatique de sécurité (IDS), est également proposé pour le stockage des informations confidentielles des patients. Cette infrastructure permet actuellement de collecter toutes les informations médicales d’intérêt pour le suivi des cancers et l’évaluation des pratiques médicales. Les équipes de bio-statistiques et de santé publique du CHU de Clermont-Ferrand établissent actuellement les analyses épidémiologiques d’intérêt à partir des données collectées par le réseau. / The implementation of a grid network to support large-scale epidemiology analysis (based on distributed medical data sources) and medical data sharing require medical data integration and semantic alignment. In this thesis, we present the GINSENG (Global Initiative for Sentinel eHealth Network on Grid) network that federates existing Electronic Health Records through a rich metamodel (FedEHR), a semantic data model (SemEHR) and distributed query toolkits. A query interface based on the VIP platform, and available through the e-ginseng.com web portal helps medical end-users in the design of epidemiological studies and the retrieval of relevant medical data sets.
66

Utilisation de représentations de mots pour l’étiquetage de rôles sémantiques suivant FrameNet

Léchelle, William 01 1900 (has links)
Dans la sémantique des cadres de Fillmore, les mots prennent leur sens par rapport au contexte événementiel ou situationnel dans lequel ils s’inscrivent. FrameNet, une ressource lexicale pour l’anglais, définit environ 1000 cadres conceptuels, couvrant l’essentiel des contextes possibles. Dans un cadre conceptuel, un prédicat appelle des arguments pour remplir les différents rôles sémantiques associés au cadre (par exemple : Victime, Manière, Receveur, Locuteur). Nous cherchons à annoter automatiquement ces rôles sémantiques, étant donné le cadre sémantique et le prédicat. Pour cela, nous entrainons un algorithme d’apprentissage machine sur des arguments dont le rôle est connu, pour généraliser aux arguments dont le rôle est inconnu. On utilisera notamment des propriétés lexicales de proximité sémantique des mots les plus représentatifs des arguments, en particulier en utilisant des représentations vectorielles des mots du lexique. / According to Frame Semantics (Fillmore 1976), word meanings are best understood considering the semantic frame they play a role in, for the frame is what gives them context. FrameNet is a lexical database that defines about 1000 semantic frames, along with the roles to be filled by arguments to the predicate calling the frame in a sentence. Our task is to automatically label argument roles, given their position, the frame, and the predicate (sometimes refered to as semantic role labelling). For this task, I make use of distributed word representations, in order to improve generalisation over the few training exemples available for each frame. A maximum entropy classifier using common features of the arguments is used as a strong baseline to be improved upon.
67

Vers une gestion coopérative des infrastructures virtualisées à large échelle : le cas de l'ordonnancement / Toward cooperative management of large-scale virtualized infrastructures : the case of scheduling

Quesnel, Flavien 20 February 2013 (has links)
Les besoins croissants en puissance de calcul sont généralement satisfaits en fédérant de plus en plus d’ordinateurs (ou noeuds) pour former des infrastructures distribuées. La tendance actuelle est d’utiliser la virtualisation système dans ces infrastructures, afin de découpler les logiciels des noeuds sous-jacents en les encapsulant dans des machines virtuelles. Pour gérer efficacement ces infrastructures virtualisées, de nouveaux gestionnaires logiciels ont été mis en place. Ces gestionnaires sont pour la plupart hautement centralisés (les tâches de gestion sont effectuées par un nombre restreint de nœuds dédiés). Cela limite leur capacité à passer à l’échelle, autrement dit à gérer de manière réactive des infrastructures de grande taille, qui sont de plus en plus courantes. Au cours de cette thèse, nous nous sommes intéressés aux façons d’améliorer cet aspect ; l’une d’entre elles consiste à décentraliser le traitement des tâches de gestion, lorsque cela s’avère judicieux. Notre réflexion s’est concentrée plus particulièrement sur l’ordonnancement dynamique des machines virtuelles, pour donner naissance à la proposition DVMS (Distributed Virtual Machine Scheduler). Nous avons mis en œuvre un prototype, que nous avons validé au travers de simulations (notamment via l’outil SimGrid), et d’expériences sur le banc de test Grid’5000. Nous avons pu constater que DVMS se montrait particulièrement réactif pour gérer des infrastructures virtualisées constituées de dizaines de milliers de machines virtuelles réparties sur des milliers de nœuds. Nous nous sommes ensuite penchés sur les perspectives d’extension et d’amélioration de DVMS. L’objectif est de disposer à terme d’un gestionnaire décentralisé complet, objectif qui devrait être atteint au travers de l’initiative Discovery qui fait suite à ces travaux. / The increasing need in computing power has been satisfied by federating more and more computers (called nodes) to build the so-called distributed infrastructures. Over the past few years, system virtualization has been introduced in these infrastructures (the software is decoupled from the hardware by packaging it in virtual machines), which has lead to the development of software managers in charge of operating these virtualized infrastructures. Most of these managers are highly centralized (management tasks are performed by a restricted set of dedicated nodes). As established, this restricts the scalability of managers, in other words their ability to be reactive to manage large-scale infrastructures, that are more and more common. During this Ph.D., we studied how to mitigate these concerns ; one solution is to decentralize the processing of management tasks, when appropriate. Our work focused in particular on the dynamic scheduling of virtual machines, resulting in the DVMS (Distributed Virtual Machine Scheduler) proposal. We implemented a prototype, that was validated by means of simulations (especially with the SimGrid tool) and with experiments on the Grid’5000 test bed. We observed that DVMS was very reactive to schedule tens of thousands of virtual machines distributed over thousands of nodes. We then took an interest in the perspectives to improve and extend DVMS. The final goal is to build a full decentralized manager. This goal should be reached by the Discovery initiative,that will leverage this work.
68

Kevoree : Model@Runtime pour le développement continu de systèmes adaptatifs distribués hétérogènes / Model@Runtime for continuous development of heterogeneous distributed adaptive systems

Fouquet, François 06 March 2013 (has links)
La complexité croissante des systèmes d'information modernes a motivé l'apparition de nouveaux paradigmes (objets, composants, services, etc), permettant de mieux appréhender et maîtriser la masse critique de leurs fonctionnalités. Ces systèmes sont construits de façon modulaire et adaptable afin de minimiser les temps d'arrêts dus aux évolutions ou à la maintenance de ceux-ci. Afin de garantir des propriétés non fonctionnelles (par ex. maintien du temps de réponse malgré un nombre croissant de requêtes), ces systèmes sont également amenés à être distribués sur différentes ressources de calcul (grilles). Outre l'apport en puissance de calcul, la distribution peut également intervenir pour distribuer une tâche sur des nœuds aux propriétés spécifiques. C'est le cas dans le cas des terminaux mobiles proches des utilisateurs ou encore des objets et capteurs connectés proches physiquement du contexte de mesure. L'adaptation d'un système et de ses ressources nécessite cependant une connaissance de son état courant afin d'adapter son architecture et sa topologie aux nouveaux besoins. Un nouvel état doit ensuite être propagé à l'ensemble des nœuds de calcul. Le maintien de la cohérence et le partage de cet état est rendu particulièrement difficile à cause des connexions sporadiques inhérentes à la distribution, pouvant amener des sous-systèmes à diverger. En réponse à ces défi scientifiques, cette thèse propose une abstraction de conception et de déploiement pour systèmes distribués dynamiquement adaptables, grâce au principe du Model@Runtime. Cette approche propose la construction d'une couche de réflexion distribuée qui permet la manipulation abstraite de systèmes répartis sur des nœuds hétérogènes. En outre, cette contribution introduit dans la modélisation des systèmes adaptables la notion de cohérence variable, permettant ainsi de capturer la divergence des nœuds de calcul dans leur propre conception. Cette couche de réflexion, désormais cohérente "à terme", permet d'envisager la construction de systèmes adaptatifs hétérogènes, regroupant des nœuds mobiles et embarqués dont la connectivité peut être intermittente. Cette contribution a été concrétisée par un projet nommé ''Kevoree'' dont la validation démontre l'applicabilité de l'approche proposée pour des cas d'usages aussi hétérogènes qu'un réseau de capteurs ou une flotte de terminaux mobiles. / The growing complexity of modern IT systems has motivated the development of new paradigms (objects, components, services,...) to better cope with the critical size of their functionalities. Such systems are then built as a modular and dynamically adaptable compositions, allowing them to minimise their down-times while performing evolutions or fixes. In order to ensure non-functional properties (i.e. request latency) such systems are distributed across different computation nodes. Besides the added value in term of computational power (cloud), this distribution can also target nodes with dedicated properties such as mobile nodes and sensors (internet of things), physically close to users for interactions. Adapting a system requires knowledge about its current state in order to adapt its architecture to its evolving needs. A new state must be then disseminated to other nodes to synchronise them. Maintaining its consistency and sharing this state is a difficult task especially in case of sporadic connexions which lead to divergent state between sub-systems. To tackle these scientific problems, this thesis proposes an abstraction to design and deploy distributed adaptive systems following the Model@Runtime paradigm. From this abstraction, the proposed approach allows defining a distributed reflexive layer to manipulate heterogeneous distributed nodes. In particular, this contribution introduces variable consistencies in model definition and divergence in system conception. This reflexive layer, eventually consistent allows the construction of distributed adapted systems even on mobile nodes with intermittent connectivity. This work has been realized in an open source project named Kevoree, and validated on various distributed systems ranging from sensor networks to “cloud” computing.
69

Premiers travaux relatifs au concept de matière communicante : Processus de dissémination des informations relatives au produit / The first work related to the concept of communicatiing material : information dissemination process for product-related data

Kubler, Sylvain 07 November 2012 (has links)
Depuis de nombreuses années, plusieurs communautés telles que IMS (Intelligent Manufacturing Systems), HMS (Holonic Manufacturing System) ont suggéré l'utilisation de produits intelligents pour rendre les systèmes adaptables et adaptatifs et ont montré les bénéfices pouvant être réalisés, tant au niveau économique, qu'au niveau de la traçabilité des produits, qu'au niveau du partage des informations ou encore de l'optimisation des procédés de fabrication. Cependant, un grand nombre de questions restent ouvertes comme la collecte des informations liées au produit, leur stockage à travers la chaîne logistique, ou encore la dissémination et la gestion de ces informations tout au long de leur cycle de vie. La contribution de cette thèse consiste en la définition d'un cadre de dissémination des informations relatives au produit durant l'ensemble de son cycle de vie. Ce cadre de dissémination est associé à un nouveau paradigme qui change radicalement la manière de voir le produit et la matière. Ce nouveau concept consiste à donner la faculté au produit d'être intrinséquement et intégralement "communicant". Le cadre de dissémination des informations proposé offre la possibilité à l'utilisateur d'embarquer des informations sensibles au contexte d'utilisation du produit communicant. Outre la définition du processus de dissémination des informations, cette thèse offre un aperçu des champs de recherche, tant scientifiques que technologiques, à investiguer à l'avenir concernant le concept de "matière communicante" / Over the last decade, communities involved with intelligent-manufacturing systems (IMS - Intelligent Manufacturing Systems, HMS - Holonic Manufacturing System) have demonstrated that systems that integrate intelligent products can be more efficient, flexible and adaptable. Intelligent products may prove to be beneficial economically, to deal with product traceability and information sharing along the product lifecycle. Nevertheless, there are still some open questions such as the specification of what information should be gathered, stored and distributed and how it should be managed during the lifecycle of the product. The contribution of this thesis is to define a process for disseminating information related to the product over its lifecycle. This process is combined with a new paradigm, which changes drastically the way we view the material. This concept aims to give the ability for the material to be intrinsically and wholly "communicating". The data dissemination process allow users to store context-sensitive information on communicating product. In addition to the data dissemination process, this thesis gives insight into the technological and scientific research fields inherent to the concept of "communicating material", which remain to be explored
70

Méthodes d'optimisation et de gestion de l’énergie dans les réseaux intelligents "Smart Grids" / Optimization methods and energy management in "smart grids"

Melhem, Fady Y. 12 July 2018 (has links)
Les réseaux électriques actuels connaîtront un profond changement dans les années à venir. La nouvelle génération est le Smart Grid (SG) ou le réseau électrique intelligent qui se caractérise par une couche d'information et de communication qui permet aux différents composants du réseau de communiquer. Il doit considérer tous les aspects du réseau électrique, le rendant plus intelligent et flexible. Cette notion est présentée comme une réponse à l'évolution du marché de l'électricité, visant à gérer l’augmentation de la demande tout en assurant une meilleure qualité de service et plus de sécurité.Premièrement, nous présentons une formulation de programmation linéaire mixte en entier pour optimiser les systèmes de production et de consommation d'énergie dans une maison intelligente avec un déploiement efficace de plusieurs ressources énergétiques distribuées. Ensuite, à travers la conception d'expériences avec la méthode de Taguchi, divers scénarios sont introduits en faisant varier des facteurs significatifs. Par la suite, une technique heuristique est proposée pour résoudre le problème de la gestion de l'énergie résidentielle en trouvant la solution optimale globale pendant plusieurs jours consécutifs avec une réduction significative du temps d'exécution.Deuxièmement, un modèle de gestion de l'énergie est assuré grâce à des modèles mathématiques pour optimiser l’utilisation du réseau, des ressources énergétiques renouvelables, des véhicules électriques et de la batterie, ainsi que pour différents types d'appareils thermiques et électriques. Une méthode de solution exacte est mise en œuvre pour réduire le coût de l'électricité dans une maison intelligente et pour trouver des modes de fonctionnement de différentes charges. Ensuite, un algorithme d'optimisation math-heuristique est proposé pour résoudre le problème avec un temps de simulation étendu.Enfin, nous étudions le problème de gestion de l'énergie dans un microréseau constitué de plusieurs maisons intelligentes. Chacune d'elles dépose de ressources énergétiques renouvelables, d’un véhicule électrique et d’appareils intelligents. Les ressources d'énergie renouvelable injectent l’excès de l'énergie dans un système de stockage d'énergie partagé. Un modèle mathématique linéaire mixte en entier pour la gestion d'énergie est proposé pour réduire le coût total de fonctionnement du microréseau. Des comparaisons avec des scénarios conventionnels où chaque maison intelligente possède son propre système de stockage d'énergie sont effectuées pour démontrer l’efficacité de la démarche proposée. / The current electricity grids will experience a profound change in the coming years. The new generation is the Smart Grid (SG) which is characterized by information and communication layer enabling the communication between the different components of the grid. It needs to consider all sides of power grid, making it more intelligent and flexible. This notion is presented as an answer to changes in the electricity market, aiming to manage the increased demand while ensuring a better quality of service and more safety.First, we present a mixed integer linear programming formulation to optimize the energy production and consumption systems in a smart home with an effective deployment of several distributed energy resources. Then through the design of experiments with the Taguchi method, diverse scenarios are introduced by varying significant factors. Afterward, a heuristic technique is proposed to solve the problem of residential energy management by finding the global optimum solution for many consecutive days with significant reduction of execution time.Second, an energy management model is proposed thanks to mathematical models to optimize the grid, renewable energy resources, battery and electric vehicles are presented as well as for different type of thermal and electrical appliances. An exact solution method is implemented to reduce the electricity cost in a smart home and find out operation modes of different loads. Then a math-heuristic optimization algorithm is proposed to solve the problem with extended simulation time horizon.Finally, we study a microgrid energy management problem which comprises multiple smart homes. Each of them owns renewable energy resources, one electric vehicle and smart appliances. The renewable energy resources inject the excess energy in the shared energy storage system. An optimized energy management model using mixed integer linear programming is proposed to reduce the total electricity cost in the microgrid. Comparisons with conventional scenarios where each smart home has its individual small energy storage system without sharing energy with their neighbors are done to ensure that the proposed formulation is well efficient.

Page generated in 0.0642 seconds