Spelling suggestions: "subject:"distribués"" "subject:"distribué""
201 |
Une architecture programmable de traitement des impulsions zéro-temps mort pour l'instrumentation nucléaire / A programmable zero dead time digital pulse processing architecture for nuclear instrumentationMoline, Yoann 16 December 2015 (has links)
Dans l'instrumentation nucléaire, les architectures de traitement numérique du signal doivent faire face à la nature poissonienne du signal, composée d'impulsions d'arrivées aléatoires qui imposent aux architectures actuelles de travailler en flux de données. En effet, si le débit d'impulsion est trop élevé, les besoins en temps réel impliquent de paralyser l'acquisition du signal durant le traitement d'une impulsion. Durant ce délai, appelé temps mort, des impulsions peuvent être perdues. Cette contrainte conduit les architectures actuelles à utiliser des solutions dédiées à base de FPGA. Les utilisateurs finaux doivent cependant pouvoir mettre en oeuvre un large éventail d'applications sur un nombre de canaux d'acquisition qui varie. Ce besoin en flexibilité conduit à proposer une architecture programmable (C, C ++). Cette thèse présente une architecture numérique « dirigée par les impulsions » qui répond à ces contraintes. En premier lieu, cette architecture se compose d'extracteurs d'impulsions capables d'extraire de façon dynamique les impulsions en fonction de leur taille pour n'importe quel type de détecteur délivrant des impulsions. Ces impulsions sont ensuite distribuées sur des unités fonctionnelles programmables (FU) indépendante. Ces FUs gèrent l'arrivée d'événements aléatoires et des durées d'exécution de programme non-déterministes. Le simulateur de l'architecture est développé en SystemC au cycle d'horloge près. Il montre des résultats prometteurs en termes de passage à l'échelle, tout en maintenant le zéro-temps mort. Cette architecture permet d'embarquer de nouveaux algorithmes de traitement des impulsions traditionnellement utilisés hors ligne. / In the field of nuclear instrumentation, digital signal processing architectures have to deal with the poissonian characteristic of the signal, composed of random arrival pulses which requires current architectures to work in dataflow. Thus, the real-time needs implies losing pulses when the pulse rate is too high. Current architectures paralyze the acquisition of the signal during the pulse processing inducing a time during no signal can be processed, this is called the dead time. These issue have led current architectures to use dedicated solutions based on reconfigurable components such as FPGAs. The requirement of end users to implement a wide range of applications on a large number of channels leads to propose an easily programmable architecture platform (C, C++). This thesis present presents a digital “pulse-driven” architecture that meets these constraints. This architecture is first composed of pulse extractors. They are capable of dynamically extracting the pulses according to their size for any type of detector that delivering pulses. These pulses are then distributed on a set of programmable and independent Functional Units (FU) which are "pulses driven". These FUs are able to handle the arrival of non-deterministic events and variable program execution times and indeterminate in advance. The virtual prototype of the architecture is developed in cycle accurate SystemC and shows promising results in terms of scalability while maintaining zero dead time. This architecture paves the way for novel real time pulse processing by reducing the gap between embedded real time processing and offline processing.
|
202 |
Optimisation, contrôle et théorie des jeux dans les protocoles de consensus / Optimization, control, and game theoretical problems in consensus protocolsEl Chamie, Mahmoud 21 November 2014 (has links)
Les protocoles de consensus ont gagné beaucoup d’intérêt ces dernières années. Dans cette thèse, nous étudions les problèmes d’optimisation, de contrôle, et de théorie de jeu qui se posent dans ces protocoles. Tout d’abord, nous étudions les techniques d’optimisation pour des problèmes de sélection de poids permettant ainsi d’augmenter la vitesse de convergence de protocoles de consensus dans les réseaux. Nous proposons de sélectionner les poids en appliquant un algorithme d’approximation: minimisation de la norme p de Schatten de la matrice de poids. Nous caractérisons l’erreur induite par cette approximation et nous montrons que l’algorithme proposé a l’avantage qu’il peut être soit résolu de façon distribuée. Ensuite, nous proposons un cadre conceptuel d’analyse des jeux d’adversaire qui peut ajouter du bruit aux poids utilisés par l’algorithme de consensus de moyenne afin d’éloigner le système de consensus. Nous analysons également la performance des algorithmes de consensus de moyenne où les informations échangées entre les agents voisins sont soumises à la quantification uniforme déterministe (les valeurs réelles envoyées par les nœuds de leurs voisins sont tronquées). Le problème de la terminaison des protocoles de consensus s’avère difficile dans le cadre distribué. Nous proposons un algorithme distribué pour la terminaison des protocoles de consensus. L’algorithme réduit la charge de communication tout en garantissant la convergence vers un consensus. Enfin, nous proposons une mesure de similarité qui évalue la qualité d’un regroupement (clustering) des nœuds dans un réseau. Un algorithme local de clustering basé sur cette métrique est donné. / Consensus protocols have gained a lot of interest in the recent years. In this thesis, we study optimization, control, and game theoretical problems arising in consensus protocols. First, we study optimization techniques for weight selection problems to increase the speed of convergence of discrete-time consensus protocols on networks. We propose to select the weights by applying an approximation algorithm: minimizing the Schatten p-norm of the weight matrix. We characterize the approximation error and we show that the proposed algorithm has the advantage that it can be solved in a totally distributed way. Then we propose a game theoretical framework for an adversary that can add noise to the weights used by averaging protocols to drive the system away from consensus. We give the optimal strategies for the game players (the adversary and the network designer) and we show that a saddle-point equilibrium exists in mixed strategies. We also analyze the performance of distributed averaging algorithms where the information exchanged between neighboring agents is subject to deterministic uniform quantization (e.g., when real values sent by nodes to their neighbors are truncated). Consensus algorithms require that nodes exchange messages persistently to reach asymptotically consensus. We propose a distributed algorithm that reduces the communication overhead while still guaranteeing convergence to consensus. Finally, we propose a score metric that evaluates the quality of clusters such that the faster the random walk mixes in the cluster and the slower it escapes, the higher is the score. A local clustering algorithm based on this metric is proposed.
|
203 |
Étude de réseaux complexes et de leurs propriétés pour l’optimisation de modèles de routage / Study of complex networks properties for the optimization of routing modelsLancin, Aurélien 09 December 2014 (has links)
Cette thèse s’intéresse aux problématiques de routage dans les réseaux, notamment dans le graphe des systèmes autonomes (AS) d’Internet. Nous cherchons d’une part à mieux comprendre les propriétés du graphe de l’Internet qui sont utiles dans la conception de nouveaux paradigmes de routage. D’autre part, nous cherchons à évaluer par simulation les performances de ces paradigmes. La première partie de mes travaux porte sur l’étude d’une propriété́ métrique, l’hyperbolicité́ selon Gromov, utilisée dans la conception de nouveaux paradigmes de routage. Je présente dans un premier temps une nouvelle approche pour le calcul de l’hyperbolicité́ d’un graphe utilisant une décomposition du graphe par les cliques-séparatrices et la notion de paires éloignées. Je propose ensuite un nouvel algorithme pour le calcul de l’hyperbolicité́ qui, combiné avec la méthode de décomposition par les cliques-séparatrices, permet son calcul sur des graphes composés de 58 000 sommets en quelques heures. La deuxième partie de mes travaux porte sur le développement de DRMSim, une nouvelle plate-forme de simulation de modèles de routage dynamiques. Celle-ci permet l’évaluation des performances des schémas de routage et leur comparaison au protocole de référence, le protocole de routeur frontière, BGP. DRMSim a permis l’étude par simulation de différents schémas de routage compact sur des topologies à O(10k) nœuds. Je détaille l’architecture de DRMSim et quelques exemples d’utilisation. Puis, je présente une étude réalisée en vue de développer une version parallèle et distribuée de DRMSim dans le cadre de la simulation de BGP / This thesis considers routing issues in networks, and particularly the graph of the autonomous systems (AS) of the Internet. Firstly, we aim at better understanding the properties of the Internet that are useful in the design of new routing paradigms. Secondly, we want to evaluate by simulation the performance of these paradigms. The first part of my work concerns the study of the Gromov hyperbolicity, a useful metric property for the design of new routing paradigms. I show how to use a decomposition of the graph by clique-separators as a pre-processing method for the computation of the hyperbolicity. Then, I propose a new algorithm to compute this property. Altogether, these methods allows us for computing the hyperbolicity of graphs up to 58 000 nodes. The second part of my work concerns the development of DRMSim, a new Dynamic Routing Model Simulator. It facilitates the evaluation of the performances of various routing schemes and their comparison to the standard routing scheme of the Internet, the border router protocol BGP. Using DRMSim, we performed simulations of several compact routing schemes on topologies up to O(10k) nodes. I describe its architecture and detail some examples. Then, I present a feasibility study for the design of a parallel/distributed version of DRMSim in order to simulate BGP on larger topologies.
|
204 |
Modèles mathématiques et techniques d’optimisation non linéaire et combinatoire pour la gestion d’énergie d’un système multi-source : vers une implantation temps-réel pour différentes structures électriques de véhicules hybrides / Mathematical models, non linear and combinatorial optimisation techniques for energy management in multi-source system : to a real-time implementation for different electrical architectures of hybrid vehiclesGaoua, Yacine 17 December 2014 (has links)
La gestion de la distribution de l’énergie électrique dans un système multi-source (véhicule hybride électrique) est primordiale. Elle permet d’augmenter les performances du système en minimisant la consommation de combustible utilisée par la source principale, tout en respectant la demande et les différentes contraintes de fonctionnement de la chaîne énergétique et de sécurité du système. Dans cette thèse, dans le cas où le profil de mission est connu, une approche combinatoire est proposée en modélisant le problème de gestion d’énergie sous la forme d’un problème d’optimisation avec satisfaction des contraintes. Celui-ci est résolu par une méthode exacte issue de la recherche opérationnelle, conduisant à des solutions optimales en des temps de calcul fortement réduits en comparaison avec ceux obtenus par l’application de la programmation dynamique ou la commande optimale. Pour éprouver la sensibilité aux perturbations, une étude de robustesse est menée sur la base de l’analyse de la solution de pire-cas d’un scénario sur des profils de mission d’un véhicule. Les cas pratiques d’utilisation imposent de ne connaître la demande du moteur électrique qu’à l’instant présent, selon le mode de conduite du chauffeur. Afin de gérer l’énergie du véhicule en temps réel, un algorithme en ligne, basé sur une approche de type floue, est développé. Pour mesurer la qualité de la solution floue obtenue, une étude de performance est réalisée (recherche de l’optimum global), en ayant recours à une optimisation hors-ligne sur des profils de mission de référence, basée sur une modélisation non linéaire du problème de gestion d’énergie. Les résultats obtenus ont permis de valider la qualité de la solution floue résultante. / Managing the distribution of electrical energy in a multi-source system (hybrid electric vehicle) is paramount. It increases the system performance by minimizing the fuel used by the primary source, while respecting demand, the differents operating constraints of the energy chain and system security. In this thesis, where the mission profile is known, a combinatorial approach is proposed by modeling the problem of energy management as an optimization problem with constraint satisfaction. The problem is solved using an exact method from operations research, leading to optimal solutions with reduced computation time in comparison with those obtained by applying dynamic programming or optimal control strategies. To test the perturbation sensitivity, robustness study is conducted, based on the analysis of the worst-case solution of the worst scenario, which can be achieved on the vehicle mission profile. In practical cases, the vehicle demand is unknown, and we have only the information about the instantaneous demand, which depends on driving style of the driver. In order to manage on line the energy of the vehicle, an on-line algorithm, based on a fuzzy approach is developed. To measure the quality of the fuzzy solution obtained, a performance study is carried out (finding the optimum solution), using an off-line optimization under reference mission profiles, based on non-linear modeling of the power management problem. The results were used to validate the quality of the resulting fuzzy solution.
|
205 |
Transfert du génie industriel vers l'ingénierie urbaine : vers une approche collaborative des projets urbains / Transfer from the industrial engineering to the urban engineering : towards a collaborative approach of the urban projectsDupont, Laurent 05 November 2009 (has links)
La complexité des systèmes urbains est un défi constant pour les acteurs qui y sont confrontés. L’appréciation de ce phénomène est largement conditionnée par la posture (usager, technicien, pouvoir public, chercheur) et le bagage culturel, disciplinaire et professionnel, comme en rend compte une littérature pluridisciplinaire prolifique. Sur le plan de la recherche, multiplier les regards sur les systèmes complexes contribue à déceler des pistes de développements originales. Cette thèse est le fruit d’une rencontre entre le génie industriel, les sciences politiques et l’urbanisme autour d’une logique de transfert technologique. En effet, les technologies de la conception, notamment collaborative, et de l’innovation centrée-utilisateur sont parmi les réponses du génie industriel aux problématiques générées par la complexité et auxquelles doit faire face le monde industriel. Notre analyse nous amène alors à considérer le potentiel que représente l’adaptation de la conception collaborative distribuée (CCD). En conséquence, nous formulons des outils, des méthodes et un environnement nécessaires au développement d’une CCD dédiée aux projets urbains afin de favoriser leur acceptabilité globale et durable. Ces travaux posent alors la question de la place accordée à l’usager final dans le processus de conception des projets urbains. Dans ce cadre, les sciences politiques nous aident à comprendre les rapports entre citoyens et experts. Ce faisant nous pouvons poser les bases d’une approche collaborative dès la phase de conceptualisation car celle-ci influence l’ensemble du développement des projets. Plus globalement, le collaboratif participe à l’émergence de villes durables / The complexity of urban systems is a constant challenge for the actors who are confronted with it. Prolific multidisciplinary literature shows the appreciation of this phenomenon is widely conditioned by personal culture, disciplinary knowledge and professional know-how. From a research angle, analyzing complex systems from various points of view (user, technician, public authority, researcher) helps generate original development opportunities. This thesis results from a meeting between industrial engineering, political sciences and town planning around a logic of technology transfer. Indeed, the technologies of collaborative design and user-centric innovation are among the answers industrial engineering brings to problems generated by complexity. Our analysis brings us then to consider the potential that the adaptation of distributed collaborative design (DCD) represents. Consequently, we formulate tools, methods and one specific environment necessary for the development of a DCD dedicated to urban projects to facilitate their global and sustainable acceptability. These studies ask subsequently the question of role which should be given to the final user in the urban project design process. Political sciences help us to understand the relations between citizens and experts. This gives us elements to develop a collaborative approach from the conceptualization phase as this impacts the whole development of the projects. More globally, such collaborative processes may contribute to the emergence of sustainable cities
|
206 |
FreeCore : un système d'indexation de résumés de document sur une Table de Hachage Distribuée (DHT) / FreeCore : an index system of summary of documents on an Distributed Hash Table (DHT)Ngom, Bassirou 13 July 2018 (has links)
Cette thèse étudie la problématique de l’indexation et de la recherche dans les tables de hachage distribuées –Distributed Hash Table (DHT). Elle propose un système de stockage distribué des résumés de documents en se basant sur leur contenu. Concrètement, la thèse utilise les Filtre de Blooms (FBs) pour représenter les résumés de documents et propose une méthode efficace d’insertion et de récupération des documents représentés par des FBs dans un index distribué sur une DHT. Le stockage basé sur contenu présente un double avantage, il permet de regrouper les documents similaires afin de les retrouver plus rapidement et en même temps, il permet de retrouver les documents en faisant des recherches par mots-clés en utilisant un FB. Cependant, la résolution d’une requête par mots-clés représentée par un filtre de Bloom constitue une opération complexe, il faut un mécanisme de localisation des filtres de Bloom de la descendance qui représentent des documents stockés dans la DHT. Ainsi, la thèse propose dans un deuxième temps, deux index de filtres de Bloom distribués sur des DHTs. Le premier système d’index proposé combine les principes d’indexation basée sur contenu et de listes inversées et répond à la problématique liée à la grande quantité de données stockée au niveau des index basés sur contenu. En effet, avec l’utilisation des filtres de Bloom de grande longueur, notre solution permet de stocker les documents sur un plus grand nombre de serveurs et de les indexer en utilisant moins d’espace. Ensuite, la thèse propose un deuxième système d’index qui supporte efficacement le traitement des requêtes de sur-ensembles (des requêtes par mots-clés) en utilisant un arbre de préfixes. Cette dernière solution exploite la distribution des données et propose une fonction de répartition paramétrable permettant d’indexer les documents avec un arbre binaire équilibré. De cette manière, les documents sont répartis efficacement sur les serveurs d’indexation. En outre, la thèse propose dans la troisième solution, une méthode efficace de localisation des documents contenant un ensemble de mots-clés donnés. Comparé aux solutions de même catégorie, cette dernière solution permet d’effectuer des recherches de sur-ensembles en un moindre coût et constitue est une base solide pour la recherche de sur-ensembles sur les systèmes d’index construits au-dessus des DHTs. Enfin, la thèse propose le prototype d’un système pair-à-pair pour l’indexation de contenus et la recherche par mots-clés. Ce prototype, prêt à être déployé dans un environnement réel, est expérimenté dans l’environnement de simulation peersim qui a permis de mesurer les performances théoriques des algorithmes développés tout au long de la thèse. / This thesis examines the problem of indexing and searching in Distributed Hash Table (DHT). It provides a distributed system for storing document summaries based on their content. Concretely, the thesis uses Bloom filters (BF) to represent document summaries and proposes an efficient method for inserting and retrieving documents represented by BFs in an index distributed on a DHT. Content-based storage has a dual advantage. It allows to group similar documents together and to find and retrieve them more quickly at the same by using Bloom filters for keywords searches. However, processing a keyword query represented by a Bloom filter is a difficult operation and requires a mechanism to locate the Bloom filters that represent documents stored in the DHT. Thus, the thesis proposes in a second time, two Bloom filters indexes schemes distributed on DHT. The first proposed index system combines the principles of content-based indexing and inverted lists and addresses the issue of the large amount of data stored by content-based indexes. Indeed, by using Bloom filters with long length, this solution allows to store documents on a large number of servers and to index them using less space. Next, the thesis proposes a second index system that efficiently supports superset queries processing (keywords-queries) using a prefix tree. This solution exploits the distribution of the data and proposes a configurable distribution function that allow to index documents with a balanced binary tree. In this way, documents are distributed efficiently on indexing servers. In addition, the thesis proposes in the third solution, an efficient method for locating documents containing a set of keywords. Compared to solutions of the same category, the latter solution makes it possible to perform subset searches at a lower cost and can be considered as a solid foundation for supersets queries processing on over-dht index systems. Finally, the thesis proposes a prototype of a peer-to-peer system for indexing content and searching by keywords. This prototype, ready to be deployed in a real environment, is experimented with peersim that allowed to measure the theoretical performances of the algorithms developed throughout the thesis.
|
207 |
Automatic code generation and optimization of multi-dimensional stencil computations on distributed-memory architectures / Génération automatique de code et optimisation de calculs stencils sur des architectures à mémoire distribuéeSaied, Mariem 25 September 2018 (has links)
Nous proposons Dido, un langage dédié (DSL) implicitement parallèle qui capture les spécifications de haut niveau des stencils et génère automatiquement du code parallèle de haute performance pour les architectures à mémoire distribuée. Le code généré utilise ORWL en tant que interface de communication et runtime. Nous montrons que Dido réalise un grand progrès en termes de productivité sans sacrifier les performances. Dido prend en charge une large gamme de calculs stencils ainsi que des applications réelles à base de stencils. Nous montrons que le code généré par Dido est bien structuré et se prête à de différentes optimisations possibles. Nous combinons également la technique de génération de code de Dido avec Pluto l'optimiseur polyédrique de boucles pour améliorer la localité des données. Nous présentons des expériences qui prouvent l'efficacité et la scalabilité du code généré qui atteint de meilleures performances que les implémentations ORWL et MPI écrites à la main. / In this work, we present Dido, an implicitly parallel domain-specific language (DSL) that captures high-level stencil abstractions and automatically generates high-performance parallel stencil code for distributed-memory architectures. The generated code uses ORWL as a communication and synchronization backend. We show that Dido achieves a huge progress in terms of programmer productivity without sacrificing the performance. Dido supports a wide range of stencil computations and real-world stencil-based applications. We show that the well-structured code generated by Dido lends itself to different possible optimizations and study the performance of two of them. We also combine Dido's code generation technique with the polyhedral loop optimizer Pluto to increase data locality and improve intra-node data reuse. We present experiments that prove the efficiency and scalability of the generated code that outperforms both ORWL and MPI hand-crafted implementations.
|
208 |
Local certification in distributed computing : error-sensitivity, uniformity, redundancy, and interactivity / Certification locale en calcul distribué : sensibilité aux erreurs, uniformité, redondance et interactivitéFeuilloley, Laurent 19 September 2018 (has links)
Cette thèse porte sur la notion de certification locale, un sujet central en décision distribuée, un domaine du calcul distribué. Le mécanisme de la décision distribuée consiste, pour les nœuds d'un réseau, à décider de manière distribuée si le réseau est dans une configuration correcte ou non, selon un certain prédicat. Cette décision est dite locale, car les nœuds du réseau ne peuvent communiquer qu'avec leurs voisins. Après avoir communiqué, chaque nœud prend une décision, exprimant si le réseau est correct ou non localement, c'est-à-dire correct étant donné l'information partielle récoltée jusque-là. Le réseau est déclaré correct globalement s'il est déclaré correct localement par tous les nœuds.Du fait de la contrainte de localité, peu de prédicats peuvent être vérifiés de cette manière. La certification locale est un moyen de contourner cette difficulté, et permet de décider tous les prédicats. C'est un mécanisme qui consiste à étiqueter les nœuds du réseau avec ce que l'on appelle des certificats, qui peuvent être vérifiés localement par un algorithme distribué. Un schéma de certification locale est correct si seuls les réseaux dans une configuration correcte peuvent être certifiés. L'idée de la certification locale est non seulement séduisante d'un point de vue théorique, comme une forme de non-déterminisme distribué, mais c'est surtout un concept très utile pour l'étude des algorithmes tolérants aux pannes, où une étape-clé consiste à vérifier l'état du réseau en se basant sur des informations stockées par les nœuds.Cette thèse porte sur quatre aspects de la certification locale : la sensibilité aux erreurs, l'uniformité, la redondance et l'interactivité. L'étude de ces quatre sujets est motivée par une question essentielle : comment réduire les ressources nécessaires à la certification et/ou permettre une meilleure tolérance aux pannes? Pour aborder cette question, il est nécessaire de comprendre le mécanisme de certification en profondeur. Dans cette optique, dans cette thèse, nous apportons des réponses aux questions suivantes. À quel point les certificats doivent-ils être redondants, pour assurer une certification correcte? Les schémas de certification classiques sont-ils robustes à un changement de la condition de correction? Le fait d'introduire de l'interactivité dans le processus change-t-il la complexité de la certification? / This dissertation is about local certification, a central topic in distributed decision, a subfield of distributed computing. The distributed decision mechanism consists, for the nodes of a network, in deciding in a distributed manner whether the network is in a proper configuration or not, with respect to some fixed predicate. This decision is said to be local because the nodes of the network can communicate only with their neighbours. After communication, every node outputs a decision, stating whether the network is locally correct, that is, correct given the partial information gathered so far by this node. The network is declared to be globally correct, if and only if, it is declared to be locally correct by every node.Most predicates cannot be verified by this type of computation, due to the locality constraint. Local certification is a mechanism that enables to circumvent this difficulty, and to check any property. It consists in providing the nodes of the network with labels, called certificates, that can be verified locally by a distributed algorithm. A local certification scheme is correct if only the networks that satisfy the predicate can be certified. In addition to its theoretical appeal, as a form of distributed non-determinism, the concept of local certification is especially relevant in the study of fault-tolerant distributed algorithms, where a key step consists in checking the status of the network, based on information stored at the nodes.This dissertation deals with four aspects of local certification: error-sensitivity, uniformity, redundancy, and interactivity. The study of these four topics is motivated by the same essential question: How to reduce the resources needed for certification, and/or ensure a better fault-tolerance? In order to tackle this question we have to understand fundamental properties of certification. In particular, in this dissertation we answer questions such as: How redundant the certificates need to be for a proper certification? Are the classic certification protocols robust to a strengthening of the acceptance condition? and, How does introducing interactivity in the process changes the complexity of certification?
|
209 |
Couplage d'algorithmes d'optimisation par un système multi-agents pour l'exploration distribuée de simulateurs complexes : application à l'épidémiologie / Coupling of optimisation algorithms by a multi-agent system for supporting of distributed exploration of complex simulations : an application in epidemiologyHo, The Nhan 27 June 2016 (has links)
L’étude des systèmes complexes tels que des systèmes écologiques ou urbains, nécessite sou- vent l’usage de simulateurs qui permettent de comprendre les dynamiques observées ou d’avoir une vision prospective de l’évolution du système. Cependant, le crédit donné aux résultats d’une simulation dépend fortement de la confiance qui est accordée au simulateur, et donc de la qualité de sa validation. Cette confiance ne s’obtient qu’au travers d’une étude avancée du modèle, d’une analyse de sensibilité aux paramètres et d’une confrontation des résultats de simulation et des données de terrain. Pour cela, pléthore de simulations est nécessaire, ce qui est coûteux du point de vue des ressources mobilisés (temps de calcul, processeurs et mémoire) et est souvent impossible compte tenue de la taille de l’espace des paramètres à étudier. Il est donc important de réduire de manière significative et intelligente le domaine à explorer. L’une des particularités des simulateurs représentatifs de phénomènes réels est d’avoir un espace des paramètres dont la nature et la forme est fonction : (i) des objectifs scientifiques ; (ii) de la nature des paramètres manipulés ; et (iii) surtout du systèmes complexes étudiés. Ainsi, le choix d’une stratégie d’exploration est totalement dépendante du domaine de l’étude. Les algorithmes génériques de la littérature ne sont alors pas optimaux. Compte tenu de la singularité des simulateurs complexes, des nécessités et des difficultés rencontrées de l’exploration de leur espace de paramètres. Nous envisageons de guider le tâche d’exploration des systèmes complexes en proposant le protocole d’exploration stratifié coopérative GRADEA qui hybride trois algorithmes d’exploration de différents classements dans un même environnement : la recherche en criblage pour zones d’intérêt, la recherche globale et la recherche locale. Différents stratégies d’exploration vont en parallèle parcourir l’espace de recherche pour trouver l’optimum globale du problème d’optimisation et égale- ment pour désigner partiellement la cartographie de l’espace de solutions pour comprendre le comportement émergent du modèle. Les premiers résultats du protocole d’exploration stratifié avec un exemple d’algorithmes présélectionnés d’exploration sont appliquées au simulateur du domaine environnemental pour l’aide à la conception de la planification des politiques de vaccination de la maladie rougeole au Vietnam. Le couplage d’algorithmes d’exploration est intégré sur une architecture modulaire à base d’agents qui sont en interaction avec des noeuds de calcul où sont exécutés les simulations. Cet environnement facilite d’une part le rapprochement et l’interaction entre une selection d’algorithmes d’exploration, et d’autre part l’utilisation de ressources de calcul haute performance. L’enjeu résolu jusqu’à ce temps est de proposer, à la communauté, un environnement optimisé où l’utilisateur sera en mesure : (i) de combiner des algorithmes d’exploration adaptés à son cas d’étude ; (ii) et de tirer parti des ressources disponibles de calcul haute performance pour réaliser l’exploration. / Study of complex systems such as environmental or urban systems, often requires the use of simulators for understanding the dynamics observed or getting a prospective vision of the evolution of system. However, the credit given to results of a simulation depends heavily on the trust placed in the simulator, and the quality of validation. This trust is achieved only through an advanced study on the model, a sensitivity analysis of parameters and a comparison of simulation results and collected data. For all of those, plethora of simulations is necessary, which is costly in term of computing resources (CPU time, memory and processors) and is often impossible because of the size of parameters space. It is therefore important to reduce significantly and intelligently the domain to explore. One of the special properties of representative simulators of real phenomena is that they own a parameters space, of which the nature and the form is based on: (i) the scientific objectives; (ii) the nature of manipulated parameters; and (iii) especially complex systems. Thus, the choice of an exploration strategy is totally dependent on the domain to explore. The generic algorithms in the literature are then not optimal. Because of the singularity of complex simulators, the necessities and the difficulties of exploring their parameters space, we plan to guide the exploration task of complex systems by providing GRADEA, a stratified cooperative exploration protocol, that hybrids three different algorithms of different categories in the same environment: the screening search for areas of interest, the global search and the local search. Various exploration algorithms will explore the search space by parallel manner to find the global optimum of optimization problem and also to partially describe the cartography of solutions space to understand the emergent behavior of the model. The first results of the stratified exploration protocol with an example of preselected search algorithms are applied to the environmental simulator for the design of vaccination policies of measles disease in Vietnam. The coupling of search algorithms is built on a modular and agent based architecture that interacts with a computing cluster where the simulations run. This environment facilitates both the interaction between a group of search algorithms, and also the use of high performance computing resources. The challenge is resolved to propose to community, an optimized environment where users will be able: (i) to combine search algorithms that adapted to case study; (ii) and take advantage of the available resources of high performance computing to accelerate the exploration.
|
210 |
Approche multi-agents pour les problèmes de partage / A multiagent approach for resource sharing problemsDamamme, Jonathan 12 December 2016 (has links)
Cette thèse porte sur le problème d'allocation de ressource décentralisée, sans argent, où les agents n'ont qu'une connaissance partielle sur le système. L'approche de la thèse sera d'utiliser des échanges locaux, plus exactement des swaps, c'est-à-dire des échanges bilatéraux où chaque agent donne une ressource en échange d'un autre. Le travail se divise en deux parties. La première se concentre sur les problèmes de house market, avec une approche très simple et les agents travaillent sans les connaissances. Le but sera de montrer qu'elle a quand même une performance honorable. Je mettrais en valeur notamment que l'algorithme s'en sort bien par rapport à ceux de la littérature. Et je montrerais même que dans le domaine unimodal, l'algorithme est Pareto-optimal. La deuxième se présente dans une situation plus générale, et où le mécanisme présenté est divisée en 3 parties : protocole de contact, protocole de négociation, et conditions d'arrêt. chaque partie a plusieurs variantes. Je les décrirais et je les testerais expérimentalement. / This thesis covers distributed resources allocation setting, without money balance, where agents have limited knowledge of the system. This thesis will use local swaps, i.e. bilateral deals, where one resource is exchanged for another. This work is divided in two parts. The first part focus the house market, with a very simple mechanism and agents don't use knowledge. The aim will to show that it has however good performances. For this, I will compare the algorithm with those of literature. I will also prove that in the single-peaked domains, this mechanism is Pareto-optimal. The second part examines a general framework. The mechanism contains three sub-protocols : contact protocol, negotiation protocols, and stop conditions. Each protocol will be described and experimented.
|
Page generated in 0.0513 seconds