• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 180
  • 77
  • 22
  • Tagged with
  • 274
  • 121
  • 85
  • 85
  • 53
  • 48
  • 42
  • 42
  • 40
  • 39
  • 36
  • 35
  • 34
  • 34
  • 31
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
111

Parallélisation automatique et statique de tâches sous contraintes de ressources : une approche générique / Automatic Resource-Constrained Static Task Parallelization : A Generic Approach

Khaldi, Dounia 27 November 2013 (has links)
Le but de cette thèse est d'exploiter efficacement le parallélisme présent dans les applications informatiques séquentielles afin de bénéficier des performances fournies par les multiprocesseurs, en utilisant une nouvelle méthodologie pour la parallélisation automatique des tâches au sein des compilateurs. Les caractéristiques clés de notre approche sont la prise en compte des contraintes de ressources et le caractère statique de l'ordonnancement des tâches. Notre méthodologie contient les techniques nécessaires pour la décomposition des applications en tâches et la génération de code parallèle équivalent, en utilisant une approche générique qui vise différents langages et architectures parallèles. Nous implémentons cette méthodologie dans le compilateur source-à-source PIPS. Cette thèse répond principalement à trois questions. Primo, comme l'extraction du parallélisme de tâches des codes séquentiels est un problème d'ordonnancement, nous concevons et implémentons un algorithme d'ordonnancement efficace, que nous nommons BDSC, pour la détection du parallélisme ; le résultat est un SDG ordonnancé, qui est une nouvelle structure de données de graphe de tâches. Secondo, nous proposons une nouvelle extension générique des représentations intermédiaires séquentielles en des représentations intermédiaires parallèles que nous nommons SPIRE, pour la représentation des codes parallèles. Enfin, nous développons, en utilisant BDSC et SPIRE, un générateur de code que nous intégrons dans PIPS. Ce générateur de code cible les systèmes à mémoire partagée et à mémoire distribuée via des codes OpenMP et MPI générés automatiquement. / This thesis intends to show how to efficiently exploit the parallelism present in applications in order to enjoy the performance benefits that multiprocessors can provide, using a new automatic task parallelization methodology for compilers. The key characteristics we focus on are resource constraints and static scheduling. This methodology includes the techniques required to decompose applications into tasks and generate equivalent parallel code, using a generic approach that targets both different parallel languages and architectures. We apply this methodology in the existing tool PIPS, a comprehensive source-to-source compilation platform. This thesis mainly focuses on three issues. First, since extracting task parallelism from sequential codes is a scheduling problem, we design and implement an efficient, automatic scheduling algorithm called BDSC for parallelism detection; the result is a scheduled SDG, a new task graph data structure. In a second step, we design a new generic parallel intermediate representation extension called SPIRE, in which parallelized code may be expressed. Finally, we wrap up our goal of automatic parallelization in a new BDSC- and SPIRE-based parallel code generator, which is integrated within the PIPS compiler framework. It targets both shared and distributed memory systems using automatically generated OpenMP and MPI code.
112

Programmation haute performance pour architectures hybrides / High Performance Programming for Hybrid Architectures

Habel, Rachid 19 November 2014 (has links)
Les architectures parallèles hybrides constituées d'un grand nombre de noeuds de calcul multi-coeurs/GPU connectés en réseau offrent des performances théoriques très élevées, de l'ordre de quelque dizaines de TeraFlops. Mais la programmation efficace de ces machines reste un défi à cause de la complexité de l'architecture et de la multiplication des modèles de programmation utilisés. L'objectif de cette thèse est d'améliorer la programmation des applications scientifiques denses sur les architectures parallèles hybrides selon trois axes: réduction des temps d'exécution, traitement de données de très grande taille et facilité de programmation. Nous avons pour cela proposé un modèle de programmation à base de directives appelé DSTEP pour exprimer à la fois la distribution des données et des calculs. Dans ce modèle, plusieurs types de distribution de données sont exprimables de façon unifiée à l'aide d'une directive "dstep distribute" et une réplication de certains éléments distribués peut être exprimée par un "halo". La directive "dstep gridify" exprime à la fois la distribution des calculs ainsi que leurs contraintes d'ordonnancement. Nous avons ensuite défini un modèle de distribution et montré la correction de la transformation de code du domaine séquentiel au domaine distribué. À partir du modèle de distribution, nous avons dérivé un schéma de compilation pour la transformation de programmes annotés de directives DSTEP en des programmes parallèles hybrides. Nous avons implémenté notre solution sous la forme d'un compilateur intégré à la plateforme de compilation PIPS ainsi qu'une bibliothèque fournissant les fonctionnalités du support d'exécution, notamment les communications. Notre solution a été validée sur des programmes de calcul scientifiques standards tirés des NAS Parallel Benchmarks et des Polybenchs ainsi que sur une application industrielle. / Clusters of multicore/GPU nodes connected with a fast network offer very high therotical peak performances, reaching tens of TeraFlops. Unfortunately, the efficient programing of such architectures remains challenging because of their complexity and the diversity of the existing programming models. The purpose of this thesis is to improve the programmability of dense scientific applications on hybrid architectures in three ways: reducing the execution times, processing larger data sets and reducing the programming effort. We propose DSTEP, a directive-based programming model expressing both data and computation distribution. A large set of distribution types are unified in a "dstep distribute" directive and the replication of some distributed elements can be expressed using a "halo". The "dstep gridify" directive expresses both the computation distribution and the schedule constraints of loop iterations. We define a distribution model and demonstrate the correctness of the code transformation from the sequential domain to the parallel domain. From the distribution model, we derive a generic compilation scheme transforming DSTEP annotated input programs into parallel hybrid ones. We have implemented such a tool as a compiler integrated to the PIPS compilation workbench together with a library offering the runtime functionality, especially the communication. Our solution is validated on scientific programs from the NAS Parallel Benchmarks and the PolyBenchs as well as on an industrial signal procesing application.
113

Towards Trustworthy Online Voting : Distributed Aggregation of Confidential Data / Confiance dans le vote en ligne : agrégation distribuée de données confidentielles

Riemann, Robert 18 December 2017 (has links)
L’agrégation des valeurs qui doivent être gardées confidentielles tout en garantissant la robustesse du processus et l’exactitude du résultat est nécessaire pour un nombre croissant d’applications. Divers types d’enquêtes, telles que les examens médicaux, les référendums, les élections, ainsi que les nouveaux services de Internet of Things, tels que la domotique, nécessitent l’agrégation de données confidentielles. En général,la confidentialité est assurée sur la base de tiers de confiance ou des promesses de cryptographie, dont les capacités ne peuvent être évaluées sans expertise.L’ambition de cette thèse est de réduire le besoin de confiance dans les autorités, de même que la technologie, et d’explorer les méthodes d’agrégations de données à grande échelle, qui garantissent un degré élevé de confidentialité et ne dépendent ni de tiers de confiance ni de cryptographie. Inspiré par BitTorrent et Bitcoin, les protocoles P2P sont considérés. La première contribution de cette thèse est l’extension du protocole d’agrégation distribuée BitBallot dans le but de couvrir les agrégations dans les réseaux P2P comprenant des pairs adversaires avec un comportement défaillant ou byzantin. Les changements introduits permettent éventuellement de maintenir un résultat précis en présence d’une minorité adversaire. Les limites de scalabilité rencontrées conduisent à la deuxième contribution dans le but de soutenir les agrégations à grande échelle. Inspiré par BitBallot et BitTorrent, un nouveau protocole distribué appelé ADVOKAT est proposé.Dans les deux protocoles, les pairs sont affectés aux noeuds feuilles d’un réseau de superposition d’une structure arborescente qui détermine le calcul des agrégats intermédiaires et restreint l’échange de données. La partition des données et du calcul entre un réseau de pairs équipotent limite le risque de violation de données et réduit le besoin de confiance dans les autorités. Les protocoles fournissent une couche middleware dont la flexibilité est démontrée par les applications de vote et de loterie. / Aggregation of values that need to be kept confidential while guaranteeing the robustness of the process and the correctness of the result is necessary for an increasing number of applications. Various kinds of surveys, such as medical ones, opinion polls, referendums, elections, as well as new services of the Internet of Things, such as home automation, require the aggregation of confidential data. In general, the confidentiality is ensured on the basis of trusted third parties or promises of cryptography, whose capacities cannot be assessed without expert knowledge.The ambition of this thesis is to reduce the need for trust in both authorities and technology and explore methods for large-scale data aggregations, that ensure a high degree of confidentiality and rely neither on trusted third parties nor solely on cryptography. Inspired by BitTorrent and Bitcoin, P2P protocols are considered.The first contribution of this thesis is the extension of the distributed aggregation protocol BitBallot with the objective to cover aggregations in P2P networks comprising adversarial peers with fail-stop or Byzantine behaviour. The introduced changes allow eventually to maintain an accurate result in presence of an adversarial minority.The encountered scalability limitations lead to the second contribution with the objective to support large-scale aggregations. Inspired by both BitBallot and BitTorrent, a novel distributed protocol called ADVOKAT is proposed.In both protocols, peers are assigned to leaf nodes of a tree overlay network which determines the computation of intermediate aggregates and restricts the exchange of data. The partition of data and computation among a network of equipotent peers limits the potential for data breaches and reduces the need for trust in authorities. The protocols provide a middleware layer whose flexibility is demonstrated by voting and lottery applications.
114

Caractérisation des performances limites des jeux non-coopératifs avec observation imparfaite : application à la téléphonie mobile 5G / Characterization of the limit performance in non-cooperative games with imperfect observation : application to 5G

Zhang, Chao 21 December 2017 (has links)
Une grande partie des résultats rapportés dans cette thèse est basée sur une observation qui n'a jamais été faite pour les communications sans fil et le contrôle de puissance en particulier: les niveaux de puissance d'émission et plus généralement les matrices de covariance peuvent être exploitées pour intégrer des informations de coordination. Les échantillons de rétroaction dépendants des interférences peuvent être exploités comme canal de communication. Premièrement, nous montrons que le fameux algorithme itératif de remplissage d'eau n'exploite pas suffisamment l'information disponible en termes d'utilité-somme. En effet, nous montrons que l'information globale d'état de canal peut être acquise à partir de la seule connaissance d'une rétroaction de type SINR. Une question naturelle se pose alors. Est-il possible de concevoir un algorithme de contrôle de puissance distribué qui exploite au mieux les informations disponibles? Pour répondre à cette question, nous dérivons la caractérisation de la région d'utilité pour le problème considéré et montrons comment exploiter cette caractérisation non seulement pour mesurer globalement l'efficacité mais aussi pour obtenir des fonctions de contrôle de puissance à un coup efficaces au niveau global. Motivés par le succès de notre approche sur les réseaux d'interférences mono bande et multibande, nous nous sommes demandé si elle pourrait être exploitée pour les réseaux MIMO. Nous avons identifié au moins un scénario très pertinent. En effet, nous montrons que l'alignement d'interférence opportuniste peut être implémenté en supposant seulement une rétroaction de covariance d'interférence plus bruit à l'émetteur secondaire. Puis, dans le dernier chapitre, nous généralisons le problème de la quantification, la motivation étant donnée par certaines observations faites dans les chapitres précédents. Premièrement, nous supposons que le quantificateur et le déquantificateur sont conçus pour maximiser une fonction d'utilité générale au lieu de la fonction de distorsion classique. Deuxièmement, nous supposons que le quantificateur et le déquantificateur peuvent avoir des fonctions d'utilité différentes. Cela soulève des problèmes techniques non triviaux, notre revendication est de faire un premier pas dans la résolution d'eux. / A large part of the results reported in this thesis is based on an observation which has never been made for wireless communications and power control in particular: transmit power levels and more generally transmit covariance matrices can be exploited to embed information such as coordination information and available interference-dependent feedback samples can be exploited as a communication channel. First, we show that the famous iterative water-filling algorithm does not exploit the available information sufficiently well in terms of sum-utility. Indeed, we show that global channel state information can be acquired from the sole knowledge of an SINR-type feedback. A natural question then arises. Is it possible to design a distributed power control algorithm which exploits as well as possible the available information? To answer this question, we derive the characterization of the utility region for the considered problem and show how to exploit this characterization not only to measure globally efficiency but also to obtain globally efficient one-shot power control functions. Motivated by the success of our approach for single-band and multi-band interference networks, we asked ourselves whether it could be exploited for MIMO networks. We have identified at least one very relevant scenario. Indeed, we show that opportunistic interference alignment can be implemented by only assuming interference-plus-noise covariance feedback at the secondary transmitter. Then, in the last chapter, we generalize the problem of quantization, the motivation for this being given by some observations made in the previous chapters. First, we assume that the quantizer and de-quantizer are designed to maximize a general utility function instead of the conventional distortion function. Second, we assume that the quantizer and de-quantizer may have different utility functions. This raises non-trivial technical problems, our claim is to make a very first step into solving them.
115

L'expérience de la télévision sur le téléphone portable : pratiques émergentes en contexte de convergence multimédia / The television experience on mobile phones : emerging practices in the context of multimedia convergence

Patrascu, Marcela 02 December 2011 (has links)
Dans cette recherche, les usages de la télévision sur le téléphone portable seront saisis dans leur rapport aux contextes et aux situations auxquels ils sont ajustés. Cela concerne donc la manière dont on consulte et visionne des contenus audiovisuels sur des téléphones mobiles dans l’espace public en relation avec l’environnement. De quelle façon lesusagers mobilisent-ils les affordances matérielles et sensibles de l’environnement ? L’entrée par une approche comparative entre la France et la Roumanie, nous permet d’inclure dans l’analyse la dimension anthropologique trop souvent occultée de ces usages : de quelles façons ces usages sont-ils façonnés par les conventions collectives ?La question de l’identité de la télévision sur le téléphone portable se pose sous l’angle des frottements et tissages aux autres médias. Au niveau des méthodes, le tournant de la « nouvelle communication » de l’Ecole de Palo Alto conjugué au tournant « pragmatiste » implique un déplacement d’angle d’analyse par rapport aux perspectives cognitivistes : seules lesmanifestations (visibles, audibles, etc.) peuvent être analysées et non pas les raisons, les motivations ou les pensées enfouies dans la « tête » des usagers. Les résultats de cette recherche comportent dans ce sens une propositionméthodologique susceptible d’enrichir les réflexions en SIC autour d’un renouvellement des approches des usages émergents dans le contexte des nouveaux médias / In this research, the uses of television on the mobile phone will be studied in their relation to the contexts and situations to which they are adjusted. This concerns the ways in which users consult and watch television on their mobile phones in public spaces by taking into account the environment. How do users recognize and use sensitive material affordances allowed by the environment? The comparative approach between France and Romania allows us to include in the analysis the “anthropological dimension” of these uses. How these uses are in-formed by social norms ? The question of the identity of television on mobile phones is studied from the angle of frictions and contacts to other media. In terms of method, we were inspired by the "new communication turn" (the School of Palo Alto) and the "pragmatist turn”. This implies that onlyexpressions can be analyzed and not the reasons, motivations or thoughts hidden in the "head" of users. The results of this research include a proposal in this direction that may enrich the methodological reflections around a renewed approach of emerging uses
116

Nouvelles méthodes pour l'évaluation, l'évolution et l'interrogation des bases du Web des données / New methods to evaluate, check and query the Web of data

Maillot, Pierre 26 November 2015 (has links)
Le Web des données offre un environnement de partage et de diffusion des données, selon un cadre particulier qui permet une exploitation des données tant par l’humain que par la machine. Pour cela, le framework RDF propose de formater les données en phrases élémentaires de la forme (sujet, relation, objet) , appelées triplets. Les bases du Web des données, dites bases RDF, sont des ensembles de triplets. Dans une base RDF, l’ontologie – données structurelles – organise la description des données factuelles. Le nombre et la taille des bases du Web des données n’a pas cessé de croître depuis sa création en 2001. Cette croissance s’est même accélérée depuis l’apparition du mouvement du Linked Data en 2008 qui encourage le partage et l’interconnexion de bases publiquement accessibles sur Internet. Ces bases couvrent des domaines variés tels que les données encyclopédiques (e.g. Wikipédia), gouvernementales ou bibliographiques. L’utilisation et la mise à jour des données dans ces bases sont faits par des communautés d’utilisateurs liés par un domaine d’intérêt commun. Cette exploitation communautaire se fait avec le soutien d’outils insuffisamment matures pour diagnostiquer le contenu d’une base ou pour interroger ensemble les bases du Web des données. Notre thèse propose trois méthodes pour encadrer le développement, tant factuel qu’ontologique, et pour améliorer l’interrogation des bases du Web des données. Nous proposons d’abord une méthode pour évaluer la qualité des modifications des données factuelles lors d’une mise à jour par un contributeur. Nous proposons ensuite une méthode pour faciliter l’examen de la base par la mise en évidence de groupes de données factuelles en conflit avec l’ontologie. L’expert qui guide l’évolution de cette base peut ainsi modifier l’ontologie ou les données. Nous proposons enfin une méthode d’interrogation dans un environnement distribué qui interroge uniquement les bases susceptibles de fournir une réponse. / The web of data is a mean to share and broadcast data user-readable data as well as machine-readable data. This is possible thanks to rdf which propose the formatting of data into short sentences (subject, relation, object) called triples. Bases from the web of data, called rdf bases, are sets of triples. In a rdf base, the ontology – structural data – organize the description of factual data. Since the web of datacreation in 2001, the number and sizes of rdf bases have been constantly rising. This increase has accelerated since the apparition of linked data, which promote the sharing and interlinking of publicly available bases by user communities. The exploitation – interrogation and edition – by theses communities is made without adequateSolution to evaluate the quality of new data, check the current state of the bases or query together a set of bases. This thesis proposes three methods to help the expansion at factual and ontological level and the querying of bases from the web ofData. We propose a method designed to help an expert to check factual data in conflict with the ontology. Finally we propose a method for distributed querying limiting the sending of queries to bases that may contain answers.
117

Régionalisation d'un modèle hydrologique distribué pour la modélisation de bassins non jaugés. Application aux vallées de la Loire et de la Durance / Regionalization of a distributed hydrological model for the modelling of ungauged basins. Application to the Loire and Durance valleys

Rouhier, Laura 22 October 2018 (has links)
Pour fournir des simulations fiables, les modèles hydrologiques nécessitent usuellement le calage de leurs paramètres sur des données de débit. Toutefois, ces dernières sont limitées et la plupart des bassins versants sont non jaugés. Des méthodes alternatives regroupées sous le terme de 'régionalisation' sont alors nécessaires pour estimer les paramètres des modèles. La thèse propose de combiner les trois méthodes les plus classiques afin de régionaliser les paramètres d'un modèle distribué sur deux grands bassins versants français : la Loire à Gien et la Durance à Cadarache. À partir des trois méthodes de régionalisation, le degré de spatialisation est adapté aux différents paramètres du modèle d'après leurs caractéristiques et leur rôle hydrologique. In fine, l'approche multi-méthode et multi-motif proposée (i) réduit considérablement le nombre de degrés de liberté du modèle, (ii) améliore la représentation de la variabilité physique du bassin et (iii) améliore très nettement les performances des simulations. En contexte non jaugé, la spatialisation des paramètres permet un gain d'environ 10 %, l'approche multi-méthode et multi-motif apportant en particulier un gain d'environ 7 % par rapport à une méthode de régionalisation unique. Malgré ces gains, l'impact de la spatialisation des forçages météorologiques demeure 6 fois plus important que spatialisation des paramètres. / To provide reliable simulations, hydrological models usually require the calibration of their parameters over streamflow data. However, the latter are limited and most of the catchments remained ungauged. Consequently, alternative methods termed ‘regionalization’ are needed to estimate model parameters. The thesis proposes to combine the three classical methods in order to regionalize the parameters of a distributed model over two large French catchments: the Loire catchment at Gien and the Durance catchment at Cadarache. On the basis of the three regionalization methods, the degree of spatialization is adapted to the different model parameters according to their characteristics and their hydrological role. In fine, the proposed multi-method and multi-pattern approach (i) significantly reduces the number of degrees of freedom, (ii) improves the representation of the catchment physical variability, and (iii) significantly improves the performance of the simulations. In the ungauged context, the parameter spatialization allows an improvement of about 10%, and in particular, the multi-method and multi-pattern povides an improvement of about 7% compared to a single regionalization method. Despite these improvements, the impact of the climatic input spatialization remains 6 times greater than th parameter spatialization.
118

Communication fiable dans les réseaux multi-sauts en présence de fautes byzantines / Reliable communication in multihop networks despite byzantine failures

Maurer, Alexandre 20 November 2014 (has links)
A mesure que les réseaux s'étendent, ils deviennent de plus en plus susceptibles de défaillir. En effet, leurs nœuds peuvent être sujets à des attaques, pannes, corruptions de mémoire... Afin d'englober tous les types de fautes possibles, nous considérons le modèle le plus général possible : le modèle Byzantin, où les nœuds fautifs ont un comportement arbitraire (et donc, potentiellement malveillant). De telles fautes sont extrêmement dangereuses : un seul nœud Byzantin, s'il n'est pas neutralisé, peut déstabiliser l'intégralité du réseau.Nous considérons le problème d'échanger fiablement des informations dans un réseau multi-Sauts malgré la présence de telles fautes Byzantines. Des solutions existent mais nécessitent un réseau dense, avec un grand nombre de voisins par nœud. Dans cette thèse, nous proposons des solutions pour les réseaux faiblement connectés, tels que la grille, où chaque nœud a au plus 4 voisins. Dans une première partie, nous acceptons l'idée qu'une minorité de nœuds corrects échouent à communiquer fiablement. En contrepartie, nous proposons des solutions qui tolèrent un grand nombre de fautes Byzantines dans les réseaux faiblement connectés. Dans une seconde partie, nous proposons des algorithmes qui garantissent une communication fiable entre tous les nœuds corrects, pourvu que les nœuds Byzantins soient suffisamment distants. Enfin, nous généralisons des résultats existants à de nouveaux contextes : les réseaux dynamiques, et les réseaux de taille non-Bornée. / As modern networks grow larger and larger, they become more likely to fail. Indeed, their nodes can be subject to attacks, failures, memory corruptions... In order to encompass all possible types of failures, we consider the most general model of failure: the Byzantine model, where the failing nodes have an arbitrary (and thus, potentially malicious) behavior. Such failures are extremely dangerous, as one single Byzantine node, if not neutralized, can potentially lie to the entire network. We consider the problem of reliably exchanging information in a multihop network despite such Byzantine failures. Solutions exist but require a dense network, where each node has a large number of neighbors. In this thesis, we propose solutions for sparse networks, such as the grid, where each node has at most 4 neighbors. In a first part, we accept that some correct nodes fail to communicate reliably. In exchange, we propose quantitative solutions that tolerate a large number of Byzantine failures, and significantly outperform previous solutions in sparse networks. In a second part, we propose algorithms that ensure reliable communication between all correct nodes, provided that the Byzantine nodes are sufficiently distant from each other. At last, we generalize existing results to new contexts: dynamic networks, and networks with an unbounded diameter.
119

Introduction de mécanismes de tolérance aux pannes franches dans les architectures de processeur « many-core » à mémoire partagée cohérente / Introduction of Fault-Tolerance Mechanisms for Permanent Failures in Coherent Shared-Memory Many-Core Architectures

Fuguet Tortolero, César 25 November 2015 (has links)
L'augmentation continue de la puissance de calcul requise par les applications telles que la cryptographie, la simulation, ou le traitement du signal a fait évoluer la structure interne des processeurs vers des architectures massivement parallèles (dites « many-core »). Ces architectures peuvent contenir des centaines, voire des milliers de cœurs afin de fournir une puissance de calcul importante avec une consommation énergétique raisonnable. Néanmoins, l'importante densité de transistors fait que ces architectures sont très susceptibles aux pannes matérielles. L'augmentation dans la variabilité du processus de fabrication, et dans les facteurs de stress des transistors, dégrade à la fois le rendement de fabrication, et leur durée de vie. Nous proposons donc un mécanisme complet de tolérance aux pannes franches, permettant les architectures « many-core » à mémoire partagée cohérente de fonctionner dans un mode dégradé. Ce mécanisme s'appuie sur un logiciel embarqué et distribué dans des mémoires sur puce (« firmware »), qui est exécuté par les cœurs à chaque démarrage du processeur. Ce logiciel implémente plusieurs algorithmes distribués permettant de localiser les composants défaillants (cœurs, bancs mémoires, et routeurs des réseaux sur puce), de reconfigurer l'architecture matérielle, et de fournir une cartographie de l'infrastructure matérielle fonctionnelle au système d'exploitation. Le mécanisme supporte aussi bien des défauts de fabrication, que des pannes de vieillissement après que la puce est en service dans l'équipement. Notre proposition est évaluée en utilisant un prototype virtuel précis au cycle d'une architecture « many-core » existante. / The always increasing performance demands of applications such as cryptography, scientific simulation, network packets dispatching, signal processing or even general-purpose computing has made of many-core architectures a necessary trend in the processor design. These architectures can have hundreds or thousands of processor cores, so as to provide important computational throughputs with a reasonable power consumption. However, their important transistor density makes many-core architectures more prone to hardware failures. There is an augmentation in the fabrication process variability, and in the stress factors of transistors, which impacts both the manufacturing yield and lifetime. A potential solution to this problem is the introduction of fault-tolerance mechanisms allowing the processor to function in a degraded mode despite the presence of defective internal components. We propose a complete in-the-field reconfiguration-based permanent failure recovery mechanism for shared-memory many-core processors. This mechanism is based on a firmware (stored in distributed on-chip read-only memories) executed at each hardware reset by the internal processor cores without any external intervention. It consists in distributed software procedures, which locate the faulty components (cores, memory banks, and network-on-chip routers), reconfigure the hardware architecture, and provide a description of the functional hardware infrastructure to the operating system. Our proposal is evaluated using a cycle-accurate SystemC virtual prototype of an existing many-core architecture. We evaluate both its latency, and its silicon cost.
120

Approche multi-agents pour la conception optimale des systèmes mécatroniques / Multi-agent-approach for the optimal design of mechatronic systems

Guizani, Amir 11 January 2016 (has links)
La conception d’un système mécatronique est un problème d’optimisation multidisciplinaire et multi-objectif. Les approches d’optimisation actuellement utilisées, pour l’optimisation des systèmes multidisciplinaires, sont coûteuses en temps de calcul, difficiles à mettre en œuvre et non flexibles avec la phase de conception préliminaire, où les objectifs et les contraintes de conception changent fréquemment. D’où la nécessité de chercher une nouvelle technique plus simples à mettre en œuvre, moins coûteuse et qui permet d’adapter dynamiquement une solution suite à un changement des spécifications. C’est dans ce contexte que cette thèse se focalise sur le développement d’une approche multi-agents de conception qui, se basant sur les connaissances disciplinaires et par un comportement coopératif, permet de trouver collectivement une solution optimale qui satisfait les contraintes et les performances demandées.L'approche proposée est basée sur un processus de conception pour faciliter la conception collaborative distribué des systèmes mécatroniques. Cette approche est appliquée à la conception préliminaire d'un véhicule électrique pour illustrer comment l'utilisation du paradigme multi-agent aide les concepteurs à prendre des décisions efficaces et de parvenir à une décision optimale de l'ensemble du problème. Une étude comparative avec les méthodes classiques d'optimisation est faite afin de démontrer la validité et l'efficacité de l’approche proposée. / The design of a mechatronic system is a multidisciplinary and multi-objective optimization problem. Optimization approaches currently used for the optimization of multidisciplinary systems are expensive in computation time, difficult to implement, and inflexible with the preliminary design phase, in which the objectives and design constraints change frequently. It is therefore necessary to look for new techniques easier to implement and less expensive, that enable to adapt dynamically a solution due to a change in specifications. In this context that this thesis focuses on the development of a multi-agent design approach, based on disciplinary knowledge and cooperative behavior; make possible to collectively find an optimal solution that satisfies the required constraints and performance.The proposed approach is based on a design process to facilitate collaborative distributed design of mechatronic systems. This approach is applied to the preliminary design of an electric vehicle to illustrate how the use of the multi-agent paradigm helps designers in making effective decisions and to achieve an optimal decision of the overall problem. A comparative study with traditional optimization methods is made to demonstrate the validity and effectiveness of the proposed approach.

Page generated in 0.105 seconds