Spelling suggestions: "subject:"hétérogène""
201 |
Fusion d'images de télédétection hétérogènes par méthodes crédibilistes / Fusion of heterogeneous remote sensing images by credibilist methodsHammami, Imen 08 December 2017 (has links)
Avec l’avènement de nouvelles techniques d’acquisition d’image et l’émergence des systèmes satellitaires à haute résolution, les données de télédétection à exploiter sont devenues de plus en plus riches et variées. Leur combinaison est donc devenue essentielle pour améliorer le processus d’extraction des informations utiles liées à la nature physique des surfaces observées. Cependant, ces données sont généralement hétérogènes et imparfaites ce qui pose plusieurs problèmes au niveau de leur traitement conjoint et nécessite le développement de méthodes spécifiques. C’est dans ce contexte que s’inscrit cette thèse qui vise à élaborer une nouvelle méthode de fusion évidentielle dédiée au traitement des images de télédétection hétérogènes à haute résolution. Afin d’atteindre cet objectif, nous axons notre recherche, en premier lieu, sur le développement d’une nouvelle approche pour l’estimation des fonctions de croyance basée sur la carte de Kohonen pour simplifier l’opération d’affectation des masses des gros volumes de données occupées par ces images. La méthode proposée permet de modéliser non seulement l’ignorance et l’imprécision de nos sources d’information, mais aussi leur paradoxe. Ensuite, nous exploitons cette approche d’estimation pour proposer une technique de fusion originale qui permettra de remédier aux problèmes dus à la grande variété des connaissances apportées par ces capteurs hétérogènes. Finalement, nous étudions la manière dont la dépendance entre ces sources peut être considérée dans le processus de fusion moyennant la théorie des copules. Pour cette raison, une nouvelle technique pour choisir la copule la plus appropriée est introduite. La partie expérimentale de ce travail est dédiée à la cartographie de l’occupation des sols dans les zones agricoles en utilisant des images SPOT-5 et RADARSAT-2. L’étude expérimentale réalisée démontre la robustesse et l’efficacité des approches développées dans le cadre de cette thèse. / With the advent of new image acquisition techniques and the emergence of high-resolution satellite systems, remote sensing data to be exploited have become increasingly rich and varied. Their combination has thus become essential to improve the process of extracting useful information related to the physical nature of the observed surfaces. However, these data are generally heterogeneous and imperfect, which poses several problems in their joint treatment and requires the development of specific methods. It is in this context that falls this thesis that aimed at developing a new evidential fusion method dedicated to heterogeneous remote sensing images processing at high resolution. In order to achieve this objective, we first focus our research, firstly, on the development of a new approach for the belief functions estimation based on Kohonen’s map in order to simplify the masses assignment operation of the large volumes of data occupied by these images. The proposed method allows to model not only the ignorance and the imprecision of our sources of information, but also their paradox. After that, we exploit this estimation approach to propose an original fusion technique that will solve problems due to the wide variety of knowledge provided by these heterogeneous sensors. Finally, we study the way in which the dependence between these sources can be considered in the fusion process using the copula theory. For this reason, a new technique for choosing the most appropriate copula is introduced. The experimental part of this work isdevoted to land use mapping in case of agricultural areas using SPOT-5 and RADARSAT-2 images. The experimental study carried out demonstrates the robustness and effectiveness of the approaches developed in the framework of this thesis.
|
202 |
Three essays on the sectoral aspects of economic policy / Trois essais sur les aspects sectoriels de la politique économiqueArabzadeh Jamali, Hamzeh 05 September 2016 (has links)
L’objectif sous-jacent aux trois chapitres qui composent cette thèse, est une meilleure compréhension de l’incidence des politiques publiques dont les impacts diffèrent entre secteurs hétérogènes. Nous déclinons cette analyse à trois types de politiques publiques au cœur de la macro-économie contemporaine : (i) une politique environnementale (ii) une politique d’aide au développement et (iii) une politique de déficits jumeaux. A travers ces trois chapitres, nous soutenons que les impacts sectoriels des politiques jouent un rôle crucial dans l’évaluation des politiques et dans la détermination de la politique optimale. Le premier chapitre se concentre sur la taxe sur la pollution. Il fournit un modèle théorique qui explique pourquoi il existe une relation négative entre le revenu des ménages et leur soutien pour la taxe sur la pollution. Dans le deuxième chapitre, j’étudie les impacts macroéconomiques d’une politique d’aide au développement et je considère deux secteurs: secteur des biens échangeables (T-secteur) et le secteur des biens non-échangeables (N-secteur). Je considère deux types d’aide étrangère: (i) une aide distribuée par des transferts forfaitaires aux ménages et (ii) une aide destinée à financer les investissements publics. J'étudie l'impact de la libéralisation du marché des capitaux sur la forme optimale et la performance de l'aide au développement. Le troisième chapitre est centré sur les déficits jumeaux : un déficit de la balance courante induit par un déficit de l'équilibre budgétaire. L'analyse économétrique du papier montre que les pays ayant adopté une négociation salariée centralisée présentent des déficits jumeaux plus faibles que les autres. Ce chapitre fournit aussi un modèle théorique pour expliquer ces résultats empiriques. / In this dissertation, I study the implications of policies with heterogeneous sectoral impacts in three separate research fields of macroeconomics: (i) environmental policy, (ii) foreign aid and (iii) the political economy of the twin deficits. Through the three chapters of this thesis, it is argued that, in all these three contexts, the sectoral impacts of policies play important roles in the policy evaluation and in the determination of optimal policy. In the first chapter, the policy of concern is the pollution tax. The paper provides a theoretical model to explain why in top income percentiles, there can be a negative relationship between household's income and their support for pollution tax. In the second chapter, I study the macroeconomic impacts of foreign aid and I consider two sectors: tradable sector (T-sector) and non-tradable sector (N-sector). I consider two forms of foreign aid: (i) aid which is transferred to the households and (ii) aid which is used to finance public investment. I investigate the impact of the liberalization of capital market on the optimal form and on the performance of foreign aid. In the third chapter, I consider the same sectors as in the second chapter : T-sector and N-sector. The focus of this chapter is rather on the political economy of the twin deficits: a deficit in current account induced by a deficit in fiscal balance. Econometric analysis of the paper finds evidence that wage centralization, in a cross-section of industrialized economies, is significantly associated with lower deficits in current account and budget balance. The paper provides a political economy framework to explain this empirical finding.
|
203 |
Quality of service aware data dissemination in vehicular Ad Hoc networksSharifi Rayeni, Mehdi 04 1900 (has links)
No description available.
|
204 |
Modélisation micromécanique de milieux poreux hétérogènes et applications aux roches oolithiques / Micromechanical Modelling of Heterogenous Porous Materials with Application to Oolitic RocksChen, Fengjuan 24 October 2016 (has links)
La problématique suivie dans ce travail est la détermination des propriétés effectives, élastiques et conductivité, de matériaux poreux hétérogènes tels que des roches, les roches oolithiques en particulier, en relation avec leur microstructure. Le cadre théorique adopté est celui de l’homogénéisation des milieux hétérogènes aléatoires et on suit les approches par tenseurs d’Eshelby. Ces approches sont basées sur la résolution des problèmes d’Eshelby : le problème de l’inclusion (premier problème) et le problème de l’inhomogénéité (second problème) isolées dans un milieu infini. La solution de ces problèmes de référence est analytique, en élasticité linéaire isotrope et en diffusion linéaire stationnaire, dans le cas d’inhomogénéités 2D ou 3D de type ellipsoïde. Elle conduit à la définition de tenseurs caractérisant les interactions entre l’inclusion/inhomogénéité et le milieu environnant. On utilise dans ce travail les tenseurs de contribution relatifs à une inhomogénéité isolée, définis par Kachanov et Sevostianov 2013, contributions à la souplesse (élasticité) et à la résistivité (conductivité). Ces tenseurs au cœur des méthodes d’homogénéisation de type EMA (Effective Medium Approximation), et en particulier les schémas NIA (Non Interaction Approximation), Mori Tanaka et Maxwell. Ce travail est centré sur la caractérisation des paramètres géométriques microstructuraux dont l’influence sur les propriétés effectives est majeure. On étudie en particulier les effets de forme des inhomogénéités, la nouveauté est l’aspect 3D. Les observations microstructurales de roches oolithiques, dont le calcaire de référence de Lavoux, mettent en évidence des hétérogénéités de forme 3D et concave. En particulier les matériaux de remplissage inter-oolithes, pores ou calcite syntaxiale. Ces formes peuvent être observées sur d’autres matériaux hétérogènes et ont été peu étudiées dans le cadre micromécanique. Cela nécessite de considérer des formes non ellipsoïdales et de résoudre numériquement les problèmes d’Eshelby. Le cœur de ce travail est consacré à la détermination des tenseurs de contribution d’inhomogénéités 3D convexes ou concaves de type supersphère (à symétrie cubique) ou supersphéroïde (à symétrie de révolution). Le premier problème d’Eshelby a été résolu, dans le cas de la supersphère, par intégration numérique de la fonction de Green exacte (solution de Kelvin dans le cas isotrope) sur la surface de l’inclusion. Des modélisations 3D aux éléments finis ont permis de résoudre le second problème d’Eshelby et d’obtenir les tenseurs de contribution à la souplesse et à la résistivité pour les superphère et supersphéroïde. Sur la base des résultats numériques, des relations analytiques simplifiées ont été proposées pour les tenseurs de contribution sous forme de fonctions des paramètres élastiques des constituants et du paramètre adimensionnel p caractérisant la concavité. Un résultat important, dans le cas de la superphère et dans le domaine concave, est l’identification d’un même paramètre géométrique pour les tenseurs de contribution à la souplesse et à la résistivité. Les résultats numériques et théoriques obtenus sont appliqués à deux problèmes : l’estimation de la conductivité thermique effective de roches calcaires oolithiques d’une part et l’étude de l’extension des relations dites de substitution définies par Kachanov et Sevostianov 2007 au cas non ellipsoïdal d’autre part. Pour le premier problème, un modèle micromécanique de type Maxwell, à deux échelles a permis de retrouver les résultats expérimentaux disponibles dans la littérature, en en particulier l’influence de la porosité sur la conductivité thermique effective dans les cas sec et humide. Dans le cas du second problème, les résultats obtenus ont permis de montrer que la validité de relations de substitution est restreinte, dans le cas non ellipsoïdal et en considérant une forme d’inhomogénéité de type supersphère, au domaine convexe seulement / Focusing on the effect of shape factor on the overall effective properties of heterogeneous materials, the 1st and the 2nd Eshelby problem related to 3-D non-ellipsoidal inhomogeneities with a specific application to oolitic rocks have been discussed in the current work. Particular attention is focused on concaves shapes such as supersphere and superspheroid. For rocks, they may represent pores or solid mineral materials embbeded in the surrounding rock matrix. In the 1st Eshelby problem, Eshelby tensor interrelates the resulting strain about inclusion and eigenstrain that would have been experienced inside the inclusion without any external contraire. Calculations of this tensor for superspherical pores– both concave and convex shapes – are performed numerically. Results are given by an integration of derivation of Green’s tensor over volume of the inclusion. Comparisons with the results of Onaka (2001) for convex superspheres show that the performed calculations have an accuracy better than 1%. The current calculations have been done to complete his results. In the 2nd Eshelby problem, property contribution tensors that characterizes the contribution of an individual inhomogeneity on the overall physical properties have been numerically calculated by using Finite Element Method (FEM). Property contribution tensors of 3D non ellipsoidal inhomogeneities, such as supersphere and superspheroid, have been obtained. Simplified analytical relations have been derived for both compliance contribution tensor and resistivity contribution tensor. Property contribution tensors have been used to estimate effective elastic properties and effective conductivity of random heterogeneous materials, in the framework of Non-Interaction Approximation, Mori-Tanaka scheme and Maxwell scheme. Two applications in the field of geomechanics and geophysics have been done. The first application concerns the evaluation of the effective thermal conductivity of oolitic rocks is performed to complete the work of Sevostianov and Giraud (2013) for effective elastic properties. A two step homogenization model has been developed by considering two distinct classes of pores: microporosity (intra oolitic porosity) and meso porosity (inter oolitic porosity). Maxwell homogenization scheme formulated in terms of resistivity contribution tensor has been used for the transition from meso to macroscale. Concave inter oolitic pores of superspherical shape have been taken into account by using resistivity contribution tensor obtained thanks to FEM modelling. Two limiting cases have been considered: ‘dry case’ (air saturated pores) and ‘wet case’ (water liquid saturated pores). Comparisons with experimental data show that variations of effective thermal conductivity with porosity in the most sensitive case of air saturated porosity are correctly reproduced. Applicability of the replacement relations, initially derived by Sevostianov and Kachanov (2007) for ellipsoidal inhomogeneities, to non-ellipsoidal ones has been investigated. It it the second application of newly obtained results on property contribution tensors. We have considered 3D inhomogeneities of superspherical shape. From the results, it has been seen that these relations are valid only in the convex domain, with an accuracy better than 10%. Replacement relations can not be used in the concave domain for such particular 3D shape
|
205 |
Modeling and numerical simulation of coupled reactive fluidized beds in a Chemical Looping Combustion system / Modélisation et simulation numérique de lits fluidisés couplés dans un système de combustion en boucle chimiqueHamidouche, Ziad 21 February 2017 (has links)
Dans cette thèse, des simulations numériques tridimensionnelles instationnaires d'une installation expérimentale de combustion en boucle chimique sont réalisées. Le pilote expérimental, d'une puissance de 120 kWth, utilise un matériau perovskite, à base de Ca-Mn, comme transporteur d'oxygène. Les simulations numériques sont réalisées par le code NEPTUNE_CFD, selon une approche Euler-Euler pour les deux phases (solide et gazeuse), avec des modèles de fermeture spécifiques pour modéliser les transferts de masse, de mouvement et d'énergie. Les réactions hétérogènes (i.e. réactions gaz-solide) de réduction et d'oxydation sont décrites au moyen d'un modèle à cœur rétrécissant dans le grain, qui prend en compte les mécanismes compétitifs dans le processus global de réaction gaz-solide: réaction chimique à la surface interne des particules,diffusion à travers la couche de produits et transfert externe autour des particules. Les résultats des simulations numériques sont validées avec des mesures expérimentales et analysées afin de mieux comprendre le comportement local/instationnaire de l'écoulement gaz-particules réactif dans ce système de combustion en boucle chimique. L'outil théorique/numérique développé dans ce travail sera utilisé pour le dimensionnement d'une unité pilote à l’échelle des installations industrielles. / In this work, reactive unsteady three-dimensional numerical simulations of a Chemical Looping Combustion (CLC) plant are performed. The plant is a 120 kWth pilot working with Ca-Mn-based material as selected oxygen carrier. Numerical simulations are performed by NEPTUNE_CFD code using an Euler-Euler approach which computes both the gas and the solid phases in an Eulerian fashion accounting for specific closures in order to model interphase mass, momentum and energy transfers. Reduction and oxidation heterogeneous (i.e. gas-solid) reactions are modeled by means of a grain model (shrinking core model in the grain) accounting for both the competing mechanisms of chemical reaction at the particle internal surface and gaseous diffusion through the product layer. Results from numerical simulations are validated against experimental measurements and analyzed in order to gain insight in the local behaviour of the reactive gas-particle flow in the CLC system. The theoretical/numerical tool developed in this work will be used for design upgrade recommendation in the stage of scaling-up from pilot to industrial facilities.
|
206 |
Task-based multifrontal QR solver for heterogeneous architectures / Solveur multifrontal QR à base de tâches pour architectures hétérogènesLopez, Florent 11 December 2015 (has links)
Afin de s'adapter aux architectures multicoeurs et aux machines de plus en plus complexes, les modèles de programmations basés sur un parallélisme de tâche ont gagné en popularité dans la communauté du calcul scientifique haute performance. Les moteurs d'exécution fournissent une interface de programmation qui correspond à ce paradigme ainsi que des outils pour l'ordonnancement des tâches qui définissent l'application. Dans cette étude, nous explorons la conception de solveurs directes creux à base de tâches, qui représentent une charge de travail extrêmement irrégulière, avec des tâches de granularités et de caractéristiques différentes ainsi qu'une consommation mémoire variable, au-dessus d'un moteur d'exécution. Dans le cadre du solveur qr mumps, nous montrons dans un premier temps la viabilité et l'efficacité de notre approche avec l'implémentation d'une méthode multifrontale pour la factorisation de matrices creuses, en se basant sur le modèle de programmation parallèle appelé "flux de tâches séquentielles" (Sequential Task Flow). Cette approche, nous a ensuite permis de développer des fonctionnalités telles que l'intégration de noyaux dense de factorisation de type "minimisation de cAfin de s'adapter aux architectures multicoeurs et aux machines de plus en plus complexes, les modèles de programmations basés sur un parallélisme de tâche ont gagné en popularité dans la communauté du calcul scientifique haute performance. Les moteurs d'exécution fournissent une interface de programmation qui correspond à ce paradigme ainsi que des outils pour l'ordonnancement des tâches qui définissent l'application. Dans cette étude, nous explorons la conception de solveurs directes creux à base de tâches, qui représentent une charge de travail extrêmement irrégulière, avec des tâches de granularités et de caractéristiques différentes ainsi qu'une consommation mémoire variable, au-dessus d'un moteur d'exécution. Dans le cadre du solveur qr mumps, nous montrons dans un premier temps la viabilité et l'efficacité de notre approche avec l'implémentation d'une méthode multifrontale pour la factorisation de matrices creuses, en se basant sur le modèle de programmation parallèle appelé "flux de tâches séquentielles" (Sequential Task Flow). Cette approche, nous a ensuite permis de développer des fonctionnalités telles que l'intégration de noyaux dense de factorisation de type "minimisation de cAfin de s'adapter aux architectures multicoeurs et aux machines de plus en plus complexes, les modèles de programmations basés sur un parallélisme de tâche ont gagné en popularité dans la communauté du calcul scientifique haute performance. Les moteurs d'exécution fournissent une interface de programmation qui correspond à ce paradigme ainsi que des outils pour l'ordonnancement des tâches qui définissent l'application. / To face the advent of multicore processors and the ever increasing complexity of hardware architectures, programming models based on DAG parallelism regained popularity in the high performance, scientific computing community. Modern runtime systems offer a programming interface that complies with this paradigm and powerful engines for scheduling the tasks into which the application is decomposed. These tools have already proved their effectiveness on a number of dense linear algebra applications. In this study we investigate the design of task-based sparse direct solvers which constitute extremely irregular workloads, with tasks of different granularities and characteristics with variable memory consumption on top of runtime systems. In the context of the qr mumps solver, we prove the usability and effectiveness of our approach with the implementation of a sparse matrix multifrontal factorization based on a Sequential Task Flow parallel programming model. Using this programming model, we developed features such as the integration of dense 2D Communication Avoiding algorithms in the multifrontal method allowing for better scalability compared to the original approach used in qr mumps. In addition we introduced a memory-aware algorithm to control the memory behaviour of our solver and show, in the context of multicore architectures, an important reduction of the memory footprint for the multifrontal QR factorization with a small impact on performance. Following this approach, we move to heterogeneous architectures where task granularity and scheduling strategies are critical to achieve performance. We present, for the multifrontal method, a hierarchical strategy for data partitioning and a scheduling algorithm capable of handling the heterogeneity of resources. Finally we present a study on the reproducibility of executions and the use of alternative programming models for the implementation of the multifrontal method. All the experimental results presented in this study are evaluated with a detailed performance analysis measuring the impact of several identified effects on the performance and scalability. Thanks to this original analysis, presented in the first part of this study, we are capable of fully understanding the results obtained with our solver.
|
207 |
Synthèse par arc électrique de nanotubes de carbone hybrides incorporant de l'azote et/ou du bore / Synthesis of hybrid carbon nanotubes incorporating nitrogen and/or boron by arc dischargeGourari, Djamel Eddine 25 September 2015 (has links)
Contrairement aux nanotubes de carbone qui sont des semi-conducteurs dits " à petit gap " et dont les propriétés électroniques sont complétement contrôlées par leur géométrie, les nanotubes hétérogènes mono-parois BxCyNz suscitent un grand intérêt scientifique du fait de leurs propriétés électroniques modulables. La synthèse de tels nanotubes hétérogènes permettrait en effet de moduler ce " gap " en agissant sur leur composition chimique et non sur leur géométrie. Les nanotubes BxCyNz qui résultent de la substitution de certains atomes de carbone dans le réseau graphénique par des hétéroatomes (B et/ou N) peuvent trouver de nombreuses applications notamment dans la réalisation de matériaux photoluminescents, les dispositifs à émission de champ ou encore les nanotransistors à haute température... Ce travail porte sur la synthèse de cette nouvelle génération de nanotubes par arc électrique. Cette technique présente l'avantage de réaliser la substitution in-situ des atomes de carbone par les hétéroatomes. Elle a été menée en utilisant une approche originale basée sur la corrélation des caractéristiques du plasma (champs de température et de concentration des différentes espèces) avec la morphologie et la composition des nanostructures carbonées caractérisées par différentes techniques (HRTEM, EDX, XPS, EELS). Ces résultats permettent une meilleure compréhension des phénomènes impliqués dans la croissance des hétéronanotubes aux échelles macroscopique et microscopique, et également de la structure et de l'environnement chimique des dopants dans le réseau graphénique de nanoformes carbonées obtenues tels que des nanotubes dopés au bore et ou à l'azote, et des couches de graphènes dopées. / In opposition to carbon nanotubes which are semi-conductors with so-called "small gap" and which electronic properties are entirely determined by their geometry, single-wall heterogeneous carbon nanotubes BxCyNz yield to great scientific interest due to their tunable electronic properties. Successfully synthesising these heterogeneous nanotubes would indeed allow tuning this gap by acting on their chemical composition instead of their geometry. BxCyNz nanotubes resulting from the substitution of some carbon atoms in the graphene lattice by heteroatoms (B and/or N) could have numerous applications, in particular in photo-luminescent materials, field emission devices, or high operating temperature nano transistors... This work is dedicated to the synthesis of this new generation of nanotubes by electric arc. This technique offers the advantage to perform in-situ substitution of carbon atoms by the heteroatoms. It was carried out using an original approach based on the correlation of plasma characteristics (temperature and concentration fields of the various species) with the morphology and the composition of the carbon nanostructures characterized by various techniques (HRTEM, EDX, XPS, EELS). These results bring a better understanding of the phenomena involved in the growth of heteronanotubes in plasma conditions and also of the structure and chemical environment of the doping elements in the graphene lattice of carbon nanoforms such as boron- or nitrogen-doped nanotubes, and doped graphene layers.
|
208 |
Génération de modèles de haut niveau enrichis pour les systèmes hétérogènes et multiphysiques / Generating high level enriched models for heterogeneous and muliphysics systemsBousquet, Laurent 29 January 2014 (has links)
Les systèmes sur puce sont de plus en plus complexes : ils intègrent des parties numériques, desparties analogiques et des capteurs ou actionneurs. SystemC et son extension SystemC AMSpermettent aujourd’hui de modéliser à haut niveau d’abstraction de tels systèmes. Ces outilsconstituent de véritables atouts dans une optique d’étude de faisabilité, d’exploration architecturale etde vérification du fonctionnement global des systèmes complexes hétérogènes et multiphysiques. Eneffet, les durées de simulation deviennent trop importantes pour envisager les simulations globales àbas niveau d’abstraction. De plus, les simulations basées sur l’utilisation conjointe de différents outilsprovoquent des problèmes de synchronisation. Les modèles de bas niveau, une fois crées par lesspécialistes des différents domaines peuvent toutefois être abstraits afin de générer des modèles dehaut niveau simulables sous SystemC/SystemC AMS en des temps de simulation réduits. Une analysedes modèles de calcul et des styles de modélisation possibles est d’abord présentée afin d’établir unlien avec les durées de simulation, ceci pour proposer un style de modélisation en fonction du niveaud’abstraction souhaité et de l’ampleur de la simulation à effectuer. Dans le cas des circuits analogiqueslinéaires, une méthode permettant de générer automatiquement des modèles de haut niveaud’abstraction à partir de modèles de bas niveau a été proposée. Afin d’évaluer très tôt dans le flot deconception la consommation d’un système, un moyen d’enrichir les modèles de haut niveaupréalablement générés est présenté. L’attention a ensuite été portée sur la modélisation à haut niveaudes systèmes multiphysiques. Deux méthodes y sont discutées : la méthode consistant à utiliser lecircuit équivalent électrique puis la méthode basée sur les bond graphs. En particulier, nous proposonsune méthode permettant de générer un modèle équivalent au bond graph à partir d’un modèle de basniveau. Enfin, la modélisation d’un système éolien est étudiée afin d’illustrer les différents conceptsprésentés dans cette thèse. / Systems on chip are more and more complex as they now embed not only digital and analog parts, butalso sensors and actuators. SystemC and its extension SystemC AMS allow the high level modeling ofsuch systems. These tools are efficient for feasibility study, architectural exploration and globalverification of heterogeneous and multiphysics systems. At low level of abstraction, the simulationdurations are too important. Moreover, synchronization problems appear when cosimulations areperformed. It is possible to abstract the low level models that are developed by the specialists of thedifferent domains to create high level models that can be simulated faster using SystemC/SystemCAMS. The models of computation and the modeling styles have been studied. A relation is shownbetween the modeling style, the model size and the simulation speed. A method that generatesautomatically the high level model of an analog linear circuit from its low level representation isproposed. Then, it is shown how to include in the high level model some information allowing thepower consumption estimation. After that, the multiphysics systems modeling is studied. Twomethods are discussed: firstly, the one that uses the electrical equivalent circuit, then the one based onthe bond graph approach. It is shown how to generate a bond graph equivalent model from a low levelrepresentation. Finally, the modeling of a wind turbine system is discussed in order to illustrate thedifferent concepts presented in this thesis.
|
209 |
Memory-aware algorithms : from multicores to large scale platforms / Algorithmes orientés mémoire : des processeurs multi-cœurs aux plates-formes à grande échelleJacquelin, Mathias 20 July 2011 (has links)
Cette thèse s’intéresse aux algorithmes adaptés aux architectures mémoire hiérarchiques, rencontrées notamment dans le contexte des processeurs multi-cœurs.Nous étudions d’abord le produit de matrices sur les processeurs multi-cœurs. Nous modélisons le processeur, bornons le volume de communication, présentons trois algorithmes réduisant ce volume de communication et validons leurs performances. Nous étudions ensuite la factorisation QR, dans le contexte des matrices ayant plus de lignes que de colonnes. Nous revisitons les algorithmes existants afin d’exploiter les processeurs multi-cœurs, analysons leurs chemins critiques, montrons que certains sont asymptotiquement optimaux, et analysons leurs performances.Nous étudions ensuite les applications pipelinées sur une plate-forme hétérogène, le QS 22. Nous modélisons celle-ci et appliquons les techniques d’ordonnancement en régime permanent. Nous introduisons un programme linéaire mixte permettant d’obtenir une solution optimale. Nous introduisons en outre un ensemble d’heuristiques.Puis, nous minimisons la mémoire nécessaire à une application modélisée par un arbre, sur une plate-forme à deux niveaux de mémoire. Nous présentons un algorithme optimal et montrons qu’il existe des arbres tels que les parcours postfixes sont arbitrairement mauvais. Nous étudions alors la minimisation du volume d’E/S à mémoire donnée, montrons que ce problème est NP-complet, et présentons des heuristiques. Enfin, nous comparons plusieurs politiques d’archivage pour BLUE WATERS. Nous introduisons deux politiques d’archivage améliorant les performances de la politique RAIT, modélisons la plate-forme de stockage et simulons son fonctionnement. / This thesis focus on memory-aware algorithms tailored for hierarchical memory architectures, found for instance within multicore processors. We first study the matrix product on multicore architectures. We model such a processor, and derive lower bounds on the communication volume. We introduce three ad hoc algorithms, and experimentally assess their performance.We then target a more complex operation: the QR factorization of tall matrices. We revisit existing algorithms to better exploit the parallelism of multicore processors. We thus study the critical paths of many algorithms, prove some of them to be asymptotically optimal, and assess their performance.In the next study, we focus on scheduling streaming applications onto a heterogeneous multicore platform, the QS 22. We introduce a model of the platform and use steady-state scheduling techniques so as to maximize the throughput. We present a mixed integer programming approach that computes an optimal solution, and propose simpler heuristics. We then focus on minimizing the amount of required memory for tree-shaped workflows, and target a classical two-level memory system. I/O represent transfers from a memory to the other. We propose a new exact algorithm, and show that there exist trees where postorder traversals are arbitrarily bad. We then study the problem of minimizing the I/O volume for a given memory, show that it is NP-hard, and provide a set of heuristics.Finally, we compare archival policies for BLUE WATERS. We introduce two archival policies and adapt the well known RAIT strategy. We provide a model of the tape storage platform, and use it to assess the performance of the three policies through simulation.
|
210 |
Scheduling for Reliability : complexity and Algorithms / Ordonnancement pour la Fiabilité : complexité et algorithmesDufossé, Fanny 06 September 2011 (has links)
Les travaux présentés dans cette thèse portent sur le placement et l’ordonnancement d’applications de flots de données. On se place dans le contexte de plates-formes composées de processeurs sujets à des pannes. Dans une première partie, on considère un type particulier d’applications de flots de données: les services filtrants. On étudie l'ordonnancement de telles applications sur des plates-formes homogènes et hétérogènes, d'abord sans tenir compte des coûts de communication, puis en les incluant dans le modèle. On considère enfin l’ordonnancement d’un tel calcul sur une chaîne de processeurs. Le comportement d’un service filtrant est comparable à celui d’un calcul effectué sur un processeur non fiable: certains résultats vont être calculés, et d’autres perdus. On étudie le modèle des pannes transitoires. On veut effectuer un calcul à la fois fiable et efficace. La complexité de différentes variantes de ce problème est démontrée. Deux heuristiques sont décrites, puis comparées expérimentalement. Si les pannes transitoires sont les pannes les plus fréquemment rencontrées sur des grilles de calculs classiques, certains types de plates-formes rencontrent d’autres types de défaillances. Les grilles de volontaires sont particulièrement instables. Sur ce type de plate-forme, on veut exécuter des calculs itératifs. Cette application est constituée soit de tâches indépendantes, soit de tâches couplées, qui doivent être calculées ensemble et au même rythme. Dans chaque cas, le problème est d’abord étudié théoriquement, puis des heuristiques sontproposées, et leur performances sont comparées. / This thesis deals with the mapping and the scheduling of workflows. In this context, we consider unreliable platforms, with processors subject to failures. In a first part, we consider a particular model of streaming applications : the filtering services. In this context, we aim at minimizing period and latency. We first neglect communication costs. In this model, we study scheduling problems on homogeneous and heterogeneous platforms. Then, the impact of communication costs on scheduling problems of a filtering application is studied. Finally, we consider the scheduling problem of such an application on a chain of processors. The theoretical complexity of any variant of this problem is proved. This filtering property can model the reliability of processors. The results of some computations are successfully computed, and some other ones are lost. We consider the more frequent failure types : transient failures. We aim efficient and reliable schedules. The complexity of many variants of this problem is proved. Two heuristics are proposed and compared using using simulations. Even if transient failures are the most common failures in classical grids, some particular type of platform are more concerned by other type of problems. Desktop grids are especially unstable. In this context, we want to execute iterative applications. All tasks are executed, then a synchronization occurs, and so on. Two variants of this problem are considered : applicationsof independent tasks, and applications where all tasks need to be executed at same speed. In both cases, the problem is first theoretically studied, then heuristics are proposed and compared using simulations.
|
Page generated in 0.1071 seconds