• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 6
  • 4
  • 1
  • Tagged with
  • 11
  • 11
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Investigation of intrinsic activity of cobalt and iron based Fischer-Tropsch catalysts using transient kinetic methods / Étude de l'activité intrinsèque des catalyseurs Fischer-Tropsch à base de cobalt et de fer par des méthodes cinétiques transitoires

Bento Carvalho, Alexandre Antônio 23 November 2017 (has links)
Les travaux exposés dans ce manuscrit portent sur l’étude de l’activité intrinsèque et de la localisation des sites actifs des catalyseurs à base de cobalt et de fer par une combinaison des méthodes cinétiques transitoires telles que le SSITKA, de la caractérisation physico-chimique étendue et des tests catalytiques. La promotion des catalyseurs à base de fer avec des métaux utilisés pour la soudure (Bi et Pb) conduit à une augmentation remarquable de la vitesse de production des oléfines légères avec la possibilité d’effectuer la synthèse Fischer-Tropsch dans des conditions très douces (basse pression) voire pression atmosphérique. Parmi tous les catalyseurs étudiés, les catalyseurs à base de zéolite de type mordenite ont présenté la valeur la plus élevée de la constante de vitesse SSITKA. La localisation des sites actifs de cobalt dans les catalyseurs bifonctionnels à base de zéolite a un impact majeur sur la vitesse de réaction et en particulier sur la sélectivité en hydrocarbures. La proximité entre les sites actifs de cobalt et les sites actifs de Bronsted a été considérée comme un paramètre clef pour obtenir une sélectivité et un rendement plus élevés en hydrocarbures ramifiés. Le SSITKA couplé à des techniques de caractérisation a révélé que le dépôt de carbone et l'agglomération des nanoparticules de cobalt étaient responsables de la désactivation du catalyseur cobalt supporté par la silice. La régénération des catalyseurs sous hydrogène diminue le nombre d'espèces de carbone déposées et libère partiellement les sites les plus actifs d’adsorption dissociative et les sites les plus forts d'adsorption réversible du monoxyde de carbone. / The work exposed in this manuscript concerns the study of the intrinsic activity and localization of active sites in cobalt and iron based catalysts using a combination of transient kinetic methods such as SSITKA, extended physicochemical characterization and catalytic tests under quasi steady state conditions. Promotion of iron catalysts with metals used for soldering (Bi and Pb) results a remarkable increase in the light olefin production rate with the possibility to conduct Fischer-Tropsch synthesis at very mild reaction conditions (low pressure) and even at atmospheric pressure. Transient kinetic experiments showed facilitation of CO dissociation in the presence of promoters by scavenging O atoms from iron carbide. Cobalt catalyst supported by mordenite zeolite presented higher value of SSITKA rate constant. Localization of cobalt active sites in bifunctional cobalt-zeolite catalysts has a major impact on the reaction rate and in particular on the hydrocarbon selectivity. A proximity between the cobalt active site and Bronsted active sites was found to be a key parameter to obtain higher selectivity and yield of isomerized hydrocarbons. SSITKA combined with catalyst characterization revealed that carbon deposition and cobalt nanoparticle agglomeration were responsible for the deactivation of silica supported cobalt catalysts. Catalyst rejuvenation in hydrogen lessened the amounts of deposited carbon species and partially released the most active sites of carbon monoxide dissociative adsorption and stronger sites of carbon monoxide reversible adsorption.
2

Modélisation numérique par la méthode des éléments finis des systèmes électrotechniques : recherche du régime permanent / Numerical modeling by finite element method for electrotechnical systems : steady state investigation

Caron, Guillaume 05 December 2017 (has links)
Dans le domaine du Génie Électrique, la méthode des éléments finis (MEF) associée à une approche pas à pas dans le temps est la plus simple, la plus précise et la plus robuste des méthodes pour modéliser les champs magnétiques dans des dispositifs électromagnétiques en basse fréquence. Néanmoins, cette méthode peut conduire à des temps de calcul extrêmement importants lorsque la constante de temps du système étudié est relativement petite en comparaison de la durée du régime transitoire. C'est dans ce contexte que s'inscrit ces travaux de thèse intitulés « Modélisation numérique par la méthode des éléments finis des systèmes électrotechniques: recherche du régime permanent ». Dans ce manuscrit, une méthode numérique nommée Waveform Relaxation-Newton Method (WR-NM) a été développée. Celle-ci est basée sur la Waveform Relaxation Method (WRM) à laquelle des conditions de périodicité sont appliquées afin d'imposer le régime permanent directement pour des problèmes électromagnétiques couplés à des équations de circuit. La convergence de cette méthode étant similaire à celle d'une méthode point-fixe, elle a été combinée à la méthode de Newton-Raphson dont la convergence est quadratique. Afin de valider et de tester la robustesse de la WR-NM, plusieurs applications sont présentées dans le manuscrit. Des gains importants en temps de calcul sont signifiés en comparaison à l'approche classique et ce pour une précision de la solution identique. Un dernier exemple concernant la modélisation d'une machine à griffes couplés à un pont redresseur montre que la WR-NM peut également être employé dans un cadre industriel. / In electrical engineering, the Finite Element Method (FEM) associated to the time stepping numerical scheme is the most used approach today. This method is simple, accurate and efficient to modeling magnetic fields in low frequency electromagnetic devices. Nevertheless according to the studied cases, the time constant of the device can lead to prohibitive computation time to obtain the steady state. It is in this context that this PhD thesis is written "Numerical modeling by finite element method for electrotechnical systems: steady state investigation". The Waveform Relaxation-Newton Method (WR-NM) was developed, this method is based on the waveform relaxation method (WRM) in which periodicity conditions are applied to impose the steady state for electromagnetic problems coupled to circuit equations. The convergence of this method is similar to a fixed-point method, thus the method is combined to the method of Newton-Raphson whose convergence is quadratic. In order to validate and test the robustness of WR-NM, several applications are presented in the manuscript. Significant gains in computation time are shown in comparison with the conventional approach and for the same precision of the solution. A final example on the modeling of a claw-pole machine coupled to a bridge rectifier shows that the WR-NM can also be employed in an industrial setting.
3

Comportement dynamique de structures non-linéaires soumises à des charges mobiles

Nguyen, Vu-Hieu 08 March 2002 (has links) (PDF)
Ce travail a pour but l'étude de la dynamique de structures non-linéaires soumises à des passages de véhicules. Le cas d'un demi-espace multi-couche visco-élastique soumis à une charge mobile est premièrement résolu par une méthode semi-analytique. Il permet de comprendre les phénomènes physiques et peut servir à valider des approches plus complexes élaborées dans la suite. Plusieurs études sur ce problème ont été réalisées mais il en existe encore peu qui tiennent compte de la non-linéarité des matériaux. Ces nonlinéarités, qui peuvent être très forte dans certains matériaux (par exemple le ballast), causent des surcharges dynamiques plus importantes. On considère ici deux types de non-linéarité : l'élasticité non-linéaire et l'unilatéralité. La structure est étudiée avec des modèles très simples en unidimensionnel ou plus complexes en tridimensionnel. La méthode des éléments finis est choisie pour les calculs. Le cas 1D consiste en un problème uniaxial d'une barre et un problème de flexion d'une poutre posée sur un système de ressortsamortisseurs. Le cas 3D utilise un modèle de matériau ballast qui est élastique (non-linéaire) en compression et unilatéral dans les directions principales. Comme on s'intéresse au régime permanent, on écrit les équations des éléments finis et on les résout dans le repère mobile en utilisant un changement de variable. Dans le cas où la vitesse de la charge devient supersonique, la méthode des éléments finis dans le repère mobile n'est plus valable et on doit utiliser une autre approche dans laquelle le changement de variable est réalisé à partir de l'équation discrétisée. On montre aussi pour le modèle uniaxial, dans le cas où la vitesse de la charge se situe entre la vitesse de l'onde de compression et la vitesse de l'onde de tension, qu'il peut exister des ondes de chocs dans le régime permanent. Les résultats obtenus sont présentés et sont comparés avec ceux des cas linéaires. Ils montrent les influences importantes de la non-linéarité sur la réponse dynamique des structures.
4

Développement d'un outil logiciel industriel d'aide à la conception des oscillateurs à quartz

Chirouf, Farid 20 December 2005 (has links) (PDF)
La conception des oscillateurs à quartz a été longtemps basée sur des méthodes empiriques ou des techniques de modélisation approximatives ou inappropriées. Bien que ces méthodes permettent de réaliser des oscillateurs stables, leur procédure de conception reste lourde et fastidieuse et le comportement du circuit oscillateur n'est pas toujours déterminé avec une précision optimale. Le logiciel ADOQ (Analyse Dipolaire des Oscillateurs à Quartz) a été développé pour remédier aux limitations de ces méthodes. Cet outil fondé sur l'analyse dipolaire consiste à modéliser un oscillateur à quartz en tenant compte des non linéarités de la partie amplificateur séparément de celles du résonateur. Grâce à cette séparation, on s'affranchit du temps de calcul prohibitif imposé par le coefficient de qualité très élevé du résonateur. Le comportement non linéaire de l'amplificateur est déterminé en boucle ouverte par une analyse temporelle réalisée à l'aide d'un simulateur électrique de type SPICE. Les résultats fournis par ce simulateur permettent de déterminer avec précision l'impédance non linaire équivalente de l'amplificateur, c'est-à-dire son impédance en fonction de la fréquence et de l'amplitude. L'analyse consiste ensuite à rechercher de manière itérative la solution en boucle fermée à partir d'une série d'analyses dipolaires en boucle ouverte et de définir avec précision les conditions de fonctionnement de l'oscillateur : fréquence, amplitude, puissance d'excitation du résonateur en régime permanent, régime transitoire et spectres de bruit d'amplitude et de phase. ADOQ permet également de déterminer la sensibilité des caractéristiques de l'oscillateur en fonction des variations de la valeur des composants ou d'autres paramètres tels que la tension d'alimentation ou la température. La méthode dipolaire nécessite de calculer l'impédance non linaire de l'amplificateur en fonction de l'amplitude de la source harmonique en régime permanent. Bien que la séparation du résonateur et de l'amplificateur permette un gain de temps appréciable, l'utilisation d'un simulateur temporel tel que SPICE nécessite tout de même d'attendre que le régime permanent soit atteint ce qui reste pénalisant pour la méthode. D'autres méthodes d'analyses utilisées dans certains simulateurs industriels permettent d'obtenir le régime permanent d'un circuit non linaire beaucoup plus rapidement : équilibrage harmonique (harmonic—balance) ou méthode balistique (shooting—method). D'autre part les modèles des composants utilisés par SPICE sont assujettis aux bibliothèques de composants fournies par le concepteur de l'outil ou le fabricant des composants. La plus grande partie du travail effectué dans cette thèse consiste à exploiter les fonctionnalités de l'outil de conception Cadence pour étendre les performances en termes de calculs (SpectreRF) et les possibilités en termes de modèles de composants (Dracula) pour optimiser le logiciel ADOQ. Des tests et des simulations ont été réalisés et les résultats ont permis de mettre en évidence les améliorations acquises ainsi que leurs limites.
5

Communications collectives et ordonnancement en régime permanent sur plates-formes hétérogènes

Marchal, Loris 17 October 2006 (has links) (PDF)
Les travaux présentés dans cette thèse concernent l'ordonnancement<br />pour les plates-formes hétérogènes à grande échelle. Nous nous<br />intéressons principalement aux opérations de communications<br />collectives comme la diffusion de données, la distribution de données<br />ou la réduction. Nous étudions ces problèmes dans le cadre de leur<br />régime permanent, en optimisant le débit d'une série d'opérations de<br />communications, en vue d'obtenir un ordonnancement asymptotiquement<br />optimal du point de vue du temps d'exécution total. Après avoir<br />présenté un cadre général d'étude qui nous permet de connaître la<br />complexité du problème pour chaque primitive, nous développons, pour<br />le modèle de communication un-port bidirectionnel, une méthode de<br />résolution pratique fondée sur la résolution d'un programme linéaire<br />en rationnels. Cette étude du régime permanent est illustrée par des<br />expérimentations sur Grid5000 et se prolonge vers l'ordonnancement<br />d'applications multiples sur des grilles de calcul.
6

Maîtrise du décollement de tuyère. Analyse du comportement d'une tuyère de type TOC et définition d'un nouveau concept : le BOCCAJET

Boccaletto, Luca 19 January 2011 (has links)
Cette recherche s’articule en deux parties. L’objectif de la première partie est d’analyser par voie expérimentale et numérique la phénoménologie du décollement interne, dit décollement de jet (en regimes transitoire et établi) dans les tuyères supersoniques refroidies par film fluide. La deuxième partie porte sur la réinterprétation des concepts de tuyère existants pour aboutir à la proposition d’un nouveau dispositif de détente supersonique, qui offre une résistance accrue au décollement de jet. La première partie de cette thèse est basée sur l’analyse des résultats expérimentaux obtenus lors de la campagne d’essais réalisée à l’ONERA. Ces essais, ont mis en évidence des spécificités de comportement de la tuyère, inhérentes à la manière d’amorcer le jet supersonique principal par rapport à l’établissement du film pariétal. Ces mêmes expériences ont permis d’étudier le comportement instationnaire du décollement de jet lorsque les conditions d’alimentation sont maintenues en régime établi. L’apparition de fréquences caractéristiques a été mise en évidence et leur origine a été étudiée à l’aide de simulations numériques. En nous appuyant sur les considérations issues de la première partie de l’étude, une revue critique des concepts de tuyère existants a été menée. Ce travail a permis d’identifier une lacune majeure dans la définition des tuyères à écoulement interne, à savoir l’absence d’une « barrière » qui puisse prévenir l’occurrence du décollement de jet. Ainsi, nous avons proposé la conjonction d’un dispositif à écoulement externe (aerospike) et d’une tuyère classique afin de résoudre cette problématique in nuce, en créant une barrière fluidique continue tout autour du plan de sortie de la tuyère principale. L’efficacité de ce concept a donc été prouvée par calcul, puis une campagne expérimentale a été organisée afin de valider les résultats obtenus. / This research is in two parts. The objective of the first part is to analyse by experimental and numerical means the phenomenology of nozzle flow separation in transient and steady state conditions. The second part of this research work focuses on the reinterpretation of existing concepts of converging-diverging nozzles, leading to the proposal of a new supersonic expansion device, with improved flow separation characteristics.Experimental data, collected during the test campaign conducted at ONERA, have been analysed and are presented in the first part of this thesis. Obtained results highlight some peculiarities of the transient behavior of the nozzle, mostly dependent on the synchronisation between the start-up phase of the main jet and the grow-up of the wall film. These same experiments have been also used to investigate the unsteadiness of the flow separation, when nozzle feeding conditions are maintained constant. Appearance of characteristic frequencies has been highlighted and their origin has been investigated by CFD simulations.In the second part, a critical review of existing nozzle concepts was conducted. This allowed identifying a major gap in the definition of traditional supersonic nozzles, namely the absence of a "barrier" that can prevent the occurrence of the flow separation. Thus, in the second part of this thesis we propose a new nozzle concept. It is based on the combination of a small aerospike and a conventional nozzle (main flow). Such an arrangement allows solving the flow separation problem in nuce. The effectiveness of this concept has been proved by calculation and by an experimental test campaign.
7

Ordonnancement en régime permanent sur plates-formes hétérogènes

Gallet, Matthieu 20 October 2009 (has links) (PDF)
Les travaux présentés dans cette thèse portent sur l'ordonnancement d'applications sur des plate- formes hétérogènes à grande échelle. Dans la mesure où le problème général est trop complexe pour être résolu de façon exacte, nous considérons deux relaxations. Tâches divisibles : La première partie est consacrée aux tâches divisibles, qui sont des appli- cations parfaitement parallèles et pouvant être arbitrairement subdivisées pour être réparties sur de nombreux processeurs. Nous cherchons à minimiser le temps de travail total lors de l'exécution de plusieurs applications aux caractéristiques différentes sur un réseau linéaire de processeurs, sachant que les données peuvent être distribuées en plusieurs tournées. Le nombre de ces tour- nées étant fixé, nous décrivons un algorithme optimal pour déterminer précisément ces tournées, et nous montrons que toute solution optimale requiert un nombre infini de tournées, résultat restant vrai sur des plate-formes non plus linéaires mais en étoile. Nous comparons également notre méthode à des méthodes déjà existantes. Ordonnancement en régime permanent : La seconde partie s'attache à l'ordonnancement de nombreuses copies du même graphe de tâches représentant une application donnée. Au lieu de chercher à minimiser le temps de travail total, nous optimisons uniquement le cœur de l'or- donnancement. Tout d'abord, nous étudions des ordonnancements cycliques de ces applications sur des plate-formes hétérogènes, basés sur une seule allocation pour faciliter leur utilisation. Ce problème étant NP-complet, nous donnons non seulement un algorithme optimal, mais éga- lement différentes heuristiques permettant d'obtenir rapidement des ordonnancements efficaces. Nous les comparons à ces méthodes classiques d'ordonnancement, telles que HEFT. Dans un second temps, nous étudions des applications plus simples, faites de nombreuses tâches indépendantes, que l'on veut exécuter sur une plate-forme en étoile. Les caractéristiques de ces tâches variant, nous supposons qu'elles peuvent être modélisées par des variables aléatoires. Cela nous permet de proposer une ε-approximation dans un cadre clairvoyant, alors que l'ordonnan- ceur dispose de toutes les informations nécessaires. Nous exposons également des heuristiques dans un cadre non-clairvoyant. Ces différentes méthodes montrent que malgré la dynamicité des tâches, il reste intéressant d'utiliser un ordonnancement statique et non des stratégies plus dynamiques comme On-Demand. Nous nous intéressons ensuite à des applications, dont plusieurs tâches sont répliquées sur plu- sieurs processeurs de la plate-forme de calcul afin d'améliorer le débit total. Dans ce cas, même si les différentes instances sont distribuées aux processeurs tour à tour, le calcul du débit est difficile. Modélisant le problème par des réseaux de Petri temporisés, nous montrons comment le calculer, prouvant également que ce calcul peut être fait en temps polynomial avec le modèle Strict One-Port. Enfin, le dernier chapitre est consacré à l'application de ces techniques à un processeur multi- cœur hétérogène, le Cell d'IBM. Nous présentons donc un modèle théorique de ce processeur ainsi qu'un algorithme d'ordonnancement adapté. Une implémentation réelle de cet ordonnanceur a été effectuée, permettant d'obtenir des débits intéressants tout en simplifiant l'utilisation de ce processeur et validant notre modèle théorique.
8

Modèles de compréhension par la théorie des images des phénomènes transitoires et du régime permanent en chambre réverbérante électromagnétique

Amador, Emmanuel 21 October 2011 (has links) (PDF)
Les chambres réverbérantes électromagnétiques sont des moyens d'essai largement utilisés en compatibilité électromagnétique. Elles permettent notamment de réaliser des essais en immunité et des mesures de puissance totale rayonnée. Leur utilisation se fait dans le domaine harmonique. Ce travail propose une étude théorique et expérimentale du fonctionnement des chambres réverbérantes à brassage de modes dans le domaine temporel et dans le domaine harmonique en vue de réaliser des essais en immunité. Afin de décrire le comportement d'une chambre réverbérante dans le domaine temporel, nous avons choisi de développer un modèle numérique basé sur la théorie des images. À l'inverse des approches temporelles (FDTD ou TLM) ou encore des approches harmoniques (méthode des moments), la théorie des images permet de décrire l'environnement de propagation sans nécessiter de discrétisation. Le modèle prend en compte les dimensions de la chambre, la position de l'antenne émettrice dans la cavité et les pertes associées aux parois et aux objets tiers dans la cavité. Le modèle que nous proposons permet une description du comportement d'une chambre réverbérante dans le domaine temporel d'une part et dans le domaine harmonique d'autre part. Nous montrons que les formes d'ondes obtenues en simulations sont comparables aux formes d'ondes obtenues en régime pulsé dans la chambre réverbérante de l'IETR. D'un point de vue statistique, nous montrons que la statistique du champ simulé est conforme aux mesures et notamment que le modèle est capable de reproduire le fonctionnement de la chambre en régime non idéal. Le modèle développé est ensuite utilisé pour étudier les essais en immunité. Tout d'abord nous cherchons à évaluer les performances d'un essai en immunité en chambre réverbérante et en onde plane (chambre anéchoïque) pour des objets sous test aux caractéristiques radioélectriques variables. Nous proposons une mesure de la susceptibilité en chambre réverbérante qui est compatible avec une mesure en onde plane. Nous cherchons ensuite à optimiser les essais en immunité en proposant des protocoles qui assureraient des essais plus fiables et moins longs. Enfin, nous proposons une méthode expérimentale pour réaliser des essais en immunité avec des signaux pulsés qui soit représentative d'une illumination réelle.
9

Etude de l'évolution de la perméabilité du béton en fonction de son endommagement : transposition des résultats de laboratoire à la prédiction des débits de fuite sur site / Concrete permeability and damage : transposition of laboratory results to prediction of leakage rates on real structures

Sogbossi, Hognon Eric Arnaud 12 December 2017 (has links)
Les enceintes de confinement des centrales nucléaires sont conçues pour assurer des propriétés de confinement et d'étanchéité précises en situations d'usage normal et en cas d'accident nucléaire, afin d'éviter la dissémination de radioéléments dans l'environnement. Ces enceintes étant construites en béton, la maîtrise de l'évaluation de la perméabilité du béton et de ses évolutions sous contraintes permettrait d'évaluer les débits de fuite susceptibles d'intervenir dans le temps sous certaines sollicitations. Jusqu'aujourd'hui, il existe plusieurs techniques de mesure de la perméabilité et ces techniques aboutissent à des résultats différents pour une même éprouvette de béton. La première étude que nous avons réalisée a été donc de proposer une normalisation de la mesure de la perméabilité : cette normalisation a abouti à la détermination d'une perméabilité caractéristique du béton et indépendante de la technique de mesure. Parallèlement à cette démarche, nous avons aussi proposé d'évaluer la perméabilité du béton à l'aide d'observables du Contrôle Non Destructif comme la permittivité et la résistivité électrique. Les résultats obtenus montrent la possibilité d'estimer la perméabilité dans les conditions du béton sur site. La deuxième étude réalisée est relative à la maîtrise de la perméabilité sous contraintes. Au laboratoire, nous avons étudié la perméabilité d'éprouvettes en béton de différentes tailles dans diverses conditions de séchage, de sollicitation thermique, d'endommagements mécanique et couplés. Nous avons ainsi pu établir des modèles perméabilité-endommagements en fonction de chaque source d'endommagement. La troisième étude réalisé porte sur la transposition des résultats de laboratoire au site, à travers l'utilisation de maquette d'enceinte nucléaire de dimensions plus importantes et représentatives de l'ouvrage réel (VeRCoRs à l'échelle 1/3). L'ensemble des résultats des deux premières études ont été mise à contribution et ont permis d'aboutir à des calculs des débits de fuite et des Temps d'Etablissement du Régime Permanent d'Ecoulement cohérents avec les hypothèses de calculs. / The building reactor of the nuclear power plants are designed to provide precise containment and sealing properties in normal use situations and in the event of a nuclear accident, to prevent the spread of radioelements in the environment. Since these enclosures are made of concrete, controlling the evaluation of the permeability of concrete and its evolutions under stress would make it possible to evaluate the leakage rates that may occur over time under certain conditions. Until today, there are several techniques for measuring permeability and these techniques lead to different results for the same concrete specimen. The first study we carried out was therefore to propose a standardization of the permeability measurement: this standardization resulted in the determination of a characteristic permeability of concrete and independent of the measurement technique. In parallel with this approach, we also proposed to evaluate the permeability of concrete using observables from Non-Destructive Testing such as permittivity and electrical resistivity. The results obtained show the possibility of estimating the permeability under concrete conditions on site. The second study carried out relates to the control of the permeability under constraints. In the laboratory, we investigated the permeability of concrete specimens of different sizes under various conditions of drying, thermal stress, mechanical and coupled damage. We could establish permeability-damage models according to each source of damage. The third study carried out relates to the transposition from laboratory results to the site, using nuclear power plants mock-up of larger dimensions and representative of the actual structure (VeRCoRs at scale 1/3). All the results of the first two studies have been used and have led to calculations of leak rates and Time to Reach Steady State (TRSS) consistent with the calculation assumptions.
10

Memory-aware algorithms : from multicores to large scale platforms / Algorithmes orientés mémoire : des processeurs multi-cœurs aux plates-formes à grande échelle

Jacquelin, Mathias 20 July 2011 (has links)
Cette thèse s’intéresse aux algorithmes adaptés aux architectures mémoire hiérarchiques, rencontrées notamment dans le contexte des processeurs multi-cœurs.Nous étudions d’abord le produit de matrices sur les processeurs multi-cœurs. Nous modélisons le processeur, bornons le volume de communication, présentons trois algorithmes réduisant ce volume de communication et validons leurs performances. Nous étudions ensuite la factorisation QR, dans le contexte des matrices ayant plus de lignes que de colonnes. Nous revisitons les algorithmes existants afin d’exploiter les processeurs multi-cœurs, analysons leurs chemins critiques, montrons que certains sont asymptotiquement optimaux, et analysons leurs performances.Nous étudions ensuite les applications pipelinées sur une plate-forme hétérogène, le QS 22. Nous modélisons celle-ci et appliquons les techniques d’ordonnancement en régime permanent. Nous introduisons un programme linéaire mixte permettant d’obtenir une solution optimale. Nous introduisons en outre un ensemble d’heuristiques.Puis, nous minimisons la mémoire nécessaire à une application modélisée par un arbre, sur une plate-forme à deux niveaux de mémoire. Nous présentons un algorithme optimal et montrons qu’il existe des arbres tels que les parcours postfixes sont arbitrairement mauvais. Nous étudions alors la minimisation du volume d’E/S à mémoire donnée, montrons que ce problème est NP-complet, et présentons des heuristiques. Enfin, nous comparons plusieurs politiques d’archivage pour BLUE WATERS. Nous introduisons deux politiques d’archivage améliorant les performances de la politique RAIT, modélisons la plate-forme de stockage et simulons son fonctionnement. / This thesis focus on memory-aware algorithms tailored for hierarchical memory architectures, found for instance within multicore processors. We first study the matrix product on multicore architectures. We model such a processor, and derive lower bounds on the communication volume. We introduce three ad hoc algorithms, and experimentally assess their performance.We then target a more complex operation: the QR factorization of tall matrices. We revisit existing algorithms to better exploit the parallelism of multicore processors. We thus study the critical paths of many algorithms, prove some of them to be asymptotically optimal, and assess their performance.In the next study, we focus on scheduling streaming applications onto a heterogeneous multicore platform, the QS 22. We introduce a model of the platform and use steady-state scheduling techniques so as to maximize the throughput. We present a mixed integer programming approach that computes an optimal solution, and propose simpler heuristics. We then focus on minimizing the amount of required memory for tree-shaped workflows, and target a classical two-level memory system. I/O represent transfers from a memory to the other. We propose a new exact algorithm, and show that there exist trees where postorder traversals are arbitrarily bad. We then study the problem of minimizing the I/O volume for a given memory, show that it is NP-hard, and provide a set of heuristics.Finally, we compare archival policies for BLUE WATERS. We introduce two archival policies and adapt the well known RAIT strategy. We provide a model of the tape storage platform, and use it to assess the performance of the three policies through simulation.

Page generated in 0.1006 seconds