• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 21
  • 16
  • 1
  • Tagged with
  • 38
  • 14
  • 9
  • 8
  • 7
  • 6
  • 6
  • 6
  • 6
  • 6
  • 6
  • 5
  • 5
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Etude de la compensation de charge d'espace dans les lignes basse énergie des accélérateurs d'ions légers de haute intensité / Space Charge Compensation in Low Energy Beam Lines Transport of Light Ions Accelerators with High Intensity

Gerardin, Frédéric 11 January 2018 (has links)
L’étude de la dynamique d’un faisceau d’ions de haute intensité dans les lignes de basse énergie (LBE)représente l’un des défis majeurs de la science des accélérateurs. basse énergie, cette dynamique est dominée par le champ de charge d’espace induit par le faisceau lui-même, qui en général est non linéaire et peut entrainer des phénomènes de halo, de grossissement d’émittance et de pertes de faisceau. Toutefois, un faisceau à basse énergie se propageant dans une LBE induit l’ionisation du gaz résiduel présent dans la chambre. Les particules (ions et électrons) issues de l’ionisation sont repoussées ou attirées radialement par le champ de charge d’espace en fonction du signe de leur charge. D’autres réactions physiques ont lieu dans la ligne basse énergie, jouant ainsi un rôle dans la dynamique du faisceau et sur l’établissement du temps et du taux de compensation de charge d’espace. Afin d’obtenir des résultats prédictifs et fiables quantitativement, des simulations de transport de faisceau en régime de compensation de charge d’espace avec le code de calcul warp ont été réalisées en prenant également compte les réactions physiques les plus probables. On discutera ensuite des résultats de ces simulations en lien avec ceux issus de différentes compagnes de mesure réalisées auprès des LBE des projets MYRRHA et IFMIF. / The study of intense ion beam dynamics in lowenergy beam transport line (LEBT) representsone of the most important challenges inaccelerating sciences. At low energy, it isdominated by the space-charge field created bythe beam itself, which is generally non-linearand can induce halo, emittance growth and beamlosses. But, a ion beam at low energypropagating in a LEBT ionises the residual gas.The particles (ions and electrons) fromionisation are repelled or confined radially bythe space charge field according to their chargesign.Other interactions take place in the LEBT,modifying the beam dynamics and the space chargecompensation time and the space-chargecompensation yield. In order to obtain predictiveand precise results quantitatively, numericalsimulations of beam transport in space-chargecompensation regime with WARP code havebeen realized taking account the most probablephysical interactions. Then, we will discuss theresults with comparisons with experimental dataobtained on the MYRRHA and IFMIF LEBT’s
22

Study of the photoproduction of 8Li with the reaction ⁹Be(g, p)⁸Li

Bernier, Nikita 19 April 2018 (has links)
Le laboratoire TRIUMF se spécialise dans la production de faisceaux d’ions rares radioactifs qui sont fondamentaux en physique nucléaire et de la matière condensée, entre autres. TRIUMF construit présentement un accélérateur linéaire d’électrons supraconducteur de 50 MeV, 10 mA dans le cadre du projet ARIEL. Les électrons accélérés seront utilisés pour produire des faisceaux radioactifs par photo-désintégration. Le faisceau d’électrons est « converti » en photons par le rayonnement de freinage des électrons lorsqu’ils traversent un matériau de Z élevé placé directement devant la cible de production. La cible utilisée initialement sera du 9Be afin de produire du 8Li. Le 9Be est intégré dans un composé de BeO fabriqué à TRIUMF et conçu d’après les spécifications de l’IPN Orsay où les tests préliminaires prendront place pendant la construction d’ARIEL. La puissance déposée dans la cible et la production d’isotopes rares sont calculées avec le code de simulations Monte Carlo FLUKA. / The TRIUMF laboratory in Vancouver B.C. is a world leader in the production of rare radioactive ion beams. Such beams are fundamental in research for nuclear physics, nuclear astrophysics and solid state science among others. TRIUMF is constructing a 50 MeV, 10 mA superconducting electron linac as part of its ARIEL project. The accelerated electrons will be used to produce RIB through photodisintegration. The electron beam is “converted” into photons by braking radiation of the electrons passing through a high Z material placed immediately before the production target. The initial target to be employed is 9Be, used to produce a 8Li beam. The 9Be is imbedded in a BeO compound manufactured at TRIUMF and designed following specifications of IPN Orsay where the preliminary tests will be conducted while ARIEL is being constructed. Both the power deposition and rare isotope production rates were calculated using the Monte Carlo simulation package FLUKA.
23

Élaboration des éléments d'une simulation Monte Carlo permettant l'évaluation d'une planification de traitement en radiothérapie externe : compression d'images DICOM à l'aide d'un octree et modélisation de la tête d'un accélérateur linéaire

Hubert-Tremblay, Vincent 11 April 2018 (has links)
L'objectif de ce travail est de développer deux modules pour créer une simulation Monte Carlo ayant comme objectif futur de calculer les doses de radiation d'un traitement en radiothérapie externe. Le premier module permet de lire, modéliser et réduire le nombre de voxels présent dans une série d'images médicales de type DICOM. La réduction doit se faire tout en gardant les informations essentielles pour une simulation Monte Carlo. Un algorithme a été développé pour appliquer une compression de type octree à la distribution des densités électroniques recueillies dans les images de tomodensitométrie. L'image résultante possède ainsi une certaine anisotropie au niveau de la résolution. Des résultats obtenus, la réduction du nombre total de voxels atteinte est de l'ordre de 75% de la taille initiale. Les simulations Monte Carlo démontrent qu'aucune information dosimétrique n'est perdue après la transformation. L'efficacité de la simulation se trouve améliorée tant au niveau de sa rapidité que de son utilisation de la mémoire. Le second module développé est un modèle d'accélérateur linéaire de type Primus (Siemens). Ce modèle permet d'obtenir des distributions de doses pour deux faisceaux de photons d'énergies différentes (6 et 23 megavolts [MV]). Dans les deux cas, les distributions de doses ont été comparées à des mesures expérimentales prises avec une chambre à ionisation. Les distributions de doses dans l'axe central du faisceau ont atteint un niveau de précision de 2%. Au niveau des distributions de doses hors axe, les déviations maximales sont de l'ordre de 5% et de 2mm dans les pénombres. Pour le faisceau de 23 MV, la géométrie présente une asymétrie qui devra être corrigée en modifiant le filtre égalisateur ou en utilisant une source de radiation asymétrique. Dans tous les cas, l'ouverture des collimateurs secondaires devra être optimisée afin d'éliminer les erreurs au niveau de la pénombre. Une fois ces modifications effectuées, les images DICOM compressées avec l'octree pourront être insérées à l'intérieur du modèle de l'accélérateur. Ce faisant, il suffirait d'ajuster la configuration des faisceaux et du patient pour évaluer un traitement en radiothérapie externe.
24

Pulsed Laser Injected Enhancement Cavity for Laser-electron Interaction / Cavités optiques en régime impulsionnel pour l'intéraction laser-électron

You, Yan 03 June 2014 (has links)
RésuméLa diffraction et la diffusion de rayons X sont utilisées dans de nombreux domaines de la physique, de la médecine et de la technologie. Des faisceaux de haute brillance sont néanmoins requis pour améliorer les performances de ces techniques. L’utilisation de la diffusion Compton d’un laser sur un faisceau d’électrons présente un grand intérêt pour la production de rayons X. Ce processus permet l’emploi d’un anneau de stockage d’électrons compacts et d’un résonateur optique pour accroître la puissance laser. Avec un tel système, un taux de collision laser-électron supérieur au méga Hertz est envisageable permettant d’atteindre un flux de rayons X de l’ordre de 10¹³ photons/s. Dans le premier chapitre, je décris les motivations pour le développement d’une source de rayons X basée sur la diffusion Compton et utilisant un résonateur optique. Je détermine aussi les performances que l’on peut attendre de ce type de sources ainsi que l’état de l’art actuel dans ce domaine. Dans le deuxième chapitre, je décris le comportement et les propriétés des résonateurs optiques en régime impulsionnel. J’introduis la notion de phase CEP (‘carrier envelope phase’) et je montre la nécessité de contrôler à la fois la fréquence de répétition de l’oscillateur laser et cette phase CEP. Le chapitre 3 est consacré aux oscillateurs fibrés à blocage de mode. Je montre les performances du laser que j’ai construit en utilisant le phénomène de rotation de polarisation non-linéaire.La méthode d’asservissement laser-résonateur optique ‘tilt locking’ est introduite au chapitre 4. Je décris tout d’abord les études de simulations et le montage expérimental qui ont permis de tester la méthode en régime impulsionnel. Je donne ensuite les résultats expérimentaux qui démontrent la faisabilité de la méthode ‘tilt locking’ en régime impulsionnel. J’effectue aussi une comparaison expérimentale des performances de la méthode ‘tilt locking’ avec la méthode classique ‘Pound-Drever-Hall’. Je termine le chapitre en indiquant une difficulté expérimentale de la méthode pour générer plusieurs signaux d’erreurs.Je décris la conception du système optique de la machine Compton TTX de l’université Tsinghua dans le chapitre 5. Les performances attendues pour cette machine sont des flux de rayons X compris entre 10¹º et 10¹³ photons/s. / X-ray diffraction and scattering, X-ray spectroscopy, and X-ray crystallography are widely used in the life sciences, material science, and medical diagnosis. High-quality and high-brightness X-rays are a strong requirement to improve applications. Inverse Compton scattering (ICS) X-ray source has attracted great interests worldwide lately. To significantly enhance the average X-ray photon flux, a compact electron storage-ring combined with a high finesse optical enhancement cavity (OEC) can be utilized. In such a system, the collision rate between the electron beam and the laser pulse is greatly increased to the MHz range, enabling a photon flux up to 10¹³ph/s.In the first chapter, I describe the motivation behind the development of OEC based on ICS X-ray source. The characteristics of this kind of X-ray source are summarized, compared to those of the conventional low-repetition-rate Terawatt laser system based on ICS X-ray source. The latest progress and research status of OEC based on ICS X-ray source are presented. Pulsed-laser injected high-finesse OEC stacking theory and properties are discussed in Chapter 2. Not only does the OEC based on ICS X-ray source require the laser pulse repetition rate to be matched to the free spectral range (FSR) of the cavity, where both also have to match the electron storage-ring circulation frequency. In addition, we have to match the phase shift of the laser repetition rate to the phase offset introduced by the dispersion of the cavity mirrors, since our cavity finesse design value is quite high. The stacking theory is analyzed in the frequency domain. Cavity properties, including cavity mirror dispersion, finesse, and FSR, are discussed in detail. A laser frequency comb and OEC coupling is analyzed also. The laser source development is presented in Chapter 3. We constructed a mode-locked fiber laser based on nonlinear polarization rotation. The locking model, locking techniques, and the theory, simulations and experimental tests of tilt locking (TL) in the pulsed laser injected high-finesse OEC are discussed in Chapter 4. We succeeded in locking a pulsed laser to a high-finesse cavity with the TL technique. The experimental results show that the TL and the Pound–Drever–Hall techniques have the same performance: stable locking, high sensitivity, and the same power coupling rate for picosecond laser pulse case, while the test results for full spectrum TL locking show that it is uneasy to align the split-photodiode to the beam waist.Based on the above experimental study and tests, we design the OEC system for Tsinghua University X-ray project in Chapter 5. The expected X-ray flux is 10¹º to 10¹³ ph/s. We detail every subsystem requirement.
25

Étude de dipôles supraconducteurs en Nb3Sn à haut champ : isolation électrique à base de céramique et conception magnétique / Study of high field Nb3Sn superconducting dipoles : electrical insulation based made of ceramic and magnetic design

Rochepault, Etienne 04 October 2012 (has links)
Dans le contexte des améliorations du LHC, des efforts importants sont fournis pour concevoir des aimants d'accélérateurs utilisant l'alliage supraconducteur Nb3Sn, qui permet d'atteindre des champs magnétiques plus élevés (>12T). Le but de cette thèse est de proposer de nouvelles méthodes de calcul et de fabrication de dipôles à haut champ en Nb3Sn. Une isolation céramique, mise au point précédemment au CEA Saclay, a été testée pour la première fois sur des câbles, dans les conditions d’utilisation d’un aimant d’accélérateur. Des mesures de courant critique sous champ magnétique et contrainte mécanique ont notamment été réalisées. Ces campagnes d’essais ont révélé que l’isolation céramique actuelle est trop fragile mécaniquement et que les propriétés de courant critique sont dégradées. Une étude a ensuite été menée, afin d’améliorer la tenue mécanique de l’isolation et de mieux répartir les contraintes à l’intérieur du câble. Des méthodes de conception magnétique ont par ailleurs été proposées afin d’optimiser la forme des bobinages, tout en respectant des contraintes d’homogénéité de champ, de marges de fonctionnement, de minimisation des efforts… Pour cela plusieurs codes d’optimisation ont été élaborés. Ils se basent sur des méthodes nouvelles utilisant des formules analytiques. Un code 2D a d’abord été élaboré pour des conceptions en blocs rectangulaires. Ensuite, deux codes 3D ont été conçus pour l’optimisation des têtes de dipôles. Le premier consiste à modéliser le bobinage à l’aide de blocs élémentaires, et le deuxième se base sur une modélisation des câbles supraconducteurs par des rubans. Ces codes d’optimisation ont permis de proposer des configurations magnétiques pour des aimants à haut champ. / In the framework of LHC upgrades, significant efforts are provided to design accelerator magnets using the superconducting alloy Nb3Sn, which allows to reach higher magnetic fields (>12T). The aim of this thesis is to propose new computation and manufacturing methods for high field Nb3Sn dipoles. A ceramic insulation, previously designed at CEA Saclay, has been tested for the first time on cables, in an accelerator magnet environment. Critical current measures, under magnetic field and mechanical stress, have been carried out in particular. With this test campaign, the current ceramic insulation has been shown to be too weak mechanically and the critical current properties are degraded. Then a study has been conducted, with the objective to improve the mechanical strength of the insulation and better distribute the stress inside the cable. Methods of magnetic design have also been proposed, in order to optimize the coils shape, while fulfilling constraints of field homogeneity, operational margins, forces minimization… Consequently, several optimization codes have been set up. They are based on new methods using analytical formulas. A 2D code has first been written for block designs. Then two 3D codes have been realized for the optimization of dipole ends. The former consists in modeling the coil with elementary blocs and the latter is based on a modeling of the superconducting cables with ribbons. These optimization codes allowed to propose magnetic designs for high field accelerator magnets.
26

Recherche de particules supersymétriques se désintégrant en R-parité violée (couplage λ121) dans un état final à trois leptons, avec les données du Run II de l'expérience DØ au TeVatron

Magnan, Anne-Marie 12 July 2005 (has links) (PDF)
Cette thèse est consacrée à l'étude des premières données prises par le détecteur DØ durant la deuxième phase de fonctionnement du Tevatron (Run II). On a recherché des particules supersymétriques produites dans les collisions proton-antiproton avec une énergie dans le centre de masse de 1,96 TeV. Plus précisément, dans le cadre d'une théorie supersymétrique avec violation de la R-parité, on a étudié la production de paires de jauginos, suivie de la désintégration de chacune des LSP (neutralino 1) produites après cascades, en eeνμ ou eμνe par l'intermédiaire du couplage λ121. Avec la présence dans l'état final d'au moins deux électrons, on s'est particulièrement intéressé dans cette étude aux méthodes d'identification, de reconstruction, de déclenchement, et de corrections (en énergie) appliquées aux particules électromagnétiques. Dans une sélection à trois leptons dont au moins deux électrons, et de l'énergie transverse manquante, aucun évènement n'a été observé dans les 350 pb-1 de données analysées (période 2002-2004), pour 0,4 +0,35-0,05 (stat) ± 0,16 (sys) attendu dans le Modèle Standard. Le signal est sélectionné avec une efficacité totale d'environ 12 %. Les résultats ont été interprétés dans deux modèles : mSUGRA et MSSM. En mSUGRA, des limites sur les valeurs de m1/2, et de la masse des jauginos les plus légers ont été établies pour tanβ = 5, A0 = 0, m0 = 100 et 1000 GeV.c-2 et les deux signes de μ. En MSSM, en considérant des grandes masses de sfermions, on obtient une limite mchargino1 > 200 GeV.c-2 à 95% CL, quelque soit la masse du neutralino1 LSP.
27

Transformations de programmes et optimisations de l'architecture mémoire pour la synthèse de haut niveau d'accélérateurs matériels

Plesco, Alexandru 27 September 2010 (has links) (PDF)
Une grande variété de produits vendus, notamment de télécommunication et multimédia, proposent des fonctionnalités de plus en plus avancées. Celles-ci induisent une augmentation de la complexité de conception. Pour satisfaire un budget de performance et de consommation d'énergie, ces fonctionnalités peuvent être accélérées par l'utilisation d'accélérateurs matériels dédiés. Pour respecter les délais nécessaires de mise sur le marché et le prix de développement, les méthodes traditionnelles de conception de matériel ne sont plus suffisantes et l'utilisation d'outils de synthèse de haut niveau (HLS) est une alternative intéressante. Ces outils sont maintenant plus aboutis et permettent de générer des accélérateurs matériels possédant une structure interne optimisée, grâce à des techniques d'ordonnancement efficaces, de partage des ressources et de génération de machines d'états. Cependant, les interfacer avec le monde extérieur, c'est-à-dire intégrer des accélérateurs matériels générés automatiquement dans une conception complète, avec des communications optimisées pour atteindre le meilleur débit, reste une tâche très ardue, réservée aux concepteurs experts. Le leitmotiv de cette thèse était d'étudier et d'élaborer des stratégies source-à-source pour améliorer la conception de ces interfaces, en essayant d'envisager l'outil HLS comme back-end pour des transformations front-end plus avancées. Dans la première partie de la thèse, comme étude de cas, nous avons conçu à la main, en VHDL, une logique intelligente permettant l'interfaçage d'un accélérateur, calculant la multiplication de deux matrices, généré par l'outil de synthèse MMAlpha. En utilisant des informations sur les dépendances de données, nous avons implanté des techniques de double tampon et de calcul/transfert par bloc (pavage), pour des mémoires locales SRAM de type scratchpad, pour améliorer la réutilisation des données. Ceci a permis d'augmenter de manière significative les performances du système, mais a également exigé un effort important de développement. Nous avons ensuite montré, sur plusieurs applications de type multimédia, avec un autre outil de HLS, Spark, que le même avantage pouvait être obtenu avec une étape préliminaire semi-automatique de transformations source-à-source (ici de C vers C). Pour cela, nous avons utilisé le front-end d'un compilateur avancé, basé sur le compilateur Open64 et l'outil WRaP-IT de transformations polyédriques. Des améliorations significatives ont été présentées, en particulier pour la synthèse de la conversion de l'espace couleur (extrait d'un benchmark de MediaBench II), dont les données étaient transmises via une mémoire cache. Cette étude a démontré l'importance des transformations des boucles comme étape de pré-traitement pour les outils HLS, mais aussi la difficulté de les utiliser en fonction des caractéristiques de l'outil HLS pour exprimer les communications externes. Dans la deuxième partie de la thèse, en utilisant l'outil C2H HLS d'Altera qui peut synthétiser des accélérateurs matériels communiquant avec une mémoire externe DDR-SDRAM, nous avons montré qu'il était possible de restructurer automatiquement le code de l'application, de générer des processus de communication adéquats, écrits entièrement en C, et de les compiler avec C2H, afin que l'application résultante soit hautement optimisée, avec utilisation maximale de la bande passante mémoire. Ces transformations et optimisations, qui combinent des techniques telles que l'utilisation de double tampon, la contraction de tableaux, le pavage, le pipeline logiciel, entre autres, ont été intégrées dans un outil de transformation automatique source-à-source, appelé Chuba et basé sur la représentation du modèle polyédrique. Notre étude montre que ainsi qu'il est possible d'utiliser certains outils HLS comme des optimiseurs de niveau back-end pour les optimisations effectuées au niveau front-end, comme c'est le cas pour la compilation standard où des transformations de haut niveau sont développées en amont des optimiseurs au niveau assembleur. Nous pensons que ceci est la voie à suivre pour que les outils HLS deviennent viables.
28

Statistical analysis for the radiological characterization of radioactive waste in particle accelerators / Analyse statistique pour la caractérisation radiologique des déchets radioactifs au sein des accélérateurs de particules

Zaffora, Biagio 08 September 2017 (has links)
Ce travail de thèse introduit une nouvelle méthode pour la caractérisation radiologique des déchets très faiblement radioactifs produits au sein de l’Organisation Européenne pour la Recherche Nucléaire (CERN). La méthode se base sur : 1. le calcul des radionucléides en présence, i.e. les radionucléides qui peuvent être produits lors de l’interaction des particules avec la matière et les structures environnantes les accélérateurs, 2. la mesure directe des émetteurs gamma et, 3. la quantification des émetteurs alpha et beta purs et de rayons X de faible énergie, appelés radionucléides difficile-a-mesurer (DTM), en utilisant les méthodes dites des «scaling factor» (SF), «correlation factor» (CF) et activité moyenne (MA). La première phase du processus de caractérisation est le calcul des radionucléides en présence à l’aide de codes de calcul analytiques ou Monte Carlo. Après le calcul de l’inventaire radiologique, les radionucléides émetteurs gamma sont mesurés par spectrométrie gamma dans chaque colis de la population. L’émetteur gamma dominant, appelé « key nuclide » (KN), est identifié. La méthode dite des «scaling factors» permet d’estimer l’activité des radionucléides DTM après évaluation de la corrélation entre l’activité des DTM et l’activité de l’émetteur gamma dominant obtenue à partir d’échantillons. Si une corrélation existe, l’activité des radionucléides DTM peut être évaluée grâce à des facteurs de corrélation expérimentaux appelés « scaling factors », sinon l’activité moyenne obtenue à partir d’échantillons prélevés dans la population est attribuée à chaque colis. Lorsque les activités des émetteurs alpha et beta purs et des émetteurs X de faible énergie ne peuvent pas être estimées par mesure la méthode des « correlation factors » s’applique. La méthode des « correlation factors » se base sur le calcul de corrélations théoriques entre l’émetteur gamma dominant et les radionucléides de très faible activité. Cette thèse décrit en détail la nouvelle technique de caractérisation radiologique, montre un cas d’application complet et présente les résultats de l’industrialisation de la méthode ayant permis la caractérisation radiologique de plus de 1000 m3 de déchets radioactifs au CERN entre 2015 et 2017. / This thesis introduces a new method to characterize metallic very-low-level radioactive waste produced at the European Organization for Nuclear Research (CERN). The method is based on: 1. the calculation of a preliminary radionuclide inventory, which is the list of the radionuclides that can be produced when particles interact with a surrounding medium, 2. the direct measurement of gamma emitters and, 3. the quantification of pure-alpha, pure-beta and low-energy X-ray emitters, called difficult-to-measure (DTM) radionuclides, using the so-called scaling factor (SF), correlation factor (CF) and mean activity (MA) techniques. The first stage of the characterization process is the calculation of the radionuclide inventory via either analytical or Monte Carlo codes. Once the preliminary radionuclide inventory is obtained, the gamma-emitting radionuclides are measured via gamma-ray spectrometry on each package of the waste population. The major gamma-emitter, called key nuclide (KN), is also identified. The scaling factor method estimates the activity of DTM radionuclides by checking for a consistent and repeated relationship between the key nuclide and the activity of the difficult to measure radionuclides from samples. If a correlation exists the activity of DTM radiodionuclides can be evaluated using the scaling factor otherwise the mean activity from the samples collected is applied to the entire waste population. Finally, the correlation factor is used when the activity of pure-alpha, pure-beta and low-energy X-ray emitters is so low that cannot be quantified using experimental values. In this case a theoretical correlation factor is obtained from the calculations to link the activity of the radionuclides we want to quantify and the activity of the key nuclide. The thesis describes in detail the characterization method, shows a complete case study and describes the industrial-scale application of the characterization method on over 1’000 m3 of radioactive waste, which was carried out at CERN between 2015 and 2017.
29

Génération rapide d'accélerateurs matériels par synthèse d'architecture sous contraintes de ressources / High-level synthesis for fast generation of hardware accelerators under resource constraints

Prost-Boucle, Adrien 08 January 2014 (has links)
Dans le domaine du calcul générique, les circuits FPGA sont très attrayants pour leur performance et leur faible consommation. Cependant, leur présence reste marginale, notamment à cause des limitations des logiciels de développement actuels. En effet, ces limitations obligent les utilisateurs à bien maîtriser de nombreux concepts techniques. Ils obligent à diriger manuellement les processus de synthèse, de façon à obtenir une solution à la fois rapide et conforme aux contraintes des cibles matérielles visées.Une nouvelle méthodologie de génération basée sur la synthèse d'architecture est proposée afin de repousser ces limites. L'exploration des solutions consiste en l'application de transformations itératives à un circuit initial, ce qui accroît progressivement sa rapidité et sa consommation en ressources. La rapidité de ce processus, ainsi que sa convergence sous contraintes de ressources, sont ainsi garanties. L'exploration est également guidée vers les solutions les plus pertinentes grâce à la détection, dans les applications à synthétiser, des sections les plus critiques pour le contexte d'utilisation réel. Cette information peut être affinée à travers un scénario d'exécution transmis par l'utilisateur.Un logiciel démonstrateur pour cette méthodologie, AUGH, est construit. Des expérimentations sont menées sur plusieurs applications reconnues dans le domaine de la synthèse d'architecture. De tailles très différentes, ces applications confirment la pertinence de la méthodologie proposée pour la génération rapide et autonome d'accélérateurs matériels complexes, sous des contraintes de ressources strictes. La méthodologie proposée est très proche du processus de compilation pour les microprocesseurs, ce qui permet son utilisation même par des utilisateurs non spécialistes de la conception de circuits numériques. Ces travaux constituent donc une avancée significative pour une plus large adoption des FPGA comme accélérateurs matériels génériques, afin de rendre les machines de calcul simultanément plus rapides et plus économes en énergie. / In the field of high-performance computing, FPGA circuits are very attractive for their performance and low consumption. However, their presence is still marginal, mainly because of the limitations of current development tools. These limitations force the user to have expert knowledge about numerous technical concepts. They also have to manually control the synthesis processes in order to obtain solutions both fast and that fulfill the hardware constraints of the targeted platforms.A novel generation methodology based on high-level synthesis is proposed in order to push these limits back. The design space exploration consists in the iterative application of transformations to an initial circuit, which progressively increases its rapidity and its resource consumption. The rapidity of this process, along with its convergence under resource constraints, are thus guaranteed. The exploration is also guided towards the most pertinent solutions thanks to the detection of the most critical sections of the applications to synthesize, for the targeted execution context. This information can be refined with an execution scenarion specified by the user.A demonstration tool for this methodology, AUGH, has been built. Experiments have been conducted with several applications known in the field of high-level synthesis. Of very differen sizes, these applications confirm the pertinence of the proposed methodology for fast and automatic generation of complex hardware accelerators, under strict resource constraints. The proposed methodology is very close to the compilation process for microprocessors, which enable it to be used even by users non experts about digital circuit design. These works constitute a significant progress for a broader adoption of FPGA as general-purpose hardware accelerators, in order to make computing machines both faster and more energy-saving.
30

Performance-cost trade-offs in heterogeneous clouds / Compromis performance-coût dans les clouds hétérogènes

Iordache, Ancuta 09 September 2016 (has links)
Les infrastructures de cloud fournissent une grande variété de ressources de calcul à la demande avec différents compromis coût-performance. Cela donne aux utilisateurs des nombreuses opportunités pour exécuter leurs applications ayant des besoins complexes en ressources, à partir d’un grand nombre de serveurs avec des interconnexions à faible latence jusqu’à des dispositifs spécialisés comme des GPUs et des FPGAs. Les besoins des utilisateurs concernant l’exécution de leurs applications peuvent varier entre une exécution la plus rapide possible, la plus chère ou un compromis entre les deux. Cependant, le choix du nombre et du type des ressources à utiliser pour obtenir le compromis coût-performance que les utilisateurs exigent constitue un défi majeur. Cette thèse propose trois contributions avec l’objectif de fournir des bons compromis coût-performance pour l’exécution des applications sur des plates-formes hétérogènes. Elles suivent deux directions : un bon usage des ressources et un bon choix des ressources. Nous proposons comme première contribution une méthode de partage pour des accélérateurs de type FPGA dans l’objectif de maximiser leur utilisation. Dans une seconde contribution, nous proposons des méthodes de profilage pour la modélisation de la demande en ressources des applications. Enfin, nous démontrons comment ces technologies peuvent être intégrées dans une plate-forme de cloud hétérogène. / Cloud infrastructures provide on-demand access to a large variety of computing devices with different performance and cost. This creates many opportunities for cloud users to run applications having complex resource requirements, starting from large numbers of servers with low-latency interconnects, to specialized devices such as GPUs and FPGAs. User expectations regarding the execution of applications may vary between the fastest possible execution, the cheapest execution or any trade-off between the two extremes. However, enabling cloud users to easily make performance-cost trade-offs is not a trivial exercise and choosing the right amount and type of resources to run applications accordingto user expectations is very difficult. This thesis proposes three contributions to enable performance-cost trade-offs for application execution in heterogeneous clouds by following two directions: make good use of resources and make good choice of resources. We propose as a first contribution a method to share FPGA-based accelerators in cloud infrastructures having the objective to improve their utilization. As a second contribution we propose profiling methods to automate the selection of heterogeneous resources for executing applications under user objectives. Finally, we demonstrate how these technologies can be implemented and exploited in heterogeneous cloud platforms.

Page generated in 0.0933 seconds