• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1009
  • 504
  • 139
  • 4
  • 2
  • 1
  • 1
  • Tagged with
  • 1643
  • 459
  • 446
  • 336
  • 328
  • 290
  • 262
  • 250
  • 234
  • 217
  • 203
  • 188
  • 178
  • 165
  • 162
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
751

Imagerie ultrasonore 2D et 3D sur GPU : application au temps réel et à l'inversion de forme d'onde complète / 2D and 3D ultrasoundimaging using GPU : toward real-time and full waveform inversion

Bachmann, Etienne 07 October 2016 (has links)
Si les avancées majeures en imagerie ultrasonore ont longtemps été liées à la qualité de l'instrumentation, l'avènement de l'informatique a incontestablement changé la donne en introduisant des possibilités croissantes de traitement des données pour obtenir une meilleure image. Par ailleurs, les GPUs, composants principaux des cartes graphiques, offrent de par leur architecture des vitesses de calcul bien supérieures aux processeurs, y compris à des fins de calcul scientifique. Le but de cette thèse a été de tirer parti de ce nouvel outil de calcul, en ciblant deux applications complémentaires. La première est d'autoriser une imagerie en temps réel de meilleure qualité que les autres techniques d'imagerie échographique, en parallélisant le procédé d'imagerie FTIM (Fast Topological IMaging). La seconde est d'introduire l'imagerie quantitative et en particulier la reconstruction de la carte de vitesse du milieu inconnu, en utilisant l'inversion de la forme d'onde complète. / If the most important progresses in ultrasound imaging have been closely linked to the instrumentation's quality, the advent of computing science revolutionized this discipline by introducing growing possibilities in data processing to obtain a better picture. In addition, GPUs, which are the main components of the graphics cards deliver thanks to their architecture a significantly higher processing speed compared with processors, and also for scientific calculation purpose. The goal of this work is to take the best benefit of this new computing tool, by aiming two complementary applications. The first one is to enable real-time imaging with a better quality than other sonographic imaging techniques, thanks to the parallelization of the FTIM (Fast Tpological IMaging) imaging process. The second one is to introduce quantitative imaging and more particularly reconstructing the wavespeed map of an unknown medium, using Full Waveform Inversion.
752

Amélioration des délais de traversée pire cas des réseaux embarqués à l’aide du calcul réseau / Enhancement of worst case traversal time for embedded networks with network calculus

Mangoua sofack, William 30 June 2014 (has links)
Le calcul réseau (network calculus) est une théorie basée sur l’algèbre min-plus. Il offre un cadre formel de modélisation des réseaux de communication. Il a été utilisé pour certifier le réseau AFDX embarqué dans l’A380 de Airbus. Seulement, les bornes sur le délai annoncés par ces travaux de certification souffrent d’une sur-approximation dans le cas précis de l’agrégation dans un contexte de priorité statique non préemptive.L’objectif de nos travaux est de réduire cette sur-approximation. Dans cette thèse, nous proposons un service résiduel permettant d’obtenir de meilleurs bornes sur le délai dans le cas de la politique à priorité statique non préemptive et de la politique DRR. Nous montrons aussi comment ces deux politiques peuvent être combinées dans une politique hiérarchique à deux niveaux. / The thesis addresses performance analysis of embedded real time network using network calculus. Network calculus is a theory based on min-plus algebra. We use network calculus to assess the quality of service of a residual flow in two context : aggregation with non-preemptive priority policy and DRR policy. The main contribution concerns the evaluation of residual service, given to each flow. We also present how to handle DRR and non-preemptive priority policy hierrachically.
753

Conception et validation d'AeroRing - un réseau de communication Ethernet en double anneau pour les systèmes avioniques de nouvelle génération / Specification and Analysis of AeroRing - A Full Duplex Ethernet Ring Network for New Generation Avionics Systems

Amari, Ahmed 21 September 2017 (has links)
La complexité et le besoin en bande passante des architectures de communication avioniquene cessent de croitre avec le nombre des calculateurs et l’expansion des données échangées. Latechnologie AFDX a été introduite pour offrir des communications haut débit (100Mbps) pourles avions de nouvelle génération. Cependant, ce réseau commuté est déployé de manièreentièrement redondante, ce qui conduit à des quantités importantes de câbles, augmentant lepoids et les coûts d’intégration. Pour faire face à ces problèmes, on propose dans cette thèsel’intégration d’un réseau Ethernet en anneau comme une solution principale pour diminuerle poids et la complexité liés au câblage. Dans ce contexte, notre objectif est de concevoir etvalider un nouveau réseau de communication avionique, AeroRing, basé sur de l’EthernetGigabit avec une topologie anneau. / The inherent complexity and bandwidth requirement of avionics communication architecturesare increasing due to the growing number of interconnected end-systems and theexpansion of exchanged data. The Avionics Full Duplex Switched Ethernet (AFDX) has beenintroduced to provide high-speed communication (100Mbps) for new generation aircraft.However, this switched network is deployed in a fully redundant way, which leads to significantquantities of wires, and thus increases weight and integration costs. To cope with thesearising issues, integrating ring-based Ethernet network in avionics context is proposed in thisthesis as a main solution to decrease the wiring-related weight and complexity. In this context,our main objective is to design and validate a new avionic communication network, calledAeroRing, based on a Gigabit Ethernet technology and supporting a Full Duplex ring topology.To achieve this aim, first, a benchmarking of the most relevant Real-Time Ethernet (RTE)solutions supporting ring topologies vs avionics requirements has been conducted, and weparticularly assess the main Performance Indicators (PIs), specified in IEC 61784-2. Thisbenchmarking reveals that each existing RTE solution satisfies some requirements better thanothers, but there is no best solution in terms of all the requirements.
754

Algorithmes de résolution rapide de problèmes mécaniques sur GPU / Fast algorithms solving mechanical problems on GPU

Ballage, Marion 04 July 2017 (has links)
Dans le contexte de l'analyse numérique en calcul de structures, la génération de maillages conformes sur des modèles à géométrie complexe conduit à des tailles de modèles importantes, et amène à imaginer de nouvelles approches éléments finis. Le temps de génération d'un maillage est directement lié à la complexité de la géométrie, augmentant ainsi considérablement le temps de calcul global. Les processeurs graphiques (GPU) offrent de nouvelles opportunités pour le calcul en temps réel. L'architecture grille des GPU a été utilisée afin d'implémenter une méthode éléments finis sur maillage cartésien. Ce maillage est particulièrement adapté à la parallélisation souhaitée par les processeurs graphiques et permet un gain de temps important par rapport à un maillage conforme à la géométrie. Les formulations de la méthode des éléments finis ainsi que de la méthode des éléments finis étendue ont été reprises afin d'être adaptées à notre méthode. La méthode des éléments finis étendus permet de prendre en compte la géométrie et les interfaces à travers un choix adéquat de fonctions d'enrichissement. Cette méthode discrétise par exemple sans mailler explicitement les fissures, et évite surtout de remailler au cours de leur propagation. Des adaptations de cette méthode sont faites afin de ne pas avoir besoin d'un maillage conforme à la géométrie. La géométrie est définie implicitement par une fonction surfaces de niveau, ce qui permet une bonne approximation de la géométrie et des conditions aux limites sans pour autant s'appuyer sur un maillage conforme. La géométrie est représentée par une fonction surfaces de niveau que nous appelons la densité. La densité est supérieure à 0.5 à l'intérieur du domaine de calcul et inférieure à 0.5 à l'extérieur. Cette fonction densité, définie par ses valeurs aux points noeuds du maillage, est interpolée à l'intérieur de chaque élément. Une méthode d'intégration adaptée à cette représentation géométrique est proposée. En effet, certains éléments sont coupés par la fonction surfaces de niveau et l'intégration de la matrice de raideur ne doit se faire que sur la partie pleine de l'élément. La méthode de quadrature de Gauss qui permet d'intégrer des polynômes de manière exacte n'est plus adaptée. Nous proposons d'utiliser une méthode de quadrature avec des points d'intégration répartis sur une grille régulière et dense. L'intégration peut s'avérer coûteuse en temps de calcul, c'est pour cette raison que nous proposons une technique d'apprentissage donnant la matrice élémentaire de rigidité en fonction des valeurs de la fonction surfaces de niveau aux sommets de l'élément considéré. Cette méthode d'apprentissage permet de grandes améliorations du temps de calcul des matrices élémentaires. Les résultats obtenus après analyse par la méthode des éléments finis standard ou par la méthode des éléments finis sur maillage cartésien ont une taille qui peut croître énormément selon la complexité des modèles, ainsi que la précision des schémas de résolution. Dans un contexte de programmation sur processeurs graphiques, où la mémoire est limitée, il est intéressant d'arriver à compresser ces données. Nous nous sommes intéressés à la compression des modèles et des résultats éléments finis par la transformée en ondelettes. La compression mise en place aidera aussi pour les problèmes de stockage en réduisant la taille des fichiers générés, et pour la visualisation des données. / Generating a conformal mesh on complex geometries leads to important model size of structural finite element simulations. The meshing time is directly linked to the geometry complexity and can contribute significantly to the total turnaround time. Graphics processing units (GPUs) are highly parallel programmable processors, delivering real performance gains on computationally complex, large problems. GPUs are used to implement a new finite element method on a Cartesian mesh. A Cartesian mesh is well adapted to the parallelism needed by GPUs and reduces the meshing time to almost zero. The novel method relies on the finite element method and the extended finite element formulation. The extended finite element method was introduced in the field of fracture mechanics. It consists in enriching the basis functions to take care of the geometry and the interface. This method doesn't need a conformal mesh to represent cracks and avoids refining during their propagation. Our method is based on the extended finite element method, with a geometry implicitly defined, wich allows for a good approximation of the geometry and boundary conditions without a conformal mesh.To represent the model on a Cartesian grid, we use a level set representing a density. This density is greater than 0.5 inside the domain and less than 0.5 outside. It takes 0.5 on the boundary. A new integration technique is proposed, adapted to the geometrical representation. For the element cut by the levet set, only the part full of material has to be integrated. The Gauss quadrature is no longer adapted. We introduce a quadrature method with integration points on a cartesian dense grid.In order to reduce the computational effort, a learning approach is then considered to form the elementary stiffness matrices as function of density values on the vertices of the elements. This learning method reduces the stiffness matrices time computation. Results obtained after analysis by finite element method or the novel finite element method can have important storage size, dependant of the model complexity and the resolution scheme exactitude. Due to the limited direct memory of graphics processing units, the data results are compressed. We compress the model and the element finite results with a wavelet transform. The compression will help for storage issue and also for data visualization.
755

Calcul haute performance en dynamique des contacts via deux familles de décomposition de domaine / High performance computing of discrete nonsmooth contact dynamics via two domain décomposition methods

Visseq, Vincent 03 July 2013 (has links)
La simulation numérique des systèmes multicorps en présence d'interactions complexes, dont le contact frottant, pose de nombreux défis, tant en terme de modélisation que de temps de calcul. Dans ce manuscrit de thèse, nous étudions deux familles de décomposition de domaine adaptées au formalisme de la dynamique non régulière des contacts (NSCD). Cette méthode d'intégration implicite en temps de l'évolution d'une collection de corps en interaction a pour caractéristique de prendre en compte le caractère discret et non régulier d'un tel milieu. Les techniques de décomposition de domaine classiques ne peuvent de ce fait être directement transposées. Deux méthodes de décomposition de domaine proches des formalismes des méthodes de Schwarz et de complément de Schur sont présentées. Ces méthodes se révèlent être de puissants outils pour la parallélisation en mémoire distribuée des simulations granulaires 2D et 3D sur un centre de calcul haute performance. Le comportement de structure des milieux granulaires denses est de plus exploité afin de propager rapidement l'information sur l'ensemble des sous-domaines via un schéma semi-implicite d'intégration en temps. / Numerical simulations of the dynamics of discrete structures in presence of numerous impacts and frictional contacts leads to CPU-intensive large time computations. To deal with such realistic assemblies, numerical tools have been developed, in particular the method called nonsmooth contact dynamics (NSCD). Such modeling has to deal with discreteness and nonsmoothness, such that domain decomposition approaches for regular continuum media has to be rethought. We present further two domain decomposition method linked to Schwarz and Schur formalism. Scalability and numerical performances of the methods for 2D and 3D granular media is studied, showing good parallel behavior on a supercomputer platform. The structural behavior of dense granular packing is herein used to introduce a spacial multilevel preconditioner with a coarse problem to improve convergence in a space-time approach.
756

Réversibilité dans le pi calcul d'ordre supérieur / concurrency theory,process calculi,reversibility,reversible computing,expressiveness of reversibility

Mezzina, Claudio Antares 07 February 2012 (has links)
Le concept de réversibilité est ancien, mais il soulève de nos jours beaucoup d'intérêt. Il est en effet exploité dans de nombreux domaines tels que la conception de circuits, le débogage et le test de programmes, la simulation et l'informatique quantique. L'idée d'un modèle de programmation réversible peut se montrer particulièrement intéressante pour la construction de systèmes sûrs de fonctionnement, ne serait-ce que parce que plusieurs techniques connues pour la construction de tels systèmes exploitent une forme ou une autre de retour en arrière ou de reprise. Nous poursuivons dans cette thèse l'étude entreprise avec CCS réversible par Vincent Danos et Jean Krivine, en définissant un pi-calcul d'ordre supérieur réversible (rhopi). Nous prouvons que le modèle obtenu est causalement cohérent, et que l'on peut encoder fidèlement rhopi dans une variante du pi-calcul d'ordre supérieur. Nous définissons également une primitive de reprise à grain fin qui permet de contrôler le retour en arrière dans une exécution concurrente. Nous spécifions formellement la sémantique de cette primitive, et nous montrons qu'elle possède de bonnes propriétés, y compris en présence d'opérations de reprise concurrentes. Enfin nous définissons un algorithme concurrent implantant cette primitive de reprise et ous montrons que cet algorithme respecte la sémantique définie. / Reversible computing has a long history. Nowadays, reversible computing is attracting increasing interest because of its potential applications in diverse fields, including hardware design, biological modelling, program debugging and testing and quantum computing. Of particular interest is the application of reversible computation notions to the study of programming abstractions for dependable systems, because several techniques used to build dependable systems rely on some forms of undo or rollback. We continue, in this thesis, the study undertaken on reversible CCS by Vincent Danos and Jean Krivine, by defining a reversible higher-order pi-calculus (rhopi). We prove that reversibility in our calculus is causally consistent and that one can encode faithfully rhopi into a variant of HOpi. Moreover we design a fine-grained rollback primitive able to control the rollback of a concurrent execution. We give a formal specification of this primitive and show that it enjoys good properties, even in presence of concurrent conflicting rollbacks. We then devise a concurrent algorithm implementing such primitive and show that the algorithm respects the defined semantics.
757

Tolérance aux pannes dans des environnements de calcul parallèle et distribué : optimisation des stratégies de sauvegarde/reprise et ordonnancement / Fault tolerance in the parallel and distributed environments : optimizing the checkpoint restart strategy and scheduling

Bouguerra, Mohamed Slim 02 April 2012 (has links)
Le passage de l'échelle des nouvelles plates-formes de calcul parallèle et distribué soulève de nombreux défis scientifiques. À terme, il est envisageable de voir apparaître des applications composées d'un milliard de processus exécutés sur des systèmes à un million de coeurs. Cette augmentation fulgurante du nombre de processeurs pose un défi de résilience incontournable, puisque ces applications devraient faire face à plusieurs pannes par jours. Pour assurer une bonne exécution dans ce contexte hautement perturbé par des interruptions, de nombreuses techniques de tolérance aux pannes telle que l'approche de sauvegarde et reprise (checkpoint) ont été imaginées et étudiées. Cependant, l'intégration de ces approches de tolérance aux pannes dans le couple formé par l'application et la plate-forme d'exécution soulève des problématiques d'optimisation pour déterminer le compromis entre le surcoût induit par le mécanisme de tolérance aux pannes d'un coté et l'impact des pannes sur l'exécution d'un autre coté. Dans la première partie de cette thèse nous concevons deux modèles de performance stochastique (minimisation de l'impact des pannes et du surcoût des points de sauvegarde sur l'espérance du temps de complétion de l'exécution en fonction de la distribution d'inter-arrivées des pannes). Dans la première variante l'objectif est la minimisation de l'espérance du temps de complétion en considérant que l'application est de nature préemptive. Nous exhibons dans ce cas de figure tout d'abord une expression analytique de la période de sauvegarde optimale quand le taux de panne et le surcoût des points de sauvegarde sont constants. Par contre dans le cas où le taux de panne ou les surcoûts des points de sauvegarde sont arbitraires nous présentons une approche numérique pour calculer l'ordonnancement optimal des points de sauvegarde. Dans la deuxième variante, l'objectif est la minimisation de l'espérance de la quantité totale de temps perdu avant la première panne en considérant les applications de nature non-préemptive. Dans ce cas de figure, nous démontrons tout d'abord que si les surcoûts des points sauvegarde sont arbitraires alors le problème du meilleur ordonnancement des points de sauvegarde est NP-complet. Ensuite, nous exhibons un schéma de programmation dynamique pour calculer un ordonnancement optimal. Dans la deuxième partie de cette thèse nous nous focalisons sur la conception des stratégies d'ordonnancement tolérant aux pannes qui optimisent à la fois le temps de complétion de la dernière tâche et la probabilité de succès de l'application. Nous mettons en évidence dans ce cas de figure qu'en fonction de la nature de la distribution de pannes, les deux objectifs à optimiser sont tantôt antagonistes, tantôt congruents. Ensuite en fonction de la nature de distribution de pannes nous donnons des approches d'ordonnancement avec des ratios de performance garantis par rapport aux deux objectifs. / The parallel computing platforms available today are increasingly larger. Typically the emerging parallel platforms will be composed of several millions of CPU cores running up to a billion of threads. This intensive growth of the number of parallel threads will make the application subject to more and more failures. Consequently it is necessary to develop efficient strategies providing safe and reliable completion for HPC parallel applications. Checkpointing is one of the most popular and efficient technique for developing fault-tolerant applications on such a context. However, checkpoint operations are costly in terms of time, computation and network communications. This will certainly affect the global performance of the application. In the first part of this thesis, we propose a performance model that expresses formally the checkpoint scheduling problem. Two variants of the problem have been considered. In the first variant, the objective is the minimization of the expected completion time. Under this model we prove that when the failure rate and the checkpoint cost are constant the optimal checkpoint strategy is necessarily periodic. For the general problem when the failure rate and the checkpoint cost are arbitrary we provide a numerical solution for the problem. In the second variant if the problem, we exhibit the tradeoff between the impact of the checkpoints operations and the lost computation due to failures. In particular, we prove that the checkpoint scheduling problem is NP-hard even in the simple case of uniform failure distribution. We also present a dynamic programming scheme for determining the optimal checkpointing times in all the variants of the problem. In the second part of this thesis, we design several fault tolerant scheduling algorithms that minimize the application makespan and in the same time maximize the application reliability. Mainly, in this part we point out that the growth rate of the failure distribution determines the relationship between both objectives. More precisely we show that when the failure rate is decreasing the two objectives are antagonist. In the second hand when the failure rate is increasing both objective are congruent. Finally, we provide approximation algorithms for both failure rate cases.
758

Qualification du calcul de l'échauffement photonique dans les réacteurs nucléaires / Gamma heating qualification in nuclear reactors

Ravaux, Simon 25 March 2013 (has links)
Ce travail de thèse répond à un besoin de qualification des outils permettant de calculer les échauffements photoniques dans les réacteurs nucléaires. En effet, la problématique des échauffements g dans les matériaux de structure a pris de l’importance ces dernières années, notamment pour la sûreté des réacteurs de 3ème génération dans lesquels un réflecteur lourd en acier est introduit.Les photons présents dans le coeur sont tous directement ou indirectement issus des interactions des neutrons avec la matière. Ils sont créés au moment de l’interaction ou en différé par l’intermédiaire de noyaux créés au moment de l’interaction. Par conséquent, le premier axe de travail a été d’effectuer une analyse critique des données de production photonique dans les bibliothèques de données nucléaires standards. La découverte d’omissions dans la bibliothèque JEFF-3.1.1 nous a amené à proposer une méthode de production de nouvelles évaluations contenant de nouveaux spectres d’émission de photong. Ces nouvelles évaluations ont ensuite été proposées et en partie acceptées pour la nouvelle version de la bibliothèque JEFF.Il existe deux codes de transport de particules développés au CEA : TRIPOLI4 etAPOLLO2. Le deuxième axe de travail a été de qualifier ces deux codes. Pour cela, nous avons interprété les mesures d’échauffement g effectuées dans le cadre du programme expérimental PERLE. Des détecteurs thermoluminescents (TLD) ont été introduits dans un réflecteur lourd en acier entourant un réseau de crayons combustibles. Nous avons dû proposer un schéma de calcul spécifique aux deux codes afin de calculer la réponse des TLD.Les comparaisons calcul-mesure ont montré que TRIPOLI4 permettait decorrectement estimer l’échauffement dans le réflecteur relativement à l’échauffement dans lazone fissile. En effet, les écarts calcul-mesure sont inférieurs à l’incertitude expérimentale à1s. Pour le calcul APOLLO2, nous avons tout d’abord commencé par une phase de validation par rapport à TRIPOLI4 afin d’estimer les biais liés aux approximations imposées par le traitement déterministe du transport des particules. Après cette phase de validation,nous avons pu montrer qu’APOLLO2, comme TRIPOLI4, permettait d’estimer correctement l’échauffement dans le réflecteur avec des écarts calcul-mesure comparables à l’incertitude expérimentale. / During the last few years, the g-heating issue has gained in stature, mainly for thesafety of the 3rd-generation reactors in which a stainless steel reflector is inserted. Thepurpose of this work is the qualification of the needed tools for calculation of the g-heating inthe nuclear reactors.In a nuclear reactor, all the photons are directly or indirectly produced by the neutronmatterinteractions. Thus, the first phase of this work is a critical analysis of the photonproduction data in the standard nuclear data library. New evaluations have been proposed tothe next version of the JEFF library after that some omissions have been found. They havepartly been accepted for JEFF-3.2.Two particle-transport codes are currently developed in the CEA: the deterministiccode APOLLO2 and the Monte Carlo code TRIPOLI4. The second part of this work is thequalification of both these codes by interpreting an integral experiment called PERLE. Theexperimental set-up is made by a LWR pin assembly surrounded by a stainless steelreflector in which the g heating is measured by Thermo-luminescent Detector (TLD). Acalculation scheme has been proposed for both APOLLO2 and TRIPOLI4 in order tocalculate the TLD’s responses.Comparisons between calculations and measurements have shown that TRIPOLI4gives a satisfactory estimation of the g heating in the reflector. These discrepancies arewithin the experimental 1s uncertainty. Before the qualification, APOLLO2 has beenpreviously validated against TRIPOLI4 reference calculation. This validation gives anestimation of the bias due to the deterministic approximations of the transport equationresolution. The qualification has shown that the discrepancies between APOLLO2predictions and TLD’s measurements are in the same range as experimental uncertainties.
759

Caractérisation de catalyseurs métalliques supportés par spectroscopie XANES, apports du calcul quantique dans l'interprétation des spectres expérimentaux / Characterization of supported metal catalysts by XANES spectroscopy, contributions of quantum computing in the interpretation of experimental spectra

Gorczyca, Agnès 13 October 2014 (has links)
L'étude des nanoagrégats métalliques supportés sur des oxydes est d'une importance primordiale autant au niveau fondamental que technologique, notamment dans le domaine de l'énergie. Les nanoparticules à base de platine supportées sur alumine Gamma sont largement utilisées comme catalyseurs hétérogènes ultradispersés, en particulier sous atmosphère réductrice d'hydrogène. Leur réactivité et leur sélectivité sont intimement liés à la géométrie locale et à la densité électronique des sites actifs. Ces dernières sont particulièrement ardues à définir, étant donnée la très faible taille des agrégats étudiés (environ 0.8 nm de diamètre). La spectroscopie XANES (X-Ray Absorption Near Edge Structure), nécessitant un rayonnement synchrotron, est un des outils les plus appropriés pour étudier ces systèmes, en particulier in situ, à l'échelle atomique. En effet les spectres XANES sont influencés par la géométrie locale et la symétrie de l'environnement des atomes (en particulier les angles entre les liaisons), le degré d'oxydation, les types de liaisons mis en jeu, et la structure électronique du système. Tous ces facteurs sont néanmoins difficiles à différencier et même à interpréter. Il est donc impossible de déduire de manière précise la structure des particules métalliques par la seule expérience, sans aucune comparaison avec des spectres simulés. La mise en place de modèles théoriques devient alors nécessaire. Nous mettons donc en oeuvre une approche associant expériences XANES haute résolution in situ et simulations quantiques, ces dernières visant à la proposition de modèles structuraux pertinents, à la quantification de la réactivité des agrégats et au calcul des caractéristiques spectrales pour comparaison à l'expérience. L'identification de la morphologie des particules, de l'interaction métal-support et du taux de couverture en H est ainsi rendue possible par l'association de l'expérience et du calcul. La bibliothèque de modèles existants de particules monométalliques de Pt supportées sur de l'alumine Gamma avec ou sans hydrogène adsorbé, est complétée par des modèles hydrogénés sur la face (110) et par des modèles de différentes tailles hydrogénés sur la face (100). Cette bibliothèque devenue assez complète a permis une étude de l'influence de la taille des particules, de leur morphologie, de leur structure électronique, des différentes face de l'alumine Gamma, ainsi que du taux de couverture en hydrogène sur la signature des spectres XANES. Cette première étude des catalyseurs monométalliques de platine, se conclue par la discrimination de certaines morphologies, mais surtout la quantification du taux de couverture en hydrogène des particules. Ensuite, des modèles de particules bimétalliques platine – étain supportés sur la face (100) de l'alumine Gamma sont élaborés avec adsorption d'hydrogène. Ces modèles permettent de mieux comprendre l'influence de l'étain sur la morphologie, les propriétés électroniques et l'interaction avec le support et l'hydrogène de ces agrégats. Différentes compositions ont été explorées, ce qui a apporté des informations sur la dilution du platine par l'étain. L'adsorption d'hydrogène a alors été étudiée sur des agrégats de Pt10Sn3 supportées sur la face (100) de l'alumine Gamma. Bien que de nombreux paramètres ne sont pas encore pris en compte dans ces modèles, la comparaison à l'expérience permet déjà d'avoir une première approximation sur la description de systèmes bimétalliques. / The study of metallic nanoclusters supported on oxides is of paramount fundamental and technological importance, particularly in the field of energy. The nanoparticles based on platinum supported on gamma alumina are widely used as highly dispersed heterogeneous catalysts especially under reducing hydrogen atmosphere. Their reactivity and selectivity are intimately related to the local geometry and the electronic density of active sites. These are particularly difficult to define, given the very small size of the studied particles (about 0.8 nm in diameter). XANES (X-Ray Absorption Near Edge Structure) spectroscopy requiring synchrotron radiation, is one of the most appropriate tools to study these systems, especially in situ, at the atomic scale. Indeed the XANES spectra are influenced by the geometry and symmetry of the atoms local environment (especially angles between bonds), the degree of oxidation, the bond types involved, and the electronic structure of the system . All these factors are nevertheless difficult to differentiate and even to interpret. It is therefore impossible to infer accurately the structure of the metal particles by experience alone, without any comparison with simulated spectra. The establishment of theoretical models becomes necessary. We are implementing an approach that combines high-resolution XANES experiments in situ and quantum simulations, the latter aimed at proposing relevant structural models to quantify the reactivity of the particles and calculating spectral characteristics for comparison to experiment. The identification of the clusters morphologies, the metal-support interaction and the hydrogen coverage is made possible combining experiments and quantum calculations. The library of existing monometallic Pt particles models supported on Gamma alumina with or without adsorbed hydrogen, is refined. New models considering the two main surface of Gamma alumina, the particle size and hydrogen adsorption are developed. This extended library of models enabled a study of the effect of particle size, morphology, electronic structure, different alumina faces, and the hydrogen coverage on the signature of XANES spectra. This first study of monometallic platinum catalysts, concludes with the discrimination of the morphologies, but especially with the quantification of the hydrogen coverage of the particles for each temperature and hydrogen pressure experimental condition. Then, models of bimetallic Platinum-tin particles supported on the (100) Gamma alumina face are performed with hydrogen adsorption. These models provide insights into the effect of tin on the morphology, the electronic properties and the interaction with the support and hydrogen of these clusters. Different compositions were explored, which provided information on the dilution of platinum by tin. The adsorption of hydrogen was then studied on Pt10Sn3 clusters supported on the (100) face of alumina. Although many parameters are not yet included in these models, the comparison to the experience already provides a first approximation to the description of bimetallic systems.
760

New heavy resonances : from the electroweak to the planck scale / Nouvelles résonances lourdes : de l'échelle électrofaible à l'échelle de Planck

Lyonnet, Florian 23 September 2014 (has links)
Le principe d'invariance de jauge local est au centre de la physique des particules moderne. Dans le modèle standard (MS), il repose sur le groupe de jauge ad hoc SU(3)_c x SU(2)_L x U(1)_Y. L'idée d'étendre ce groupe de jauge est particulièrement attrayante dans une perspective de ``Grand Unified Theory'' (GUT) où le MS est la limite basse énergie d'une théorie plus fondamentale basée sur un groupe de jauge beaucoup plus large tel que SO(10) ou E(6). En effet, lors de la brisure de symétrie du groupe de GUT au MS, des facteurs de groupe non-brisés supplémentaires, tels que U(1) ou SU(2), peuvent apparaitre. Ce manuscrit est consacré à la phénoménologie de modèles avec un groupe de jauge étendu. En particulier, les études présentées sont centrées sur les modèles basés sur le groupe de jauge SU(2) x SU(2) x U(1) dénotés G(221). De manière générique, ces modèles prédisent de nouveaux bosons de jauges, Z' et W'.Après une brève présentation des modèles G(221), un nouveau code publique, PyR@TE, qui permet de déterminer les équations du groupe de renormalisation à deux boucles pour une théorie de jauge arbitraire est introduit. Ce code est ensuite utilisé pour déterminer les RGEs des modèles de la classe G(221). La suite du manuscrit est dédiée à la présentation des résultats obtenus sur le calcul des corrections radiatives QCD de la production électrofaible d'une paire de quarks top dans le cadre des modèles G(221), i.e. en présence d'un nouveau boson de jauge Z'. Ces résultats font l'objet d'une implémentation dans le générateur d'événements Monte Carlo POWHEG BOX et les premiers résultats numériques obtenus sont présentés. Les derniers développements concernant le calcul des corrections QCD à la production électrofaible de single-top sont également revus. Enfin, la dernière partie de ce manuscrit est consacrée à l'étude de l'impact de nouvelles résonances W', Z', telles que celles présentes dans les modèles G(221), sur l'interaction des neutrinos d'ultra-haute énergie dans l'atmosphère. Ces interactions sont recherchées par l'observatoire Pierre Auger dans les douches de particules produites par l'interaction des rayons cosmiques avec les particules de l'atmosphère. / The principle of local gauge invariance is a pillar of modern particle physics theories and in the SM relies on the ad-hoc gauge group structure SU(3)_c x SU(2)_L x U(1)_Y. Extending this gauge group is very well motivated in a Grand Unified Theory (GUT) perspective in which the SM is the low-energy limit of a more fundamental theory based on a larger gauge group like SO(10) or E(6). Indeed, the symmetry breaking (SB) of the underlying GUT gauge group, down to the SM one, leaves some additional group factors unbroken, such as U(1) or SU(2). In this spirit, we focus in this manuscript on the phenomenology of extended gauge group models and on the new heavy neutral and charged resonances, generically called Z' and W' predicted by these.In this manuscript we present different aspects of the phenomenology of the G(221) models. After reviewing these extensions, we present a public tool, PyR@TE, that aims at automating the calculation of RGEs at two-loop for arbitrary gauge theories and exemplify its use with the G(221) models. In a second part, we present our results for the calculation of the QCD corrections to the electroweak top-pair production as well as their implementation in a general purpose Monte Carlo generator allowing for a consistent matching of next-to-leading order (NLO) matrix elements with parton shower algorithms, the POWHEG BOX. We then review the status of our calculation of the QCD corrections to the electroweak single-top production. Finally, we present a different aspect of the phenomenology of new heavy resonances, Z', W' by studying their impact on the interaction of ultra-high energy neutrinos in the atmosphere. For definiteness we consider the Pierre Auger Observatory, which is sensible to showers initiated by neutrinos of extreme energies up to 10E12 GeV

Page generated in 0.0583 seconds