• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 32
  • 32
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 69
  • 23
  • 23
  • 13
  • 12
  • 9
  • 8
  • 8
  • 8
  • 7
  • 7
  • 6
  • 6
  • 6
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Caractérisation en champ proche des émissions rayonnées de boitiers de blindage électromagnétique / Near-field characterization of radiated emissions from electromagnetic shielding boxes

Benyoubi, Fethi 12 February 2019 (has links)
L’usage accru de l’électronique embarquée et l’électrification des moyens de transports (automobile,..) rend critique les problèmes d’interférence électromagnétique qui peuvent engendrer un dysfonctionnement du système. Afin de réduire ces perturbations, les concepteurs ont recours de plus en plus à la modélisation et cela dès la phase de la conception. Parmi les perturbations à réduire, on peut citer le rayonnement électromagnétique. La modélisation physique de ce type de problème dans des simulateurs numériques devient de plus en plus compliquée. De ce fait, il est nécessaire de disposer de modèles simples permettant de reconstruire le champ rayonné par des sources de perturbations. Les travaux réalisés au dans la première partie ont permis la mise en place de modèles permettant de reproduire le rayonnement des dispositifs d’électronique de puissance. Plusieurs approches à base de dipôles élémentaires ont été mises en place en se basant sur la mesure en champ proche. Ces différentes approches ont été comparées et validées sur des applications réelles (convertisseurs de puissance). Dans la deuxième partie, notre étude est sur l’utilisation de ces modèles dans le but de prédire l’efficacité de blindage magnétique (SEH) en champ proche basse fréquence. La gamme de fréquence va du DC jusqu’à quelques mégahertz (aux alentours de 10 MHz). Un des objectifs que nous nous sommes fixés pour la prédiction de l’efficacité de blindage est le développement de modèles simples et rapides permettant de s’affranchir des modèles numériques. / The increased use of on-board electronics and the electrification of the transport means (automobile, ..) makes critical the problems of electromagnetic interference which can cause a dysfunction of the system. In order to reduce these disturbances, designers are resorting more and more to modeling since the design phase. Among the disturbances to be reduced are electromagnetic radiation. Physical modeling of this problem type in digital simulators is becoming more and more complicated. Therefore, it is necessary to have simple models for reconstructing the field radiated by sources of disturbances. The work carried out in the first part has allowed the establishment of models to reproduce the radiation of power electronics devices. Several approaches based on elementary dipole have been implemented using the near-field measurement. These different approaches have been compared and validated on real applications (power converters). In the second part, our study is on the use of these models in order to predict the magnetic shielding efficiency (SEH) in near-field low frequency. The frequency range is from DC up to a few megahertz (around 10 MHz). One of the goals, we have set for the prediction of shielding effectiveness is the development of simple and fast models to overcome the numerical models.
2

A Dark Matter through the Vector-like Portal

Giacchino, Federica 22 September 2017 (has links)
Although about a century has passed since its discovery, and despite the scientific and technological progress of our society has gone through, the nature of the Dark Matter (DM) is a mystery not yet solved. It is a big challenge for the scientific community, its identification would mean the understanding of what seemingly makes up 84% of the matter content in the Universe. We say “seemingly” because so far all evidences for DM are purely gravitational. This implies that what we call dark matter could be either a manifestation of our incomplete understanding of gravity on large scales, or a new form of matter, in particular a new kind of elementary particle. Among the plethora of possible DM candidates, this work will consider the Weakly Interactive Massive Particle (WIMP). Up to know the observed value for the relic abundance is the only solid parameter which we can count on, and the WIMP is the candidate that, through a fashionable mechanism of production, gives a result for the relic abundance in agreement with the cosmological observations. In order to demonstrate that this is indeed the valid explanation to the DM problem, a non-gravitational signal and also a model to interpret a possible Dark Matter message are needed. This may be expressed in various ways, and our approach is based on so-called simplified model. We have built a new t-channel simplified model which promotes a real scalar particle as DM and a vector-like fermion as mediator, dubbed the Vector-like Portal. In our framework, there are very few free parameters, the DM mass, the mass of the mediator and at least one Yukawa coupling. We have discovered an intriguing feature in the annihilation cross-section, a d-wave suppression in the limit of light final state fermions (compared to the DM mass). This seemingly innocuous observation will turn out to be crucial both for thermal freeze-out and for indirect searches for DM, for which higher order effects become relevant. In particular, we have performed a comprehensive analysis of the impact of next-to-leading order corrections to the annihilation cross-section, including coannihilation, as well as on elastic scattering processes. We have exploited the complementarity of direct, indirect and collider searches to set constraints on the parameter space of some simple vector-like portal scenarios, including coupling to Standard Model leptons, light quarks and the top quark. In addition, we have studied the phenomenological consequences of electroweak corrections and the detectability ofour candidate. / Bien que presque un siècle ait passé depuis sa découverte, et malgré les progrès scientifiques et technologiques de notre société, la nature de la matière noire (MN) est un mystère irrésolu. C’est un grand challenge pour la communauté scientique, car sa découverte signifierait la compréhension de ce qui semble constituer 80 % du contenu en matière de l’univers. Nous disons “semble” car jusqu’à présent toutes les évidences de MN sont purement gravitationnelles. Cela implique que ce que nous appelons matière noire pourrait être soit une manifestation de notre compréhension incomplète de la gravité à grandes échelles, soit une nouvelle forme de matière, en particulier un nouveau type de particule élémentaire. Parmi la pléthore de candidats de MN possibles, ce travail considèrera la Weakly Interactive Massive Particle (WIMP). A ce jour, la valeur observée de l’abondance relique est le seul paramètre solide sur lequel nous pouvons compter, et la WIMP est le candidat qui, par un élégant mécanisme de production, donne un résultat pour l’abondance relique en accord avec les observations cosmologiques. Pour démontrer que cela est en effet l’explication valide du problème de la MN, un signal non gravitationnel ainsi qu’un modèle pour interpréter un possible message de MN sont requis. Cela peut s’exprimer de plusieurs façons, et notre approche est basée sur les modèles dits simplifiés. Nous avons construit un nouveau modèle simplifié avec le canal t qui promeut une particule scalaire réel comme MN et un fermion de type vector-like comme médiateur, et communément appelé le portail vector-like. Dans notre cadre, il y a très peu de paramètres libres, la masse de la MN, la masse du médiateur et au moins un couplage de Yukawa. Nous avons découvert une caractéristique intrigante dans la section efficace d’annihilation, une suppression de type d-wave dans la limite de fermions légers dans l’état final (en comparaison avec la masse de la MN). Il se trouve que cette observation, qui semble anodine au premier abord, est cruciale pour le freeze-out et pour les recherches indirectes de MN, pour lesquelles les effets aux ordres supérieurs deviennent relevants. En particulier, nous avons réalisé une analyse compréhensive de l’impact des corrections après l’ordre dominant de la section efficace d’annihilation, ainsi que des processus de diffusion élastique. Nous avons exploité la complémentarité des recherches directes, indirectes et aux collisionneurs afin de contraindre l’espace des paramètres de quelques scénarios simples de portails vector-like, dont le couplage au leptons du Modèle Standard et au quark top. De plus, nous avons étudié les conséquences phénoménologiques des corrections électrofaibles, et la détectabilité de notre candidat. / Option Physique du Doctorat en Sciences / info:eu-repo/semantics/nonPublished
3

Scalar boson decays to tau leptons: In the standard model and beyond

Caillol, Cécile 28 April 2016 (has links)
Cette thèse présente une étude du secteur scalaire dans le cadre du modèle standard (MS), ainsi que la recherche d'un secteur scalaire étendu dans des théories au-delà du MS. Ces analyses ont en commun la désintégration d'au moins un des bosons scalaires en une paire de leptons tau. Les résultats sont basés sur les données collectées par le détecteur CMS pendant le Run-1 du LHC, lors de collisions proton-proton à une énergie dans le centre de masse de 7 ou 8 TeV. Le boson découvert en 2012, H, semble compatible avec un boson de Brout-Englert-Higgs (BEH) du MS, mais ce constat se base essentiellement sur l'étude des modes de désintégration bosoniques. Le mode de désintégration H->tau tau est le canal fermionique le plus sensible, et permet de tester les couplages de Yukawa du nouveau boson. Cette thèse décrit dans un premier temps la recherche d'un boson scalaire se désintégrant en leptons tau et produit en association avec un boson vecteur. Les données du Run-1 ne sont pas sensibles aux petites sections efficaces de production prédites dans le SM, mais la combinaison avec les autres modes de production montre avec évidence l'existence de désintégrations du boson H en taus. De nombreux modèles au-delà du MS, tels que l'extension supersymétrique minimale du MS (MSSM) ou les modèles avec deux doublets scalaires (2HDM), prédisent l'existence de plusieurs boson scalaires. Quatre recherches d'un secteur scalaire étendu au-delà du MS sont présentées dans cette thèse. La première analyse recherche un pseudoscalaire avec une masse entre 220 et 350 GeV, se désintégrant en un boson scalaire similaire à celui du MS et en un boson Z, dans l'état final avec deux taus et deux leptons légers. La deuxième analyse explore la possibilité d'une désintégration exotique de la nouvelle particule en deux bosons scalaires plus légers dans l'état final avec deux muons et deux leptons tau. Dans le cadre de la troisième analyse, une région en masse quasiment inexplorée auparavant au LHC est testée par la recherche d'un pseudoscalaire avec une masse entre 25 et 80 GeV, se désintégrant en leptons tau et produit en association avec deux quarks b, dans le contexte des 2HDM. La dernière analyse recherche une résonance lourde se désintégrant en une paire de leptons tau dans le contexte du MSSM. Aucun indice de nouvelle physique n'a été trouvé dans les analyses décrites ci-dessus, mais des limites strictes sur les sections efficaces des différents signaux ont été déterminées. / This thesis presents a study of the scalar sector in the standard model (SM), as well as different searches for an extended scalar sector in theories beyond the standard model (BSM). All analyses have in common the fact that at least one scalar boson decays to a pair of tau leptons. The results exploit the data collected by the CMS detector during LHC Run-1, in proton-proton collisions with a center-of-mass energy of 7 or 8 TeV.The particle discovered in 2012, H, looks compatible with a SM Brout-Englert-Higgs boson, but this statement is driven by the bosonic decay modes. The H-> tau tau decay mode is the most sensitive fermionic decay channel, and allows to test the Yukawa couplings of the new particle. The search for the SM scalar boson decaying to tau leptons, and produced in association with a massive vector boson W or Z, is described in this thesis. Even though a good background rejection can be achieved by selecting the leptons originating from the vector boson, Run-1 data are not sensitive to the small production cross sections predicted in the SM for the scalar boson. The combination with the gluon-gluon fusion and vector boson fusion production searches leads to an evidence for the decay of the H boson to tau leptons.Many BSM models, such as the minimal supersymmetric SM (MSSM) or models with two scalar doublets (2HDM), predict the existence of several scalar bosons. The decays of these bosons to tau leptons can be enhanced in some scenarios depending on the model parameters, which makes the di-tau decay mode powerful to discover BSM physics. Four searches for an extended scalar sector are detailed in this thesis. The first analysis searches for a pseudoscalar boson with a mass between 220 and 350 GeV, decaying to an SM-like scalar boson and a Z boson, in the final state with two light leptons and two tau leptons. Second, a search for the exotic decay of the new particle H to a pair of light pseudoscalar bosons, which is still allowed by all measurements made up to now, in the final state with two muons and two tau leptons is performed. Third, a mass region almost never explored at the LHC is probed by the search of a light pseudoscalar, with a mass between 25 and 80 GeV, decaying to tau leptons and produced in association with b quarks. The last analysis describes the search for a heavy resonance in the MSSM, decaying to a pair of tau leptons. None of these analyses has found any hint of new physics beyond the SM, but stringent limits on the cross section of such signals could be set. / Doctorat en Sciences / info:eu-repo/semantics/nonPublished
4

Study of Triple-GEM detector for the upgrade of the CMS muon spectrometer at LHC

Maerschalk, Thierry 12 July 2016 (has links)
This doctoral thesis is part of the upgrade of the CMS experiment at the Large HadronCollider of CERN, the LHC. CMS, together with the ATLAS experiment, led to thediscovery of the Brout-Englert-Higgs boson in 2012. But the LHC research program isnot over yet. Indeed, the LHC is intended to operate even at least 20 more years. Duringthis period, the luminosity will grow gradually up to five times its nominal value of 10 34cm −2 s −1 initially foreseen. This increase in luminosity requires the LHC experiments,like CMS, to upgrade their detectors as well as their data acquisition system. One of thenext major CMS upgrade is the addition of a new detector layer in the forward muonspectrometer of CMS. The technology that has been chosen by the CMS collaborationfor this upgrade is the Triple Gas Electron Multiplier (Triple-GEM) technology. Thisupgrade aims to maintain the trigger performance despite the increasing rate of particles(> 1 kHz/cm 2 ) and will also improve the reconstruction of muons tracks, thanks to aexcellent spatial resolution (∼ 250 μm). It is the study and characterization of thistechnology that is the subject of this thesis.This characterization of the Triple-GEM detectors starts with a detailed study of thetime resolution. This study has been performed using different Monte Carlo simulationslike GARFIELD, and has demonstrated that the Triple-GEM detectors equipped withthe new VFAT3 electronics (developed for this upgrade) fulfill the requirements for theCMS upgrade.Then we have studied different detector prototypes. First, we have built two small 10×10cm 2 prototypes and developed a test bench at the ULB laboratory. This test bench hasallowed us to study another important parameter of the Triple-GEM detectors: the gain.Later, we also had the opportunity to take part in the data taking and analysis of a testbeam campaign at CERN. The analysis of the data of this test beam is also presentedin detail.The last part of this work concerns the study of the spatial resolution. We have estimatedthe spatial resolution of the Triple-GEM detector equipped with a binary electronics byMonte Carlo simulations as well as analytically. This study has been extended to otherdetector technologies like the Micromegas and the silicon sensors. / Cette th`ese de doctorat s’inscrit dans le cadre de la mise `a niveau de l’exp ́erience CMSaupr`es du grand collisionneur de protons du CERN, le LHC. CMS, avec l’exp ́erienceATLAS, a permis la d ́ecouverte du boson de Brout-Englert-Higgs en 2012. Mais leprogramme de recherche du LHC n’est pas pour autant termin ́e. En effet, le LHC estdestin ́e `a fonctionner encore au moins 20 ans. Pendant cette p ́eriode, la luminosit ́e vacroˆıtre progressivement jusqu’`a atteindre environ cinq fois la valeur nominale de 10 34cm −2 s −1 initialement pr ́evue et ce d’ici 2025. Cette augmentation de luminosit ́e pousseles exp ́eriences du LHC, comme CMS, `a mettre `a jour les d ́etecteurs ainsi que leurssyst`emes d’acquisition de donn ́ees. Une des prochaines mises `a niveau majeures deCMS est l’addition d’une nouvelle couche de d ́etection dans le spectrom`etre `a muonvers l’avant. La technologie de d ́etection qui a ́et ́e choisie par la collaboration CMS estla technologie des Triple Gas Electron Multiplier (Triple-GEM). Cette mise `a niveaua pour but de maintenir les performances du syst`eme de d ́eclenchement et ce malgr ́el’augmentation de taux de particules (> 1 kHz/cm 2 ) et de permettre ́egalement, grˆacea la tr`es bonne r ́esolution spatiale des Triple-GEM (∼ 250 μm), l’am ́elioration de la re-construction des traces de muons. C’est l’ ́etude des caract ́eristiques de cette technologiequi est le sujet de cette th`ese.Cette caract ́erisation des d ́etecteurs Triple-GEM commence par une ́etude d ́etaill ́ee de lar ́esolution temporelle. Cette ́etude a ́et ́e r ́ealis ́ee `a l’aide de diff ́erentes simulations MonteCarlo telles que GARFIELD et a permis de montrer que les Triple-GEMs ́equip ́es de lanouvelle ́electronique VFAT3 (sp ́ecifiquement d ́evelop ́ee pour les Triple-GEMs) remplis-sent les conditions pour la mise `a niveau de CMS.Nous avons ensuite ́etudi ́e diff ́erents prototypes. Tout d’abord nous avons construit deuxpetits (10 × 10 cm 2 ) prototypes de Triple-GEM et d ́evelop ́e un banc de test au sein dulaboratoire de l’ULB. Ce banc de test nous a permis d’ ́etudier un autre param`etre impor-tant des d ́etecteurs Triple-GEM: le gain. Au cours de cette th`ese nous avons ́egalementparticip ́e `a la prise de donn ́ees et `a l’installation de diff ́erents tests en faisceau au CERN.L’analyse des donn ́ees du test en faisceaux d’octobre 2014 est aussi pr ́esent ́ee en d ́etail.La derni`ere partie de ce travail concerne l’ ́etude de la r ́esolution spatiale. Nous avonsestim ́e la r ́esolution spatiale par simulation de Monte Carlo ainsi que de mani`ere an-alytique pour des d ́etecteurs GEM munis d’une ́electronique binaire. Cette ́etude a ́egalement ́et ́e g ́en ́eralis ́ee `a d’autres d ́etecteurs tels que les Micromegas ou encore lescapteurs au silicium. / Doctorat en Sciences / info:eu-repo/semantics/nonPublished
5

Validation de la réponse du détecteur de neutrons WENDI-2 dans un faisceau de neutrons quasi-monoénergétiques pour son utilisation dans un centre de protonthérapie

Ndayizeye, David 05 December 2018 (has links) (PDF)
La radiothérapie est l'une des techniques utilisées pour le traitement des tumeurs cancéreuses. Cette technique utilise un nombre varié de rayonnements, avec des avantages et inconvénients qui dépendent des caractéristiques physiques de ces derniers. La radiothérapie utilisant des faisceaux de protons d’énergie entre 50-250 MeV, appelée communément ‘‘protonthérapie’’, est une technique innovante et très prometteuse, elle permet de traiter efficacement des tumeurs cancéreuses tout en préservant le plus possible les tissus sains environnants. Elle a le grand avantage de pouvoir concentrer la dose de traitement de manière très efficace et très précise dans le volume tumoral, avec moins de dose aux tissus sains et aux organes radiosensibles proches de la tumeur ou traversés par le faisceau d'irradiation. Ainsi, on diminue de manière significative la récidive cancéreuse en donnant une dose létale à la tumeur, et également on évite des cancers radio-induits par l'administration d’une dose acceptable aux tissus sains du patient.Cependant, lors de leur traversée dans la matière (matériaux des installations d'un centre de protonthérapie ou les tissus du patient), les protons peuvent avoir des interactions nucléaires, et des rayonnements secondaires, tels que des neutrons très énergétiques jusqu’à l’énergie maximale des protons d'irradiation peuvent être créés. Pour atténuer le flux de particules secondaires ainsi créées et pour que les doses reçues par les personnes se trouvant aux alentours de l’installation soient les plus faibles possibles et en conformité avec la réglementation en matière de radioprotection, d’importants blindages doivent être construits dans les centres de protonthérapie. Avant leur construction, ces blindages sont d’abord simulés numériquement par des méthodes Monte Carlo de simulation avec des programmes tels que MCNPX, FLUKA, PHITS, GEANT4, etc.En outre, une fois que le centre de protonthérapie est opérationnel, malgré ces blindages de protection, des mesures sont régulièrement effectuées pour estimer la dose d'ambiance, ainsi que la dose reçue par le personnel. Des dosimètres tels que des MOSFETs sont utilisés pour la dosimétrie individuelle des neutrons. En ce qui concerne la dosimétrie d'ambiance, plusieurs techniques ont été développées. On peut citer l’exemple d’un compteur proportionnel appelé  ‘‘WENDI-2’’, qui possède une bonne sensibilité aux neutrons. Dans cette thèse, nous présentons les travaux que nous avons menés pour la validation avec des simulations Monte Carlo de GEANT4 de la réponse de ce détecteur en fonction de l'énergie des neutrons. La 1ère validation se focalise sur la comparaison de GEANT4 avec d'autres codes de la littérature. La fonction de réponse de WENDI-2 montre des variations lorsque différents modèles physiques (ou codes) sont utilisés dans les simulations. Ensuite, des mesures expérimentales ont été confrontées aux simulations de GEANT4, et les résultats ont été interprétés avec différents modèles physiques. / Doctorat en Sciences / info:eu-repo/semantics/nonPublished
6

Simplifications exactes et structurelles de réseaux de réactions biologiques / Exact and structural simplifications of biological reaction networks

Madelaine, Guillaume 28 February 2017 (has links)
La biologie des systèmes cherche à comprendre et analyser des systèmes biologiques à l'aide de modèles mathématiques et informatiques. L'explosion des données expérimentales entraîne des modèles de plus en plus grands. Afin de pouvoir les analyser facilement ou les simuler rapidement, il est alors nécessaire de pouvoir les simplifier. Dans cette thèse, nous proposons des méthodes de simplifications de réseaux de réactions biochimiques. Ces méthodes sont suffisamment riches pour pouvoir simplifier un grand nombre de réseaux provenant d'applications biologiques. Elles sont contextuelles, permettant de considérer un réseau comme un sous-module d'un modèle plus grand, et de le simplifier sans modifier le comportement du modèle global. Enfin, nos simplifications sont correctes, c'est-à-dire qu'elles préservent la sémantique des réseaux. Dans un premier temps, nous nous intéressons à une sémantique non déterministe, basée sur la possibilité de converger vers les attracteurs du réseau. Nous étudions ensuite des simplifications pour la sémantique déterministe, permettant par exemple de supprimer des espèces intermédiaires à l'équilibre. Enfin, nous nous intéressons à la confluence d'une telle simplification, ainsi qu'au lien entre l'élimination des espèces intermédiaires et le calcul des modes élémentaires d'un réseau. / System biology aims at understanding and analyzing biological systems using mathematical and computational models. The explosion of the number of experimental data leads to larger and larger models. In order to be able to easily analyze them and quickly simulate them, it is necessary to be able to simplify them. In this thesis, we propose simplification methods for biochemical reaction networks. These methods are sufficiently rich to be able to simplify an important number of networks from biological applications. They are contextual, allowing to consider a network as a sub-module of a larger model, and to simplify it without modifying the behavior of the global model. Finally, our simplifications are sound, meaning that they preserve the semantics of the networks. Firstly, we are interested in a non deterministic semantics, based on the capability to converge to some attractors of the network. Then we study some simplifications for the deterministic semantics, allowing for instance to remove intermediate species at steady-state. Finally, we are interested by the confluence of this simplification, as well as the relation between the elimination of intermediate species and the computation of the elementary modes of a network.
7

Plasticité des nanoparticules métalliques cubiques à faces centrées / Plasticity of face Centered Cubic Metallic Nanoparticles

Bel Haj Salah, Selim 19 July 2018 (has links)
Lorsque leurs dimensions deviennent nanométriques, les matériaux présentent généralement des propriétés bien différentes de celles mesurées aux échelles supérieures. Ainsi, concernant les propriétés mécaniques, il est, par exemple, souvent fait état d’une résistance accrue à la déformation plastique. Toutefois, une majorité des travaux dans ce domaine concerne des systèmes à une dimension, tels que les nanofils et les nanopiliers. Nos connaissances des propriétés mécaniques d’un autre type de système ’nano’, à savoir les nanoparticules, restent actuellement limitées, ce qui est surprenant en regard de leur immense champ d’applications.Les travaux ici présentés portent sur les propriétés mécaniques de nanoparticules sphériques de matériaux métalliques de structure cubique à faces centrées (aluminium, nickel, cuivre). Ils ont été conduits à l’aide de simulations de dynamique moléculaire de compression uniaxiale.Ces dernières permettent d’analyser finement les mécanismes de plasticité à l’échelle atomique.Deux axes principaux d’étude ont été retenus : l’influence de la taille des nanoparticules et géométrie de la surface de contact dans la gamme de taille étudiée (4-80 nm) lors des premiers stades de déformation plastique. Nous montrons ainsi que cette dernière influe sur la limite d’élasticité, ainsi que sur le mode de déformation plastique, tel que le maclage. / When characteristic dimensions decrease to nanometer, materials often exhibit different properties than those measured at higher scales. So, in terms of mechanical properties,increased resistance to plastic deformation is often reported. However, most research works in this domain focused on one dimensional systems like nanowires and nanopilars. Our knowledge concerning mechanical properties for another type of ’nano’ system, nanoparticles, are in fact much more limited. This is surprising, since they can be used in immense field of applications.The work presented here deals with the mechanical properties of spherical nanoparticles of face centered cubic metallic materials (aluminium, nickel, copper). They were conducted using molecular dynamics simulations under uniaxial compression. These last ones allow to analyze finely the mechanisms of plasticity at the atomic scale. Two main areas of study were selected :the influence of nanoparticle size and the orientation of the compression axis. Our results highlight the predominant role of contact surface geometry in the size range studied (4-80 nm) during the early stages of plastic deformation. We thus show that the latter influences the yield strength, as well as the plastic deformation mode, such as smearing.
8

Development of the DAQ System of Triple-GEM Detectors for the CMS Muon Spectrometer Upgrade at LHC

Lenzi, Thomas 19 December 2016 (has links) (PDF)
The Gas Electron Multiplier (GEM) upgrade project aims at improving the performance of the muon spectrometer of the Compact Muon Solenoid (CMS) experiment which will suffer from the increase in luminosity of the Large Hadron Collider (LHC). After a long technical stop in 2019-2020, the LHC will restart and run at a luminosity of 2 10^34 cm^-2 s^-1, twice its nominal value. This will in turn increase the rate of particles to which detectors in CMS will be exposed and affect their performance. The muon spectrometer in particular will suffer from a degraded detection efficiency due to the lack of redundancy in its most forward region. To solve this issue, the GEM collaboration proposes to instrument the first muon station with Triple-GEM detectors, a technology which has proven to be resistant to high fluxes of particles. Within the GEM collaboration, the Data Acquisition (DAQ) subgroup is in charge of the development of the electronics and software of the DAQ system of the detectors.This thesis presents the work of the author as lead developer of the firmware for the front-end and back-end electronics. These developments have been performed from the ground up and designed to transfer data from the analog front-end to the off-detector electronics while offering extensive control and monitoring capabilities. The developed DAQ chain has been tested extensively during two test beam campaigns which provided results on both the stability of the system and the efficiency of the detectors. The results of these campaigns are described in the present thesis. Further characterization of the electronics is also described along with the procedures and tools built to qualify the components for their installation in CMS. Finally, the results of the irradiation tests performed on the on-detector electronics are presented. These allowed us to understand the effects of radiation on the electronic boards used for the GEM upgrade project and the impact that it has on the design of the firmware for CMS.Additionally, the work of the author on a new architecture for DAQ systems is described. The latter uses modified network topologies and novel web technologies to increase the available bandwidth on the network and yield an event-driven system. / Cette thèse de doctorat s'inscrit dans le projet de mise à niveau du spectromètre à muons du Compact Muon Solénoid (CMS) auprès du Large Hadron Collider (LHC). Après un arrêt pour maintenance prévu en 2019-2020, le LHC reprendra son programme de recherche à une luminosité de 2 $ imes$ 10^34 cm^-2 s^-1, soit deux fois sa valeur nominale. Ceci aura pour conséquence d'accroître le taux de particules auquel seront soumis les détecteurs de CMS et d'entraver l'efficacité de détection de ces derniers. Le spectromètre à muons de CMS sera tout particulièrement touché à cause du manque de redondance dans sa partie avant. Afin de palier à ce problème, il est proposé d'installer des détecteurs Gas Electron Multipliers (GEM) dans la première station à muons. La technologie GEM répond aux besoins de CMS en offrant une excellente efficacité de détection à de hauts flux de particules. Au sein de la collaboration GEM, le sous-groupe en charge du système d'acquisition de données (DAQ) doit développer l'électronique et les logiciels de gestion de la chaîne de lecture des détecteurs.Nous présentons ici le travail de l'auteur réalisé en tant que principal développeur du firmware pour l'électronique du système DAQ. Ces développements visent à créer une architecture qui achemine les données depuis l'électronique de lecture du détecteur jusqu'aux systèmes situés dans la zone de comptage, tout en offrant la possibilité de contrôler et surveiller l'ensemble des composants du DAQ. Le système mis en place a été largement testé durant deux campagnes de tests en faisceaux qui ont fourni des informations concernant la stabilité du DAQ ainsi que des mesures de l'efficacité des détecteurs. Nous décrivons également l'ensemble des travaux réalisés afin de caractériser les composants électroniques avant leur installation dans CMS ainsi que les résultats des tests d'irradiation effectués sur l'électronique du détecteur. Ces derniers permettent de mieux comprendre les conséquences des radiations sur le système et de développer des méthodes de mitigation.De plus, le travail de l'auteur sur la création d'une nouvelle architecture de système DAQ est décrit. Cette dernière combine les avancées récentes en terme de technologies web à une topologie de réseaux non-classique afin d'accroître la bande passante disponible et de créer un système réactif. / Doctorat en Sciences / info:eu-repo/semantics/nonPublished
9

Muon to electron conversion, flavored leptogenesis and asymmetric dark matter in minimal extensions of the Standard Model

Dhen, Mikaël 30 September 2015 (has links)
Il est clair que le Modèle Standard des particules élémentaires n'est pas complet. Parmi tous les indices d'une physique au-delà du Modèle Standard, la masse des neutrinos, l'asymétrie matière-antimatière de notre Univers et la matière noire constituent les trois contextes généraux de cette thèse.Le fait que les neutrinos soient massifs constitue la plus claire évidence d'une physique au-delà du Modèle Standard. La masse des neutrinos peut trouver une explication notamment dans le cadre des modèles favoris dits "modèles Seesaw". Ces modèles, en plus de générer une petite masse pour les neutrinos, génèrent aussi des processus dans lesquels la saveur d'un lepton chargé est changée, comme la désintégration d'un muon en un électron et un photon, ou la conversion d'un muon en un électron au sein d'un atome sans émission de neutrino. Ces processus sont importants car les expériences futures devraient atteindre des sensibilités impressionnantes sur leurs taux, mais aussi parce que leur observation confirmerait l'existence d'une physique nouvelle et pourrait peut-être discriminé parmi les différents modèles. Il est donc important d'avoir une expression analytique fiable du taux de ces processus dans le cadre de ces modèles Seesaw favoris. Dans la première partie de cette thèse, nous calculons l'expression du taux de conversion d'un muon en un électron au sein d'un atome dans le cadre des modèles Seesaw de type 1, et analysons la phénoménologie s'y rapportant. Ces modèles Seesaw, en plus de générer une petite masse pour les neutrinos et des processus changeant la saveur leptonique, permettent aussi la création de l'asymétrie matière-antimatière dans l'Univers, à travers le mécanisme dit de "leptogenèse". Selon ce mécanisme, une asymétrie leptonique aurait d'abord été créée, avant d'être partiellement transférée en une asymétrie baryonique. Dans la seconde partie de cette thèse, nous calculons et analysons la leptogenèse dans le cadre des modèles Seesaw de type 2 avec, pour la première fois, la prise en compte des effets de saveurs.Finalement, la troisième et dernière partie de cette thèse se concentre sur la possibilité de générer non seulement la matière baryonique à partir d'une asymétrie, mais aussi la matière noire. A cette fin, nous considérons le modèle dit "doublet inerte'', car il contient une interaction qui pourrait à priori générer de la matière noire à partir d'une asymétrie. Nous adressons dès lors la question suivante et y répondons: est-il possible de générer toute la matière noire à partir d'une asymétrie de matière noire dans le contexte du modèle doublet inerte ? / Option Physique du Doctorat en Sciences / info:eu-repo/semantics/nonPublished
10

Interaction entre le mercure élémentaire et les sédiments lacustres

Bouffard, Ariane January 2008 (has links)
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal.

Page generated in 0.0808 seconds