• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 163
  • 25
  • 10
  • 9
  • 6
  • 4
  • 2
  • 2
  • 1
  • Tagged with
  • 259
  • 128
  • 117
  • 96
  • 82
  • 48
  • 40
  • 40
  • 38
  • 31
  • 30
  • 28
  • 26
  • 26
  • 23
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Flavor fluctuations in central Pb-Pb collisions at 158 GeV/nucleon

Roland, Christof. Unknown Date (has links)
University, Diss., 1999--Frankfurt (Main). / Digitalisat der Print-Ausg. 1999.
42

Optical measurements of the microphysical properties of aerosol and small cloud particles in the CLOUD project

Nichman, Leonid January 2017 (has links)
Clouds play an important role in precipitation, solar radiation budget and electrification of Earth's atmosphere. The presence of small ice crystals in clouds and their morphology can complicate parametrisation and climate modelling, consequently leading to a net cooling feedback on climate. In situ airborne measurements provide single particle characterisation with high temporal and spatial resolution allowing better understanding of atmosphericprocesses of ice nucleation and growth. Simulations of the preindustrial clouds and accurate characterisation and comparison of the instruments require a well-controlled and often pristine environment. The experimental chamber setup allows simulations of these and other conditions. The microphysical features of the micrometric ice particles in clouds were examined in a laboratory setup, at numerous sub-zero temperatures [-10 to -50 ⁰C]. The following instruments were sampling the content of the CLOUD chamber air volume: Cloud and Aerosol Spectrometer with Polarisation (CASPOL), Particle Phase Discriminator mark 2 (PPD-2K, Karlsruhe edition), 3-View Cloud Particle Imager (3V-CPI), and the Scattering-Intensity-Measurements-for-the-Optical-detectioN-of-icE (SIMONE-Junior). Cluster analysis was applied to the data collected with CASPOL and compared with results from the other probes. We were able to discriminate and map the aerosol and cloud particles in the pristine chamber environment using polarisation ratios (Dpol/Backscatter and Dpol/Forwardscatter) of the scattered light. We demonstrate the sensitivity of the instruments in detecting secondary organic aerosol (SOA) phase transitions. Then, we show the ability of the viscous SOA to nucleate ice in a series of SPectrometer for Ice Nuclei (SPIN) measurements. The detected viscous SOA ice nucleation efficiency may affect global modelling and estimations of ice water content in the atmosphere. Subsequently, the analysis and discrimination technique used in the CLOUD chamber was applied to airborne measurements to test its efficiency and to retrieve the composition of clouds. Data from four flight campaigns on board of the FAAM BAe-146 were analysed: Aerosol-Cloud Coupling and Climate Interactions in the Arctic (ACCACIA), COnvective-Precipitation-Experiment (COPE) in south England, CIRrus Coupled Cloud-Radiation EXperiment (CIRCCREX), and PIKNMIX in Scotland. In these and other flights, we were able to identify unique clusters such as salts, minerals, organics, volcanic ash, water and ice, confirming some of the offline laboratory elemental analysis results, and providing complementary information. Single particle polarisation measurements were compared with bulk depolarisation, diffraction patterns, and imaging. Most of the optical instruments still suffer from ambiguity in phase derivation (i.e. water/ice) of optically spherical small shapes. We discuss some of the limitations of optical cloud particle discrimination in different ambient conditions and offer possible solutions to reduce the uncertainty, e.g., surface complexity derivation from scatteringpatterns. Our findings will help to develop better instruments and improve the models which are used for weather forecasts and climate change predictions.
43

Search for the Standard Model Higgs boson produced in association with a vector boson and decaying to a b-quark pair with the ATLAS detector

Smart, Ben Harry January 2015 (has links)
An important question at present in particle physics is whether the recently discovered boson with a mass of about 125 GeV is the Standard Model Higgs boson. A Standard Model Higgs boson with a mass of 125 GeV will predominantly decay to b-quark pairs. This work presents the author's contribution to the search with the ATLAS detector for a Standard Model Higgs boson produced in association with a W or Z boson and decaying to b-quark pairs. In order to search for the decay modes ZH → vvb¯b, WH → lvb¯b and ZH → l¯lb¯b, where l is either an electron or muon, events with zero, one or two electrons or muons are considered in 20:3 fb¯1 of 8 TeV LHC data. A Standard Model Higgs boson is not observed decaying to b-quark pairs, although neither is this decay mode ruled out. A Standard Model Higgs boson with a mass of between 110 GeV and 115 GeV is excluded. For mH = 125 GeV the observed (expected) upper limit on the cross- section times the branching ratio is found to be 2.16 (1.07) times the Standard Model prediction. For a Standard Model Higgs boson with a mass of 125 GeV, the best fit signal strength is μ = 1:09 +0:43-0:42 (stat) +0:44-0:37 (syst) = 1:09 +0:61-0:56. The combined results are consistent with a Standard Model Higgs boson with a mass of 125 GeV. The author's own work is presented, including estimation of systematic uncertainties on WH → lvb¯b modelling, and future ATLAS data selection methods for WH → lvb¯b searches. Overviews of underlying theoretical matters and the experimental facilities used are given.
44

Étude de la densité de particules chargées et des mésons vecteurs de basses masses en collisions Pb-Pb à sqrt(s)NN = 2.76 TeV dans ALICE au LHC / Study of the charged particle density and low mass vector mesons in Pb-Pb collisions at sqrt(s)NN =2.76 TeV in ALICE at LHC

Guilbaud, Maxime 25 October 2013 (has links)
La matière que nous connaissons est composée de hadrons dont les quarks et les gluons sont les composants élémentaires. Ces derniers n'existent pas libres dans la matière ordinaire et sont donc en permanence confinés dans les hadrons. Cependant, d'après les prédictions théoriques, quelques microsecondes après le Big Bang, la température était suffisamment élevée pour que les quarks et les gluons ne soient pas contenus dans les hadrons. Il s'agit d'une phase déconfinée de la matière hadronique appelée Plasma de Quarks et Gluons (QGP). Le Large Hadron Collider (LHC) au CERN (Genève) est un accélérateur de particules permettant d'accélérer, entre autres, des ions et de produire des collisions à des énergies dans le centre de masse par nucléons allant jusqu'à plusieurs TeraélectronVolts. Il est ainsi possible d'atteindre des températures permettant de recréer cette phase de QGP pour en étudier les propriétés. C'est dans ce cadre que se place l'expérience ALICE (A Large Ion Collider Experiement) qui est dédiée à l'étude des collisions d'ions lourds ultra-relativistes. Le temps de vie du QGP étant trop faible, il n'est pas possible de l'étudier directement. Il est alors nécessaire d'utiliser des observables indirectes. Ce travail de thèse s'inscrit directement dans ce programme de physique par le biais de l'étude des collisions d'ions lourds à 2.76 TeV. Deux observables sont abordées : la densité de particules chargées par unité de pseudorapidité et les mésons vecteurs de basse masse (rho, omega et phi) dans le canal dimuons. La première observable permet d'accéder à des informations sur les conditions initiales et la dynamique sous-jacente des mécanismes de production de particules. La mesure est réalisée sur la gamme en pseudo-rapidité la plus large jamais atteinte au LHC (10 unités) grâce au développement d'une méthode d'analyse originale dite " méthode des vertex déplacés ". La technique employée et les résultats obtenus sont décrits dans le chapitre 3. L'étude des mésons vecteurs de basse masse permet d'accéder à la production d'étrangeté via le méson phi et à la symétrie chirale à travers la modification de la fonction spectrale du rho. L'analyse a été menée à l'aide du spectromètre à muons d'ALICE et les résultats obtenus sur le taux de production du méson phi par rapport au mésons rho et omega sont présentés dans le chapitre 4. Dans ce chapitre, une étude sur la sensibilité du détecteur aux effets liés à la restauration de la symétrie chirale est aussi menée / The matter is composed of hadrons of which quarks and gluons are the elementary components. These do not exist in a free state in ordinary matter and are therefore permanently confined in hadrons. However, according to theoretical predictions, a few microseconds after the Big Bang, the temperature was high enough to create a deconfined state of quarks and hadrons : the Quark and Gluon Plasma (QGP). The Large Hadron Collider (LHC) at CERN (Geneva) is a particle accelerator which accelerates, among others, ions and produces collisions with energies per nucleons in the center of mass up to several TeraelectronVolts. It is thus possible to achieve temperatures to recreate the QGP phase to study its properties. The experiment ALICE (A Large Ion Collider Experiment) is dedicated to the study of such ultra-relativistic heavy-ion collisions. The lifetime of the QGP being too low, it is not possible to study it directly. It is then necessary to use indirect observables. This PhD work is directly related to the study of heavy-ion collisions at 2.76 TeV. Two observables are discussed : the density of charged particles per unit of pseudorapidity and low mass vector mesons (rho, omega and phi) in the dimuon channel. The first observable gives access to informations about the initial conditions and the underlying dynamics of particle production mechanisms. The measurement is performed in the largest pseudorapidity range reached at the LHC (10 units) thanks to the development of an original analysis method called " displaced vertex technique ". The technique employed and the results obtained are described in Chapter 3. The study of low mass vector mesons allows to probe the production of strangeness via the phi meson and chiral symmetry through the ! spectral function modification. The analysis was conducted using the ALICE muon spectrometer and the results obtained from the production rate of the phi with respect to rho and omega are shown in Chapter 4. In this chapter, a study on the sensitivity of the detector to the effects related to the chiral symmetry restoration is also conducted
45

Identification of LHC beam loss mechanism : a deterministic treatment of loss patterns / Identification des mécanismes de perte de faisceau au LHC : un traitement déterministe des structures de pertes

Marsili, Aurélien 21 November 2012 (has links)
Le Large Hadron Collider (LHC) du CERN, avec un périmètre de 26,7 km, est la plus grande machine jamais construite et l'accélérateur de particules le plus puissant, à la fois par l'énergie des faisceaux et par leur intensité. Les aimants principaux sont supraconducteurs, et maintiennent les particules en deux faisceaux circulants à contre-sens, qui entre en collision en quatre points d'interaction différents. Ces aimants doivent être protégés contre les pertes de faisceau : ils peuvent subir une transition de phase et redevenir résistifs, et peuvent être endommagés. Pour éviter cela, des moniteurs de pertes de faisceau, appelés Beam Loss Monitors (BLM) ont été installés. Si les seuils de pertes maximum autorisées sont dépassés, les faisceaux sont rapidement enlevés de la machine. Les détecteurs du système BLM sont en majorité des chambres d'ionisation situées à l'extérieur des cryostats. Au total, plus de 3500 chambres d'ionisation sont installées. Les difficultés supplémentaires comprennent la grande amplitude dynamique des pertes : les courants mesurés s'échelonnent de 2 pA jusqu'à 1 mA. Le sujet de cette thèse est d'étudier les structures de pertes et de trouver l'origine des pertes de façon déterministe, en comparant des profils de pertes mesurés à des scénarios de pertes connus. Ceci a été effectué par le biais d'une étude de cas : différentes techniques ont été utilisées sur un ensemble restreint de scénarios de pertes, constituant une preuve de concept de la possibilité d'extraire de l'information d'un profil de pertes. Trouver l'origine des pertes doit pouvoir permettre d'agir en conséquence, ce qui justifie l'intérêt du travail doctoral. Ce travail de thèse se focalise sur la compréhension de la théorie et la mise en place de la décomposition d'un profil de pertes mesuré en une combinaison linéaire des scénarios de référence; sur l'évaluation de l'erreur sur la recomposition et sa validité. Un ensemble de scénarios de pertes connus (e.g. l'augmentation de la taille du faisceau dans les plans vertical et horizontal ou la différence d'énergie lors de mesures de profils de pertes) ont été réunis, permettant l'étude et la création de vecteurs de référence. Une technique d'algèbre linéaire (inversion de matrice), l'algorithme numérique de décomposition en valeurs singulières (SVD), a été utilisé pour effectuer cette décomposition vectorielle. En outre, un code spécifique a été développé pour la projection vectorielle sur une base non-orthogonale d'un sous-espace vectoriel. Ceci a été mis en place avec les données du LHC. Ensuite, les outils de décomposition vectorielle ont été systématiquement utilisés pour étudier l'évolution temporelle des pertes : d'abord par la variation d'une seconde à l'autre, puis par différentes comparaisons avec un profil de pertes par défaut calculé pour l'occasion. Puis, les résultats des décompositions ont été calculés pour les pertes à chaque seconde des périodes de ''faisceaux stables'' de l'année 2011, pour l'étude de la distribution spatiale des pertes. Les résultats obtenus ont été comparés avec les mesures d'autres instruments de faisceau, pour permettre différentes validations. En conclusion, l'intérêt de la décomposition vectorielle est présenté. Ensuite, l'annexe A, décrit le code développé pour permettre l’accès aux données des BLMs, pour les représenter de façon utilisable, et pour les enregistrer. Ceci inclus la connexion à différentes bases de données. L'instrument utilise des objets ROOT pour envoyer des requêtes SQL aux bases de données ainsi que par une interface Java, et est codé en Python. Un court glossaire des acronymes utilisés dans cette thèse est disponible à la fin du document, avant la bibliographie. / CERN's Large Hadron Collider (LHC) is the largest machine ever built, with a total circumference of 26.7 km; and it is the most powerful accelerator ever, both in beam energy and beam intensity. The main magnets are superconducting, keeping the particles into two counter circulating beams, which collide in four interaction points. CERN and the LHC will be described in chap. 1. The superconducting magnets of the LHC have to be protected against particle losses. Depending on the number of lost particles, the coils of the magnets will become normal conducting and/or will be damaged. To avoid these events a beam loss monitoring (BLM) system was installed to measure the particle loss rates. If the predefined safe thresholds of loss rates are exceeded, the beams are directed out of the accelerator ring towards the beam dump. The detectors of the BLM system are mainly ionization chambers located outside of the cryostats. In total, about 3500 ionisation chambers are installed. Further challenges include the high dynamical range of losses (chamber currents ranging between 2 pA and 1 mA). The BLM system will be further described in chap. 2. The subject of this thesis is to study the loss patterns and find the origin of the losses in a deterministic way, by comparing measured losses to well understood loss scenarios. This is done through a case study: different techniques were used on a restrained set of loss scenarios, as a proof of concept of the possibility to extract information from a loss profile. Finding the origin of the losses should allow acting in response. A justification of the doctoral work will be given at the end of chap. 2. Then, this thesis will focus on the theoretical understanding and the implementation of the decomposition of a measured loss profile as a linear combination of the reference scenarios; and the evaluation of the error on the recomposition and its correctness. The principles of vector decomposition are developed in chap. 3. An ensemble of well controlled loss scenarios (such as vertical and horizontal blow-up of the beams or momentum offset during collimator loss maps) has been gathered, in order to allow the study and creation of reference vectors. To achieve the Vector Decomposition, linear algebra (matrix inversion) is used with the numeric algorithm for the Singular Value Decomposition. Additionally, a specific code for vector projection on a non-orthogonal basis of a hyperplane was developed. The implementation of the vector decomposition on the LHC data is described in chap. 4. After this, the use of the decomposition tools systematically on the time evolution of the losses will be described: first as a study of the variations second by second, then by comparison to a calculated default loss profile. The different ways to evaluate the variation are studied, and are presented in chap. 5. The next chapter (6) describes the gathering of decomposition results applied to beam losses of 2011. The vector decomposition is applied on every second of the ``stable beans'' periods, as a study of the spatial distribution of the loss. Several comparisons of the results given by the decompositions with measurements from other LHC instruments allowed different validations. Eventually, a global conclusion on the interest of the vector decomposition is given. Then, the extra chapter in Appendix A describes the code which was developed to access the BLM data, to represent them in a meaningful way, and to store them. This included connecting to different databases. The whole instrument uses ROOT objects to send SQL queries to the databases, as well as java API, and is coded in Python. A short glossary of the acronyms used here can be found at the end, before the bibliography.
46

Search for the lepton flavor violating decays Bs->tµ and Bd->tµ with the LHCb experiment / Recherche des désintégrations violant la saveur leptonique Bs -> tµ et Bd -> tµ avec l'expérience LHCb

Arnau Romeu, Joan 10 September 2018 (has links)
La désintégration $B_{ (s)}$ → τμ est supprimée dans le SM, où le nombre leptonique est conservé. Son observation serait donc une preuve non ambiguë de la physique au-delà du SM. Des résultats récents [1,2] ont ravivé l'intérêt pour la recherche de tels processus [3]. Cette thèse présente la recherche des désintégrations $B_{ (s)}$→ τμ dans l'expérience LHCb, l'une des 4 grandes expériences menées au Large Hadron Collider (LHC) du CERN.Le lepton τ se désintègre avant d'atteindre le détecteur LHCb et est reconstruit en utilisant le canal τ → πππν. Le neutrino provenant de la désintégration du τ échappe à la détection. Une technique de reconstruction spécifique est utilisée pour déduire l'énergie du neutrino et donc la masse invariante du méson B qui s'est désintégré.Afin de séparer le signal du bruit de fond, une sélection hors ligne composée de différentes étapes est appliquée. Des techniques d'analyse multivariées, telles que les arbres de décision boostés (BDT), sont utilisées pendant le processus de sélection.La stratégie d'analyse est complétée par un ajustement simultané à la distribution de masse invariante des mésons B dans différentes régions d'un BDT final. Selon les prédictions du SM, aucun événement de signal n'est attendu. Dans ce cas, la méthode CLs sera utilisée pour extraire les limites supérieures des rapports de branchement BR($B_{ (s)}$→ τμ).[1] Test of lepton universality using $B^+$→$K^+$$l ^+$$l ^-$ decaysPhys. Rev. Lett. 113, 151601 (2014)[2] Measurement of the ratio of branching fractions BR(B → D*τ ν)/BR(B → D*μν)Phys. Rev. Lett. 115 (2015) 111803[3] Lepton Flavour Violation in B Decays ? Phys. Rev. Lett. 114, 091801 (2015) / The decay $B_{ (s)}$→τμ is suppressed in the SM, in which lepton flavour is conserved. Its observation would therefore be an unambiguous evidence of physics beyond the SM. Recent results [1,2] revived the interest for the search of such processes [3]. This thesis presents the search for the $B_{ (s)}$→τμ decays within the LHCb experiment, one of the 4 large experiments operated at the CERN Large Hadron Collider (LHC).The τ lepton decays before reaching the LHCb detector and is reconstructed using the τ→πππν channel. The neutrino from the τ decay escapes detection. A specific reconstruction technique is used in order to infer the energy of the ν and thus the invariant mass of the decaying B meson. This way, the complete kinematics of the process can be solved up to a two fold ambiguity.In order to disentangle signal from background, an offline selection consisting of different steps is applied. Data driven and multivariate analysis techniques, such as Boosted Decision Trees (BDT), are used during the selection process. The analysis strategy is completed by a simultaneous fit to the B meson invariant mass distribution over the different bins of a final BDT. According to the SM expectations, no signal events should be observed. In this case, the CLs method will be used to extract the upper limits on the branching fractions.[1] Test of lepton universality using $B^+$→$K^+$$l ^+$$l ^-$ decaysPhys. Rev. Lett. 113, 151601 (2014)[2] Measurement of the ratio of branching fractions BR(B → D*τ ν)/BR(B → D*μν)Phys. Rev. Lett. 115 (2015) 111803[3] Lepton Flavour Violation in B Decays ? Phys. Rev. Lett. 114, 091801 (2015)
47

Conception d'un système de verrouillage sur de fonctionnement pour les collisionneurs linéaires / Design of a dependable Interlock System for linear colliders

Nouvel, Patrice 18 December 2013 (has links)
Pour les accélérateurs de particules à hautes énergies, le système de verrouillage est une partie clé de la protection de la machine. Le verrouillage de la machine est l’inhibition du faisceau dès lors qu’un équipement critique tombe en panne et/ou qu’un faisceau est de faible qualité. Pour un système de verrouillage, sa sûreté de fonctionnement est la caractéristique la plus importante. Cette thèse présente le développement d’un système de verrouillage pour les collisionneurs linéaires avec une application au projet CLIC (Compact Linear Collider). Son élaboration s’appuie sur la norme d’ingénierie IEEE 1220 et se décline en quatre parties. Tout d’abord, les spécifications sont établies. Une attention particulière est portée sur la sûreté de fonctionnement, plus précisément, la fiabilité et la disponibilité du système. La deuxième étape est la proposition d’un design. Celui-ci est basé sur une analyse fonctionnelle, les interfaces du système et l’architecture du CLIC. Troisièmement, une étude de faisabilité est effectuée en appliquant les concepts dans un environnement opérationnel. Finalement, la dernière étape est la vérification matérielle. Le but est de prouver que le design proposé est capable de remplir le cahier des charges établi. / For high energy accelerators, the interlock system is a key part of the machine protection. The interlock principle is to inhibit the beam either on failure of critical equipment and/or on low beam quality evaluation. The dependability of such a system is the most critical parameter. This thesis presents the design of an dependable interlock system for linear collider with an application to the CLIC (Compact Linear Collider) project. This design process is based on the IEEE 1220 standard and is is divided in four steps. First,the specifications are established, with a focus on the dependability, more precisely the reliability and the availability of the system. The second step is the design proposal based on a functional analysis, the CLIC and interfaced systems architecture. Third, the feasibility study is performed, applying the concepts in an accelerator facility. Finally, the last step is the hardware verification. Its aim is to prove that the proposed design is able to reach the requirements.
48

Procura do bóson de Higgs a partir da fusão de bósons vetoriais no Experimento CMS / Higgs search from vector bosons fusion at CMS Experiment.

Jordan Martins 30 November 2010 (has links)
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / O presente trabalho tem por finalidade determinar a luminosidade necessária para se impor um limite para exclusão e a signifucância para evidência e descoberta para um bóson de Higgs de mH = 200 GeV no canal qqH → ZZ → 4. Também, apresenta-se uma crítica a qualidade da relação sinal/fundo em eventos de fusão de bósons vetoriais conhecida da literatura atual. / This analysis aims to determine the luminosity required to impose an exclusion limit and significance for evidence and discovery for a Higgs boson of mH = 200 GeV on the channel qqH → ZZ → 4. Also, it presents a critical to the quality of the relation signal/background in vector boson fusion events known form the current literature.
49

Procura do bóson de Higgs a partir da fusão de bósons vetoriais no Experimento CMS / Higgs search from vector bosons fusion at CMS Experiment.

Jordan Martins 30 November 2010 (has links)
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / O presente trabalho tem por finalidade determinar a luminosidade necessária para se impor um limite para exclusão e a signifucância para evidência e descoberta para um bóson de Higgs de mH = 200 GeV no canal qqH → ZZ → 4. Também, apresenta-se uma crítica a qualidade da relação sinal/fundo em eventos de fusão de bósons vetoriais conhecida da literatura atual. / This analysis aims to determine the luminosity required to impose an exclusion limit and significance for evidence and discovery for a Higgs boson of mH = 200 GeV on the channel qqH → ZZ → 4. Also, it presents a critical to the quality of the relation signal/background in vector boson fusion events known form the current literature.
50

Analyse de la production de Upsilon dans les collisions pp à 7 TeV avec le spectromètre à muons de l'expérience ALICE / Analysis of Upsilon production in pp collisions at 7 TeV with the ALICE Muon Spectrometer

Ahn, Sang Un 05 December 2011 (has links)
Résumé indisponible / Résumé indisponible

Page generated in 0.0784 seconds