• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 393
  • 163
  • 31
  • 22
  • 15
  • 10
  • 7
  • 7
  • 5
  • 4
  • 1
  • 1
  • Tagged with
  • 716
  • 387
  • 328
  • 191
  • 182
  • 166
  • 158
  • 146
  • 144
  • 138
  • 136
  • 117
  • 114
  • 110
  • 105
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
91

Event-by-event Hydrodynamics for LHC / Hidrodinâmica Evento-por-evento para o LHC

Meera Vieira Machado 06 August 2015 (has links)
We perform an event-by-event hydrodynamic analysis for Pb-Pb collisions at the incident energy of sqrt(sNN) = 2.76TeV, also studying the effects of two equations of state under the same initial conditions and freeze-out scenario: one characterized by a critical point and the other based on Lattice QCD (Quantum Chromodynamics) calculations. The observables of interest are particle spectra in terms of pseudorapidity and transverse momentum, as well as flow harmonics, which are coefficients that carry information on the initial anisotropies of the system throughout its evolution. Those are computed and compared with experimental Large Hadron Collider (LHC) data. There are slight differences in the results for each equation of state, caused by their distinct features. Lastly, the LHC-based calculations are compared with previous works related to the Relativistic Heavy-Ion Collider (RHIC) experimental data. The main techniques of the latter are performed in this work, which results in differences between some aspects in the outcome for each collision type, from initial energy distributions to freeze-out temperatures. / É feita uma análise de hidrodinâmica evento-por-evento para colisões de Pb-Pb à energia incidente de sqrt(sNN) = 2.76TeV. Estudamos os efeitos de duas equações de estado sob as mesmas condições iniciais e desacoplamento: uma é caracterizada por um ponto crítico e a outra é baseada em cálculos de Lattice QCD (Cromodinâmica Quântica). Os observáveis de interesse são os espectros de partículas em termos da pseudo rapidez e momento transversal, assim como os coeficientes harmônicos de Fourier que, por sua vez, carregam as anisotropias iniciais do sistema durante toda a sua evolução. Tais observáveis são calculados e comparados com dados experimentais do Large Hadron Collider (LHC). Por fim, os cálculos baseados em parâmetros referentes às energias do LHC são comparados com trabalhos anteriores feitos com base em dados experimentais do Relativistic Heavy-Ion Collider (RHIC). Os principais métodos usados no caso anterior são aplicados a este trabalho, o que resulta em algumas diferenças entre os resultados dos dois tipos de colisão, desde a distribuição de energia inicial a temperaturas de freeze-out.
92

Estudo do impacto do empilhamento em eventos na difração simples dura no CMS/LHC / Study on the pile-up impact in the variables commonly used to identify hard single diffractive events

Eliza Melo da Costa 22 December 2009 (has links)
Fundação de Amparo à Pesquisa do Estado do Rio de Janeiro / Apresenta-se neste trabalho um estudo sobre o impacto do empilhamento de eventos (pile-up), nas distribuições das variáveis comumente utilizadas para identificar eventos difrativos, na topologia de difração dura simples produzindo dijatos, nas condições do CMS para baixa luminosidade (2 x 1033 cm -2 s-1). O cenário de baixa luminosidade citado acima equivale aproximadamente a 5 eventos de pile-up em média por cruzamento de pacotes. Para simular o sinal, difrativos (com e sem pile-up), usamos o gerador POMWIG (1). Para os eventos não-difrativos (com e sem pile-up), utilizamos o gerador PYTHIA (2),bem como para a produção dos eventos de pile-up (eventos simulados utilizando eventos de minimum bias). / We present here a study on the pile-up impact in the variables commonly used to identify diffractive events, the topology of single diffraction producing hard jets in the CMS conditions for low luminosity (2 X 1033 cm -2 s-1). The low luminosity scenario mentioned above is equivalent to approximately 5 pile-up events on average by crossing packages. To simulate the signal, diffractive events (with and without pile-up), we use the generator POMWIG(1). For the non-diffractive events (with and without pile-up), we use generator PYTHIA(2), and for the production of events of pile-up as well (events simulated using minimum bias events).
93

Estudo dos processos de dijatos exclusivos a √s = 7 TeV no CMS/LHC / Exclusivity dijets production at √s = 7 TeV on CMS/LHC

Eliza Melo da Costa 24 May 2013 (has links)
Fundação de Amparo à Pesquisa do Estado do Rio de Janeiro / Este trabalho apresenta um estudo sobre a produção de dijatos exclusivos em interações pp, do tipo pp → p "+" dijatos "+" p, onde os prótons desta interação permanecem intactos, e o símbolo "+" indica uma lacuna na pseudorapidez, uma região com ausência de atividade hadrônica entre os prótons espalhados e o sistema central de dijatos; este processo é conhecido como produção central exclusiva. A análise utiliza uma amostra de dados que corresponde a uma luminosidade efetiva de 24;48 pb-1 coletados pelo experimento Compact Muon Solenoid (CMS) no Large Hadron Collider (LHC), no ano de 2010, com energia de centro de massa √s = 7 TeV. Este canal possui uma assinatura experimental única, caracterizada pelos prótons espalhados na região frontal, ou a baixos ângulos e duas grandes lacunas opostas. O processo da produção central exclusiva é útil para o entendimento das interações no contexto da QCD. / This work presents a study about the exclusive dijets production in pp interactions of type pp → p "+" dijets "+" p, where the protons this interaction remain intact, and the symbol "+" denotes a gap in pseudorapidity, a region with no hadronic activity between the scattered protons and the central dijets system, this process is known as central exclusive production. The analysis uses a data sample corresponding to effective luminosity of 24:48 pb -1 collected by the experiment Compact Muon Solenoid (CMS) at Large Hadron Collider (LHC), in 2010, with center of mass energy of √s = 7 TeV. This channel has a experimental signature unique, characterized by scattered protons in the frontal region or low angles and two large gaps opposite. The central exclusive production process is useful for understanding the interactions in the context of QCD.
94

Identification of LHC beam loss mechanism : a deterministic treatment of loss patterns / Identification des mécanismes de perte de faisceau au LHC : un traitement déterministe des structures de pertes

Marsili, Aurélien 21 November 2012 (has links)
Le Large Hadron Collider (LHC) du CERN, avec un périmètre de 26,7 km, est la plus grande machine jamais construite et l'accélérateur de particules le plus puissant, à la fois par l'énergie des faisceaux et par leur intensité. Les aimants principaux sont supraconducteurs, et maintiennent les particules en deux faisceaux circulants à contre-sens, qui entre en collision en quatre points d'interaction différents. Ces aimants doivent être protégés contre les pertes de faisceau : ils peuvent subir une transition de phase et redevenir résistifs, et peuvent être endommagés. Pour éviter cela, des moniteurs de pertes de faisceau, appelés Beam Loss Monitors (BLM) ont été installés. Si les seuils de pertes maximum autorisées sont dépassés, les faisceaux sont rapidement enlevés de la machine. Les détecteurs du système BLM sont en majorité des chambres d'ionisation situées à l'extérieur des cryostats. Au total, plus de 3500 chambres d'ionisation sont installées. Les difficultés supplémentaires comprennent la grande amplitude dynamique des pertes : les courants mesurés s'échelonnent de 2 pA jusqu'à 1 mA. Le sujet de cette thèse est d'étudier les structures de pertes et de trouver l'origine des pertes de façon déterministe, en comparant des profils de pertes mesurés à des scénarios de pertes connus. Ceci a été effectué par le biais d'une étude de cas : différentes techniques ont été utilisées sur un ensemble restreint de scénarios de pertes, constituant une preuve de concept de la possibilité d'extraire de l'information d'un profil de pertes. Trouver l'origine des pertes doit pouvoir permettre d'agir en conséquence, ce qui justifie l'intérêt du travail doctoral. Ce travail de thèse se focalise sur la compréhension de la théorie et la mise en place de la décomposition d'un profil de pertes mesuré en une combinaison linéaire des scénarios de référence; sur l'évaluation de l'erreur sur la recomposition et sa validité. Un ensemble de scénarios de pertes connus (e.g. l'augmentation de la taille du faisceau dans les plans vertical et horizontal ou la différence d'énergie lors de mesures de profils de pertes) ont été réunis, permettant l'étude et la création de vecteurs de référence. Une technique d'algèbre linéaire (inversion de matrice), l'algorithme numérique de décomposition en valeurs singulières (SVD), a été utilisé pour effectuer cette décomposition vectorielle. En outre, un code spécifique a été développé pour la projection vectorielle sur une base non-orthogonale d'un sous-espace vectoriel. Ceci a été mis en place avec les données du LHC. Ensuite, les outils de décomposition vectorielle ont été systématiquement utilisés pour étudier l'évolution temporelle des pertes : d'abord par la variation d'une seconde à l'autre, puis par différentes comparaisons avec un profil de pertes par défaut calculé pour l'occasion. Puis, les résultats des décompositions ont été calculés pour les pertes à chaque seconde des périodes de ''faisceaux stables'' de l'année 2011, pour l'étude de la distribution spatiale des pertes. Les résultats obtenus ont été comparés avec les mesures d'autres instruments de faisceau, pour permettre différentes validations. En conclusion, l'intérêt de la décomposition vectorielle est présenté. Ensuite, l'annexe A, décrit le code développé pour permettre l’accès aux données des BLMs, pour les représenter de façon utilisable, et pour les enregistrer. Ceci inclus la connexion à différentes bases de données. L'instrument utilise des objets ROOT pour envoyer des requêtes SQL aux bases de données ainsi que par une interface Java, et est codé en Python. Un court glossaire des acronymes utilisés dans cette thèse est disponible à la fin du document, avant la bibliographie. / CERN's Large Hadron Collider (LHC) is the largest machine ever built, with a total circumference of 26.7 km; and it is the most powerful accelerator ever, both in beam energy and beam intensity. The main magnets are superconducting, keeping the particles into two counter circulating beams, which collide in four interaction points. CERN and the LHC will be described in chap. 1. The superconducting magnets of the LHC have to be protected against particle losses. Depending on the number of lost particles, the coils of the magnets will become normal conducting and/or will be damaged. To avoid these events a beam loss monitoring (BLM) system was installed to measure the particle loss rates. If the predefined safe thresholds of loss rates are exceeded, the beams are directed out of the accelerator ring towards the beam dump. The detectors of the BLM system are mainly ionization chambers located outside of the cryostats. In total, about 3500 ionisation chambers are installed. Further challenges include the high dynamical range of losses (chamber currents ranging between 2 pA and 1 mA). The BLM system will be further described in chap. 2. The subject of this thesis is to study the loss patterns and find the origin of the losses in a deterministic way, by comparing measured losses to well understood loss scenarios. This is done through a case study: different techniques were used on a restrained set of loss scenarios, as a proof of concept of the possibility to extract information from a loss profile. Finding the origin of the losses should allow acting in response. A justification of the doctoral work will be given at the end of chap. 2. Then, this thesis will focus on the theoretical understanding and the implementation of the decomposition of a measured loss profile as a linear combination of the reference scenarios; and the evaluation of the error on the recomposition and its correctness. The principles of vector decomposition are developed in chap. 3. An ensemble of well controlled loss scenarios (such as vertical and horizontal blow-up of the beams or momentum offset during collimator loss maps) has been gathered, in order to allow the study and creation of reference vectors. To achieve the Vector Decomposition, linear algebra (matrix inversion) is used with the numeric algorithm for the Singular Value Decomposition. Additionally, a specific code for vector projection on a non-orthogonal basis of a hyperplane was developed. The implementation of the vector decomposition on the LHC data is described in chap. 4. After this, the use of the decomposition tools systematically on the time evolution of the losses will be described: first as a study of the variations second by second, then by comparison to a calculated default loss profile. The different ways to evaluate the variation are studied, and are presented in chap. 5. The next chapter (6) describes the gathering of decomposition results applied to beam losses of 2011. The vector decomposition is applied on every second of the ``stable beans'' periods, as a study of the spatial distribution of the loss. Several comparisons of the results given by the decompositions with measurements from other LHC instruments allowed different validations. Eventually, a global conclusion on the interest of the vector decomposition is given. Then, the extra chapter in Appendix A describes the code which was developed to access the BLM data, to represent them in a meaningful way, and to store them. This included connecting to different databases. The whole instrument uses ROOT objects to send SQL queries to the databases, as well as java API, and is coded in Python. A short glossary of the acronyms used here can be found at the end, before the bibliography.
95

Mesure du rapport des sections efficaces des bosons W et Z produits en association avec un jet dans les collisions proton-proton a √ s=7 TeV avec le detcteur ATLAS / Measurement of the ratio of the W and Z cross sections with exactly one associated jet in pp collisions at √ s=7 TeV with ATLAS

Xu, Chao 05 June 2012 (has links)
Dans cette thèse la mesure du rapport des sections efficaces de production de bosons W et Z en association avec un jet au LHC est effectuée.Le rapport des sections efficaces est mesuré à l'aide des données issues de collisions proton-proton au LHC à une énergie dans le centre de masse de 7 TeV, recueillies par l'expérience ATLAS en 2010, correspondant à une luminosité intégrée d'environ 40 pb-1. L'analyse est effectuée à l’aide de bosons W et Z se désintégrant dans le canal muon.Il s'agit de la première mesure du rapport des taux de production de bosons W et Z associés à un jet réalisée à une si haute énergie dans le centre de masse, la mesure est la également la première effectuée au LHC. Cette mesure constitue un test très important des calculs théoriques perturbatifs et tire avantage des annulations partielles ou totales de diverses incertitudes expérimentales.La mesure sert aussi pour les recherches de nouveaux phénomènes de physique au LHC à contraindre les bruits de fonds ayant les mêmes signatures topologiques.La valeur du rapport de mesuré est présentée en fonction de différents seuils d’impulsion transverse de jet cumulatifs et est trouvé, a l’intérieur de la précision statistique, en bon accord avec prédictions pertubatives de QCD aux LO et NLO. / In this thesis an investigation of the ratio of the production cross section of W and Z bosons in association with one jet at LHC is performed.The cross-section ratio is measured with LHC proton-proton collision data at a center-of-mass energy of 7 TeV, collected by the ATLAS experiment in 2010, corresponding to an integrated luminosity of approximately 40 pb-1. The analysis is performed selecting W and Z bosons decaying in the muon channel.It is the first time the ratio of W and Z bosons production associated with one jet is measured at such a high center-of-mass energy, the measurement is the first one at the LHC. This measurement constitutes a very important test of perturbative theoretical calculations based on the advantage of the partial and full cancellations of various uncertainties.It also serves as constraining backgrounds with similar topological signatures in the search for new physics phenomena at the LHC. The measured ratio value is presented as a function of cumulative jet transverse momentum thresholds and found, within statistical precision, to agree well with perturbative LO and NLO QCD predictions.
96

Sélection des électrons et recherche du boson de Higgs se désintégrant en paires de leptons tau avec l'expérience CMS au LHC / Electron selection and search for the Higgs boson decaying into tau leptons pairs with the CMS detector at the LHC

Daci, Nadir 30 October 2013 (has links)
Cette thèse s'inscrit dans le contexte des premières années d'exploitation du Large Hadron Collider (LHC). Cet appareil monumental a été construit dans le but d'explorer la physique de l'infiniment petit à l'échelle du TeV. Un des objectifs majeurs du LHC est la recherche du boson de Higgs. Sa découverte validerait le mécanisme de brisure de symétrie électrofaible, au travers duquel les bosons W et Z acquièrent leur masse. L'expérience Compact Muon Solenoid (CMS) analyse les collisions de protons du LHC. Leur fréquence élevée (20 MHz) permet d'observer des phénomènes rares, comme la production et la désintégration d'un boson de Higgs, mais elle nécessite alors une sélection rapide des collisions intéressantes, par un système de déclenchement. Les ressources informatiques disponibles pour le stockage et l'analyse des données imposent une limite au taux de déclenchement : la bande passante, répartie entre les différents signaux physiques, doit donc être optimisée. Dans un premier temps, j'ai étudié le déclenchement sur les électrons : ils constituent une signature claire dans l'environnement hadronique intense du LHC et permettent à la fois des mesures de haute précision et la recherche de signaux rares. Ils font partie des états finaux étudiés par un grand nombre d'analyses (Higgs, électrofaible, etc.). Dès les premières collisions en 2010, la présence de signaux anormaux dans l'électronique de lecture du calorimètre électromagnétique (ECAL) constituait une source d'augmentation incontrôlée du taux de déclenchement. En effet, leur taux de production augmentait avec l'énergie et l'intensité des collisions : ils étaient susceptibles de saturer la bande passante dès 2011, affectant gravement les performances de physique de CMS. J'ai optimisé l'algorithme d'élimination de ces signaux en conservant une excellente efficacité de déclenchement sur les électrons, pour les prises de données en 2011. D'autre part, l'intensité croissante des collisions au LHC fait perdre leur transparence aux cristaux du ECAL, induisant une inefficacité de déclenchement. La mise en place de corrections hebdomadaires de l'étalonnage du système de déclenchement a permis de compenser cette inefficacité. Dans un second temps, j'ai participé à la recherche du boson de Higgs dans son mode de désintégration en deux leptons tau. Cette analyse est la seule qui puisse actuellement vérifier le couplage du boson de Higgs aux leptons. Le lepton tau se désintégrant soit en lepton plus léger (électron ou muon), soit en hadrons, six états finaux sont possibles. Je me suis concentré sur les états finaux semi-leptoniques (électron/muon et hadrons), où la signification statistique du signal est maximale. Les algorithmes de déclenchement dédiés à cette analyse sélectionnent un lepton (électron ou muon) et un « tau hadronique » d'impulsions transverses élevées. Cependant, cette sélection élimine la moitié du signal, ce qui a motivé la mise en place d'algorithmes sélectionnant des leptons de basse impulsion, incluant une coupure sur l'énergie transverse manquante. Celle-ci limite le taux de déclenchement et sélectionne des évènements contenant des neutrinos, caractéristiques des désintégrations du lepton tau. Les distributions de masse invariante des processus de bruit de fond et de signal permettent de quantifier la compatibilité entre les données et la présence ou l'absence du signal. La combinaison de l'ensemble des états finaux conduit à l'observation d'un excès d'évènements sur un large intervalle de masse. Sa signification statistique vaut 3,2 déviations standard à 125 GeV ; la masse du boson mesurée dans ce canal vaut 122 ± 7 GeV. Cette mesure constitue la toute première évidence d'un couplage entre le boson de Higgs et le lepton tau. / This thesis fits into the first operating years of the Large Hadron Collider. This monumental machine was built to explore the infinitesimal structure of matter at the multi-TeV scale. The LHC aimed primarily at searching for the Higgs boson, the discovery of which would confirm the electroweak symmetry breaking model. This mechanism, which provides W and Z bosons with a mass, describes the transition from a unified electroweak interaction to a weak interaction (short range) and an electromagnetic interaction (infinite range). The LHC's proton collisions, operated at a 50 ns period, are analysed by 4 large detectors, including the Compact Muon Solenoid (CMS). This small period allows to observe very rare phenomena, such as the Higgs boson production and decay, but it requires a fast online selection of the interesting collisions: the trigger system. The computing resources available for the data's storage and analysis set a limit to the trigger rate. Therefore the bandwidth, which is split into several physics signals, must be optimised. Firstly, I studied the electron trigger: electrons are a clear signature in the intense hadronic environment within the LHC and allow a high measurement accuracy, as well as a search for rare signals. Besides, they are part of the final states investigated by a large number of analyses (Higgs, electroweak, etc). From the first collisions in 2010, anomalous signals in the CMS electromagnetic calorimeter (ECAL) were a source of uncontrolled trigger rate increase. Indeed, their production rate increased along with the collisions' energy and intensity: they were likely to saturate the bandwidth as early as 2011, crippling drastically the CMS physics performances. I optimised the anomalous signal rejection algorithm, while conserving an excellent electron triggering efficiency, as regards the data collected in 2011. Moreover, the increasing intensity of the LHC collisions causes a loss of transparency in the ECAL crystals. The setting-up of weekly corrections to the ECAL trigger calibration helped make up for the inefficiency caused by this loss of transparency. Secondly, I contributed to the search for the Higgs boson decaying to 2 tau leptons. So far, this analysis proved to be the only possible method to check the coupling of the Higgs boson to leptons. The tau lepton decays either into lighter leptons (electron or muon), or into hadrons: hence the study of six final states. I focused on the semileptonic final states, in which the expected signal is the most statistically significant. The trigger algorithms dedicated to this analysis select a lepton and a hadronic tau, with high transverse momenta. However, this selection removes half of the signal, which motivated the elaboration of new algorithms selecting low momenta leptons, including a cut on the missing transverse energy. This cut helps controlling the trigger rate and selects events containing neutrinos, which are a distinguishing feature of the tau lepton decay. The invariant mass distributions for all background and signal processes allow to quantify the compatibility between the acquired data and the presence of a signal. The combination of all final states leads to the observation of an excess of events over a large mass range. Its statistical significance is 3,2 standard deviations at 125 GeV ; the boson mass measured in this channel is 122 ± 7 GeV. This measurement is the first evidence for a coupling between the Higgs boson and the tau lepton.
97

Measure de la section efficace de production de paires de quarks, top-antitop à l’aide des premières donnees du détecteur ATLAS auprès du LHC / Measurement of Top Pair Production Cross-Section in l + jets Channels in ATLAS at 7 TeV

Yu, Jie 15 May 2011 (has links)
Le but de la thèse est de mesurer la section efficace de production de quarks top-antitop dans le canal lepton + jets dans l'expérience ATLAS au Grand collisionneur de hadrons (LHC). L'analyse utilise les données des collisions proton-proton à 7 TeV collectées en 2010 avec une luminosité intégrée de 33,7 pb-1. La sélection des événements est basée sur la signature de la topologie top-antitop avec 1 électron ou muon, une grande énergie transverse manquante et au moins 4 jets. Le fond QCD multijets est mesuré avec les données elles-mêmes par une "Méthode Matricielle". Trois méthodes sont utilisées pour mesurer le fond W+jets, la méthode d’asymétrie de charge, la méthode de Berends-Giele et une méthode combinant les deux précédentes. Les autres bruits de fond sont estimés à partir MC. Le nombre d'événements de signal top-antitop est obtenu en ajustant la distribution du nombre de jets étiquetés b, en mesurant simultanément l'efficacité d‘étiquetage des quarks b. La section efficace top-antitop est mesurée à 148,1±34,9 pb. Elle est compatible avec la prédiction du Modèle Standard à l’ordre NNLO calculée par le logiciel Hathor. Elle est également en accord avec les mesures par d'autres méthodes. Avec plus de données sur les collisions en 2011, on peut s'attendre à une mesure plus précise de la section efficace top-antitop. / The essential purpose of the thesis is to measure the top pair cross section in lepton+jets channels in the Atlas experiment at Large Hadron Collider (LHC). The analysis is using the proton-proton collision data at 7 TeV collected in 2010 with a luminosity of 33.7 pb-1. The event selection is based on the signature of ttbar topology with 1 electron or muon, large missing transverse energy and at least 4 jets. The QCD multijet background is measured with the data driven “Matrix Method”. Three data driven methods are applied to measure the W+jets background, the charge asymmetry method, the Berends Scaling method and the method combining both. Other backgrounds are estimated from MC.The number of signal ttbar events are obtained by fitting the distribution of the number of b-tagged jet, when the b-tagging efficiency is simultaneously fitted. The ttbar cross section is measured to be 148.1±34.9 pb. It is consistent with the Standard Model prediction at NNLO calculated by Hathor tool. It also agrees with the measurements from other methods. With more collision data in 2011, one can expect a more precise measurement on ttbar cross section.
98

Contributions à une première mesure de la masse du boson W dans le canal électronique auprès du détecteur ATLAS / Contributions to a first measurement of the W-boson mass in the electron channel with the ATLAS detector

Hanna, Rémie 29 September 2015 (has links)
Dans ce document, je présente mes contributions à une première mesure de la masse du boson W au LHC, exploitant 4.7 fb⁻¹ de données à 7 TeV, collectées en 2011. Je me concentre surtout sur le canal électronique, W → eν. Dans la première partie, j’aborde des études de performance du calorimètre électromagnétique d’ATLAS, proposant une méthode innovante de correction des profils latéraux de dépôt d'énergie des électrons. Des études de différentes versions de Geant4 sont également abordées. Dans la deuxième partie, je détaille mes contributions après avoir introduit la méthode globale de mesure de la masse du boson W adoptée par ATLAS : je présente dans un premier temps le calcul d’incertitudes systématiques introduites par la modélisation des gerbes de partons dans Pythia8, et une optimisation de l’intervalle d’ajustement en utilisant l’impulsion transverse du lepton, dans le but de réduire les incertitudes correspondantes. Dans un deuxième temps, je présente une estimation de bruit de fond provenant de jets de partons, dans le canal W → eν, en développant une méthode basée sur les données, ainsi que les résultats correspondants, en termes de nombre d’événements et de fractions par rapport aux données. Les incertitudes sur la masse du W provenant de cette méthode sont aussi détaillées. Enfin, un état de l’art de l’analyse est montré, en détaillant les incertitudes dans le canal électronique, en fonction de la pseudo-rapidité et du bruit d’empilement. / In this document, I present my contributions to a first measurement of the W-mass in the LHC using 4.7 fb⁻¹ of 7 TeV data, taken in 2011. I focus on the electron decay channel, W → eν. In the first part, I discuss a study regarding the performance of the electromagnetic calorimeter of the ATLAS detector, presenting a novel method to correct the lateral profiles of electron energy deposit, along with various studies of the different Geant4 physics lists versions. In the second part, I introduce the global methodology for the W-mass measurement used in ATLAS, and discuss my contributions in details. I show in a first step the assessment of uncertainties coming from the parton shower modeling in Pythia8, and the optimization of the lepton's transverse momentum fitting range in order to reduce the systematic uncertainty. In a second step, I present an elaborate data-driven method for the estimation of the multijet background in the W → eν channel, as well as the corresponding results in terms of event yields and fractions with respect to the signal data. The corresponding uncertainties on the W-mass are also shown. Finally, I show the state of the art of the analysis, by gathering the full breakdown of the uncertainties, in bins of pseudorapidity and average pileup.
99

Varumärkesutveckling inom Linköpings Hockey Club : Ur ett sponsorperspektiv / Brand development in Linköpings Hockey Club : A sponsorship view

Johansson, Thomas, Jonsson, Alexandra, Johansson, Camilla January 2006 (has links)
The main question in this thesis has been to see how the brand strategy of Linköpings Hockey Club has changed during the years in the Swedish elite league. We will also look at the content of the brand, as well as the association as the city of Linköping. This thesis will also see the sponsorship view of the development of the brand, because of the sponsorship power to help the association to build and strengthen the brand. We have been interviewing important persons at the association Linköpings Hockey Club and also done interviews with a few sponsorship partners to get important information to analyze. As an association it is of outmost importance to disseminate the association’s image in the right way, which Linköpings Hockey Club has according to their sponsorship partners. The association has during the last years been working hard to take care of and strengthen the brand, which can be seen among the sponsorship partners. The way they have been strengthening the brand can be seen on the basis of different aspects, such as events and collaboration on different levels. / I uppsatsen har vi valt att utgå från frågeställningen hur varumärkesstrategin inom Linköpings Hockey Club har förändrats under åren i elitserien. Vi kommer även att se på innehållet i varumärket, såväl för föreningen som för Linköping som kommun. Uppsatsen kommer även att ta in sponsorers synvinkel på föreningens utveckling av varumärket, detta eftersom sponsorerna är av stor vikt för att såväl kunna stärka som bygga varumärket på ett bra sätt. För att få fram ett material att analysera har intervjuer gjorts hos Linköpings Hockey Club med relevanta personer samt att ett antal enkäter gått ut till utvalda sponsorer vilka vi även intervjuat personligen. Det gäller för en idrottsförening att se till att få ut den tänkta imagen på rätt sätt, vilket Linköpings Hockey Club anses har gjort i samarbetspartnernas ögon. Linköpings Hockey Club har under de senaste åren aktivt jobbat med att stärka och vårda sitt varumärke, vilket märks bland annat vid kontakten med sponsorerna. Sättet de stärkt det på kan ses utifrån olika aspekter, såsom olika evenemang och samarbeten på olika plan. För ett idrottslag är det väldigt viktigt att skapa ett starkt varumärke eftersom det drar såväl sponsorer, publik som nya spelare till sig. Även ekonomin kan ses som en viktig aspekt för att lyckas få ut sitt varumärke. Den utvidgning som föreningen gjort i och med Linköpings Fotbolls Club har de gjort på ett bra sätt, vilket kan vara en bidragande orsak till att varumärket har stärkts på marknaden och även fungerar som en bidragande faktor till att invånarna i Linköping blir mer medvetna om LHC: s image.
100

Varumärkesutveckling inom Linköpings Hockey Club : Ur ett sponsorperspektiv / Brand development in Linköpings Hockey Club : A sponsorship view

Johansson, Thomas, Jonsson, Alexandra, Johansson, Camilla January 2006 (has links)
<p>The main question in this thesis has been to see how the brand strategy of Linköpings Hockey Club has changed during the years in the Swedish elite league. We will also look at the content of the brand, as well as the association as the city of Linköping. This thesis will also see the sponsorship view of the development of the brand, because of the sponsorship power to help the association to build and strengthen the brand.</p><p>We have been interviewing important persons at the association Linköpings Hockey Club and also done interviews with a few sponsorship partners to get important information to analyze.</p><p>As an association it is of outmost importance to disseminate the association’s image in the right way, which Linköpings Hockey Club has according to their sponsorship partners. The association has during the last years been working hard to take care of and strengthen the brand, which can be seen among the sponsorship partners. The way they have been strengthening the brand can be seen on the basis of different aspects, such as events and collaboration on different levels.</p> / <p>I uppsatsen har vi valt att utgå från frågeställningen hur varumärkesstrategin inom Linköpings Hockey Club har förändrats under åren i elitserien. Vi kommer även att se på innehållet i varumärket, såväl för föreningen som för Linköping som kommun. Uppsatsen kommer även att ta in sponsorers synvinkel på föreningens utveckling av varumärket, detta eftersom sponsorerna är av stor vikt för att såväl kunna stärka som bygga varumärket på ett bra sätt.</p><p>För att få fram ett material att analysera har intervjuer gjorts hos Linköpings Hockey Club med relevanta personer samt att ett antal enkäter gått ut till utvalda sponsorer vilka vi även intervjuat personligen.</p><p>Det gäller för en idrottsförening att se till att få ut den tänkta imagen på rätt sätt, vilket Linköpings Hockey Club anses har gjort i samarbetspartnernas ögon. Linköpings Hockey Club har under de senaste åren aktivt jobbat med att stärka och vårda sitt varumärke, vilket märks bland annat vid kontakten med sponsorerna. Sättet de stärkt det på kan ses utifrån olika aspekter, såsom olika evenemang och samarbeten på olika plan. För ett idrottslag är det väldigt viktigt att skapa ett starkt varumärke eftersom det drar såväl sponsorer, publik som nya spelare till sig. Även ekonomin kan ses som en viktig aspekt för att lyckas få ut sitt varumärke. Den utvidgning som föreningen gjort i och med Linköpings Fotbolls Club har de gjort på ett bra sätt, vilket kan vara en bidragande orsak till att varumärket har stärkts på marknaden och även fungerar som en bidragande faktor till att invånarna i Linköping blir mer medvetna om LHC: s image.</p>

Page generated in 0.0252 seconds