631 |
Pokročilé kompozitní konstrukční oceli pro použití v taveninách těžkých kovů / Advanced Composite Structural Steels for Applications in Heavy Liquid MetalsHusák, Roman January 2019 (has links)
Doctoral thesis was focused on preparing of new advanced ODS steels for use in heavy metal liquids enviroments. Possibility of new course for creating oxide dispersion in microstructure was verified by the course of internal oxidation of elements. By the internal oxidation method were prepared new ODS steels strengthened by complex oxides which were created by elements of IIIB and IVB group of elements. Based on analysis of damage ODS steels in LBE were designed surface protection of ODS steel by the oxide layer. The ODS steel protected by oxide layer was subjected to a corrosion test in LBE. For the experiments were chosen class of chromium steels: ferritic-martensitic steel 9Cr1WMnVTa and ferritic steels 14CrWTi and 17Cr1Mo. Steels without oxide dispersion and steel strenghtened by the dispersion based on Y-Ti-O oxides were prepared. On the steels were made series of mechanic tests which should reveal the effectivity of oxide dispersion on the strenght of steel prepared by the internal oxidation method and by the direct addition of oxide elements. It was found that significantly harder oxide material couldn't be fully disrupted through the mechanical alloying and fine oxide dispersion couldn't be created. There was verified fine oxide dispersion could be created by the internal oxidation method and by the direct adding of oxide elements. Same kind of steels strenghtened by new kind of complex oxides based on Y, Ce, Hf, La, Sc and Zr were prepared. The chemical analyses have proven that all added elements could created complex oxide by the reaction with yttrium. The computational analyses for observing of matrix influence and oxide phase influence on strenghtening of steels were performed. These computational analyses were based on microstructural analyses of ODS steels. There was found that the oxide particles could very effectively improve strenght of steels at room temperature and especialy at high temperature. Based on corrosion tests of 14Cr ODS steel in liquid Pb and LBE enviroment were designed surface protection of ODS steel. The effectiveness of protective layer was verified by the high temperature corrosion test of PM2000 in LBE. No damage of oxide layer was observed although Pb and Bi diffused through protective layer.
|
632 |
Analysis of the Demonstrator Readout of the Liquid-Argon Calorimeter at the ATLAS DetectorHils, Maximilian 22 October 2020 (has links)
Die laufenden Aufrüstungsarbeiten des Large Hadron Colliders haben das Ziel, die Luminosität der Teilchenkollisionen zu erhöhen. Die erhöhte Luminosität liefert zwar neue Möglichkeiten für Präzisionsmessungen und Teilchensuchen, stellt aber gleichzeitig eine große Herausforderung an die beteiligten Experimente. Aus diesem Grund wird auch der ATLAS-Detektor aufgerüstet. Der Fokus ist dabei, eine hohe Effizienz des Triggers sicherzustellen, der die interessanten Physikereignisse in Echtzeit auswählt. Dafür wird das Flüssig-Argon-Kalorimeter des ATLAS-Detektors mit einer neuen Ausleseelektronik ausgerüstet.
Um die Funktionsfähigkeit zu testen, wurde ein Demonstrationsaufbau der zukünftigen Ausleseelektronik installiert und von 2014 bis 2018 parallel zur ATLAS- Datennahme betrieben. In dieser Arbeit werden die Daten, die mit dem Aufbau aufgezeichnet wurden, analysiert. Die neue Ausleseelektronik erlaubt es, komplexere Algorithmen zur Erkennung von Signal- und Untergrundereignissen zu nutzen. Es handelt sich dabei um Variablen zur Beschreibung der Form von elektromagnetischen und hadronischen Teilchenschauern im Flüssig-Argon-Kalorimeter. Die Effizienz dieser Variablen wird untersucht. Dabei wird nach Kombination mehrerer Variablen eine Untergrundunterdrückung hadronischer Jets von 75 % bei einer Elektronenerkennungseffizienz von 90 % erreicht.
Die zukünftige, erhöhte Luminosität führt dazu, dass sich bei Teilchenkollisionen die Zahl der Ereignisse, die sich sowohl zeitlich als auch räumlich überlappen, erhöht. Der Effekt dieser Überlappereignisse hat Auswirkungen auf die Energierekonstruktion. Daher wird eine Untersuchung der Überlappereignisse durchgeführt, um eine möglichst genaue Kenntnis über diese zu erhalten.
Für die Rekonstruktion aus den Signalen der im Detektor deponierten Energie stehen verschiedene digitale Signalfilter zur Auswahl. Die Performanz hinsichtlich der Signalerkennung dieser Algorithmen wird überprüft. Es zeigt sich, dass neue digitale Signalfilter zwar den Effekt des zeitlichen Überlapps von Detektorpulsen reduzieren, jedoch sehr sensitiv auf die genaue Pulsmodellierung sind. / The ongoing upgrade activities at the Large Hadron Collider aim for an increase of the luminosity in the particle collisions. The increased luminosity delivers new capabilities for precision measurements and searches for signatures of new physics. At the same time, challenges arise for the experiments. For this reason, the ATLAS detector is upgraded. The focus is on maintaining the high efficiency of the trigger that selects interesting physics events in real-time. Therefore, the Liquid-Argon calorimeter of the ATLAS detector is upgraded with new readout electronics.
To evaluate the performance, a demonstrator readout was installed and operated in parallel to the data taking of the main readout between 2014 and 2018. In this thesis, the data recorded with the demonstrator is analyzed. The new readout electronics allow more sophisticated algorithms to distinguish between signal and background events. They are based on variables that describe electromagnetic and hadronic showers. The proposed shower-shape variables are studied concerning their trigger efficiency and background rejection power. With a combination of the shower-shape variables, a background rejection power of 75 % for hadronic jets is achieved while keeping the electron trigger efficiency at 90 %.
The increase in luminosity will lead to an increase in in-time and out-of-time pile-up effects. These have an impact on the energy reconstruction. Therefore, pile-up events are investigated, to gain precise knowledge about their effects.
For the energy reconstruction of the detector signals, different digital filter algorithms are available. The signal detection efficiency of these algorithms is examined. While new filter algorithms are capable of reducing the effect of out-of-time pile-up, they depend greatly on the correct phase of the pulse shape.
|
633 |
Étude de la faisabilité d'une recherche de nouvelle physique dans l'expérience ATLAS à l'aide d'un auto-encodeur variationnelPilette, Jacinthe 04 1900 (has links)
Depuis la découverte du boson de Higgs en 2012, les physiciens et physiciennes des particules
tentent de trouver des signes de nouvelle physique. Bien que le modèle standard décrivant
les forces et particules aient été confirmé par les expériences telles que ATLAS au Grand
collisionneur de hadrons (LHC), ce modèle décrit seulement 5% de la matière de notre
Univers. Face à l’absence d’excès dans les recherches concentrées sur des modèles de nouvelle
physique, l’intelligence artificielle pourrait être la solution.
Ce mémoire s’inscrit dans une perspective novatrice de recherche générale de nouvelle
physique indépendante des modèles théoriques dans les données du détecteur ATLAS, par
l’utilisation de l’apprentissage machine. Ici, nous nous intéressons à l’application de réseaux
de neurones dans les données de simulation de collision proton-proton à \sqrt{s} = 13 TeV du
détecteur ATLAS. Nous étudierons la performance d’auto-encodeurs variationnels dans les
jets boostés, ces jets qui pourraient cacher des signes de nouvelle physique. Pour analyser
la performance de notre réseau, nous entraînons celui-ci sur les quadri-vecteurs de jets issus
de gluons et de quarks légers. Nous tentons de retrouver un signal test, les jets issus de
quarks top boostés, dans les données de simulation en effectuant des sélections sur les scores
d’anomalie retournés par le réseau.
Nos modèles d’auto-encodeurs variationnels atteignent une bonne discrimination entre
le bruit de fond et le signal du quark top. Nous devrons toutefois améliorer le rejet du bruit
de fond pour purifier notre signal en fonction de nos sélections. / Since the discovery of the Higgs boson in 2012, particle physicists are searching for signs of new physics. Although the standard model describing forces and particles has been confirmed by experiments like ATLAS at the Large Hadron Collider (LHC), it only describes 5% of the matter of the universe. Facing the absence of excess in searches for new physics
model, artificial intelligence could be the solution. This master thesis is part of a novel general model-independent search for new physics in the ATLAS detector data using machine learning. Here, we are interested in the application of neural networks in \sqrt{s} = 13 TeV proton-proton collision ATLAS simulation data. We study the performance of variational auto-encoders in boosted jets, who might be hiding signs of new physics. To analyze our network performance, we train the network on jets four-vectors coming from gluons and light quarks. We try to find a test signal, boosted top quark jets, in our simulation data by applying selections on the anomaly scores returned by our network. Our variational auto-encoder reach a good discrimination between the background and the top quark signal. However, we need to improve background rejection to purify our signal as a function of our selections.
|
634 |
Search for neutral bosons decaying into the fully hadronic di-tau final state with the ATLAS detector at the LHCDuschinger, Dirk 26 April 2019 (has links)
This thesis presents a search for neutral bosons, such as new Higgs and Z' bosons, predicted by theories extending the Standard Model of particle physics. The search is performed in the di-tau analysis channel, where both tau leptons decay hadronically. Promising candidates of such theories are the Minimal Supersymmetric Standard Model (MSSM) and the non-universal G(221) model, which predict large couplings to tau leptons in large regions of their parameter space. Proton–proton collisions produced by the Large Hadron Collider (LHC) at a center-of-mass energy of 13 TeV, recorded with the ATLAS detector in 2015 and 2016, are analyzed for this search. The data correspond to an integrated luminosity of 36.1 fb^-1.
This search relies on sophisticated algorithms for the reconstruction of hadronic tau decays from their decay products. This thesis presents a novel approach employing multivariate techniques to significantly improve existing algorithms, which became the default for reconstruction of hadronic tau decays in ATLAS since 2017. Additionally, the new method can provide useful information
for subsequent tau identification algorithms.
The MSSM extends the Higgs sector of the Standard Model by four additional Higgs bosons. Of particular interest for this thesis are the neutral CP-even H and CP-odd A bosons. The search for these bosons is performed in the mass range of 0.2 TeV to 2.25 TeV in two orthogonal categories depending on the number of identified b-quarks, each preferring one of the two considered production modes via gluon–gluon fusion or b-associated production. The data are in good agreement with the Standard Model prediction. Upper limits are set on the cross-section times branching fraction using a confidence level (CL) of 95 % independently for both production modes. Most stringent observed limits are found for a resonance mass of 1.5 TeV to be 4.94 fb and 3.65 fb for gluon–gluon fusion and b-associated production, respectively. The results are further interpreted in the hMSSM, mhmax and mhmod scenarios. Observed upper limits in the hMSSM scenario on tanβ are found to be between 4.6 at mA = 0.25 TeV and 41.4 at mA = 1.5 TeV.
The search for additional Z' bosons is performed independently on the number of identified b-quarks in the mass range of 0.2 TeV to 4 TeV. As for the search for additional Higgs bosons no significant hint for new physics has been observed. 95 % CL observed upper limits are set on the cross-section times branching fraction for Z' bosons in the Sequential Standard Model (SSM) benchmark scenario between 20.5 pb at mZ' = 0.2 TeV and 7.74 fb at mZ' = 1.75 TeV.
The observed upper limit for the highest considered mass of mZ' = 4 TeV is found to be 16 fb. Z' bosons in the SSM and the non-universal G(221) model are excluded at 95 % CL for masses below 2353 GeV and 2232 GeV, respectively.
|
635 |
Dark Matter signals at the Large Hadron Collider with Deep LearningAndersson, Max, Glöckner, Edward, Löfkvist, Carl January 2023 (has links)
While holding a firm position in popular culture and science fiction, Dark Matter (DM) is nonetheless a highly relevant topic at the forefront of modern particle physics. We study the applicability of characterizing DM particle candidates SUSY neutralino and sneutrino using Deep Learning (DL) methods. We focus on the monojet and mono-Z signatures and the emergence of missing transverse energy as the result of the undetectable DM candidates. Based on kinematic distributions of outgoing particles as input, a DM candidate classifier is built for each signature, along with a DM mass regressor. The DM candidate classifier obtained near perfect accuracy of 0.995 for the monojet, and 0.978 for mono-Z signature. The monojet and mono-Z mass regressors achieved a Mean Absolute Percentage Error (MAPE) of 17.9 % and 8.5 % respectively. Furthermore, we discuss both the shortcomings and simplification that our choice of model implied, as well as an interpretation of the results. Finally, we debate the prospects of DL in the discovery of new physics and it's use in experiments.
|
636 |
Search for the Higgs boson decaying to a pair of muons with the CMS experiment at the Large Hadron ColliderDmitry Kondratyev (14228264) 08 December 2022 (has links)
<p>The CERN Large Hadron Collider (LHC) offers a unique opportunity to test the Standard Model of particle physics. The Standard Model predicts the existence of a Higgs boson and provides accurate estimates for the strength of the interactions of the Higgs boson with other particles. After the discovery of the Higgs boson, the measurement of its properties, such as its couplings to other particles, is of paramount importance. </p>
<p>The projects described in this thesis explore different aspects of one of such measurements – the search for the Higgs boson decay into a pair of muons (H→<em>μμ</em>), conducted by the CMS experiment at the LHC. This decay plays an important role in elementary particle physics, as it provides a direct way to measure the coupling of the Higgs boson to the muon. The first evidence of the H→<em>μμ</em> decay was reported in 2020 as a result of an elaborate statistical analysis of the dataset collected by the CMS experiment during Run 2 of the LHC (2016–2018). The observed (expected) upper limit on the signal strength modifier for this decay at 95% confidence level was found to be 1.93 (0.81), constituting the most precise measurement to date. </p>
<p>The details of this analysis, along with studies to establish possible directions for the development of the next iteration of the H→<em>μμ</em> analysis using Run 3 data, are discussed in this thesis. In addition, a novel machine learning-based algorithm for the muon high level trigger is presented, which ultimately improves the data-taking efficiency of the CMS experiment, and hence, helps to increase the sensitivity of future H→<em>μμ</em> searches. Finally, projections of the H→<em>μμ</em> search sensitivity to the data-taking conditions at the High-Luminosity Large Hadron Collider are presented, estimating the achievable precision for future measurements of the Higgs boson properties.</p>
|
637 |
Measuring physical properties of the W boson in 7 TeV proton-proton collisionsKillewald, Phillip 22 October 2010 (has links)
No description available.
|
638 |
Simulation Studies of Convolutional Neural Networks for the Real-Time Energy Reconstruction of ATLAS Liquid-Argon Calorimeter Signals at the High-Luminosity LHCBerthold, Anne-Sophie 06 June 2024 (has links)
Im Jahr 2026 beginnt im Rahmen der Phase-II Erweiterung der Ausbau des Large Hadron Colliders, damit dieser zukünftig mit dem bis zu 7.5-fachen seiner nominellen Luminosität betrieben werden kann. Der Beginn der Datenaufnahme für den sogenannten High-Luminosity Large Hadron Collider ist für 2029 vorgesehen. Durch die Erweiterung wird eine wesentliche Zunahme der Kollisionsrate und damit der Kollisionsdaten erwartet, welche die heutige Auffassung von Theorien jenseits des Standardmodells der Teilchenphysik verbessern wird. Zusammen mit der Steigerung interessanter Ereignisse werden jedoch auch Proton-Proton-Kollisionen mit meist niederenergetischen hadronischen Teilchen im Endzustand und damit Signalüberlappungen zunehmen. Am ATLAS-Experiment führt dies zu höheren Anforderungen an die Detektorelektronik und die Echtzeit-Datenverarbeitung. Für die Flüssig-Argon-Kalorimeter ist ein Austausch der gesamten Elektronik vorgesehen. Studien konnten zeigen, dass der Optimalfilter, der derzeit zur Energierekonstruktion eingesetzt wird, einen erheblichen Leistungsabfall verzeichnen wird. Eine zuverlässige Energieinformation ist jedoch essentiell, insbesondere auch für das Triggersystem.
Im Rahmen dieser Arbeit wurden sogenannte Faltungsnetzwerke für die Rekonstruktion von Energiedepositionen in Flüssig-Argon-Kalorimeterzellen entwickelt. Da diese auf Field Programmable Gate Arrays (FPGAs) mit strengen Ressourcenbeschränkungen implementiert werden sollen, müssen diese nicht nur eine hohe Rekonstruktionsgenauigkeit zeigen, sondern auch einen geringen Ressourcenverbrauch haben. Eine Hyperparametersuche wird präsentiert, die das Bestimmen geeigneter Netzwerkarchitekturen ermöglicht. Für das Trainieren und Testen von Faltungsnetzwerken wurden Daten mit realistischen Signalszenarien anhand der AREUS-Simulationssoftware generiert. Die verschiedenartigen Signalbedingungen und Leistungsanforderungen machen eine umfassende Untersuchung des Energierekonstruktionsalgorithmus erforderlich. Die Reproduzierbarkeit der Trainingsergebnisse der Faltungsnetzwerke stellt eine weitere Anwendungsvoraussetzung dar. Infolgedessen beschreibt diese Arbeit ein umfangreiches Qualifizierungsprozedere, welches für jedweden Energierekonstruktionsalgorithmus angewandt werden kann.
Die präsentierten Faltungsnetzwerke erfüllen die FPGA Ressourcenbeschränkungen und zeigen darüber hinaus essentielle Leistungsverbesserungen gegenüber dem Optimalfilter. Das Faltungsnetz mit der besten Leistung besteht aus zwei Schichten und nutzt Dilatation, um den einfließenden Signalbereich auszudehnen. Dies erlaubt dem Netzwerk, mehr Informationen von vergangenen Signalereignissen zu erhalten, während gleichzeitig die Zahl der Netzwerkparameter niedrig gehalten wird. Es wird gezeigt, dass das zweischichtige Faltungsnetzwerk Verbesserungen hinsichtlich Signaleffizienz und Energieauflösung, insbesondere für überlappende Signale, liefert. Des Weiteren wird die Robustheit gegenüber variierenden Signalankunftszeiten und sich verändernden Untergrundbedingungen vorgestellt, sowie die Erfüllung der Trainingsreproduzierbarkeit demonstriert.
Zusammengefasst beschreibt diese Arbeit die systematische Entwicklung und Erprobung von Faltungsnetzwerken für die Energierekonstruktion von Flüssig-Argon-Kalorimetersignalen am ATLAS-Detektor. In diesem Rahmen wurden allgemeine Qualifizierungskriterien erarbeitet, die das Potential der Faltungsnetzwerke gegenüber der aktuellen Methode, dem Optimalfilter, aufzeigen. / In 2026, the expansion of the Large Hadron Collider will begin as part of the Phase II extension so that it can be operated at up to 7.5 times its nominal luminosity in future. The start of data acquisition for the so-called High-Luminosity Large Hadron Collider is scheduled for 2029. The expansion is expected to significantly increase the collision rate and thus the collision data, which will improve the current understanding of theories beyond the standard model of particle physics. However, together with the increase in interesting events, proton-proton collisions with mostly low-energy hadronic particles in the final state and thus signal overlaps will also increase. At the ATLAS experiment, this will lead to higher demands on the detector electronics and real-time data processing. The entire electronics for the liquid argon calorimeters will be replaced. Studies have shown that the optimal filter, which is currently used for energy reconstruction, will experience a considerable drop in performance. However, reliable energy information is essential, especially for the trigger system.
As part of this work, so-called convolutional networks were developed for the reconstruction of energy depositions in liquid argon calorimeter cells. Since these are to be implemented on field programmable gate arrays (FPGAs) with strict resource constraints, they must not only show a high reconstruction accuracy but also have a low resource consumption. A hyperparameter search is presented, which enables the determination of suitable network architectures. For the training and testing of convolutional networks, data with realistic signal scenarios were generated using the AREUS simulation software. The different signal conditions and performance requirements necessitate a comprehensive investigation of the energy reconstruction algorithm. The reproducibility of the training results of the convolutional networks is a further application requirement. Consequently, this thesis describes a comprehensive qualification procedure that can be applied to any energy reconstruction algorithm.
|
639 |
Identification des électrons dans l'expérience ATLAS à l'aide de réseaux de neurones convolutifs entraînés dans les données expérimentalesDenis, Olivier 11 1900 (has links)
Ce mémoire s’inscrit dans une optique d’innovation dans le domaine de l’identification des électrons dans l’expérience ATLAS. ATLAS est l’un des quatre détecteurs principaux installés sur le plus puissant accélérateur de particules au monde, le LHC. Cette recherche pousse encore plus loin un projet s’intéressant à l’identification des électrons, qui sont presque omniprésents dans les analyses de la collaboration ATLAS, à l’aide de réseaux de neurones convolutifs. Le réseau entraîné avec des données de simulation de collision proton-proton à √s = 13 TeV dans ATLAS montrant déjà des résultats probants, ce mémoire investigue la possibilité d’entraîner le réseau avec des données expérimentales. D’abord, une étude des ensembles de données expérimentales et de simulation montre des différences entre les distributions des variables de haut niveau données en entrée au réseau de neurones. Ensuite, nous avons entraîné deux réseaux de neurones : un premier sur un échantillon où le bruit de fond principal, les saveurs légères, a été remplacé par des données expérimentales et un second, sur la simulation. Ces deux réseaux ont alors été validés sur l’échantillon contenant des données expérimentales. Les résultats préliminaires montrent que l’utilisation des données expérimentales améliore le rejet du bruit de fond de type saveur légère jusqu’à 1,4 fois par rapport au réseau de neurones entraîné sur la simulation et améliore jusqu’à 3,6 fois le rejet du bruit de fond combiné par rapport à l’algorithme de vraisemblance présentement utilisé dans ATLAS. / This memoir follows a perspective of innovation in the field of electron identification in the ATLAS experiment. ATLAS is one of the four major detectors installed on the LHC ring, the most powerful particle accelerator in the world. This research pushes the boundaries of an earlier project about identifying electrons, a particle which is almost ubiquitous in ATLAS analysis, using convolutional neural networks. Since the network trained with simulated data of proton-proton collisions at √s = 13 TeV in the ATLAS detector has already shown good results, this memoir investigates the possibility to train a convolutional network with real data. We first study the data samples and show that there are significant differences in the distribution of high level variables given as input to the neural network. We then train two neural networks : one of which the most prominent background, light flavour faking electrons, is replaced by real data in the training sample, and a second where the training sample is left untouched. These two networks are then validated on the sample containing real data light flavours. The preliminary results show that using real data to train our classifier improves the background rejection with respect to the light flavour background by a factor up to 1.4 in comparison with the Monte Carlo trained network. We also have an improvement with respect to the combined background by a factor up to 3.6 when comparing both networks to the Likelihood algorithm currently used in ATLAS.
|
640 |
Laser-induced surface structuring for electron cloud mitigation in particle acceleratorsBez, Elena 11 December 2024 (has links)
Die Bildung von Elektronenwolken durch die Multiplikation von Sekundärelektronen im Strahlrohr von Teilchenbeschleunigern kann während des Betriebs zu einer verringerten Leistung führen. Durch Ultrakurzpuls-Laserstrukturierung kann die Sekundärelektronenemission einer Oberfläche effizient reduziert werden. Im Rahmen dieser Arbeit wurde eine Lösung zur Unterdrückung der Elektronenvervielfachung durch Laserstrukturierung der aus Kupfer bestehenden Innenwände der Strahlrohre des Large Hadron Colliders (LHC) entwickelt, die technische Einschränkungen und Anforderungen an die Oberflächeneigenschaften und Vakuumkompatibilität erfüllt. Dafür wurden fundamentale Abhängigkeiten zwischen den Laserbearbeitungsparametern und den Oberflächeneigenschaften wie z.B. der Abtragstiefe, den oberflächenchemischen Eigenschaften, der Wiederablagerung von Partikeln und letztendlich der Sekundärelektronenausbeute (SEY) im Labormaßstab untersucht. Für die Behandlung der Rohrinnenflächen der Vakuumkammern wurde ein spezieller Aufbau verwendet, der aus einer Pikosekunden Laserquelle, einem Strahlkopplungssystem, einer 15 m langen Hohlkernfaser und einem Roboter besteht, der sich im Inneren des Strahlrohrs bewegt. Dieses System wurde im Rahmen dieser Arbeit in Betrieb genommen und kalibriert. Eine Behandlung bei
niedriger akkumulierter Fluenz in Stickstofffluss resultierte in „optimalen Oberflächeneigenschaften“, d.h. einer geringen Abtragstiefe (ca. 15 μm ), geringer Partikelbedeckung, einer Cu2O dominierten Oberfläche und einem SEY-Maximum von 1.4 nach der Reinigung, welches sich während der elektroneninduzierten Konditionierung zu 1 reduziert. Die 10 m langen Strahlrohre, die in den kryogen gekühlten Magnetaufbauten im LHC installiert sind, sollen mit einem Longitudinal-Scanning-Verfahren selektiv bearbeitet werden. Ein 3.1 m langes, laserbearbeitetes Strahlrohr wurde im LHC installiert, um die Methode bezüglich möglicher Partikelablösungseffekte zu prüfen und um die Laserbehandlung als Oberflächentechnologie für Teilchenbeschleunigervakuumsysteme zu validieren.:1. Motivation
2. Context of the study
3. Sample preparation and characterization methods
4. Fundamental dependencies of the surface properties on the laser parameters
5. Robot-assisted laser processing of curved surfaces
6. Large-scale treatments of beam screens
7. Conclusions and outlook
A. Appendix / The formation of electron clouds by secondary electron multiplication in the beam pipes of particle accelerators can lead to reduced performance during operation. Surface roughening using ultrashort pulse lasers efficiently reduces the secondary electron yield (SEY) of a surface. In this study, a solution for the suppression of electron clouds by laser structuring the inner copper walls of the Large Hadron Collider (LHC) beam tubes was developed, fulfilling the technical constraints and surface property requirements. For this purpose, fundamental dependencies between the laser processing parameters and the surface properties such as the modification depth, the surface chemical composition, the particle redeposition, and finally the SEY were investigated on a laboratory scale. A dedicated setup able to perform the modification treatment in situ, directly in the beam pipe hosted by the LHC magnet, was commissioned and the operation parameters were optimized. The device consists of a picosecond laser source, a beam coupling system, a 15 m long hollow-core fiber, and a robot that travels inside the beam tube. Treatment at low accumulated laser fluence in nitrogen flux resulted in ”optimal surface properties”, and specifically, a low modification depth (≈ 15 μm), low particle redeposition, a Cu2O-dominated surface and a SEY maximum of 1.4 after cleaning, which reduces to 1 upon electron irradiation at both room and cryogenic temperatures. A selective longitudinal scan scheme was developed to process the 10 m long beam pipes installed in the cryogenic magnet assemblies of the LHC with the highest effectiveness. A 3.1 m long laser-processed vacuum chamber was installed in
the LHC to validate the method with respect to particle detachment.:1. Motivation
2. Context of the study
3. Sample preparation and characterization methods
4. Fundamental dependencies of the surface properties on the laser parameters
5. Robot-assisted laser processing of curved surfaces
6. Large-scale treatments of beam screens
7. Conclusions and outlook
A. Appendix
|
Page generated in 0.0333 seconds