• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 82
  • 64
  • 29
  • 2
  • 2
  • 1
  • Tagged with
  • 179
  • 112
  • 88
  • 51
  • 51
  • 51
  • 46
  • 30
  • 24
  • 17
  • 15
  • 12
  • 12
  • 12
  • 12
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
161

Sticky triangles: New tools for experimental phasing of biological macromolecules / Sticky triangles: Neue Werkzeuge für die experimentelle Phasierung von biologischen Makromolekülen

Beck, Tobias 16 September 2010 (has links)
No description available.
162

Search for heavy resonances decaying into the fully hadronic di-tau final state with the ATLAS detector

Morgenstern, Marcus Matthias 11 April 2014 (has links) (PDF)
The discovery of a heavy neutral particle would be a direct hint for new physics beyond the Standard Model. In this thesis searches for new heavy neutral particles decaying into two tau leptons, which further decay into hadrons, are presented. They cover neutral Higgs bosons in the context of the minimal supersymmetric extension of the Standard Model (MSSM) as well as Z′ bosons, predicted by various theories with an extended gauge sector. Both analyses are based on the full 2012 proton-proton collision dataset taken by the ATLAS experiment at the Large Hadron Collider (LHC). The extended Higgs sector in the MSSM suggests additional heavy neutral Higgs bosons which decay into tau leptons in about 10% of the time. Given that the dominant final state, φ → b¯b, suffers from tremendous QCD initiated backgrounds, the decay into two tau leptons is the most promising final state to discover such new resonances. The fully hadronic final state is the dominant one with a branching fraction of about 42%. It governs the sensitivity, in particular at high transverse momentum when the QCD multijet background becomes small. Other theoretical extensions of the Standard Model, which are mainly driven by the concept of gauge unification, predict additional heavy particles arising from an extended underlying gauge group. Some of them further predict an enhanced coupling to fermions of the third generation. This motivates the search for Z′ bosons in the fully hadronic di-tau final state. One major challenge in physics analyses involving tau leptons is to have an outstanding performance of trigger and identification algorithms suitable to select real tau leptons with high efficiency, while rejecting fake taus originating from quark or gluon initiated jets. In this work a new tau trigger concept based on multivariate classifiers has been developed and became the default tau trigger algorithm in 2012 data-taking. An updated tau identification technique based on the log-likelihood approach has been provided for 2011 data-taking. Furthermore, a new framework has been developed to perform the tuning of the tau identification algorithm and exploited for the optimisation for 2012 data-taking, accordingly. The search for new heavy neutral Higgs bosons in the context of the MSSM has been performed exploiting the full 2012 dataset corresponding to an integrated luminosity of 19.5 fb−1 taken at a centre-of-mass energy of √s = 8 TeV. Updated event selection criteria and novel data-driven background estimation techniques have been developed and are suitable to increase the sensitivity of the analysis significantly. No deviations from the Standard Model prediction are observed, and thus 95% C.L. exclusion limits on the production cross section times branching ratio, σ(pp → φ) × BR(φ → ττ), are derived exploiting the CLs method. The exclusion ranges from 13.0 pb at 150GeV to 7.0 fb at 1 TeV for Higgs boson production in association with b-quarks and from 23.6 pb at 150GeV to 7.5 fb at 1 TeV for Higgs bosons produced via gluon-gluon fusion. The obtained exclusion limit on σ(pp → φ) × BR(φ → ττ) can be related to an exclusion of the MSSM parameter space in the MA-tan β-plane. Various benchmark scenario are considered. The ”standard candle” is the mhmax scenario, for which tan β values between 13.3 and 55 can be excluded at 95% C.L. in the considered mass range. Updated benchmark scenarios designed to incorporate the recently discovered SM-like Higgs boson were suggested and analysed as well. In the mhmod+ (mhmod−) scenario tan β values between 13.5 (13.3 ) and 55 (52 ) can be excluded. Finally, a search for heavy neutral resonances in the context of Z′ bosons was performed. As in the search for new Higgs bosons, no deviation from the Standard Model prediction is observed, and hence exclusion limits on the production cross section times branching ratio, σ(pp → Z′) × BR(Z′ → ττ), and on the Z′ boson mass are derived exploiting the Bayesian approach. Z′ bosons with MZ′ < 1.9 TeV can be excluded at 95% credibility, and thus mark the strongest exclusion limit obtained in the di-tau final state by any collider experiment so far.
163

Search for heavy resonances decaying into the fully hadronic di-tau final state with the ATLAS detector

Morgenstern, Marcus Matthias 21 March 2014 (has links)
The discovery of a heavy neutral particle would be a direct hint for new physics beyond the Standard Model. In this thesis searches for new heavy neutral particles decaying into two tau leptons, which further decay into hadrons, are presented. They cover neutral Higgs bosons in the context of the minimal supersymmetric extension of the Standard Model (MSSM) as well as Z′ bosons, predicted by various theories with an extended gauge sector. Both analyses are based on the full 2012 proton-proton collision dataset taken by the ATLAS experiment at the Large Hadron Collider (LHC). The extended Higgs sector in the MSSM suggests additional heavy neutral Higgs bosons which decay into tau leptons in about 10% of the time. Given that the dominant final state, φ → b¯b, suffers from tremendous QCD initiated backgrounds, the decay into two tau leptons is the most promising final state to discover such new resonances. The fully hadronic final state is the dominant one with a branching fraction of about 42%. It governs the sensitivity, in particular at high transverse momentum when the QCD multijet background becomes small. Other theoretical extensions of the Standard Model, which are mainly driven by the concept of gauge unification, predict additional heavy particles arising from an extended underlying gauge group. Some of them further predict an enhanced coupling to fermions of the third generation. This motivates the search for Z′ bosons in the fully hadronic di-tau final state. One major challenge in physics analyses involving tau leptons is to have an outstanding performance of trigger and identification algorithms suitable to select real tau leptons with high efficiency, while rejecting fake taus originating from quark or gluon initiated jets. In this work a new tau trigger concept based on multivariate classifiers has been developed and became the default tau trigger algorithm in 2012 data-taking. An updated tau identification technique based on the log-likelihood approach has been provided for 2011 data-taking. Furthermore, a new framework has been developed to perform the tuning of the tau identification algorithm and exploited for the optimisation for 2012 data-taking, accordingly. The search for new heavy neutral Higgs bosons in the context of the MSSM has been performed exploiting the full 2012 dataset corresponding to an integrated luminosity of 19.5 fb−1 taken at a centre-of-mass energy of √s = 8 TeV. Updated event selection criteria and novel data-driven background estimation techniques have been developed and are suitable to increase the sensitivity of the analysis significantly. No deviations from the Standard Model prediction are observed, and thus 95% C.L. exclusion limits on the production cross section times branching ratio, σ(pp → φ) × BR(φ → ττ), are derived exploiting the CLs method. The exclusion ranges from 13.0 pb at 150GeV to 7.0 fb at 1 TeV for Higgs boson production in association with b-quarks and from 23.6 pb at 150GeV to 7.5 fb at 1 TeV for Higgs bosons produced via gluon-gluon fusion. The obtained exclusion limit on σ(pp → φ) × BR(φ → ττ) can be related to an exclusion of the MSSM parameter space in the MA-tan β-plane. Various benchmark scenario are considered. The ”standard candle” is the mhmax scenario, for which tan β values between 13.3 and 55 can be excluded at 95% C.L. in the considered mass range. Updated benchmark scenarios designed to incorporate the recently discovered SM-like Higgs boson were suggested and analysed as well. In the mhmod+ (mhmod−) scenario tan β values between 13.5 (13.3 ) and 55 (52 ) can be excluded. Finally, a search for heavy neutral resonances in the context of Z′ bosons was performed. As in the search for new Higgs bosons, no deviation from the Standard Model prediction is observed, and hence exclusion limits on the production cross section times branching ratio, σ(pp → Z′) × BR(Z′ → ττ), and on the Z′ boson mass are derived exploiting the Bayesian approach. Z′ bosons with MZ′ < 1.9 TeV can be excluded at 95% credibility, and thus mark the strongest exclusion limit obtained in the di-tau final state by any collider experiment so far.
164

Modellbasierte Optimierung des Diamantdrahtsägeprozesses für die Fertigung von Siliziumwafern

Treyer, Daniel 30 November 2020 (has links)
In der Photovoltaikindustrie wird der Diamantdrahtsägeprozess für die Fertigung kristalliner Siliziumwafer eingesetzt. In dieser Arbeit wird ein dynamisches Modell des Drahtsägeprozesses entwickelt, das die Simulation relevanter Prozessvariablen über die Prozesszeit und über die Ausdehnung des Drahtfeldes zulässt. Den Kern der Modellierung bildet ein parametrisches Abtragmodell, das die Abtragrate in Funktion verschiedener Prozessvariablen beschreibt. Die Parameter dieses Modells werden anhand von Messdaten identifiziert. Basierend auf dem validierten Modell werden Ansätze zur Rezeptoptimierung untersucht mit dem Ziel, die Produktivität zu steigern. Abschliessend wird ein ausgewählter Ansatz aus der Rezeptoptimierung experimentell validiert. Aus der Versuchsreihe geht hervor, dass mit den entwickelten Ansätzen eine wesentliche Reduktion der Prozesszeit möglich ist.:1. Einleitung 1.1. Einordnung der Arbeit 1.2. Beschreibung des Drahtsägeprozesses mit Diamantdraht 1.3. Technisch-wissenschaftliche Zielsetzungen 1.4. Stand der Technik 1.5. Gliederung der Arbeit 2. Modellierung des Drahtsägeprozesses 2.1. Überblick und Notation 2.2. Modell für den Kontakt zwischen Draht und Siliziumbrick 2.3. Parametrisches Abtragmodell 2.4. Drahttransformationsmodelle 2.5. Rezeptmodell 2.6. Überblick über das Gesamtmodell 2.7. Implementierung in der Simulationsumgebung 3. Identifikation der Modellparameter und Modellvalidierung 3.1. Messdaten und Experimente 3.2. Methodik der Parameteridentifikation 3.3. Ergebnisse und Diskussion 4. Ansätze zur Rezeptoptimierung 4.1. Zielsetzungen und Grundlagen 4.2. Analyse der Prozessvariablen im quasistationären Zustand 4.3. Beschreibung verschiedener Methoden zur Erhöhung des Abtrages 4.4. Simulationsbasierter Vergleich verschiedener Rezepte 5. Experimentelle Validierung der Rezeptoptimierung 5.1. Überlegungen zur Planung und Durchführung der Versuche 5.2. Abgleich mit dem Simulationsmodell 5.3. Auswertung und Diskussion der Versuchsergebnisse 6. Zusammenfassung und Ausblick / In the photovoltaic industry, the diamond wire sawing process is used for the production of crystalline silicon wafers. In this thesis, a dynamic model of the wire sawing process is presented, which enables the simulation of relevant process variables over the process time and the extension of the wire web. The model comprises a parametric material removal model, which describes the removal rate as a function of different process variables. The parameters of this model are identified using experimental data. Based on the validated model, different approaches to the optimization of the recipe are analyzed with the aim of increasing the productivity of the process. Finally, a selected approach is experimentally validated. The series of experiments reveals that a substantial reduction of the process time is achievable using the developed approaches.:1. Einleitung 1.1. Einordnung der Arbeit 1.2. Beschreibung des Drahtsägeprozesses mit Diamantdraht 1.3. Technisch-wissenschaftliche Zielsetzungen 1.4. Stand der Technik 1.5. Gliederung der Arbeit 2. Modellierung des Drahtsägeprozesses 2.1. Überblick und Notation 2.2. Modell für den Kontakt zwischen Draht und Siliziumbrick 2.3. Parametrisches Abtragmodell 2.4. Drahttransformationsmodelle 2.5. Rezeptmodell 2.6. Überblick über das Gesamtmodell 2.7. Implementierung in der Simulationsumgebung 3. Identifikation der Modellparameter und Modellvalidierung 3.1. Messdaten und Experimente 3.2. Methodik der Parameteridentifikation 3.3. Ergebnisse und Diskussion 4. Ansätze zur Rezeptoptimierung 4.1. Zielsetzungen und Grundlagen 4.2. Analyse der Prozessvariablen im quasistationären Zustand 4.3. Beschreibung verschiedener Methoden zur Erhöhung des Abtrages 4.4. Simulationsbasierter Vergleich verschiedener Rezepte 5. Experimentelle Validierung der Rezeptoptimierung 5.1. Überlegungen zur Planung und Durchführung der Versuche 5.2. Abgleich mit dem Simulationsmodell 5.3. Auswertung und Diskussion der Versuchsergebnisse 6. Zusammenfassung und Ausblick
165

Virtuelle Nothilfe - Ein Experiment zum Effekt von virtueller Hilfe, Gewalt und Nothilfe auf Hilfe- und Gewaltverhalten / Virtual Emergency Assistance - The Effect of Virtual Helping, Aggression and Emergency Assistance on Helping and Aggressive Behavior

Mohseni, M. Rohangis 23 July 2013 (has links)
A recent meta-analysis of Anderson and colleagues (2010) shows that violent behavior in computer games promotes violent behavior in real-life and inhibits prosocial behavior. A couple of studies conducted by Greitemeyer and Osswald (2010) lead to the conclusion that helping behavior in computer games furthers helping behavior in real-life. There exist no studies examining the combined effect of violence and helping in computer games, although this combination is typical for violent video games (Anderson et al., 2010). In violent RPGs, a lot of tasks consist of helping someone by using violence. The present study addresses this issue and bridges the current empirical gap by investigating if violent emergency assistance furthers helping behavior and/or violent behavior in real-life. To accomplish that, the role-playing game “Oblivion” was modified to create four different experimental conditions: (1) violent emergency assistance, (2) killing, (3) helping, and (4) treasure hunting. Comparing these conditions, violent emergency assistance seemingly reduces helping behavior in real-life and at the same time furthers violent behavior. The results are in unison with the moral management model (Hartmann & Vorderer, 2010; Hartmann, in press), which is based on Banduras Theory of Moral Disengagement (Bandura, 2002).
166

Context Effects in Early Visual Processing and Eye Movement Control

Nortmann, Nora 29 April 2015 (has links)
There is a difference between the raw sensory input to the brain and our stable perception of entities in the environment. A first approach to investigate perception is to study relationships between properties of currently presented stimuli and biological correlates of perceptual processes. However, it is known that such processes are not only dependent on the current stimulus. Sampling of information and the concurrent neuronal processing of stimulus content rely on contextual relationships in the environment, and between the environment and the body. Perceptual processes dynamically adjust to relevant context, such as the current task of the organism and its immediate history. To understand perception, we have to study how processing of current stimulus content is influenced by such contextual factors. This thesis investigates the influence of such factors on visual processing. In particular, it investigates effects of temporal context in early visual processing and the effect of task context in eye movement control. To investigate effects of contextual factors on early visual processing of current stimulus content, we study neuronal processing of visual information in the primary visual cortex. We use real-time optical imaging with voltage sensitive dyes to capture neuronal population activity in the millisecond range across several millimeters of cortical area. To characterize the cortical layout concerning the mapping of orientation, previous to further investigations, we use smoothly moving grating stimuli. Investigating responses to this stimulus type systematically, we find independent encoding of local contrast and orientation, and a direct mapping of current stimulus content onto cortical activity (Study 1). To investigate the influence of the previous stimulus as context on processing of current stimulus content, we use abrupt visual changes in sequences of modified natural images. In earlier studies, investigating relatively fast timescales, it was found that the primary visual cortex continuously represents current input (ongoing encoding), with little interference from past stimuli. We investigate whether this coding scheme generalizes to cases in which stimuli change more slowly, as frequently encountered in natural visual input. We use sequences of natural scene contours, comprised of vertically and horizontally filtered natural images, their superpositions, and a blank stimulus, presented with 10 or 33 Hz. We show that at the low temporal frequency, cortical activity patterns do not encode the present orientations but instead reflect their relative changes in time. For example, when a stimulus with horizontal orientation is followed by the superposition of both orientations, the pattern of cortical activity represents the newly added vertical orientations instead of the full sum of orientations. Correspondingly, contour removal from the superposition leads to the representation of orientations that have disappeared rather than those that remain. This is in sharp contrast to more rapid sequences for which we find an ongoing representation of present input, consistent with earlier studies. In summary, we find that for slow stimulus sequences, populations of neurons in the primary visual cortex are no longer tuned to orientations within individual stimuli but instead represent the difference between consecutive stimuli. Our results emphasize the influence of the temporal context on early visual processing and consequentially on information transmission to higher cortical areas (Study 2). To study effects of contextual factors on the sampling of visual information, we focus on human eye movement control. The eyes are actively moved to sample visual information from the environment. Some traditional approaches predict eye movements solely on simple stimulus properties, such as local contrasts (stimulus-driven factors). Recent arguments, however, emphasize the influence of tasks (task context) and bodily factors (spatial bias). To investigate how contextual factors affect eye movement control, we quantify the relative influences of the task context, spatial biases and stimulus-driven factors. Participants view and classify natural scenery and faces while their eye movements are recorded. The stimuli are composed of small image patches. For each of these patches we derive a measure that quantifies stimulus-driven factors, based on the image content of a patch, and spatial viewing biases, based on the location of the patch. Utilizing the participants’ classification responses, we additionally derive a measure, which reflects the information content of a patch in the context of a given task. We show that the effect of spatial biases is highest, that task context is a close runner-up, and that stimulus-driven factors have, on average, a smaller influence. Remarkably, all three factors make independent and significant contributions to the selection of viewed locations. Hence, in addition to stimulus-driven factors and spatial biases, the task context contributes to visual sampling behavior and has to be considered in a model of human eye movements. Visual processing of current stimulus content, in particular visual sampling behavior and early processing, is inherently dependent on context. We show that already in the first cortical stage, temporal context strongly affects the processing of new visual information and that visual sampling by eye movements is significantly influenced by the task context, independently of spatial factors and stimulus-driven factors. The empirical results presented provide foundations for an improved theoretical understanding of the role of context in perceptual processes.
167

I can't let go: Personality, Behavioral, and Neural Correlates of Persistent, Intrusive Thought in Depression

Eggert, Lucas 24 April 2013 (has links)
Though a major illness in modern society, depression is still not completely understood. A number of empirical observations point to the importance of basic cognitive processes as well as personality variables as antecedents of a depressive disorder. In this work it is argued that “state orientation”, a personality style characterized by the inability to actively influence one’s focus of thought, plays an important role in the development of at least some forms of major depressive disorder. In the present work, it is suggested that (1) state-oriented cognitions are equivalent to sustained information processing, that (2) depressed individuals are characterized in particular by state-oriented cognitions related to prior failure experiences, that (3) sustained processing of affective information will interfere with normal executive cognitive functioning in depressed individuals resulting in impairments of normal behavior, and that (4) both sustained information processing and “affective interference” will be associated with specific dysfunctional patterns of brain activity in depressed individuals. In the first chapter of this thesis, theorizing pertaining to “action control” and the relationship between action control and state orientation are reviewed. After having established the potential functional significance of state-oriented cognitions, their possible link to depression is developed by introducing the “degenerated-intention hypothesis”. Afterwards, the role of state orientation in the advent of the depressive state is discussed against the background of the “functional helplessness” model of depression. Next, recent empirical findings related to executive dysfunction associated with state-oriented cognitions in major depressive disorder and related dysfunctional patterns of brain activity are reviewed. By considering evidence from studies on executive functioning, brain imaging, and neurophysiological studies, support is found for a possible frontocingulate dysfunction associated with a state-oriented cognitive style underlying a major depressive disorder. Consistent with the proposed link between depression and state orientation, in the second chapter of the thesis, Studies 1a – 1c demonstrate that subclinically and clinically depressed individuals are specifically characterized by failure-related state orientation. Moreover, the results of Study 2, described in Chapter 3, reveal that sustained processing of affectively valenced information may indeed interfere with subsequent executive cognitive functioning, especially in individuals demonstrating relatively high levels of depression. Finally, in line with the idea that sustained information processing and affective interference will be related to an individual’s level of state orientation and will be reflected in specific patterns of neural activity, Study 3, presented in Chapter 4, provides considerable evidence for disturbed brain function in clinically depressed individuals during processing of affective information as well as subsequent executive cognitive functioning and its relation to state-oriented thought. The current research supports the idea that state orientation, in particular its failure-focused form, is a crucial process involved in the development and maintenance of a depressive disorder. Specifically, the present findings suggest that certain forms of major depressive disorder are associated with sustained processing of affective information and with the resulting affective interference with executive cognitive functioning. Findings further suggest that sustained information processing is experienced by affected individuals as ruminative, state-oriented thought on past aversive experiences, and that both sustained information processing and affective interference are associated with distinct patterns of brain activity, which are related to early stimulus evaluation, conflict monitoring, and conflict resolution. The processes possibly underlying some forms of depression, as proposed in this thesis, comprise what may be called “the spinning mind”, whose important functional significance is to hinder an individual from adaptive behavior by impairing the ability to direct thought. Although state orientation may therefore appear to be maladaptive per se, it may be argued instead that this mode of action control is also an adaptive process as long as critical limits of certain parameters are met and the spinning mind is prevented. These and similar considerations are addressed in the concluding discussion in Chapter 5.
168

Mechanische Simulation der Interaktion Sportler-Sportgerät-Umwelt

Schwanitz, Stefan 26 February 2015 (has links)
In der vorliegenden Arbeit wird eine Methodik zur Entwicklung mechanischer Simulationen der Interaktion Sportler-Sportgerät-Umwelt zur Untersuchung der Funktionalität von Sportgeräten konzipiert und vorgestellt. Die mechanische Simulation ist die gegenständliche Nachbildung spezieller Teilaspekte des Sportlers, z.B. der Körperform, der Trägheitseigenschaften, der Masse, der Interaktionskräfte zur Umwelt oder charakteristischer Bewegungsabläufe zum Zweck der Durchführung gezielter Experimente zur Untersuchung des dynamischen Systemverhaltens Sportler-Sportgerät-Umwelt. Dazu werden drei Fallbeispiele aus der Forschungstätigkeit der Arbeitsgruppe HLST an der Technischen Universität Chemnitz mit Methoden zur Verifikation von Simulationsmodellen – dem strukturierten Durchgehen, der Validierung im Dialog und dem Schreibtischtest – analysiert. Die Analyseergebnisse werden in eine Grobstruktur eingebettet, die aus relevanten Vorarbeiten zur Anwendung der Allgemeinen Modelltheorie abgeleitet ist. Die in den jeweiligen Fallbeispielen verwendeten Prozessschritte, Methoden und Werkzeuge werden dargestellt und die Entwicklungsergebnisse erörtert. Im Abschluss jedes Fallbeispiels wird der Entwicklungsprozess anhand von einheitlichen Kriterien bewertet. In einem abschließenden Schritt erfolgt die Zusammenführung der im Stand der Technik dargelegten Grundlagen und der in den drei Fallbeispielen gewonnenen Informationen zu einer strukturieren und kommentierten Methodik.:1 Einleitung 8 1.1 Definitionen 8 1.2 Einsatzgebiete der mechanischen Simulation 11 1.2.1 Überblick 11 1.2.2 Sicherheit gegen Versagen 12 1.2.3 Konformität 14 1.2.4 Funktionalität 15 1.3 Motivation und Zielsetzung 16 1.4 Aufbau der Arbeit 16 2 Theoretische Grundlagen 18 2.1 Experimentelle Methoden der Sportgeräteentwicklung 18 2.1.1 Einordnung nach Odenwald (2006) 18 2.1.2 Einordnung nach Witte (2013) 19 2.1.3 Einordnung nach Senner (2001) 20 2.1.4 Eigene Systematisierung 23 2.2 Allgemeine Modelltheorie 26 2.3 Existierende Ansätze für die Applikation der Allgemeinen Modelltheorie 29 2.3.1 Anwendung der AMT in der Chemie 29 2.3.2 Anwendung der AMT in der Biomechanik 30 2.3.3 Anwendung der AMT in Logistik und Produktion 32 2.3.4 Fazit 37 3 Präzisierung der Problemstellung 38 4 Methodik 39 5 Fallbeispiel Schwimmanzug – Strömungswiderstand 41 5.1 Vorbemerkungen 41 5.2 Aufgabenanalyse 42 5.2.1 Definition der zu untersuchenden Funktionalität des Sportgeräts 42 5.2.2 Analyse der zugrundeliegenden technischen Funktion des Sportgeräts 42 5.2.3 Analyse der Simulationswürdigkeit 43 5.2.4 Identifikation des Originals 47 5.3 Modellformulierung 48 5.3.1 Modellansatz 48 5.3.2 Modellsynthese 50 5.4 Modellimplementierung 53 5.4.1 Herstellung des Strömungskörpers 53 5.4.2 Simulation der Fortbewegung im Wasser 54 5.5 Modellanwendung 57 5.6 Modellüberprüfung 60 5.6.1 Abgleich zwischen den experimentellen Ergebnissen und dem theoretischen Modell 60 5.6.2 Vergleich mit dem Original 62 5.7 Fazit 67 6 Fallbeispiel Laufschuh – Stoßabsorption 69 6.1 Vorbemerkungen 69 6.2 Aufgabenanalyse 69 6.2.1 Definition der zu untersuchenden Funktionalität 69 6.2.2 Analyse der zugrundeliegenden technischen Funktion des Sportgeräts 71 6.2.3 Analyse der Simulationswürdigkeit 71 6.2.4 Definition des Originals 72 6.3 Modellformulierung 72 6.3.1 Modellansatz 72 6.3.2 Systemanalyse 72 6.3.3 Modellsynthese 77 6.4 Modellimplementierung 78 6.4.1 Krafterzeugung 78 6.4.2 Kraftübertragung 79 6.5 Modellanwendung 81 6.6 Modellüberprüfung 82 6.6.1 Soll-Istwert-Vergleich 82 6.6.2 Reliabilität 83 6.6.3 Korrelation zu Stoßbelastungsvariablen 85 6.6.4 Ereignisvaliditätstest: Sohlentemperatur 86 6.6.5 Ereignisvaliditätstest: Sohlendeformation 88 6.7 Fazit 91 7 Fallbeispiel Fußballschuh – Traktionseigenschaften 94 7.1 Vorbemerkungen 94 7.2 Aufgabenanalyse 94 7.2.1 Definition der zu untersuchenden Funktionalität 94 7.2.2 Analyse der zugrundeliegenden technischen Funktion des Sportgeräts 95 7.2.3 Analyse der Simulationswürdigkeit 96 7.2.4 Definition des Originals 97 7.3 Modellformulierung 98 7.3.1 Modellansatz 98 7.3.2 Systemanalyse 98 7.3.3 Modellsynthese 106 7.4 Modellimplementierung 107 7.5 Modellanwendung 110 7.6 Modellüberprüfung 114 7.6.1 Reliabilität 114 7.6.2 Sensitivitätsanalyse: Normalkraft 114 7.6.3 Sensitivitätsanalyse: Kraftanstieg horizontal 116 7.6.4 Vergleich mit der Realität 116 7.7 Fazit 117 8 Methodik zur Entwicklung mechanischer Simulationen der Interaktion Sportler-Sportgerät-Umwelt 119 8.1 Schematische Darstellung 119 8.2 Erläuterung der Vorgehensempfehlung 120 8.2.1 Klärung der Problemstellung 120 8.2.2 Modellbildung 122 8.2.3 Modellanwendung 124 9 Schlussbetrachtung 126 Literaturverzeichnis 128 Tabellenverzeichnis 133 Abbildungsverzeichnis 135 Danksagung 138 Selbstständigkeitserklärung 139 Lebenslauf 140 / In this dissertation a methodology is conceived that aims to structure the development process of test arrangements that mechanically simulate the interaction of athlete, sports equipment and environment. Mechanical simulation in this context is defined as the physical replication of specific properties of the athlete (e.g. the shape of the human body, body weight, joint kinematics, inertia, external forces in specific movements) in order to conduct experiments to investigate the dynamic behavior of the system athlete-equipment-environment. Therefore, three case studies of mechanical simulation models that have been developed at Technische Universität Chemnitz are analyzed by applying the validation and verification methods “structured walkthrough”, “face validity” and “desk checking”. The results of that analysis are embedded into a framework that is derived by literature review on applied model theory. For each of the three development processes the procedure model is identified and main tools and methods are discussed. Every case study is finally assessed by using standardized evaluation criterions. Finally, the main findings of the analysis of the case studies as well as knowledge obtained by reviewing the state of the art in model theory and simulation methods are used to build up a structured and commentated guideline.:1 Einleitung 8 1.1 Definitionen 8 1.2 Einsatzgebiete der mechanischen Simulation 11 1.2.1 Überblick 11 1.2.2 Sicherheit gegen Versagen 12 1.2.3 Konformität 14 1.2.4 Funktionalität 15 1.3 Motivation und Zielsetzung 16 1.4 Aufbau der Arbeit 16 2 Theoretische Grundlagen 18 2.1 Experimentelle Methoden der Sportgeräteentwicklung 18 2.1.1 Einordnung nach Odenwald (2006) 18 2.1.2 Einordnung nach Witte (2013) 19 2.1.3 Einordnung nach Senner (2001) 20 2.1.4 Eigene Systematisierung 23 2.2 Allgemeine Modelltheorie 26 2.3 Existierende Ansätze für die Applikation der Allgemeinen Modelltheorie 29 2.3.1 Anwendung der AMT in der Chemie 29 2.3.2 Anwendung der AMT in der Biomechanik 30 2.3.3 Anwendung der AMT in Logistik und Produktion 32 2.3.4 Fazit 37 3 Präzisierung der Problemstellung 38 4 Methodik 39 5 Fallbeispiel Schwimmanzug – Strömungswiderstand 41 5.1 Vorbemerkungen 41 5.2 Aufgabenanalyse 42 5.2.1 Definition der zu untersuchenden Funktionalität des Sportgeräts 42 5.2.2 Analyse der zugrundeliegenden technischen Funktion des Sportgeräts 42 5.2.3 Analyse der Simulationswürdigkeit 43 5.2.4 Identifikation des Originals 47 5.3 Modellformulierung 48 5.3.1 Modellansatz 48 5.3.2 Modellsynthese 50 5.4 Modellimplementierung 53 5.4.1 Herstellung des Strömungskörpers 53 5.4.2 Simulation der Fortbewegung im Wasser 54 5.5 Modellanwendung 57 5.6 Modellüberprüfung 60 5.6.1 Abgleich zwischen den experimentellen Ergebnissen und dem theoretischen Modell 60 5.6.2 Vergleich mit dem Original 62 5.7 Fazit 67 6 Fallbeispiel Laufschuh – Stoßabsorption 69 6.1 Vorbemerkungen 69 6.2 Aufgabenanalyse 69 6.2.1 Definition der zu untersuchenden Funktionalität 69 6.2.2 Analyse der zugrundeliegenden technischen Funktion des Sportgeräts 71 6.2.3 Analyse der Simulationswürdigkeit 71 6.2.4 Definition des Originals 72 6.3 Modellformulierung 72 6.3.1 Modellansatz 72 6.3.2 Systemanalyse 72 6.3.3 Modellsynthese 77 6.4 Modellimplementierung 78 6.4.1 Krafterzeugung 78 6.4.2 Kraftübertragung 79 6.5 Modellanwendung 81 6.6 Modellüberprüfung 82 6.6.1 Soll-Istwert-Vergleich 82 6.6.2 Reliabilität 83 6.6.3 Korrelation zu Stoßbelastungsvariablen 85 6.6.4 Ereignisvaliditätstest: Sohlentemperatur 86 6.6.5 Ereignisvaliditätstest: Sohlendeformation 88 6.7 Fazit 91 7 Fallbeispiel Fußballschuh – Traktionseigenschaften 94 7.1 Vorbemerkungen 94 7.2 Aufgabenanalyse 94 7.2.1 Definition der zu untersuchenden Funktionalität 94 7.2.2 Analyse der zugrundeliegenden technischen Funktion des Sportgeräts 95 7.2.3 Analyse der Simulationswürdigkeit 96 7.2.4 Definition des Originals 97 7.3 Modellformulierung 98 7.3.1 Modellansatz 98 7.3.2 Systemanalyse 98 7.3.3 Modellsynthese 106 7.4 Modellimplementierung 107 7.5 Modellanwendung 110 7.6 Modellüberprüfung 114 7.6.1 Reliabilität 114 7.6.2 Sensitivitätsanalyse: Normalkraft 114 7.6.3 Sensitivitätsanalyse: Kraftanstieg horizontal 116 7.6.4 Vergleich mit der Realität 116 7.7 Fazit 117 8 Methodik zur Entwicklung mechanischer Simulationen der Interaktion Sportler-Sportgerät-Umwelt 119 8.1 Schematische Darstellung 119 8.2 Erläuterung der Vorgehensempfehlung 120 8.2.1 Klärung der Problemstellung 120 8.2.2 Modellbildung 122 8.2.3 Modellanwendung 124 9 Schlussbetrachtung 126 Literaturverzeichnis 128 Tabellenverzeichnis 133 Abbildungsverzeichnis 135 Danksagung 138 Selbstständigkeitserklärung 139 Lebenslauf 140
169

Vergleich von Bewertungsmethoden für die rheologischen Eigenschaften von frisch gedrucktem Beton

Ivanova, Irina, Mechtcherine, Viktor, Reißig, Silvia 10 November 2022 (has links)
In diesem Beitrag wird ein Vergleich zwischen indirekten Testmethoden zur Bewertung der Verbaubarkeit von 3D-gedruckten Mörteln und Betonen vorgestellt. Die Untersuchungen erfolgten an extrudierten Proben von acht zementbasierten Mischungen mit unterschiedlichem rheologischen Verhalten. Auf der Basis der erzielten Ergebnisse werden Vorhersagen zum Material- bzw. Stabilitätsversagen getroffen und mit den Ergebnissen des Direktdruckversuchs verglichen. Anschließend werden die Vor- und Nachteile unterschiedlicher Prüfmethoden diskutiert. Zu diesen zählen die Techniken der Rotationsrheometrie mit konstanter Rotationsgeschwindigkeit (engl.: constant rotational velocity, CRV), ein schneller Penetrationstest sowie einaxiale Druckversuche mit und ohne Querdehnungsbehinderung.
170

Search for Charged Higgs Bosons with the ATLAS Detector at the LHC

Czodrowski, Patrick 18 July 2013 (has links)
Die Entdeckung eines geladenen Higgs-Bosons, H+, wäre ein unbestreitbarer Nachweis von Physik jenseits des Standardmodells. In der vorliegenden Arbeit wird die Suche nach dem H+ mit Hilfe von Proton-Proton-Kollisionen, welche im Jahr 2011 mit dem ATLAS Experiment am Large Hadron Collider, LHC, des CERN aufgenommen wurden, beschrieben. Im Rahmen dieser Arbeit wurde eine überarbeitete Analyse der Suche nach geladenen Higgs-Bosonen, die eine Verhältnismethode anwendet und damit die Sensitivität des traditionell direkten Suchansatzes stark verbessert, durchgeführt. Leichte geladene Higgs-Bosonen, welche eine Masse geringer als die des Top-Quarks aufweisen, können aus einem Top-Quark-Zerfall hervorgehen. Im Gegensatz zu den schweren geladenen Higgs-Bosonen sind die leichten aufgrund des hohen Produktionswirkungsquerschnitts von Top-Quark-Paaren am LHC potenziell mit den ersten Daten des Experiments beobachtbar. In den meisten Theorien und Szenarien sowie dem größten Bereich ihres Phasenraumes zerfallen leichte geladene Higgs-Bosonen meist im H± → τ±ν Kanal. Demzufolge spielen sowohl die τ-Identifikation als auch die τ-Fehlidentifikation eine besondere Rolle für die Suche nach geladenen Higgs-Bosonen. Eigens für die Ermittlung der Fehlidentifikationswahrscheinlichkeiten von Elektronen als hadronisch zerfallende τ-Leptonen wurde eine “tag-and-probe”-Methode, basierend auf Z → ee Ereignissen, entwickelt. Diese Messungen sind mit den allerersten Daten durchgeführt worden. Dabei haben diese einerseits für alle Analysen, welche die Elektronenveto-Algorithmen der τ-Identifikation nutzen, essenzielle Skalenfaktoren hervorgebracht. Andererseits wurde, beruhend auf diesen Ergebnissen, eine datenbasierte Abschätzungsmethode entwickelt und für die Untergründe der geladenen Higgs-Boson-Suche, die von der Fehlidentifikation von Elektronen als hadronisch zerfallende τ-Leptonen stammen, erfolgreich implementiert. Im Rahmen dieser Arbeit wurden Triggerstudien, mit dem Ziel höchstmögliche Signaleffizienzen zu gewährleisten, durchgeführt. Neuartige Triggerobjekte, basierend auf einer Kombination aus τ-Trigger und fehlender transversaler Energie-Trigger, wurden entworfen, überprüft und in das Triggermenü für die Datennahme im Jahr 2012 aufgenommen. Eine direkte Suche nach dem geladenen Higgs-Boson wurde in drei Kanälen mit einem τ-Lepton im Endzustand unter Berücksichtigung des gesamten Datensatzes des Jahres 2011 durchgeführt. Da kein signifikanter Überschuss, der von den Vorhersagen des Standardmodells abweicht, in den Daten beobachtet wurde, sind obere Ausschlussgrenzen auf B(t → bH+) gesetzt worden. Letztlich ist die Analyse des Kanals mit einem hadronisch zerfallenden τ-Lepton und einem Myon oder Elektron im Endzustand des tt ̄-Zerfalls, unter Anwendung der sogenannten Verhältnismethode, wiederholt worden. Diese Methode misst Verhältnisse von Ereignisausbeuten, anstatt die Verteilungen diskriminierender Variablen zu evaluieren. Folglich kürzen sich die meisten dominant beitragenden systematischen Unsicherheiten intrinsisch heraus. Die Daten stimmen mit den Vorhersagen des Standardmodells überein. Durch Zuhilfenahme der Verhältnismethode wurden die oberen Ausschlussgrenzen, im Vergleich zur direkten Suche, signifikant verbessert. Die Resultate der Verhältnismethode sind mit denen der direkten Suche, welche ein hadronisch zerfallendes τ-Lepton und zwei Jets im Endzustand des tt ̄-Zerfalls nutzt, kombiniert worden. Auf diese Art und Weise konnten obere Ausschlussgrenzen auf B(t → bH+) in einem Bereich von 0,8 %–3,4 % für geladene Higgs-Bosonen in einem Massenbereich für m_H+ zwischen 90 GeV und 160 GeV gesetzt werden. Sollte das Minimal Supersymmetrische Standardmodell (MSSM) in der Natur realisiert sein, so haben die hier ermittelten oberen Ausschlussgrenzen auf B(t → bH+) direkte Konsequenzen für die Identität des Higgs-Boson-ähnlichen Teilchens, welches im Jahr 2012 am LHC entdeckt wurde.:Kurzfassung v Abstract vii Contents ix 1 Introduction 1 2 Theoretical Framework 3 2.1 The Standard Model of Particle Physics 3 2.1.1 Particles, Fields and Interactions 3 2.1.2 Gauge Theory in a Nutshell 6 2.1.3 Brout-Englert-Higgs Mechanism 9 2.2 Supersymmetry 11 2.2.1 Sources of Supersymmetry Breaking 20 2.2.2 Two Higgs Doublet Model 21 2.2.3 Charged Higgs Boson Production and Decay 22 2.3 Current Status of charged Higgs Boson Searches 24 3 Monte Carlo Simulation 33 3.1 Methodology of Monte Carlo Simulation 33 3.2 Monte Carlo Simulation for Electron to t Mis-identification Analysis 35 3.3 Monte Carlo Simulation for H± Analysis with Data taken 2010 35 3.4 Monte Carlo Simulation for H± Analyses with Data taken 2011 37 4 LHC and the ATLAS Detector 41 4.1 The Large Hadron Collider 41 4.2 The ATLAS Detector 42 4.2.1 Magnet Systems 46 4.2.2 Inner Detector 47 4.2.3 Calorimeter Systems 50 4.2.4 Muon Spectrometer 60 4.2.5 Forward Detectors 61 4.2.6 Trigger and Data Acquisition 63 4.3 Data Taking 67 5 Event Selection and Data-Driven Background Estimation Techniques 73 5.1 Event Cleaning 74 5.2 Trigger for the Charged Higgs Boson Analyses 74 5.2.1 Trigger for the thad+Lepton and tlep+Jets Channels 75 5.2.2 Trigger for the thad+Jets Channel 77 5.3 Physics Object Reconstruction 77 5.3.1 Muons 77 5.3.2 Electrons 77 5.3.3 Jets 78 5.3.4 b-Tagging 79 5.3.5 Hadronically decaying t Leptons 79 5.3.6 Missing Transverse Momentum 79 5.3.7 Removal of Geometric Overlaps between Objects 80 5.4 Selection and Cut Optimisation 80 5.4.1 thad+Lepton Analysis Selection 80 5.4.2 tlep+Jets Analysis Selection 82 5.4.3 thad+Jets Analysis Selection 83 5.5 Background Estimations 84 5.5.1 Measurement of the t Lepton Mis-identification Probability from Electrons 84 5.5.2 Backgrounds with Electrons and Jets Mis-identified as t Leptons 88 5.5.3 Embedding Method 92 5.5.4 Multi-Jet Background 92 5.5.5 Backgrounds with Mis-identified Leptons 93 6 Direct Searches for the Charged Higgs Boson 95 6.1 Analysis of the thad+Lepton Channel 95 6.2 Analysis of the tlep+Jets Channel 95 6.3 Analysis of the thad+Jets Channel 98 6.4 Systematic Uncertainties 101 6.4.1 Systematic Uncertainties of Detector Simulation 101 6.4.2 Systematic Uncertainties of Generation of tt Events 103 6.4.3 Systematic Uncertainties of Data-Driven Background Estimates 103 6.5 Results 107 7 Indirect Search for the Charged Higgs Boson – The Ratio-Method 111 7.1 Ratio-Method: A Re-Analysis of the thad+Lepton Channel 111 7.2 Event Selection 112 7.3 Measured Event Yield Ratios 115 7.4 Systematic Uncertainties 115 7.4.1 Systematic Uncertainties of Detector Simulation 115 7.4.2 Systematic Uncertainties of Generation of tt Events 115 7.4.3 Systematic Uncertainties of Data-Driven Background Estimates 118 7.5 Results 119 7.5.1 Upper Limits obtained from Results of the Ratio-Method 119 7.5.2 Combination of Upper Limits obtained from Direct Searches for Charged Higgs Bosons in the thad+jets final state and the Ratio-Method Results 124 8 Comparison and Discussion of the Results 131 9 Summary and Outlook 137 A Monte Carlo Simulation Samples 141 A.1 Monte Carlo Simulation Samples for 2010 Analyses 141 A.1.1 Monte Carlo Simulation Samples for the Electron to t Lepton Mis-identification Analysis 141 A.1.2 Monte Carlo Simulation Samples for the H± Analysis 143 A.2 Monte Carlo Simulation Samples for 2011 Analyses 147 A.2.1 Monte Carlo Samples for H± Ratio-Method Search Analysis 147 List of Figures 149 List of Tables 153 Bibliography 155 Acknowledgements 179

Page generated in 0.1691 seconds