• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 46
  • 25
  • 9
  • 1
  • 1
  • Tagged with
  • 82
  • 66
  • 54
  • 30
  • 29
  • 29
  • 27
  • 15
  • 13
  • 12
  • 11
  • 10
  • 10
  • 10
  • 10
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Searches for a Dark Matter annihilation signal with Imaging Atmospheric Telescopes

Birsin, Emrah 23 July 2015 (has links)
Erste Anzeichen für die Existenz von Dunkler Materie wurden 1933 entdeckt. Der Astrophysiker Fritz Zwicky beobachtete die Geschwindigkeitsverteilung im Coma Cluster und fand dabei heraus, dass 400 mal mehr Materie im Galaxie Haufen sein muss, damit dieser gravitativ gebunden sein kann oder der Galaxie Haufen würde sich aufösen. Trotz erheblicher Bemühungen über die letzten 80 Jahre ist nicht viel über Dunkle Materie bekannt. Das einzige was man weiÿ ist, dass Dunkle Materie gravitativ aber nicht elektromagnetisch wechselwirkt und Dunkle Materie stellt den gröÿten Bestandteil der Materie im Universum da. Doch derzeitige Experimente die nach Dunkler Materie suchen, sowohl direkte Suchen als auch indirekte, beginnen sensitiv genug zu werden um interessante Parameterbereiche von Dunkle Materie Kandidaten zu untersuchen wie das leichteste Super-symmetrische Teilchen, was bedeutet, dass die Entdeckung von Dunkler Materie in der nahen Zukunft sein könnte. In dieser Arbeit wird eine Signalsummierung von H.E.S.S. Zwerg Galaxien Daten durchgeführt und obere Ausschlussgrenzen berechnet. Weiterhin wird die Leistung einer Dunklen Materie Suche im galaktischen Zentrum durch CTA präsentiert für verschiedene mögliche Teleskop Anordnungen und verschiedene Annihilation Kanäle. Die Ergebnisse werden zeigen, dass CTA in der Lage sein wird geschwindigkeitsgemittelte Annihilations Wirkungsquerschnitte von 3 * 10^-26 cm^3s^1 und geringer, der geschwindigkeitsgemittelte Annihilations Wirkungsquerschnitt der für schwach wechselwirkende Dunkle Materie erwartet wird, in 100 h zu erreichen. Diese Beobachtungszeit kann innerhalb von ein bis zwei Jahren erreicht werden. / First indications for the existence of Dark Matter appeared in 1933. The astrophysicist Fritz Zwicky observed the velocity dispersion of the Coma Cluster and found out that 400 times the visible mass must be contained in the galaxy cluster or the cluster could not be gravitationally bound and would disperse.Despite extensive efforts over the last 80 years not much is known about Dark Matter. The facts known are that Dark Matter interacts via gravitation, does not interact electromagneticly and is the main constituent of matter. But current experiment searching for Dark Matter directly and indirectly begin to reach sensitivities that can probe interesting parameter spaces for Dark Matter candidates like the lightest supersymmetric particle, meaning the first Dark Matter detections could happen in the near future.In this thesis a dwarf stacking analysis for Dark Matter signal search using H.E.S.S. data is performed and a upper limit is calculated. Furthermore the prospect for a Dark Matter search with CTA in the galactic center region of the Milky Way is presented for different candidate arrays and different annihilation channels. The results will show that CTA will be able to reach velocity annihilation below 3 *10^-26 cm^3s^-1, the velocity annihilation crosssection expected for a weakly interacting Dark Matter particle, within 100 h of observation which can reasonably be acquired within one to two years.
32

Saliency processing in the human brain

Bogler, Carsten 01 September 2014 (has links)
Aufmerksamkeit auf visuelle Reize kann durch top-down Such- Strategien oder durch bottom-up Eigenschaften des visuellen Reizes gesteuert werden. Die Eigenschaft einer bestimmten Position, aus einer visuellen Szene heraus zu stechen, wird als Salienz bezeichnet. Es wird angenommen, dass auf neuronaler Ebene eine Salienzkarte existiert. Bis heute ist strittig, wo die Repräsentation einer solchen Karte im Gehirn lokalisiert sein könnte. Im Rahmen dieser Dissertation wurden drei Experimente durchgeführt, die verschiedene Aspekte von bottom-up Salienz-Verarbeitung mit Hilfe der funktionellen Magnetresonanztomographie untersuchten. Während die Aufmerksamkeit auf einen Fixationspunkt gerichtet war, wurde die neuronale Reaktion auf unterschiedlich saliente Stimuli in der Peripherie untersucht. In den ersten zwei Experimenten wurde die neuronale Antwort auf Orientierungskontrast und Luminanzkontrast untersucht. Die Ergebnisse deuten darauf hin, dass Salienz möglicherweise verteilt im visuellen System kodiert ist. Im dritten Experiment wurden natürliche Szenen als Stimuli verwendet. Im Einklang mit den Ergebnissen der ersten beiden Experimente wurde hier graduierte Salienz in frühen und späten visuellen Arealen identifiziert. Darüber hinaus konnten Informationen über die salientesten Positionen aus weiter anterior liegenden Arealen, wie dem anterioren intraparietalen Sulcus (aIPS) und dem frontalen Augenfeld (FAF), dekodiert werden. Zusammengenommen deuten die Ergebnisse auf eine verteilte Salienzverarbeitung von unterschiedlichen low-level Merkmalen in frühen und späten visuellen Arealen hin, die möglicherweise zu einer merkmalsunabhängigen Salienzrepräsentation im posterioren intraparetalen Sulcus zusammengefasst werden. Verschiebungen der Aufmerksamkeit zu den salientesten Positionen werden dann im aIPS und im FAF vorbereitet. Da die Probanden mit einer Fixationsaufgabe beschäftigt waren, wird die Salienz vermutlich automatisch verarbeitet. / Attention to visual stimuli can be guided by top-down search strategies or by bottom-up information. The property of a specific position to stand out in a visual scene is referred to as saliency. On the neural level, a representation of a saliency map is assumed to exist. However, to date it is still unclear where such a representation is located in the brain. This dissertation describes three experiments that investigated different aspects of bottom-up saliency processing in the human brain using functional magnetic resonance imaging (fMRI). Neural responses to different salient stimuli presented in the periphery were investigated while top-down attention was directed to the central fixation point. The first two experiments investigated the neural responses to orientation contrast and to luminance contrast. The results indicate that saliency is potentially encoded in a distributed fashion in the visual system and that a feature-independent saliency map is calculated late in the processing hierarchy. The third experiment used natural scenes as stimuli. Consistent with the results of the other two experiments, graded saliency was identified in striate and extrastriate visual cortex, in particular in posterior intraparietal sulcus (pIPS), potentially reflecting a representation of feature-independent saliency. Additionally information about the most salient positions could be decoded in more anterior brain regions, namely in anterior intraparietal sulcus (aIPS) and frontal eye fields (FEF). Taken together, the results suggest a distributed saliency processing of different low-level features in striate and extrastriate cortex that is potentially integrated to a feature-independent saliency representation in pIPS. Shifts of attention to the most salient positions are then prepared in aIPS and FEF. As participants were engaged in a fixation task, the saliency is presumably processed in an automatic manner.
33

Search for singly produced vector-like down-type quarks in single-lepton final states with ATLAS

Rehnisch, Laura 04 May 2016 (has links)
In dieser Arbeit wird die Suche nach vektorartigen und angeregten Quarks mit einer elektrischen Ladung von Q = 1/3 mit dem ATLAS-Detektor vorgestellt. Die Existenz solcher Quarks wird von verschiedenen Modellen jenseits des Standardmodells vorhergesagt, die bestimmte Schwächen der Theorie beseitigen können. Es wird nach einzeln produzierten Quarks aus zwei verschiedenen Modellen gesucht, da für diesen Produktionsmodus höhere Wirkungsquerschnitte im untersuchten Massenbereich vorhergesagt sind als für die Paarproduktion. Die Suche beschränkt sich auf Zerfälle der Quarks in W-Bosonen und Top-Quarks, wobei letztere fast ausschließlich in W-Bosonen und Bottom-Quarks zerfallen. Verlangt man, dass eines der W-Bosonen leptonisch zerfällt, erhält man Endzustände mit einem Lepton (Elektron oder Myon in diesem Fall), mehreren Jets, von denen einer als von einem Bottom-Quark stammend identifiziert werden kann, und fehlender Energie in der Transversalebene, die durch das beim leptonischen Zerfall entstandene und nicht detektierbare Neutrino hervorgerufen wird. Die daraus berechnete invariante Masse des neuen Quarks wird zur Unterscheidung zwischen Signal und Untergrund verwendet. Die Suche wurde auf dem am LHC im Jahr 2012 aufgenommenen Datensatz von Proton-Proton-Kollisionen bei einer Schwerpunktsenergie von 8 TeV ausgeführt. Es wurde kein signifikanter Unterschied zum vorhergesagten Untergrund gemessen und deshalb Ausschlussgrenzen für Parameter der untersuchten Modelle berechnet. Da die vorgestellte Suche Gebrauch von der geboosteten Topologie der Signalereignisse im untersuchten Massenbereich macht, übertreffen die Ergebnisse bei Weitem die Ausschlussgrenzen für das angeregte Quarkmodell, die in der Vorgängersuche auf dem Datensatz von 2011 erhalten wurden und sind vergleichbar mit kürzlich auf dem Datensatz von 2012 mit dem CMS-Detektor gewonnenen Ergebnissen. Darüber hinaus ist es die erste Suche nach einzeln produzierten vektorartigen Quarks im untersuchten Modell. / A search for vector-like and excited down-type (Q = 1/3) quarks with the ATLAS detector is presented in this thesis. The existence of these quarks is predicted by various models beyond the Standard Model, motivated by some limitations of that theory. Quarks from two specific models are searched for in single production mode, as this is predicted to yield higher cross-sections than pair production in the investigated mass range. The search focuses on decays of the heavy quarks to a W boson and a top quark, the latter of which subsequently decays almost exclusively into another W boson and a bottom quark. Requiring one of the two W bosons to decay leptonically leads to final states containing exactly one lepton (electron or muon in this case), several jets, one of which can be identified as originating from a bottom quark, and some amount of missing energy in the transverse plane stemming from the neutrino of the leptonic W decay. The reconstructed mass of the heavy quark is used to discriminate between signal and background. This search was performed on 20.3 inverse femtobarns of proton-proton collision data collected at the Large Hadron Collider in the year 2012 with a centre-of-mass energy of 8 TeV. No significant excess of the data over the background could be observed and therefore exclusion limits were set on model parameters. The search presented here makes use of the boosted event topology that is prominent in the explored range of signal masses, allowing it to by far exceed the exclusion bounds obtained in the preceding search for the excited quark model on the 2011 data set, and producing results that are comparable to those from a recent search performed with the CMS detector on the 2012 data set. Additionally, it is the first search in the single production mode for that specific vector-like quark model.
34

An e-librarian service : supporting explorative learning by a description logics based semantic retrieval tool

Linckels, Serge January 2008 (has links)
Although educational content in electronic form is increasing dramatically, its usage in an educational environment is poor, mainly due to the fact that there is too much of (unreliable) redundant, and not relevant information. Finding appropriate answers is a rather difficult task being reliant on the user filtering of the pertinent information from the noise. Turning knowledge bases like the online tele-TASK archive into useful educational resources requires identifying correct, reliable, and "machine-understandable" information, as well as developing simple but efficient search tools with the ability to reason over this information. Our vision is to create an E-Librarian Service, which is able to retrieve multimedia resources from a knowledge base in a more efficient way than by browsing through an index, or by using a simple keyword search. In our E-Librarian Service, the user can enter his question in a very simple and human way; in natural language (NL). Our premise is that more pertinent results would be retrieved if the search engine understood the sense of the user's query. The returned results are then logical consequences of an inference rather than of keyword matchings. Our E-Librarian Service does not return the answer to the user's question, but it retrieves the most pertinent document(s), in which the user finds the answer to his/her question. Among all the documents that have some common information with the user query, our E-Librarian Service identifies the most pertinent match(es), keeping in mind that the user expects an exhaustive answer while preferring a concise answer with only little or no information overhead. Also, our E-Librarian Service always proposes a solution to the user, even if the system concludes that there is no exhaustive answer. Our E-Librarian Service was implemented prototypically in three different educational tools. A first prototype is CHESt (Computer History Expert System); it has a knowledge base with 300 multimedia clips that cover the main events in computer history. A second prototype is MatES (Mathematics Expert System); it has a knowledge base with 115 clips that cover the topic of fractions in mathematics for secondary school w.r.t. the official school programme. All clips were recorded mainly by pupils. The third and most advanced prototype is the "Lecture Butler's E-Librarain Service"; it has a Web service interface to respect a service oriented architecture (SOA), and was developed in the context of the Web-University project at the Hasso-Plattner-Institute (HPI). Two major experiments in an educational environment - at the Lycée Technique Esch/Alzette in Luxembourg - were made to test the pertinence and reliability of our E-Librarian Service as a complement to traditional courses. The first experiment (in 2005) was made with CHESt in different classes, and covered a single lesson. The second experiment (in 2006) covered a period of 6 weeks of intensive use of MatES in one class. There was no classical mathematics lesson where the teacher gave explanations, but the students had to learn in an autonomous and exploratory way. They had to ask questions to the E-Librarian Service just the way they would if there was a human teacher. / Obwohl sich die Verfügbarkeit von pädagogischen Inhalten in elektronischer Form stetig erhöht, ist deren Nutzen in einem schulischen Umfeld recht gering. Die Hauptursache dessen ist, dass es zu viele unzuverlässige, redundante und nicht relevante Informationen gibt. Das Finden von passenden Lernobjekten ist eine schwierige Aufgabe, die vom benutzerbasierten Filtern der passenden Informationen abhängig ist. Damit Wissensbanken wie das online Tele-TASK Archiv zu nützlichen, pädagogischen Ressourcen werden, müssen Lernobjekte korrekt, zuverlässig und in maschinenverständlicher Form identifiziert werden, sowie effiziente Suchwerkzeuge entwickelt werden. Unser Ziel ist es, einen E-Bibliothekar-Dienst zu schaffen, der multimediale Ressourcen in einer Wissensbank auf effizientere Art und Weise findet als mittels Navigieren durch ein Inhaltsverzeichnis oder mithilfe einer einfachen Stichwortsuche. Unsere Prämisse ist, dass passendere Ergebnisse gefunden werden könnten, wenn die semantische Suchmaschine den Sinn der Benutzeranfrage verstehen würde. In diesem Fall wären die gelieferten Antworten logische Konsequenzen einer Inferenz und nicht die einer Schlüsselwortsuche. Tests haben gezeigt, dass unser E-Bibliothekar-Dienst unter allen Dokumenten in einer gegebenen Wissensbank diejenigen findet, die semantisch am besten zur Anfrage des Benutzers passen. Dabei gilt, dass der Benutzer eine vollständige und präzise Antwort erwartet, die keine oder nur wenige Zusatzinformationen enthält. Außerdem ist unser System in der Lage, dem Benutzer die Qualität und Pertinenz der gelieferten Antworten zu quantifizieren und zu veranschaulichen. Schlussendlich liefert unser E-Bibliothekar-Dienst dem Benutzer immer eine Antwort, selbst wenn das System feststellt, dass es keine vollständige Antwort auf die Frage gibt. Unser E-Bibliothekar-Dienst ermöglicht es dem Benutzer, seine Fragen in einer sehr einfachen und menschlichen Art und Weise auszudrücken, nämlich in natürlicher Sprache. Linguistische Informationen und ein gegebener Kontext in Form einer Ontologie werden für die semantische Übersetzung der Benutzereingabe in eine logische Form benutzt. Unser E-Bibliothekar-Dienst wurde prototypisch in drei unterschiedliche pädagogische Werkzeuge umgesetzt. In zwei Experimenten wurde in einem pädagogischen Umfeld die Angemessenheit und die Zuverlässigkeit dieser Werkzeuge als Komplement zum klassischen Unterricht geprüft. Die Hauptergebnisse sind folgende: Erstens wurde festgestellt, dass Schüler generell akzeptieren, ganze Fragen einzugeben - anstelle von Stichwörtern - wenn dies ihnen hilft, bessere Suchresultate zu erhalten. Zweitens, das wichtigste Resultat aus den Experimenten ist die Erkenntnis, dass Schuleresultate verbessert werden können, wenn Schüler unseren E-Bibliothekar-Dienst verwenden. Wir haben eine generelle Verbesserung von 5% der Schulresultate gemessen. 50% der Schüler haben ihre Schulnoten verbessert, 41% von ihnen sogar maßgeblich. Einer der Hauptgründe für diese positiven Resultate ist, dass die Schüler motivierter waren und folglich bereit waren, mehr Einsatz und Fleiß in das Lernen und in das Erwerben von neuem Wissen zu investieren.
35

Search for the Standard Model Higgs boson in the dimuon decay channel with the ATLAS detector

Rudolph, Christian 02 October 2014 (has links) (PDF)
Die Suche nach dem Higgs-Boson des Standardmodells der Teilchenphysik stellte einen der Hauptgründe für den Bau des Large Hadron Colliders (LHC) dar, dem derzeit größten Teilchenphysik-Experiment der Welt. Die vorliegende Arbeit ist gleichfalls von dieser Suche getrieben. Der direkte Zerfall des Higgs-Bosons in Myonen wird untersucht. Dieser Kanal hat mehrere Vorteile. Zum einen ist der Endzustand, bestehend aus zwei Myonen unterschiedlicher Ladung, leicht nachzuweisen und besitzt eine klare Signatur. Weiterhin ist die Massenauflösung hervorragend, sodass eine gegebenenfalls vorhandene Resonanz gleich in ihrer grundlegenden Eigenschaft - ihrer Masse - bestimmt werden kann. Leider ist der Zerfall des Higgs-Bosons in ein Paar von Myonen sehr selten. Lediglich etwa 2 von 10000 erzeugten Higgs-Bosonen zeigen diesen Endzustand . Außerdem existiert mit dem Standardmodellprozess Z/γ∗ → μμ ein Zerfall mit einer sehr ähnlichen Signatur, jedoch um Größenordnungen höherer Eintrittswahrscheinlichkeit. Auf ein entstandenes Higgs-Boson kommen so etwa 1,5 Millionen Z-Bosonen, welche am LHC bei einer Schwerpunktsenergie von 8 TeV produziert werden. In dieser Arbeit werden zwei eng miteinander verwandte Analysen präsentiert. Zum einen handelt es sich hierbei um die Untersuchung des Datensatzes von Proton-Proton-Kollisionen bei einer Schwerpunktsenergie von 8 TeV, aufgezeichnet vom ATLAS-Detektor im Jahre 2012, auch als alleinstehende Analyse bezeichnet. Zum anderen erfolgt die Präsentation der kombinierten Analyse des kompletten Run-I Datensatzes, welcher aus Aufzeichnungen von Proton-Proton-Kollisionen der Jahre 2011 und 2012 bei Schwerpunktsenergien von 7 TeV bzw. 8 TeV besteht. In beiden Fällen wird die Verteilung der invarianten Myon-Myon-Masse nach einer schmalen Resonanzsignatur auf der kontinuierlichen Untergrundverteilung hin untersucht. Dabei dient die theoretisch erwartete Massenverteilung sowie die Massenauflösung des ATLAS-Detektors als Grundlage, um analytische Parametrisierungen der Signal- und Untergrundverteilungen zu entwickeln. Auf diese Art wird der Einfluss systematischer Unsicherheiten auf Grund von ungenauer Beschreibung der Spektren in Monte-Carlo Simulationen verringert. Verbleibende systematische Unsicherheiten auf die Signalakzeptanz werden auf eine neuartige Weise bestimmt. Zusätzlich wird ein bisher einzigartiger Ansatz verfolgt, um die systematische Unsicherheit resultierend aus der Wahl der Untergrundparametrisierung in der kombinierten Analyse verfolgt. Zum ersten Mal wird dabei die Methode des scheinbaren Signals auf einem simulierten Untergrunddatensatz auf Generator-Niveau angewendet, was eine Bestimmung des Einflusses des Untergrundmodells auf die Anzahl der ermittelten Signalereignisse mit nie dagewesener Präzision ermöglicht. In keiner der durchgeführten Analysen konnte ein signifikanter Überschuss im invarianten Massenspektrum des Myon-Myon-Systems nachgewiesen werden, sodass obere Ausschlussgrenzen auf die Signalstärke μ = σ/σ(SM) in Abhängigkeit von der Higgs-Boson-Masse gesetzt werden. Dabei sind Stärken von μ ≥ 10,13 bzw. μ ≥ 7,05 mit einem Konfidenzniveau von 95% durch die alleinstehende bzw. kombinierte Analyse ausgeschlossen, jeweils für eine Higgs-Boson-Masse von 125,5 GeV. Die erzielten Ergebnisse werden ebenfalls im Hinblick auf die kürzlich erfolgte Entdeckung des neuen Teilchens interpretiert, dessen Eigenschaften mit den Vorhersagen eines Standardmodell-Higgs-Bosons mit einer Masse von etwa 125,5 GeV kompatibel sind. Dabei werden obere Grenzen auf das Verzweigungsverhältnis von BR(H → μμ) ≤ 1,3 × 10^−3 und auf die Yukawa-Kopplung des Myons von λμ ≤ 1,6 × 10^−3 gesetzt, jeweils mit einem Konfidenzniveau von 95%. / The search for the Standard Model Higgs boson was one of the key motivations to build the world’s largest particle physics experiment to date, the Large Hadron Collider (LHC). This thesis is equally driven by this search, and it investigates the direct muonic decay of the Higgs boson. The decay into muons has several advantages: it provides a very clear final state with two muons of opposite charge, which can easily be detected. In addition, the muonic final state has an excellent mass resolution, such that an observed resonance can be pinned down in one of its key properties: its mass. Unfortunately, the decay of a Standard Model Higgs boson into a pair of muons is very rare, only two out of 10000 Higgs bosons are predicted to exhibit this decay. On top of that, the non-resonant Standard Model background arising from the Z/γ∗ → μμ process has a very similar signature, while possessing a much higher cross-section. For one produced Higgs boson, there are approximately 1.5 million Z bosons produced at the LHC for a centre-of-mass energy of 8 TeV. Two related analyses are presented in this thesis: the investigation of 20.7 fb^−1 of the proton-proton collision dataset recorded by the ATLAS detector in 2012, referred to as standalone analysis, and the combined analysis as the search in the full run-I dataset consisting of proton-proton collision data recorded in 2011 and 2012, which corresponds to an integrated luminosity of L = 24.8 fb^−1 . In each case, the dimuon invariant mass spectrum is examined for a narrow resonance on top of the continuous background distribution. The dimuon phenomenology and ATLAS detector performance serve as the foundations to develop analytical models describing the spectra. Using these analytical parametrisations for the signal and background mass distributions, the sensitivity of the analyses to systematic uncertainties due to Monte-Carlo simulation mismodeling are minimised. These residual systematic uncertainties are addressed in a unique way as signal acceptance uncertainties. In addition, a new approach to assess the systematic uncertainty associated with the choice of the background model is designed for the combined analysis. For the first time, the spurious signal technique is performed on generator-level simulated background samples, which allows for a precise determination of the background fit bias. No statistically significant excess in the dimuon invariant mass spectrum is observed in either analysis, and upper limits are set on the signal strength μ = σ/σ(SM) as a function of the Higgs boson mass. Signal strengths of μ ≥ 10.13 and μ ≥ 7.05 are excluded for a Higgs boson mass of 125.5 GeV with a confidence level of 95% by the standalone and combined analysis, respectively. In the light of the discovery of a particle consistent with the predictions for a Standard Model Higgs boson with a mass of m H = 125.5 GeV, the search results are reinterpreted for this special case, setting upper limits on the Higgs boson branching ratio of BR(H →μμ) ≤ 1.3 × 10^−3, and on the muon Yukawa coupling of λμ ≤ 1.6 × 10^−3 , both with a confidence level of 95 %.
36

Braindump – Konzept eines visuellen Systems für das Wissensmanagement am Beispiel der Verwaltung von Internetquellen

Brade, Marius, Lamack, Frank, Groh, Rainer 16 May 2014 (has links) (PDF)
No description available.
37

Search for neutral MSSM Higgs bosons in the fully hadronic di-tau decay channel with the ATLAS detector

Wahrmund, Sebastian 18 July 2017 (has links) (PDF)
The search for additional heavy neutral Higgs bosons predicted in Minimal Supersymmetric Extensions of the Standard Model is presented, using the direct decay channel into two tau leptons which themselves decay hadronically. The study is based on proton-proton collisions recorded in 2011 at a center-of-mass energy of 7 TeV with the ATLAS detector at the Large Hadron Collider at CERN. With a sample size corresponding to an integrated luminosity of 4.5 fb−1, no significant excess above the expected Standard Model background prediction is observed and CLs exclusion limits at a 95% confidence level are evaluated for values of the CP-odd Higgs boson mass mA between 140 GeV to 800 GeV within the context of the mhmax and mhmod± benchmark scenarios. The results are combined with searches for neutral Higgs bosons performed using proton-proton collisions at a center-of-mass energy of 8 TeV recorded with the ATLAS detector in 2012, with a corresponding integrated luminosity of 19.5 fb−1. The combination allowed an improvement of the exclusion limit at the order of 1 to 3 units in tan β. Within the context of this study, the structure of additional interactions during a single proton-proton collision (the “underlying event”) in di-jet final states is analyzed using collision data at a center-of-mass energy of 7 TeV recorded with the ATLAS detector in 2010, with a corresponding integrated luminosity of 37 pb−1. The contribution of the underlying event is measured up to an energy scale of 800 GeV and compared to the predictions of various models. For several models, significant deviations compared to the measurements are found and the results are provided for the optimization of simulation algorithms.
38

Braindump – Konzept eines visuellen Systems für das Wissensmanagement am Beispiel der Verwaltung von Internetquellen

Brade, Marius, Lamack, Frank, Groh, Rainer January 2009 (has links)
No description available.
39

Unscharfe Suche für Terme geringer Frequenz in einem großen Korpus / Fuzzy Search for Infrequent Terms in a Large Corpus

Gerhards, Karl 10 January 2011 (has links)
Until now infrequent terms have been neglected in searching in order to save time and memory. With the help of a cascaded index and the introduced algorithms, such considerations are no longer necessary. A fast and efficient method was developed in order to find all terms in the largest freely available corpus of texts in the German language by exact search, part-word-search and fuzzy search. The process can be extended to include transliterated passages. In addition, documents that contain the term with a modified spelling, can also be found by a fuzzy search. Time and memory requirements are determined and fall considerably below the requests of common search engines.
40

Two-Stage Vehicle Routing Problems with Profits and Buffers: Analysis and Metaheuristic Optimization Algorithms

Le, Hoang Thanh 09 June 2023 (has links)
This thesis considers the Two-Stage Vehicle Routing Problem (VRP) with Profits and Buffers, which generalizes various optimization problems that are relevant for practical applications, such as the Two-Machine Flow Shop with Buffers and the Orienteering Problem. Two optimization problems are considered for the Two-Stage VRP with Profits and Buffers, namely the minimization of total time while respecting a profit constraint and the maximization of total profit under a budget constraint. The former generalizes the makespan minimization problem for the Two-Machine Flow Shop with Buffers, whereas the latter is comparable to the problem of maximizing score in the Orienteering Problem. For the three problems, a theoretical analysis is performed regarding computational complexity, existence of optimal permutation schedules (where all vehicles traverse the same nodes in the same order) and potential gaps in attainable solution quality between permutation schedules and non-permutation schedules. The obtained theoretical results are visualized in a table that gives an overview of various subproblems belonging to the Two-Stage VRP with Profits and Buffers, their theoretical properties and how they are connected. For the Two-Machine Flow Shop with Buffers and the Orienteering Problem, two metaheuristics 2BF-ILS and VNSOP are presented that obtain favorable results in computational experiments when compared to other state-of-the-art algorithms. For the Two-Stage VRP with Profits and Buffers, an algorithmic framework for Iterative Search Algorithms with Variable Neighborhoods (ISAVaN) is proposed that generalizes aspects from 2BF-ILS as well as VNSOP. Various algorithms derived from that framework are evaluated in an experimental study. The evaluation methodology used for all computational experiments in this thesis takes the performance during the run time into account and demonstrates that algorithms for structurally different problems, which are encompassed by the Two-Stage VRP with Profits and Buffers, can be evaluated with similar methods. The results show that the most suitable choice for the components in these algorithms is dependent on the properties of the problem and the considered evaluation criteria. However, a number of similarities to algorithms that perform well for the Two-Machine Flow Shop with Buffers and the Orienteering Problem can be identified. The framework unifies these characteristics, providing a spectrum of algorithms that can be adapted to the specifics of the considered Vehicle Routing Problem.:1 Introduction 2 Background 2.1 Problem Motivation 2.2 Formal Definition of the Two-Stage VRP with Profits and Buffers 2.3 Review of Literature on Related Vehicle Routing Problems 2.3.1 Two-Stage Vehicle Routing Problems 2.3.2 Vehicle Routing Problems with Profits 2.3.3 Vehicle Routing Problems with Capacity- or Resource-based Restrictions 2.4 Preliminary Remarks on Subsequent Chapters 3 The Two-Machine Flow Shop Problem with Buffers 3.1 Review of Literature on Flow Shop Problems with Buffers 3.1.1 Algorithms and Metaheuristics for Flow Shops with Buffers 3.1.2 Two-Machine Flow Shop Problems with Buffers 3.1.3 Blocking Flow Shops 3.1.4 Non-Permutation Schedules 3.1.5 Other Extensions and Variations of Flow Shop Problems 3.2 Theoretical Properties 3.2.1 Computational Complexity 3.2.2 The Existence of Optimal Permutation Schedules 3.2.3 The Gap Between Permutation Schedules an Non-Permutation 3.3 A Modification of the NEH Heuristic 3.4 An Iterated Local Search for the Two-Machine Flow Shop Problem with Buffers 3.5 Computational Evaluation 3.5.1 Algorithms for Comparison 3.5.2 Generation of Problem Instances 3.5.3 Parameter Values 3.5.4 Comparison of 2BF-ILS with other Metaheuristics 3.5.5 Comparison of 2BF-OPT with NEH 3.6 Summary 4 The Orienteering Problem 4.1 Review of Literature on Orienteering Problems 4.2 Theoretical Properties 4.3 A Variable Neighborhood Search for the Orienteering Problem 4.4 Computational Evaluation 4.4.1 Measurement of Algorithm Performance 4.4.2 Choice of Algorithms for Comparison 4.4.3 Problem Instances 4.4.4 Parameter Values 4.4.5 Experimental Setup 4.4.6 Comparison of VNSOP with other Metaheuristics 4.5 Summary 5 The Two-Stage Vehicle Routing Problem with Profits and Buffers 5.1 Theoretical Properties of the Two-Stage VRP with Profits and Buffers 5.1.1 Computational Complexity of the General Problem 5.1.2 Existence of Permutation Schedules in the Set of Optimal Solutions 5.1.3 The Gap Between Permutation Schedules an Non-Permutation Schedules 5.1.4 Remarks on Restricted Cases 5.1.5 Overview of Theoretical Results 5.2 A Metaheuristic Framework for the Two-Stage VRP with Profits and Buffers 5.3 Experimental Results 5.3.1 Problem Instances 5.3.2 Experimental Results for O_{max R, Cmax≤B} 5.3.3 Experimental Results for O_{min Cmax, R≥Q} 5.4 Summary Bibliography List of Figures List of Tables List of Algorithms

Page generated in 0.0522 seconds