221 |
Maximally twisted mass lattice QCD at the physical pion massKostrzewa, Bartosz 13 March 2017 (has links)
In der Gitterquantenchromodynamik sind der Einsatz von unphysikalisch großen Quarkmassen und die Extrapolation von Ergebnissen zu physikalischen Massen signifikante systematische Fehlerquellen. In dieser Arbeit wird die praktische Durchführbarkeit numerischer Simulationen der Quantenchromodynamik mit physikalisch leichten up und down Quarkmassen unter Verwendung der Wilson twisted mass Diskretisierung untersucht. Simulationen im Regime physikalisch leichter Quarkmassen sind jedoch einerseits numerisch sehr aufwendig, können andererseits aber auch durch das Auftreten großer Diskretisierungsartefakte nicht praktikabel sein. Anhand von Simulationen mit massendegenerierten dynamischen up und down Quarks wird dargestellt dass die Erweiterung der twisted mass Fermionwirkung durch den Sheikholeslami-Wohlert Term es ermöglicht physikalisch leichte Quarkmassen zu erreichen. Es wird gezeigt, dass die Simulationen stabil sind und dass die Parameter der diskretisierten Theorie so gewählt werden können, dass das geladene Pion seine physikalische Masse annimmt. Ferner wird dargestellt, dass auch die Parameter für eine Simulation mit dynamischen massendegenerierten up und down quarks sowie nichtdegenerierten strange und charm Quarks schrittweise auf ihre physkalischen Werte gesetzt werden können. Um das Verhalten von Observablen bei physikalischer Quarkmasse zu untersuchen, werden Massen und Zerfallskonstanten von pseudoskalaren Mesonen mit up, down sowie strange und charm Valenzquarks berechnet. Die Ergebnisse stimmen größtenteils überein mit den phänomenologischen Werten, obwohl weder Kontinuumslimes noch die Extrapolation zu unendlichem Volumen durchgeführt werden. Renormierte leichte, strange und charm Quarkmassen werden über Interpolationen in hadronischen Observablen berechnet und stimmen ebenso größtenteils mit phänomenologischen Werten und anderen Ergebnissen aus der Gitter-QCD überein. / In computer simulations of Lattice Quantum Chromodynamics, the usage of unphysically large quark masses and the subsequent extrapolation of results to the physical value of the quark masses are major sources of systematic uncertainty. In this thesis, the feasibility and practicality of numerical simulations of Quantum Chromodynamics with physically light up and down quarks using the Wilson twisted mass quark discretisation are explored. Working in this regime is complicated firstly by the numerical expense of these simulations and secondly by the presence of potentially large lattice artefacts. The twisted mass discretisation is affected by an unphysical mass difference between the charged and neutral pions, rendering simulations at the physical charged pion mass infeasible if this mass splitting is too large. With the aim of reducing it, the Sheikholeslami-Wohlert term is added to the twisted mass fermion action and simulations with mass degenerate up and down quarks are then performed as a proof of concept. It is demonstrated that these simulations are stable and that the parameters of the lattice theory can be successfully tuned to correspond to the physical charged pion mass. Subsequently, the parameter tuning for simulations with mass degenerate up and down quarks as well as strange and charm quarks is explored and it is shown that it can be carried out in steps. As benchmark observables, the masses and decay constants of pseudoscalar mesons with light, strange and charm valence quarks are calculated and seen to largely reproduce their phenomenological values, even though continuum and infinite volume extrapolations are not performed. Light, strange and charm quark mass estimates are determined based on this data and also seen to coincide with phenomenological and other lattice determinations.
|
222 |
Belyi pairs and scattering constantsPosingies, Anna 27 September 2010 (has links)
Diese Dissertation behandelt nicht-holomorphe Diese Dissertation behandelt nicht-holomorphe Eisensteinreihen und Dessins d''Enfants. Nicht-holomorphe Eisensteinreihen entstehen aus Untergruppen der Modulgruppe, indem man über alle Elemente der Gruppe modulo dem Stabilisator einer Spitze aufsummiert. Die zweite Struktur, Dessins d''Enfants, sind bipartite Graphen die in topologische Flächen eingebettet sind. Dessins d''Enfants stehen in Korrespondenz zu Belyi-Paaren und Untergruppen der Modulgruppe von endlichem Index. Deshalb bestehen zwischen Eisensteinreihen und Dessins d''Enfants Verbindungen und ein Schwerpunkt dieser Arbeit ist es, Informationen und Wissen über das eine Objekt in das andere zu übertragen. Bezüglich Dessins d''Enfants beschäftigen wir uns mit Symmetrien. Wir waren in der Lage, Automorphismen von algebraischen Kurven im assoziierten Dessin, in der zugehörigen Untergruppe sowie insbesondere auf den Spitzen zu interpretieren. Außerdem beschreiben wir die Zusammenhänge zwischen Dessins für Untergruppen, dadurch können wir für zwei Untergruppen anhand ihres Dessins entscheiden, ob sie in einander enthalten sind. In Kombination mit hier erbrachten Resultaten zu den Hauptkongruenzuntergruppen führt dies zu einem implementierten Algorithmus, der prüft, ob eine Gruppe eine Kongruenzuntergruppe ist oder nicht. Auf der Seite der Eisensteinreihen untersucht dieser Text Streukonstanten, Greensche Funktionen und Kroneckergrenzformeln. In der Streumatrix fanden wir Symmetrien (für bestimmte Gruppen). Für Greensche Funktionen wurde eine Spurformel bewiesen. Wir zeigten, dass Eisensteinreihen eine Identität erfüllen, die wir Kroneckergrenzformel nennen; sie vergleicht den konstanten Term der Eisensteinreihe mit Funktionen, die von ausgezeichneten Modulformen kommen. Die Dissertation gipfelt in der Berechnung der Streukonstanten für die Untergruppen assoziiert zu den Fermatkurven, die fast alle Nichtkongruenzuntergruppen sind. / In this dissertation non-holomorphic Eisenstein series and Dessins d''Enfants are considered. Non-holomorphic Eisenstein series are created out of subgroups of the modular group by summing up over all elements modulo the stabilizer of a cusp. The second main object, Dessins d''Enfants, are bipartite graphs that are embedded into topological surfaces. There is a correspondence between Dessins D''Enfants, Belyi pairs and subgroups of the modular group of finite index. Therefore Eisenstein series and Dessins d''Enfants are related and a focus of this work is how to use the one to find information about the other. The main results concerning Dessins d''Enfants in this thesis are investigations of symmetries of Dessins. We have been able to interpret automorphisms of algebraic curves on the associated Dessin, the subgroups and in particular the set of cusps. Furthermore, we describe the relation of Dessins for subgroups. Therefore, with help of the Dessins we can decide if two subgroups are contained in each other. Together with our results on the Dessins for principal congruence subgroups this leads to an implemented algorithm that checks if a subgroup is a congruence subgroup or not. On the side of Eisenstein series we consider scattering constants, Green''s functions and Kronecker limit formulas. We found symmetries in the scattering matrix for certain groups. For Green''s functions we established a trace formula. We showed that Eisenstein series fulfill an identity we call Kronecker limit formula in which they are compared with functions coming from certain modular forms. Most of the work done in this thesis culminates in the calculation of the scattering constants for the subgroups associated to Fermat curves; most of these groups are non-congruence.
|
223 |
Estimating the quadratic covariation from asynchronous noisy high-frequency observationsBibinger, Markus 30 August 2011 (has links)
Ein nichtparametrisches Schätzverfahren für die quadratische Kovariation von hochfrequent nicht-synchron beobachteter Itô-Prozessen mit einem additiven Rauschen wird entwickelt. Für eine artverwandte Folge von statistischen Experimenten wird die lokal asymptotische Normalität (LAN) im Sinne von Le Cam bewiesen. Mit dieser lassen sich optimale Konvergenzraten und Effizienzschranken für asymptotische Varianzen ableiten. Der vorgestellte Schätzer wird auf Grundlage von zwei modernen Verfahren, für die Anwendung bei nicht-synchronen Beobachtungen zum einen, und einem additiven Rauschen zum anderen, entwickelt. Der Hayashi-Yoshida Schätzer wird in einer neuen Darstellung eingeführt, welche einen Synchronisierungsalgorithmus mit einschließt, der für die kombinierte Methode ausgelegt werden kann. Es wird eine stabiles zentrales Grenzwerttheorem bewiesen, wobei spezieller Wert auf die Analyse des Einflusses der Nicht-Synchronität auf die asymptotische Varianz gelegt wird. Nach diesen Vorbereitungen wird das kombinierte Schätzverfahren für den allgemeinsten Fall nicht-synchroner verrauschter Beobachtungen vorgestellt. Dieses beruht auf Subsampling- und Multiskalenmethoden, die auf Mykland, Zhang und Aït-Sahalia zurück gehen. Es vereint positive Eigenschaften der beiden Ursprünge. Das zentrale Resultat dieser Arbeit ist der Beweis, dass der Schätzfehler stabil in Verteilung gegen eine gemischte Normalverteilung konvergiert. Für die asymptotische Varianz wird ein konsistenter Schätzer angegeben. In einer Anwendungsstudie wird eine praktische Implementierung des Schätzverfahrens, die die Wahl von abhängigen Parametern beinhaltet, getestet und auf ihre Eigenschaften im Falle endlicher Stichprobenumfänge untersucht. Neuen fortgeschrittenen Entwicklungen auf dem Forschungsfeld von Seite anderer Autoren wird Rechnung getragen durch Vergleiche und diesbezügliche Kommentare. / A nonparametric estimation approach for the quadratic covariation of Itô processes from high-frequency observations with an additive noise is developed. It is proved that a closely related sequence of statistical experiments is locally asymptotically normal (LAN) in the Le Cam sense. By virtue of this property optimal convergence rates and efficiency bounds for asymptotic variances of estimators can be concluded. The proposed nonparametric estimator is founded on a combination of two modern estimation methods devoted to an additive observation noise on the one hand and asynchronous observation schemes on the other hand. We reinvent this Hayashi-Yoshida estimator in a new illustration that can serve as a synchronization method which is possible to adapt for the combined approach. A stable central limit theorem is proved focusing especially on the impact of non-synchronicity on the asymptotic variance. With this preparations on hand, the generalized multiscale estimator for the noisy and asynchronous setting arises. This convenient method for the general model is based on subsampling and multiscale estimation techniques that have been established by Mykland, Zhang and Aït-Sahalia. It preserves valuable features of the synchronization methodology and the estimators to cope with noise perturbation. The central result of the thesis is that the estimation error of the generalized multiscale estimator converges with optimal rate stably in law to a centred mixed normal limiting distribution on fairly general regularity assumptions. For the asymptotic variance a consistent estimator based on time transformed histograms is given making the central limit theorem feasible. In an application study a practicable estimation algorithm including a choice of tuning parameters is tested for its features and finite sample size behaviour. We take account of recent advances on the research field by other authors in comparisons and notes.
|
224 |
Molekulare Mechanismen kutaner humaner Papillomviren (HPV) während der HautkarzinogeneseWestphal, Kathi 08 September 2009 (has links)
In den letzen Jahren gab es durch epidemiologische und molekularbiologische Studien vermehrt Hinweise, dass kutane humane Papillomviren (HPV) ursächlich an der Entstehung nicht-melanozytärer Hauttumore (engl. NMSC) beteiligt sind. Ziel der vorliegenden Arbeit war die Identifizierung molekularer Mechanismen der viralen Proteine E6 und E7 kutaner HPV-Typen. Die E6 oder E7 Gene der verschiedenen HPV-Typen 1, 4, 5, 8, 20, 38 und RTRX7 wurden untersucht. Natürliche Wirtszellen dieser Viren, humane primäre Keratinozyten (HPK) der Haut, wurden mit rekombinanten, für E6 oder E7 kodierenden Retroviren infiziert. Die Analysen erfolgten in Monolayer-Kultur (undifferenzierte Keratinozyten) oder in organotypischen Hautmodellen (Induktion der Keratinozytendifferenzierung). Die Expression von E6 oder E7 führte in Monolayer-HPK zu einer Verlängerung der Lebensspanne und zu einer deutlich erhöhten Verdoppelungsrate. Eine Telomeraseaktivierung, die charakteristisch für immortale Zellen ist, wurde nur in HPV 8 E6 positiven HPK nachgewiesen. In organotypischen Hautmodellen induzierte das E7 Protein von HPV 1, 4 und 38 starke Veränderungen in der Differenzierung sowie eine Zunahme der Proliferation. Weiterhin wurde eine Aufhebung der normalen Zellzykluskontrolle in suprabasalen HPV 5 E7 oder HPV 8 E7 beobachtet. Hinweise auf ein starkes invasives Potential von E7-infizierten HPK wurden für HPV 8 E7 bestätigt und für HPV 4 E7, HPV 38 E7 und RTRX7 E7 erweitert. Molekulare Mechanismen der viralen Gene E6 und E7 kutaner HPV unterscheiden sich von mukosalen Typen. Das Mehrstufenmodell der Karzinogenese beinhaltet eine Reihe fundamentaler Zelltransformationen, die für eine Tumorgenese nötig sind. In dieser Arbeit beschriebene Mechanismen der Modulation der Zelldifferenzierung und Zellproliferation durch die kutanen HPV-Typen 4, 5, 8 und 38 können unter Umständen zur Induktion und Progression früher Stadien von Plattenepithelkarzinomen (SCC) beitragen. / In the last years epidemiologic and molecular biological studies accumulated increasing evidence that cutaneous human papillomaviruses are etiologically involved in the formation of non-melanoma skin cancer (NMSC). The presented work aims to identify the underlying molecular mechanisms of the viral proteins E6 and E7 of cutaneous HPV types. The E6 and E7 genes of the different HPV types 1, 4, 5, 8, 20, and RTRX7, which are in vivo associated with cutaneous benign or malignant lesions, were studied. Natural host cells of these viruses, human primary keratinocyts (HPK) of the skin, were infected with recombinant E6 and E7 encoding retroviruses. The following analyses were performed in monolayer culture (non-differentiated keratinocytes) or in organotypic skin culture (induction of keratinocyte differentiation). The expression of E6 and E7 elongated the life span of monolayer HPK and significantly increased the doubling rate. An activation of the telomerase, characteristic for immortalized cells, was only detected in HPV 8 E6 positive cells. In organotypic skin cultures E7 of HPV 1, 4 and 38 induced drastic changes in differentiation and proliferation. Additionally an impairment of the normal cell cycle control in suprabasale HPV 5 E7 and 8 E7 cultures was seen. Hints for a strong invasive potential of E7 infected HPK were proven for HPV 8 E7 and expanded to HPV 4 E7, HPV 38 E7 and RTRX E7. The viral E6 and E7 genes of cutaneous and mucosal HPV types exhibit different molecular mechanisms. The multistep model of carcinogenesis includes a series of fundamental cell transformations necessary for tumorigenesis. Mechanisms for the modulation of cell differentiation and proliferation by cutaneous HPV types 4, 5, 8 and 38 described in this work could potentially contribute to the induction and progression of early stages of squamous cell carcinoma.
|
225 |
Observations and modeling of the active galactic nucleus B2 1215+30 together with performance studies of the ground-based gamma-ray observatories VERITAS and CTAProkoph, Heike 07 November 2013 (has links)
Das Gebiet der bodengebundenen Gamma-Astronomie bietet Zugang zu Photonen im TeV-Energiebereich und hat sich in den letzten Jahrzehnten vor allem durch den Erfolg der abbildenden atmosphärischen Cherenkov-Technik profiliert. In dieser Arbeit werden zwei dieser Cherenkov-Teleskop-Systeme, VERITAS und das zukünftige CTA, mit Hilfe von Monte-Carlo-Simulationen in Hinblick auf deren Sensitivität auf hochenergetische Gammastrahlung (E > 50 GeV) untersucht. Besonderes Augenmerk wird hierbei auf die Beobachtungsmöglichkeit mit CTA unter Mondlicht gelegt. Es wird gezeigt, dass dadurch eine Beobachtungszeitverlängerung um etwa 30% ohne signifikante Sensitivitätsverluste erreicht werden kann, was besonders wichtig für zeitlich variable Quellen ist. Eine dieser variablen Quellklassen sind aktive Galaxienkerne, welche zur Zeit etwa ein Drittel der bekannten hochenergetischen Gammastrahlungsquellen repräsentieren. Die meisten davon sind Blazare, deren Emission durch nicht-thermische Strahlung aus gebündelten Strömen von Materie und Energie (sogenannten Jets) dominiert wird. Diese Jets breiten sich mit annähernd Lichtgeschwindigkeit aus und sind in Sichtlinie des Betrachters ausgerichtet. Der Blazar B2 1215+30 wurde zwischen 2008 und 2012 mit VERITAS fast 100 Stunden beobachtet. Die Datenanalyse, welche in dieser Arbeit präsentiert wird, weist die Quelle mit einer Signifikanz von neun sigma nach und offenbart Langzeitvariabilität mit einem hellen Flusszustand im Jahr 2011. Multi-Wellenlängen-Daten werden verwendet um die spektrale Energieverteilung von B2 1215+30 zu konstruieren, welche gut mit einem leptonischen Ein-Zonen-Modell beschrieben werden kann. Das verwendete Modell wird im Detail vorgestellt und mögliche Einschränkungen an den Modellparameterraum untersucht. Die Ergebnisse der Modellierung von B2 1215+30 werden diskutiert und in Zusammenhang mit anderen bekannten hochenergetischen Gammastrahlen-Blazaren gesetzt. / Ground-based gamma-ray astronomy, which provides access to photons in the TeV energy range, has been a rapidly developing discipline over the past decades. In this thesis, the performance of the current- and next-generation imaging atmospheric Cherenkov telescopes VERITAS and CTA is evaluated using Monte Carlo simulations. Special emphasis is given to the possible extension of the duty cycle of CTA. It is shown that an increase of about 30% in observation time can be achieved through operation under partial moonlight without significant losses in performance. The increased observation time is especially important when studying astronomical objects which are variable at very high energies (VHE; E>50 GeV), such as active galactic nuclei (AGN), as this allows the extension of monitoring or multi-wavelength campaigns on these occasionally flaring sources. AGN represent to date about one third of the population of known VHE gamma-ray sources. Most of them are blazars, whose emission is dominated by non-thermal radiation of relativistic jets closely aligned to the line of sight of the observer. The blazar B2 1215+30 has been observed by VERITAS for nearly 100 hours between 2008 and 2012. The data analysis presented in this thesis yields a detection significance of 9.0 sigma and shows long-term variability with a relatively bright flux state in 2011. Multi-wavelength data are used to construct the spectral energy distribution of B2 1215+30 which is well described by a one-zone leptonic model. The model is presented in detail and possible constraints are investigated. The results of the modeling are discussed and put in context with other VHE-detected blazars.
|
226 |
Singular control of optional random measuresBank, Peter 14 December 2000 (has links)
In dieser Arbeit untersuchen wir das Problem der Maximierung bestimmter konkaver Funktionale auf dem Raum der optionalen, zufälligen Maße. Deartige Funktionale treten in der mikroökonomischen Literatur auf, wo ihre Maximierung auf die Bestimmung des optimalen Konsumplans eines ökomischen Agenten hinausläuft. Als Alternative zu den wohlbekannten Methoden der dynamischen Programmierung wird ein neuer Zugang vorgestellt, der es erlaubt, die Struktur der maximierenden Maße in einem über den üblicherweise angenommenen Markovschen Rahmen hinausgehenden, allgemeinen Semimartingalrahmen zu klären. Unser Zugang basiert auf einer unendlichdimensionalen Version des Kuhn-Tucker-Theorems. Die implizierten Bedingungen erster Ordnung erlauben es uns, das Maximierungsproblem auf ein neuartiges Darstellungsproblem für optionale Prozesse zu reduzieren, das damit als ein nicht-Markovsches Substitut für die Hamilton-Jacobi-Bellman Gleichung der dynamischen Programmierung dient. Um dieses Darstellungsproblem im deterministischen Fall zu lösen, führen wir eine zeitinhomogene Verallgemeinerung des Konvexitätsbegriffs ein. Die Lösung im allgemeinen stochastischen Fall ergibt sich über eine enge Beziehung zur Theorie des Gittins-Index der optimalen dynamischen Planung. Unter geeigneten Annahmen gelingt ihre Darstellung in geschlossener Form. Es zeigt sich dabei, daß die maximierenden Maße absolutstetig, diskret und auch singulär sein können, je nach Struktur der dem Problem zugrundeliegenden Stochastik. Im mikroökonomischen Kontext ist es natürlich, daß Problem in einen Gleichgewichtsrahmen einzubetten. Der letzte Teil der Arbeit liefert hierzu ein allgemeines Existenzresultat für ein solches Gleichgewicht. / In this thesis, we study the problem of maximizing certain concave functionals on the space of optional random measures. Such functionals arise in microeconomic theory where their maximization corresponds to finding the optimal consumption plan of some economic agent. As an alternative to the well-known methods of Dynamic Programming, we develop a new approach which allows us to clarify the structure of maximizing measures in a general stochastic setting extending beyond the usually required Markovian framework. Our approach is based on an infinite-dimensional version of the Kuhn-Tucker Theorem. The implied first-order conditions allow us to reduce the maximization problem to a new type of representation problem for optional processes which serves as a non-Markovian substitute for the Hamilton-Jacobi-Bellman equation of Dynamic Programming. In order to solve this representation problem in the deterministic case, we introduce a time-inhomogeneous generalization of convexity. The stochastic case is solved by using an intimate relation to the theory of Gittins-indices in optimal dynamic scheduling. Closed-form solutions are derived under appropriate conditions. Depending on the underlying stochastics, maximizing random measures can be absolutely continuous, discrete, and also singular. In the microeconomic context, it is natural to embed the above maximization problem in an equilibrium framework. In the last part of this thesis, we give a general existence result for such an equilibrium.
|
227 |
Fundamental parameters of QCD from non-perturbative methods for two and four flavorsMarinkovic, Marina 25 March 2014 (has links)
Die nicht perturbative Formulierung der Quantenchromodynamik (QCD) auf dem vierdimensionalen euklidischen Gitter in Zusammenhang mit der sogenannten Finite-Size-Scaling Methode ermoeglicht die nicht-perturbative Renormierung der QCD-Parameter. Um praezise Vorhersagen aus der Gitter-QCD zu erhalten, ist es noetig, die dynamischen Fermion-Freiheitsgrade in den Gitter-QCD-Simulationen zu beruecksichtigen. Wir betrachten QCD mit zwei und vier O(a)-verbesserten Wilson-Quark-Flavours, wobei deren Masse degeneriert ist. In dieser Dissertation verbessern wir die vorhandenen Bestimmungen des fundamentalen Parameters der Zwei- und Vier-Flavor-QCD. In der Vier-Flavor-Theorie berechnen wir den praezisen Wert des Lambda-Parameters in Einheiten der Skale Lmax, welche im hadronischen Bereich definiert ist. Zudem geben wir auch die praezise Bestimmung der laufenden Schoedinger-Funktional-Kopplung in Vier-Flavor-Theorie an sowie deren Vergleich zu perturbativen Resultaten. Die Monte-Carlo Simulationen der Gitter-QCD in der Schroedinger-Funktional-Formulierung wurden mittels der plattformunabhaengigen Software Schroedinger-Funktional-Mass-Preconditioned- Hybrid-Monte-Carlo (SF-MP-HMC) durchgefuehrt, die als Teil dieses Projektes entwickelt wurde. Schliesslich berechnen wir die Masse des Strange-Quarks und den Lambda-Parameter in Zwei-Flavor-Theorie, wobei die voll-kontrollierte Kontinuums- und chirale Extrapolation zum physikalischen Punkt durchgefuehrt wurden. Um dies zu erreichen, entwickeln wir eine universale Software fuer Simulationen der zwei Wilson-Fermionen-Flavor mit periodischen Randbedingungen, namens Mass-Preconditioned-Hybrid-Monte-Carlo (MP-HMC). Die MP-HMC wird verwendet um Simulationen mit kleinen Gitterabstaenden und in der Naehe der physikalischen Pionmasse ausfuehrlich zu untersuchen. / The non-perturbative formulation of Quantumchromodynamics (QCD) on a four dimensional space-time Euclidean lattice together with the finite size techniques enable us to perform the renormalization of the QCD parameters non-perturbatively. In order to obtain precise predictions from lattice QCD, one needs to include the dynamical fermions into lattice QCD simulations. We consider QCD with two and four mass degenerate flavors of O(a) improved Wilson quarks. In this thesis, we improve the existing determinations of the fundamental parameters of two and four flavor QCD. In four flavor theory, we compute the precise value of the Lambda parameter in the units of the scale Lmax defined in the hadronic regime. We also give the precise determination of the Schroedinger functional running coupling in four flavour theory and compare it to the perturbative results. The Monte Carlo simulations of lattice QCD within the Schroedinger Functional framework were performed with a platform independent program package Schroedinger Funktional Mass Preconditioned Hybrid Monte Carlo (SF-MP-HMC), developed as a part of this project. Finally, we compute the strange quark mass and the Lambda parameter in two flavour theory, performing a well-controlled continuum limit and chiral extrapolation. To achieve this, we developed a universal program package for simulating two flavours of Wilson fermions, Mass Preconditioned Hybrid Monte Carlo (MP-HMC), which we used to run large scale simulations on small lattice spacings and on pion masses close to the physical value.
|
228 |
Transplantation von Lebern nicht-herzschlagender Spender im Schweineleber-TransplantationsmodellSchön, Michael R. 14 November 2000 (has links)
Es wurde untersucht ob die normotherme extrakorporale Leberperfusion (NELP) als Methode geeignet ist, Lebern vor Transplantation zu konservieren, und ob sie warm ischämische Zellschäden beheben kann. Zum ersten Mal konnte experimentell gezeigt werden, daß eine erfolgreiche Transplantation nach 4 Stunden mit NELP möglich ist und sogar so zuverlässig, wie die Kaltkonservierung in der University of Wisconsin Lösung. Die NELP erhält die Leberfunktion und ermöglicht eine Regeneration warm ischämischer Schäden in Nicht-herzschlagenden Spendern. 36 Schweine der Deutschen Landrasse wurden in sechs Gruppen transplantiert. In der Gruppe 1 wurde direkt nach Organentnahme transplantiert, in Gruppe 2 nach 4 Stun-den Kaltkonservierung in der University of Wisconsin Lösung und in Gruppe 3 nach 4 Stunden NELP. In Gruppe 4 wurden die Lebern nach 60 Minuten warmer Ischämie direkt transplantiert, in Gruppe 5 nach 60 Minuten warmer Ischämie und 4 Stunden Kaltkonservierung und in Gruppe 6 nach 60 Minuten warmer Ischämie und 4 Stunden NELP. Alle Tiere deren Lebern vor Transplantation normotherm extrakorporal perfun-diert wurden (Gruppen 3 und 6) überlebten mit guter Organfunktion. Im Unterschied hierzu führte die Abfolge von 60 Minuten warmer Ischämie und 4 Stunden Kaltkonser-vierung unweigerlich zur primären Organ-Nichtfunktion innerhalb der ersten 24 Stun-den nach Lebertransplantation. Die Methode der NELP bietet die Chance eine Leber außerhalb des Körpers für Zeiträume von möglicherweise länger als 4 Stunden völlig funktionsfähig zu halten. Die NELP kann zur Organkonservierung vor Transplantation eingesetzt werden, aber auch dazu, Lebern von Nicht-Herzschlagenden Spendern zu nutzen. / Normothermic extracorporeal liver perfusion (NELP) was studied as a means to pre-serve livers for transplantation and to reverse warm ischemic injury. For the first time we provide experimental evidence that successful transplantation after 4h of normo-thermic extracorporeal liver perfusion is possible and as reliable as 4h of cold preser-vation in University of Wisconsin solution. NELP preserves liver function completely and is capable of reversing 60 min of warm ischemic injury in non heart beating do-nors. 36 German Landrace pigs were transplanted in six groups. Group 1 animals were transplanted directly, group 2 animals after 4h of cold preservation with University of Wisconsin solution and group 3 animals following 4h of normothermic extracorporeal liver perfusion. Group 4 animals sustained 1h of warm ischemia before transplantation of the liver. In group 5 animals were transplanted following 1h of warm ischemia and 4h of cold preservation, and in group 6 after 1h of warm ischemia and 4h of normo-thermic extracorporeal liver perfusion. All animals receiving livers treated by normo-thermic extracorporeal liver perfusion survived without liver failure (group 3 and 6). In contrast, all animals in group 5 developed primary graft non-function within 24 h after transplantation. The technique of NELP holds the potential to keep a mammalian liver outside the body completely functional, possibly for longer than 4h. NELP can be used for liver preservation prior to transplantation or to utilise organs from non-heart-beating donors.
|
229 |
Structure adaptive stylization of images and videoKyprianidis, Jan Eric January 2013 (has links)
In the early days of computer graphics, research was mainly driven by the goal to create realistic synthetic imagery. By contrast, non-photorealistic computer graphics, established as its own branch of computer graphics in the early 1990s, is mainly motivated by concepts and principles found in traditional art forms, such as painting, illustration, and graphic design, and it investigates concepts and techniques that abstract from reality using expressive, stylized, or illustrative rendering techniques. This thesis focuses on the artistic stylization of two-dimensional content and presents several novel automatic techniques for the creation of simplified stylistic illustrations from color images, video, and 3D renderings. Primary innovation of these novel techniques is that they utilize the smooth structure tensor as a simple and efficient way to obtain information about the local structure of an image.
More specifically, this thesis contributes to knowledge in this field in the following ways. First, a comprehensive review of the structure tensor is provided. In particular, different methods for integrating the minor eigenvector field of the smoothed structure tensor are developed, and the superiority of the smoothed structure tensor over the popular edge tangent flow is demonstrated. Second, separable implementations of the popular bilateral and difference of Gaussians filters that adapt to the local structure are presented. These filters avoid artifacts while being computationally highly efficient. Taken together, both provide an effective way to create a cartoon-style effect. Third, a generalization of the Kuwahara filter is presented that avoids artifacts by adapting the shape, scale, and orientation of the filter to the local structure. This causes directional image features to be better preserved and emphasized, resulting in overall sharper edges and a more feature-abiding painterly effect. In addition to the single-scale variant, a multi-scale variant is presented, which is capable of performing a highly aggressive abstraction. Fourth, a technique that builds upon the idea of combining flow-guided smoothing with shock filtering is presented, allowing for an aggressive exaggeration and an emphasis of directional image features.
All presented techniques are suitable for temporally coherent per-frame filtering of video or dynamic 3D renderings, without requiring expensive extra processing, such as optical flow. Moreover, they can be efficiently implemented to process content in real-time on a GPU. / In den Anfängen der Computergrafik war die Forschung hauptsächlich von dem Anspruch getragen, realistisch aussehende synthetische Bilder zu erstellen. Im Gegensatz dazu ist die nicht-photorealistische Computergraphik, ein Untergebiet der Computergrafik, welches in den frühen 1990er Jahren gegründet wurde, vor allem motiviert durch Konzepte und Prinzipien der traditionellen Kunst wie Malerei, Illustration und Grafikdesign. Diese Arbeit beschäftigt sich mit der künstlerischen Verarbeitung von zweidimensionalen Bildinhalten und präsentiert mehrere neue automatische Verfahren für die Erstellung von vereinfachten künstlerischen Darstellungen von Farbbildern, Videos und 3D- Renderings. Wichtigste Neuerung dieser Techniken ist die Verwendung des Strukturtensors als eine einfache und effiziente Möglichkeit, Informationen über die lokale Struktur eines Bildes zu erhalten.
Konkret werden die folgenden Beiträge gemacht. Erstens wird eine umfassende übersicht über den Strukturtensor gegeben. Insbesondere werden verschiedene Methoden für die Integration des kleineren Eigenvektorfeldes des geglätteten Strukturtensors entwickelt, und die Überlegenheit des geglätteten Strukturtensors gegenüber dem populären Edge-Tangent-Flow demonstriert. Zweitens werden separable Implementierungen des bilateralen Filters und des Difference of Gaussians Filters vorgestellt. Durch die Anpassung der Filter an die lokale Struktur des Bildes werden Bildfehler vermieden, wobei der Vorgang rechnerisch effizient bleibt. Zusammengenommen bieten beide Techniken eine effektive Möglichkeit, um einen Cartoon-ähnlichen Effekt zu erzielen. Drittens wird eine Verallgemeinerung des Kuwahara-Filters vorgestellt. Durch die Anpassung von Form, Umfang und Orientierung der Filter an die lokale Struktur werden Bildfehler verhindert. Außerdem werden direktionale Bildmerkmale besser berücksichtigt und betont, was zu schärferen Kanten und einem malerischen Effekt führt. Neben der single-scale Variante wird auch eine multi-scale Variante vorgestellt, welche im Stande ist, eine höhere Abstraktion zu erzielen. Viertens wird eine Technik vorgestellt, die auf der Kombination von flussgesteuerter Glättung und Schock-Filterung beruht, was zu einer intensiven Verstärkung und Betonung der direktionalen Bildmerkmale führt.
Alle vorgestellten Techniken erlauben die zeitlich kohärente Verarbeitung von Einzelbildern eines Videos oder einer dynamischen 3D-Szene, ohne dass andere aufwendige Verfahren wie zum Beispiel die Berechnung des optischen Flusses, benötigt werden. Darüberhinaus können die Techniken effizient implementiert werden und ermöglichen die Verarbeitung in Echtzeit auf einem Grafikprozessor (GPU).
|
230 |
Standard and Non-standard reasoning in Description Logics / Standard- und Nicht-Standard-Inferenzen in BeschreibungslogikenBrandt, Sebastian-Philipp 23 May 2006 (has links) (PDF)
The present work deals with Description Logics (DLs), a class of knowledge representation formalisms used to represent and reason about classes of individuals and relations between such classes in a formally well-defined way. We provide novel results in three main directions. (1) Tractable reasoning revisited: in the 1990s, DL research has largely answered the question for practically relevant yet tractable DL formalisms in the negative. Due to novel application domains, especially the Life Sciences, and a surprising tractability result by Baader, we have re-visited this question, this time looking in a new direction: general terminologies (TBoxes) and extensions thereof defined over the DL EL and extensions thereof. As main positive result, we devise EL++(D)-CBoxes as a tractable DL formalism with optimal expressivity in the sense that every additional standard DL constructor, every extension of the TBox formalism, or every more powerful concrete domain, makes reasoning intractable. (2) Non-standard inferences for knowledge maintenance: non-standard inferences, such as matching, can support domain experts in maintaining DL knowledge bases in a structured and well-defined way. In order to extend their availability and promote their use, the present work extends the state of the art of non-standard inferences both w.r.t. theory and implementation. Our main results are implementations and performance evaluations of known matching algorithms for the DLs ALE and ALN, optimal non-deterministic polynomial time algorithms for matching under acyclic side conditions in ALN and sublanguages, and optimal algorithms for matching w.r.t. cyclic (and hybrid) EL-TBoxes. (3) Non-standard inferences over general concept inclusion (GCI) axioms: the utility of GCIs in modern DL knowledge bases and the relevance of non-standard inferences to knowledge maintenance naturally motivate the question for tractable DL formalism in which both can be provided. As main result, we propose hybrid EL-TBoxes as a solution to this hitherto open question.
|
Page generated in 0.0796 seconds