• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 13
  • 4
  • 3
  • 1
  • Tagged with
  • 21
  • 15
  • 13
  • 8
  • 8
  • 8
  • 5
  • 5
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Arborescent numbers : higher arithmetic operations and division trees

Trappmann, Henryk January 2007 (has links)
The overall program "arborescent numbers" is to similarly perform the constructions from the natural numbers (N) to the positive fractional numbers (Q+) to positive real numbers (R+) beginning with (specific) binary trees instead of natural numbers. N can be regarded as the associative binary trees. The binary trees B and the left-commutative binary trees P allow the hassle-free definition of arbitrary high arithmetic operations (hyper ... hyperpowers). To construct the division trees the algebraic structure "coppice" is introduced which is a group with an addition over which the multiplication is right-distributive. Q+ is the initial associative coppice. The present work accomplishes one step in the program "arborescent numbers". That is the construction of the arborescent equivalent(s) of the positive fractional numbers. These equivalents are the "division binary trees" and the "fractional trees". A representation with decidable word problem for each of them is given. The set of functions f:R1->R1 generated from identity by taking powers is isomorphic to P and can be embedded into a coppice by taking inverses. / Baumartige Zahlen und höhere arithmetische Operationen Von Schülern und Laienmathematikern wird oft die Frage gestellt, warum nach den Operationen Addition (1. Stufe), Multiplikation (2. Stufe), Potenzieren (3. Stufe) keine Operationen der 4. oder höheren Stufen betrachtet werden. Jede Operation der nächsthöheren Stufe ist die Wiederholung der vorhergehenden Operation, z.B. n * x = x + x + ... + x x^n = x * x * ... * x Das offensichtliche Problem mit der Wiederholung des Potenzierens besteht darin, dass das Potenzieren nicht assoziativ ist und es somit mehrere Klammerungsmöglichkeiten für die Wiederholung dieser Operation gibt. Wählt man eine spezifische Klammerungsmöglichkeit aus, z.B. x^^n = (x^(x^(x^(......)))), gibt es jedoch wieder verschiedene Möglichkeiten, diese Operation auf rationale oder reelle n fortzusetzen. In der Tat kann man im Internet verschiedene solcher Fortsetzungen beschrieben finden und keine scheint besonders ausgezeichnet zu sein. Das ganze Dilemma der verschiedenen Klammerungen kann man jedoch überwinden, in dem man den Zahlenbereich abstrakter macht. So dass statt nur der Anzahl auch eine Klammerungsstruktur in einer Zahl kodiert wird. Die ganz natürliche Verallgemeinerung der natürlichen Zahlen in dieser Hinsicht sind die Binärbäume. Und in der Tat lassen sich die 4. und höhere Operationen in einer eindeutigen Weise auf den Binärbäumen erklären. Vielmehr stellt sich sogar heraus, dass die Binärbäume zu viel Information mit sich tragen, wenn es nur darum geht, die höheren Operationen zu definieren. Es gibt eine Spezialisierung der Binärbäume, die aber allgemeiner als die natürlichen Zahlen (die die assoziative Spezialisierung der Binärbäume sind) ist, und die die passende Informationsmenge zur Definition der höheren Operationen kodiert. Dies sind die so genannten linkskommutativen Binärbäume. Es stellt sich heraus, dass die (linkskommutativen) Binärbäume viele Eigenschaften der natürlichen Zahlen teilen, so z.B. die Assoziativität der Multiplikation (die Operation der 2. Stufe) und eine eindeutige Primzahlzerlegung. Dies motiviert die Frage, ob man die Erweiterungskonstruktionen der Zahlen: „natürliche Zahlen zu gebrochenen Zahlen“ (macht die Multiplikation umkehrbar) „gebrochene Zahlen zu positiven reellen Zahlen“ (macht das Potenzieren umkehrbar und erlaubt Grenzwertbildung) auch ausgehend von (linkskommutativen) Binärbäumen vornehmen kann. In der vorliegenden Arbeit wird (neben unzähligen anderen Resultaten) gezeigt, dass die Zahlenbereichserweiterung „natürliche Zahlen zu gebrochenen Zahlen“ auch analog für (linkskommutative) Binärbäume möglich ist. Das Ergebnis dieser Konstruktion sind die Divisionsbinärbäume (bzw. die gebrochenen Bäume). Letztere lassen sich unerwartet in der Form von Brüchen darstellen, sind jedoch als Verallgemeinerung der gebrochenen Zahlen sehr viel komplexer als dieser. (Das kann man live nachprüfen mit dem dafür erstellten Online-Rechner für gebrochene Bäume (auf englisch): http://math.eretrandre.org/cgi-bin/ftc/ftc.pl ) Damit wird ein Programm „baumartige Zahlen“ gestartet, indem es darum geht, auch die Erweiterung „gebrochene Zahlen zu positiven reellen Zahlen“ für die Divisionsbinärbäume (bzw. die gebrochenen Bäume) durchzuführen, wobei die höheren Operationen auf dieser Erweiterung definiert werden könnten und umkehrbar sein müssten. Ob dies wirklich möglich ist, ist derzeit unklar (neben diversen anderen direkt aus der Dissertation sich ergebenden Fragen) und eröffnet damit ein enorm umfangreiches Feld für weitere Forschungen.
2

L'enseignement secondaire des filles en Alsace-Lorraine et dans l'académie de Nancy de 1871 à 1940 / Girls' secondary schooling in Alsace-Lorraine and in the Academie de Nancy, 1871-1940

Ettwiller, Éric 07 January 2017 (has links)
L’enseignement secondaire des filles existait en France avant les cours Duruy (1867). Il se définissait par une réalité sociologique, celle d’institutions pour les filles de la bourgeoisie. En 1871, l’Alsace et une partie de la Lorraine furent annexées à l’Empire allemand ; la plus grande partie de la Lorraine resta française (académie de Nancy). En Alsace-Lorraine, l’enseignement secondaire des filles était donné dans les écoles supérieures de filles. Ces écoles étaient publiques ou privées. Le meilleur moyen de connaître leur fonctionnement est la rédaction de monographies. Dans l’académie de Nancy, seul l’enseignement public était qualifié de secondaire, mais on ne peut pas exclure les institutions privées. La démarche monographique est employée ici aussi. L’extension de l’étude jusqu’en 1940 permet d’observer l’uniformisation de l’enseignement secondaire. La seconde partie de la thèse traite des enseignants puis des élèves : on étudie les origines et la construction des identités. / Girls’ secondary schooling existed in Alsace and in Lorraine before the Cours Duruy (1867). It was defined by a sociological reality, which was that of institutions for daughters of the bourgeoisie. In 1871, Alsace and a part of Lorraine were annexed by the German Empire; Lorraine’s largest part was still French (Académie of Nancy). In Alsace- Lorraine, girls’ secondary schooling was given in Higher Girls’ Schools. Those schools were public or private. The best way to know how those institutions worked is to write monographs. In the Académie of Nancy, only public schools were called secondary schools. However we can’t exclude private institutions. The monographic way is also used here. The extension of the study until 1940 allows observing the unification of secondary schooling. The second part of the thesis discusses the teachers and school girls : we study the origins and the construction of identities.
3

Asset Allokationsentscheidungen auf Basis höherer Momente und impliziter Informationen / Asset Allocation with Higher Moments and Implied Information

Brinkmann, Felix Holger 14 February 2014 (has links)
Die auf Markowitz (1952) zurückgehende Portfoliotheorie ist ohne jeden Zweifel ein bedeutender Themenbereich der modernen finanzwirtschaftlichen Forschung. Zentral beschäftigt sich dieser Bereich mit der Frage, wie ein Anleger sein Vermögen auf unterschiedliche Anlagewerte verteilen soll. Als Ergebnis stellt sich ein optimales Verhältnis aus Rendite und Risiko heraus, wobei das Risiko ausschließlich durch die Varianz der Portfoliorendite erfasst wird. Konkrete Anwendungen dieses Konzeptes erzielen jedoch aufgrund von Schätzfehlern und Stationaritätsannahmen bei der Erwartungsbildung enttäuschende Resultate, speziell im Vergleich zu passiven Anlagestrategien. Die vorliegende Arbeit greift nun beide Aspekte parallel auf. Zum einem werden neben der Varianz auch weitere höhere Momente der Portfoliorenditeverteilung in der optimalen Asset Allokation berücksichtigt, zum anderen werden an Stelle von historischen Renditezeitreihen implizite Informationen aus dem Optionsmarkt für die Erwartungsbildung genutzt. Die Arbeit leistet hierzu methodische, theoretische und empirische Beiträge. Es wird aufgezeigt, wie implizite Informationen in der Asset Allokation mit höheren Momenten zur Anwendung kommen und, im Rahmen von umfangreichen empirischen Studien, dass im Vergleich zur Erwartungsbildung auf Basis historischer Renditezeitreihen implizite Informationen in der Asset Allokation vorzuziehen sind.
4

The role of higher moments in high-frequency data modelling

Schmid, Manuel 24 November 2021 (has links)
This thesis studies the role of higher moments, that is moments behind mean and variance, in continuous-time, or diffusion, processes, which are commonly used to model so-called high-frequency data. Thereby, the first part is devoted to the derivation of closed-form expression of general (un)conditional (co)moment formulas of the famous CIR process’s solution. A byproduct of this derivation will be a novel way of proving that the process’s transition density is a noncentral chi-square distribution and that its steady-state law is a Gamma distribution. In the second part, we use these moment formulas to derive a near-exact simulation algorithm to the Heston model, in the sense that our algorithm generates pseudo-random numbers that have the same first four moments as the theoretical diffusion process. We will conduct several in-depth Monte Carlo studies to determine which existing simulation algorithm performs best with respect to these higher moments under certain circumstances. We will conduct the same study for the CIR process, which serves as a diffusion for the latent spot variance in the Heston model. The third part discusses several estimation approaches to the Heston model based on high-frequency data, such as MM, GMM, and (pseudo/quasi) ML. For the GMM approach, we will use the moments derived in the first part as moment conditions. We apply the best methodology to actual high-frequency price series of cryptocurrencies and FIAT stocks to provide benchmark parameter estimates. / Die vorliegende Arbeit untersucht die Rolle von höheren Momenten, also Momente, welche über den Erwartungswert und die Varianz hinausgehen, im Kontext von zeitstetigen Zeitreihenmodellen. Solche Diffusionsprozesse werden häufig genutzt, um sogenannte Hochfrequenzdaten zu beschreiben. Teil 1 der Arbeit beschäftigt sich mit der Herleitung von allgemeinen und in geschlossener Form verfügbaren Ausdrücken der (un)bedingten (Ko-)Momente der Lösung zum CIR-Prozess. Mittels dieser Formeln wird auf einem alternativen Weg bewiesen, dass die Übergangsdichte dieses Prozesses mithilfe einer nichtzentralen Chi-Quadrat-Verteilung beschrieben werden kann, und dass seine stationäre Verteilung einer Gamma-Verteilung entspricht. Im zweiten Teil werden die zuvor entwickelten Ausdrücke genutzt, um einen nahezu exakten Simulationsalgorithmus für das Hestonmodell herzuleiten. Dieser Algorithmus ist in dem Sinne nahezu exakt, dass er Pseudo-Zufallszahlen generiert, welche die gleichen ersten vier Momente besitzen, wie der dem Hestonmodell zugrundeliegende Diffusionsprozess. Ferner werden Monte-Carlo-Studien durchgeführt, die ergründen sollen, welche bereits existierenden Simulationsalgorithmen in Hinblick auf die ersten vier Momente die besten Ergebnisse liefern. Die gleiche Studie wird außerdem für die Simulation des CIR-Prozesses durchgeführt, welcher im Hestonmodell als Diffusion für die latente, instantane Varianz dient. Im dritten Teil werden mehrere Schätzverfahren für das Hestonmodell, wie das MM-, GMM und pseudo- beziehungsweise quasi-ML-Verfahren, diskutiert. Diese werden unter Benutzung von Hochfrequenzdaten studiert. Für das GMM-Verfahren dienen die hergeleiteten Momente aus dem ersten Teil der Arbeit als Momentebedingungen. Um ferner Schätzwerte für das Hestonmodell zu finden, werden die besten Verfahren auf Hochfrequenzmarktdaten von Kryptowährungen, sowie hochliquider Aktientitel angewandt. Diese sollen zukünftig als Orientierungswerte dienen.
5

100 Jahre Gymnasium Hohenelbe / Vrchlabí: 1909 - 2009

Fink, Wolfgang 06 February 2018 (has links)
No description available.
6

Verification of Golog Programs over Description Logic Actions

Baader, Franz, Zarrieß, Benjamin 20 June 2022 (has links)
High-level action programming languages such as Golog have successfully been used to model the behavior of autonomous agents. In addition to a logic-based action formalism for describing the environment and the effects of basic actions, they enable the construction of complex actions using typical programming language constructs. To ensure that the execution of such complex actions leads to the desired behavior of the agent, one needs to specify the required properties in a formal way, and then verify that these requirements are met by any execution of the program. Due to the expressiveness of the action formalism underlying Golog (situation calculus), the verification problem for Golog programs is in general undecidable. Action formalisms based on Description Logic (DL) try to achieve decidability of inference problems such as the projection problem by restricting the expressiveness of the underlying base logic. However, until now these formalisms have not been used within Golog programs. In the present paper, we introduce a variant of Golog where basic actions are defined using such a DL-based formalism, and show that the verification problem for such programs is decidable. This improves on our previous work on verifying properties of infinite sequences of DL actions in that it considers (finite and infinite) sequences of DL actions that correspond to (terminating and non-terminating) runs of a Golog program rather than just infinite sequences accepted by a Büchi automaton abstracting the program.
7

On the Decidability of Verifying LTL Properties of Golog Programs: Extended Version

Zarrieß, Benjamin, Claßen, Jens 20 June 2022 (has links)
Golog is a high-level action programming language for controlling autonomous agents such as mobile robots. It is defined on top of a logic-based action theory expressed in the Situation Calculus. Before a program is deployed onto an actual robot and executed in the physical world, it is desirable, if not crucial, to verify that it meets certain requirements (typically expressed through temporal formulas) and thus indeed exhibits the desired behaviour. However, due to the high (first-order) expressiveness of the language, the corresponding verification problem is in general undecidable. In this paper, we extend earlier results to identify a large, non-trivial fragment of the formalism where verification is decidable. In particular, we consider properties expressed in a first-order variant of the branching-time temporal logic CTL*. Decidability is obtained by (1) resorting to the decidable first-order fragment C² as underlying base logic, (2) using a fragment of Golog with ground actions only, and (3) requiring the action theory to only admit local effects. / In this extended version we extend the decidability result for the verification problem to the temporal logic CTL* over C2-axioms.
8

The physics of higher-spin theories

Kessel, Pan 07 December 2016 (has links)
Höhere Spin Theorien haben in den letzten Jahren große Aufmerksamkeit gefunden. Ein Grund dafür ist, dass diese Theorien dual zu besonders einfachen konformen Feldtheorien sind. Die einzigen bekannten wechselwirkenden höheren Spin Theorien wurden von Vasiliev in einem sehr ungewöhnlichen Formalismus und mit unendlich vielen Hilfsfeldern konstruiert. Die vorliegende Arbeit extrahiert die Physik, die durch diese Gleichungen beschrieben wird. Wir untersuchen im Detail die Wechselwirkungen, das Spektrum sowie die Lokalitätseigenschaften der Vasiliev Theorie. Diese Arbeit ist die erste systematische Untersuchung der Vasiliev Theorie auf wechselwirkender Ebene (nur ausgedrückt durch physikalische Felder). / Higher-spin theories have received significant attention over the last years. This is because they arise as the bulk duals of comparatively tractable conformal field theories. The only known interacting higher-spin theories were constructed by Vasiliev and are formulated in a highly non-standard way in terms of an infinite number of auxiliary fields. This thesis extracts physics out of Vasiliev theory. We study in detail its interactions, spectrum and locality properties. We consider both the three- and four-dimensional case. Our work represents the first systematic study of Vasiliev theory at the interacting level (in terms of physical fields only).
9

The embedding of gauged N = 8 supergravity into 11 dimensions

Krüger, Olaf 16 December 2016 (has links)
Diese Doktorarbeit behandelt die bosonische Einbettung der geeichten N = 8 Supergravitation in elf Dimensionen. Die höher dimensionalen Felder müssen zuerst nichtlinear umdefiniert werden, sodass ihre supersymmetrischen Transformationen mit denen der vierdimensionalen Felder verglichen werden können. So wurden in der Literatur nichtlineare Beziehungen zwischen den neu definierten elfdimensionalen Feldern und den Feldern der N = 8 Supergravitation gefunden. Darauf basierend können nun direkte Ansätze gefunden werden, die eine vierdimensionale in eine elfdimensionale Lösung der Supergravitation einbetten. Die Arbeit präsentiert alle Ansätze für die skalaren internen Felder. Zuerst werden die schon bekannten Einbettungsformeln für die inverse Metrik, das Dreiform-Potential mit gemischter Indexstruktur sowie das Sechsform-Potential zusammengefasst. Danach werden neue Ansätze für die explizite interne Metrik, das vollständige Dreiform-Potential, den Warp Faktor, die Vierform Feldstärke sowie den Freund-Rubin Faktor gefunden. Die Einbettung der Vektorbosonen hängt dann nur von den skalaren Feldern ab. Der zweite Teil der Arbeit benutzt die gefundenen Einbettungsformeln, um gruppeninvariante Lösungen der elfdimensionalen Supergravitation zu finden. In solchen Fällen hängen die höherdimensionalen Felder ausschließlich von speziellen gruppeninvarianten Tensoren ab, die auf die jeweilige interne Geometrie angepasst sind. Als Beispiel wird zuerst die schon bekannte Einbettung der G2 invarianten Supergravitation zusammengefasst. Dann wird eine neue SO(3)×SO(3) invariante Löung der elfdimensionalen Supergravitation gefunden. Schließlich wird die Konsistenz der gefundenen Lösungen für eine maximal symmetrische Raumzeit überprüft. Die Ergebnisse können auf andere Kompaktifizierungen verallgemeinert werden, z.B. auf die nichtkompakten CSO(p,q,r) Eichungen oder auf die Reduzierung der Typ IIB Supergravitation zu fünf Dimensionen. / This thesis presents the complete embedding of the bosonic section of gauged N = 8 supergravity into 11 dimensions. The fields of 11-dimensional supergravity are reformulated in a non-linear way, such that their supersymmetry transformations can be compared to the four-dimensional ones. In this way, non-linear relations between the redefined higher-dimensional fields and the fields of N = 8 supergravity were already found in the literature. This is the basis for finding direct uplift Ansätze for the bosonic fields of 11-dimensional supergravity in terms of the four-dimensional ones. This work gives the scalar Ans¨atze for the internal fields. First, the well known uplift formulae for the inverse metric, the three-form potential with mixed index structure and the six-form potential are summarized. Secondly, new embedding formulae for the explicit internal metric, the full three-form potential and the warp factor are presented. Additionally, two subsequent non-linear Ansätze for the full internal four-form field strength and the Freund-Rubin term are found. Finally, the vector uplift can simply be found in terms of the obtained scalar fields. The second part of this thesis uses the obtained embedding formulae in order to construct group invariant solutions of 11-dimensional supergravity. In such cases, the higher-dimensional fields can be written solely in terms of certain group invariant tensors that are adapted to the particular geometry of the internal space. Two such examples are discussed in detail. The first one is the well-known uplift of G2 gauged supergravity. Furthermore, a new SO(3)×SO(3) invariant solution of 11-dimensional supergravity is found. In particular, the consistency of both solutions is explicitly checked for a maximally symmetric spacetime. The results may be generalized to other compactifications, e.g. the non-compact CSO(p, q, r) gaugings or the reduction from type IIB supergravity to five dimensions.
10

Structured higher-order algorithmic differentiation in the forward and reverse mode with application in optimum experimental design

Walter, Sebastian 07 May 2012 (has links)
In dieser Arbeit werden Techniken beschrieben, die es erlauben (höhere) Ableitungen und Taylorapproximationen solcher Computerprogramme effizient zu berechnen. Auch inbesondere dann, wenn die Programme Algorithmen der numerischen linearen Algebra (NLA) enthalten. Im Gegensatz zur traditionellen algorithmischen Differentiation (AD), bei der die zugrunde liegenden Algorithmen um zusätzliche Befehlere erweitert werden, sind in dieser Arbeit die Zerlegungen durch definierende Gleichungen charakterisiert. Basierend auf den definierenden Gleichungen werden Strukturausnutzende Algorithmen hergeleitet. Genauer, neuartige Algorithmen für die Propagation von Taylorpolynomen durch die QR, Cholesky und reell-symmetrischen Eigenwertzerlegung werden präsentiert. Desweiteren werden Algorithmen für den Rückwärtsmodus der AD hergeleitet, welche im Wesentlichen nur die Faktoren der Zerlegungen benötigen. Im Vergleich zum traditionellen Ansatz, bei dem alle Zwischenergebnisse gespeichert werden, ist dies eine Reduktion von O(N^3) zu O(N^2) für Algorithmen mit O(N^3) Komplexität. N ist hier die Größe der Matrix. Zusätzlich kann bestehende, hoch-optimierte Software verwendet werden. Ein Laufzeitvergleich zeigt, dass dies im Vergleich zum traditionellen Ansatz zu einer Beschleunigung in der Größenordnung 100 führen kann. Da die NLA Funktionen als Black Box betrachtet werden, ist desweiteren auch der Berechnungsgraph um Größenordnungen kleiner. Dies bedeutet, dass Software, welche Operator Overloading benutzt, weniger Overhead hervorruft und auch weniger Speicher benötigt. / This thesis provides a framework for the evaluation of first and higher-order derivatives and Taylor series expansions through large computer programs that contain numerical linear algebra (NLA) functions. It is a generalization of traditional algorithmic differentiation (AD) techniques in that NLA functions are regarded as black boxes where the inputs and outputs are related by defining equations. Based on the defining equations, structure-exploiting algorithms are derived. More precisely, novel algorithms for the propagation of Taylor polynomials through the QR, Cholesky,- and real-symmetric eigenvalue decomposition are shown. Recurrences for the reverse mode of AD, which require essentially only the returned factors of the decomposition, are also derived. Compared to the traditional approach where all intermediates of an algorithm are stored, this is a reduction from O(N^3) to O(N^2) for algorithms with O( N^3) complexity. N denotes the matrix size. The derived algorithms make it possible to use existing high-performance implementations. A runtime comparison shows that the treatment of NLA functions as atomic can be more than one order of magnitude faster than an automatic differentiation of the underlying algorithm. Furthermore, the computational graph is orders of magnitudes smaller. This reduces the additional memory requirements, as well as the overhead, of operator overloading techniques to a fraction.

Page generated in 0.0476 seconds