• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 349
  • 79
  • 65
  • 30
  • 29
  • 12
  • 10
  • 9
  • 8
  • 7
  • 4
  • 4
  • 4
  • 4
  • 3
  • Tagged with
  • 751
  • 751
  • 106
  • 85
  • 78
  • 77
  • 70
  • 65
  • 62
  • 60
  • 58
  • 50
  • 49
  • 48
  • 44
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
731

Modélisation de la Volatilité Implicite, Primes de Risque d’Assurance, et Stratégies d’Arbitrage de Volatilité / Implied Volatility Modelling, Tail Risk Premia, and Volatility Arbitrage Strategies

Al Wakil, Anmar 11 December 2017 (has links)
Les stratégies de volatilité ont connu un rapide essor suite à la crise financière de 2008. Or, les récentes performances catastrophiques de ces instruments indiciels ont remis en question leurs contributions en couverture de portefeuille. Mes travaux de thèse visent à repenser, réinventer la philosophie des stratégies de volatilité. Au travers d'une analyse empirique préliminaire reposant sur la théorie de l'utilité espérée, le chapitre 1 dresse le diagnostic des stratégies traditionnelles de volatilité basées sur la couverture de long-terme par la réplication passive de la volatilité implicite. Il montre que, bien que ce type de couverture bat la couverture traditionnelle, elle s'avère inappropriée pour des investisseurs peu averses au risque.Le chapitre 2 ouvre la voie à une nouvelle génération de stratégies de volatilité, actives, optionnelles et basées sur l'investissement factoriel. En effet, notre décomposition analytique et empirique du smile de volatilité implicite en primes de risque implicites, distinctes et investissables permet de monétiser de manière active le portage de risques d'ordres supérieurs. Ces primes de risques mesurent l'écart de valorisation entre les distributions neutres au risque et les distributions physiques.Enfin, le chapitre 3 compare notre approche investissement factoriel avec les stratégies de volatilité employées par les hedge funds. Notre essai montre que nos stratégies de primes de risque d'assurance sont des déterminants importants dans la performance des hedge funds, tant en analyse temporelle que cross-sectionnelle. Ainsi, nous mettons en évidence dans quelle mesure l'alpha provient en réalité de la vente de stratégies d'assurance contre le risque extrême. / Volatility strategies have flourished since the Great Financial Crisis in 2008. Nevertheless, the recent catastrophic performance of such exchange-traded products has put into question their contributions for portfolio hedging and diversification. My thesis work aims to rethink and reinvent the philosophy of volatility strategies.From a preliminary empirical study based on the expected utility theory, Chapter 1 makes a diagnostic of traditional volatility strategies, based on buy-and-hold investments and passive replication of implied volatility. It exhibits that, although such portfolio hedging significantly outperforms traditional hedging, it appears strongly inappropriate for risk-loving investors.Chapter 2 paves the way for a new generation of volatility strategies, active, option-based and factor-based investing. Indeed, our both analytical and empirical decomposition of implied volatility smiles into a combination of implied risk premia, distinct and tradeable, enables to harvest actively the compensation for bearing higher-order risks. These insurance risk premia measure the pricing discrepanciesbetween the risk-neutral and the physical probability distributions.Finally, Chapter 3 compares our factor-based investing approach to the strategies usually employed in the hedge fund universe. Our essay clearly evidences that our tail risk premia strategies are incremental determinants in the hedge fund performance, in both the time-series and the cross-section of returns. Hence, we exhibit to what extent hedge fund alpha actually arises from selling crash insurance strategies against tail risks.
732

Hocheffizienter DC/DC-Wandler auf Basis von GaN-Leistungsschaltern für Hochleistungs-Leuchtdioden im Kraftfahrzeug

Werkstetter, Mario 12 April 2018 (has links)
In der vorliegenden Arbeit werden Möglichkeiten zur Maximierung der Effizienz von stromregelnden DC/DC-Wandlern für den Betrieb von Hochleistungs-LEDs in PKW-und Motorrad-Beleuchtungseinrichtungen untersucht, mit dem Ziel, das Gewicht und den Energieverbrauch der Steuergeräte zu reduzieren und so zu dem stetigen Bestreben der Minimierung der Gesamtfahrzeugemissionen beizutragen. Dafür werden verschiedene, teils sequenziell aufbauende Maßnahmen in Topologie, Bauelementen, Dimensionierung und Betriebsart betrachtet. Eine grundlegende Herausforderung für die Auslegung der Schaltung stellt dabei deren universelle Verwendbarkeit als Gleichteil in einem großen Bereich an Ausgangsstrom und -spannung in den individuellen Scheinwerfersystemen der verschiedenen Fahrzeugderivate dar. Die Grundlage für die Verringerung der Verlustleistung bildet die Vereinfachung der Schaltreglertopologie hinsichtlich des Bauteilaufwands. Dies wird durch die Versorgung der Schaltung aus dem 48 V-Energiebordnetz und die Verwendung der Topologie des Tiefsetzstellers erreicht. Elementarer Anteil dieser Arbeit ist die Untersuchung der Wirksamkeit des Einsatzes neuartiger Galliumnitrid-Leistungsschalter (GaN-HEMTs) anstelle der konventionellen Silizium-MOSFETs, was zunächst an Hand von Berechnungen und schaltungstechnischen, parasitärbehafteten und zeitvarianten Simulationen durchgeführt wird. Bereits bei herkömmlichen Schaltfrequenzen und hartgeschaltetem Betrieb können signifikante Verbesserungen des Wirkungsgrades erreicht werden. Weitergehend wird der Nutzen der durch die GaN-Transistoren ermöglichten höheren Schaltfrequenzen eruiert. Die um bis zu Faktor 20 erhöhte Schaltfrequenz macht den Einsatz einer resonanten Betriebsart (Zero-Voltage-Switching) und einer Luftspule als Hauptinduktivität notwendig. Auf Steuergeräteebene kann somit die Verlustleistung auf unter ein Drittel reduziert werden, was zudem ein deutlich einfacheres und kompakteres Gehäuse ermöglicht, wodurch das Gesamtgewicht etwa halbiert werden kann. Abschließend wird die Schaltung in einem Prototypen praktisch umgesetzt und die Funktionsfähigkeit im ZVS-Betrieb bei Schaltfrequenzen von bis zu 10 MHz verifiziert. / This thesis deals with the research of possibilities for maximising efficiency of current-regulating DC/DC-Converters for driving high-power-LEDs in passenger-car- and motorcycle-lighting-devices. The ambition is to reduce weight and energy-consumption of the electronic-control-units, to contribute to reach the continuously decreasing target-values for vehicle-emissions. Therefor different approaches in topology, components, design and operating mode are considered. A key-challenge for the circuit-design is the common-part-strategy for usage in many individual vehicle-headlamp-systems with a wide range of output-current and LED-string-voltages. Basis for the reduction of power-losses is the simplification of the converters topology in terms of quantity of components. This is achieved by using the 48 V -vehicle-electrical-system as voltage-supply and a step-down-topology. Mainpart of this research is about the potential benefits of applying novel Galliumnitride High-electron-mobility-transistors (GaN-HEMTs) instead of silicon MOS-FETs. Initially this is done by calculations and parasitic-afflicted, timevariant circuit-simulations. Already in hardswitching operation under conventional switching-frequencies significant improvements in converter-efficiency can be achieved. Furthermore the advantages of higher switching-frequencies, offered by the GaN-transistors, are investigated. Up to 20 times higher switching-frequencies necessitate a resonant operating mode of the circuit (Zero-voltage-switching) and the use of an aircoil as main-inductor. On ECU-level power-losses can be reduced down to less than one third, which enables a more simplified and compact housing-concept, so that the overall weight can drop to about the half. Finally the designed circuit is build up in a prototype and the functional capability is verified in ZVS-mode with up to 10 MHz switching-frequency.
733

Characterization of mass transport in the upper human airways

Bauer, Katrin 06 December 2011 (has links)
Mechanical ventilation can be a life saving treatment. However, due to the inhomogeneous and anisotropic behavior of the lung tissue, ventilation can also lead to overdistensions of lung regions whereas other areas remain even collapsed. A first step is a more comprehensive understanding of the flow mechanics under normal breathing conditions in a healthy lung as well as for a diseased, collapsed lung. This is the aim of this work. Therefore, a realistic model of the upper human airways has been generated at which experimental and numerical investigations could be carried out. Experimentally, the flow was analyzed by means of Particle Image Velocimetry (PIV) measurements which revealed new details about the flow patterns occurring during different ventilation frequencies. Numerical results were in good agreement with the experimental results and could provide new details about the three-dimensional flow structure and emerging secondary flow within the upper airways. The study of reopening of collapsed airways has shown that larger frequencies lead to airway reopening without overdistension of already open parts. Higher frequencies also lead to homogenization of mass flow distribution within the human lung. / Künstliche Beatmung ist meist eine lebensrettende Maßnahme. Aufgrund der räumlich anisotropen und inhomogenen Eigenschaften der Lunge kann die Beatmung jedoch auch zu einer Schädigung der Lunge führen. Daraus ergibt sich die Forderung einer „Protektiven Beatmung“. Ein erster Schritt dahingehend ist ein verbessertes Verständnis der Atmung und Beatmung am Beispiel der gesunden sowie kranken, teilweise kollabierten Lunge. Dies ist das Ziel der Arbeit. Hierfür wurde ein realistisches Modell der oberen Atemwege (Tracheobronchialbaum) angefertigt. An diesem Modell können sowohl experimentelle als auch numerische Untersuchungen durchgeführt werden. Experimentell wurde die Strömung mittels Particle Image Velocimetry (PIV) untersucht, wobei neue Details bezüglich der auftretenden Strömungsmuster für unterschiedliche Frequenzen gefunden wurden. Numerische Strömungsberechnungen stimmen gut mit den experimentellen Ergebnissen überein. Dreidimensionale Strömungsstrukturen sowie die Entwicklung von Sekundärwirbeln in der Lunge konnten erklärt werden. Eine Studie am kranken, teilweise kollabierten Lungenmodell zeigte, dass mit steigender Frequenz kollabierte Bereiche wiedereröffnet werden können. Höhere Frequenzen führen weiterhin zu einer Homogenisierung der Massenstromverteilung in der Lunge.
734

Assessing grade 7 students' English vocabulary in different immersion contexts

Scheepers, Ruth 30 November 2003 (has links)
Research has shown that the extent of students' vocabulary in the language of learning and teaching, as an important component of overall language proficiency, plays a crucial role in reading and academic success, whether students are studying through their mother tongue or not. This study compares the vocabulary size of Grade 7 English second language immersion students with that of their English mother tongue classmates, focusing primarily on receptive vocabulary. Two aspects of immersion that South African children may experience are identified: length and quality. It is assumed that the longer the immersion, and the richer the immersion environment, the more positive the effect on vocabulary size will be. Overall results suggest that length has a slightly stronger effect on receptive vocabulary size than quality, though both are generally positive, and that most immersion students are beginning to develop a basic receptive vocabulary size comparable with that of their English mother tongue peers. / Linguistics and Modern Languages / (M.A. (Linguistics))
735

Caractérisation des pertes mécaniques à hautes fréquences dans les couches minces par ondes acoustiques de surface

Rail, Samuel 08 1900 (has links)
La sensibilité des détecteurs d’ondes gravitationnelles de LIGO (Laser Interferometer Gravitational-Wave Observatory) est limité par les fluctuations thermiques dues à la dissipation mécanique dans les couches de Ta2O5 amorphe, qui est une composante des miroirs des interféromètres. Le paramètre d’angle de perte ( ) permet de quantifié l’ampleur de la dissipation et est obtenu en étudiant l’absorption d’énergie mécanique par la couche de matériau. Ce paramètre est généralement caractérisé expérimentalement à des fréquences d’excitations allant de 1-30 KHz près de celle qui nous intéresse pour la détection d’onde gravitationnelle (10-100 Hz) et par des simulations de dynamique moléculaire pour des fréquences très élevées (GHz). Notre recherche vise à caractériser l’angle de perte pour ce matériau pour des fréquences intermédiaires, soit dans la gamme des MHz. Afin d’obtenir une meilleure précision sur les résultats, on utilise les ondes acoustiques de surface qui donne un plus grand poids à la couche mince lors du calcul de l’angle de perte. Deux méthodes sont utilisées pour tenter d’obtenir l’angle de perte des couches ( c) de Ta2O5 de 1 μm déposées sur des substrats, d’une part, composé de SiO2 B270 d’épaisseur 2 mm, et d’autre part, de LiNbO3 d’épaisseur 1 mm. La première se fait à l’aide d’un transmetteur piézoélectrique amovible qui génère les ondes de surface et d’un vibromètre laser qui détecte l’amplitude des vibrations à différentes positions sur l’échantillon. Malgré un précision limitée, il est possible d’obtenir l’angle de perte des couches minces à une fréquence d’excitation de 9.08 MHz. Les résultats les plus fiables de c sont dans l’intervalle 2−7×10−2 avec des incertitudes de 1−3×10−2, ce qui représente de 15 à 50% des valeurs selon le cas. On obtient donc des résultats plus élevés que ce qui est attendu pour cette gamme de fréquence, même avec une précision limitée, ce qui nous porte à penser que certains mécanismes peuvent affecter l’angle de perte à plus hautes fréquences. Pour la deuxième méthode, on place directement sur l’échantillon des transmetteurs interdigitaux qui servent à la fois d’émetteur et de récepteur et une cavité résonante qui permet de contenir les ondes d’une certaine longueur d’onde sur l’échantillon. Les fréquences d’excitations des ondes de surface générés sont de 19.89 MHz et 33.15 MHz. Nos échantillons ne nous permettent pas de calculer c, mais la technique de mesure nous permet d’avoir une précision au moins plus élevée que la première méthode soit 1 × 10−2 pour un échantillon et 4 × 10−3 pour l’autre. On peut facilement améliorer la méthode, notamment en augmentant la réflectivité de la cavité résonante, ce qui permettrait d’obtenir des résultats précis avec des échantillons qui comprennent la couche mince. / Limitations to the sensitivity of LIGO’s (Laser Interferometer Gravitational-Wave Observatory) gravitational wave detectors is due to thermal fluctation induced by mechanical dissipation in the amorphous Ta2O5 thin films composing the interferometer’s mirrors. The loss angle parameter ( ) describes the magnitude of the dissipation that occurs in the material and is obtained by studying the mechanical energy absorption of the thin film. This parameter is usually measured for a range of frequencies going from 1 to 30 KHz, which is near the expected frequencies for gravitational wave detection (10-100 Hz). Molecular dynamics simulations also calculate the loss angle for very high frequencies (GHz). Our research aim to caracterise the loss angle of Ta2O5 thin films in the MHz mid-range frequencies. We use surface acoustic waves for the thin film to have a greater weight in the caculation of the loss angle to help us get a higher precision. Two methods are used to obtain the loss angle of the film ( c) of Ta2O5 (1 μm thick) which, for the first method, is deposited on a 2 mm thick SiO2 B270 substrates, and, for the second method, on a 1mm thick LiNbO3 substrates. The first one uses a movable piezoelectric transducer that generates the surface waves and a laser vibrometer to mesure the amplitude of the vibration along the sample. Though the precision is not very good, we were able to calculate the loss angle of thin films for a surface wave frequency of 9.08 MHz. The best results for c are within the range of 2 − 7 × 10−2 with uncertainties ranging from 1−3×10−2, which represent 15 to 50% of values by case. We get higher loss angles than what was expected for this frequency range, even with a low precision, so we suspect that some loss mechanisms might affect the loss angle at higher frequency. The second method uses a resonator that is place directly on the samples with interdigital transducers that generate the surface waves and acoustical mirrors that form the resonator (acoustical cavity). Wave are excited at two different frequencies, 19.89 MHz and 33.15 MHz, and are contained in the resonator to study their propagation on the sample. Althouth we do not have c results for coated sample, we were able to evaluate the precision of such measuments and we have uncertainties of 1 × 10−2 for a sample and 4 × 10−3 for the other. The samples used with this method could easily be improve, by increasing the reflecitvity of the resonator mirrors, to obtain a higher precision and get better results for sample coated with a thin film.
736

Elektromagnetisch modifizierte Materialien für Radarsensor-Abdeckungen

Bonfig, Teresa 23 December 2022 (has links)
Bei der Anwendung von Radarsensoren zur Fahrzeug-Umfelderfassung müssen verwendete Blenden (Radome), welche den Sensor vor externen Einflüssen schützen und das Fahrzeugdesign unterstützen, die hochfrequente elektromagnetische Welle ohne Beeinflussung transmittieren. Allerdings werden beim Durchstrahlen eines Bauteils unterschiedliche Anteile der Welle absorbiert, reflektiert oder transmittiert. Mit dem Ziel die Transmission von Materialien zu erhöhen, werden im Rahmen dieser Arbeit die Einflüsse auf den Materialparameter Permittivität von Kunststoffen und Lacken untersucht. Dadurch kann auch die praktische Umsetzbarkeit der theoretisch hergeleiteten Kompensationsmethoden für hochreflektierende Lacke nachgewiesen werden. Zur Absicherung der Radarfunktion müssen darüber hinaus auch Einflussfaktoren aus Design, Fertigungsprozess und Umgebung bekannt sein.:1 Einleitung 2 Problemstellung und Zielsetzung 3 Stand der Wissenschaft 4 Elektromagnetische Eigenschaften von Kunststoffen 5 Einfluss elektromagnetischer Eigenschaften von Lacken 6 Radome im Gesamtaufbau 7 Zusammenfassung und Ausblick Anhang / When radar sensors are used for vehicle environment scanning, the cover (radome) used to protect the sensor from external influences and support the vehicle design must transmit the high-frequency electromagnetic wave without interference. However, when the wave passes through a component it is absorbed, reflected or transmitted. The range of the radar sensor can be reduced, the sensor can be blinded by reflections and inhomogeneous reflection distributions can lead to angular errors. To increase the transmission of materials, the influences on the material parameter permittivity of plastics and paints are investigated. Furthermore, the practical feasibility of the theoretically derived compensation methods for highly reflective paints can be demonstrated. To ensure the radar function, influencing factors, including the design, the manufacturing process and environment, must also be known.:1 Einleitung 2 Problemstellung und Zielsetzung 3 Stand der Wissenschaft 4 Elektromagnetische Eigenschaften von Kunststoffen 5 Einfluss elektromagnetischer Eigenschaften von Lacken 6 Radome im Gesamtaufbau 7 Zusammenfassung und Ausblick Anhang
737

Analyse de la température du gaz dans les plasmas de haute fréquence à la pression atmosphérique par spectroscopie à très haute résolution spectrale

Labelle, Francis 08 1900 (has links)
Le présent mémoire de maîtrise est consacré à une étude spectroscopique de la température du gaz dans les plasmas hors équilibre thermodynamique d’argon à la pression atmosphérique. Nous avons notamment pu extraire, à l’aide de mesures par spectroscopie optique d’émission de structures rotationnelles des systèmes OH (A2Σ+- X2Πi) et N2+ (B2Σu+- X2Σg+), la température rotationnelle d’un plasma radiofréquence en régime capacitif et d’un plasma micro-onde produit par une onde électromagnétique de surface. En comparant ces mesures à celles obtenues par l’analyse de l’élargissement des raies 2p2-1s2 et 2p3-1s2 de l’argon avec un spectromètre à très haute résolution spectrale, nous avons pu démontrer que l’équilibre rotation-translation (Trot=Tg) n’est jamais atteint dans les configurations de plasmas étudiées. Cet écart entre les deux températures est attribué à l’influence des électrons, en compétition avec les atomes neutres, imposant leurs propres températures sur la distribution des niveaux rotationnels. De plus, l’effet du flux de gaz et de l’ajout de CO2 sur le chauffage du gaz a été étudié dans un plasma micro-onde d’argon à la pression atmosphérique. Nous avons noté des changements importants dans les profils axiaux de Tg en amont et en aval de l’excitateur à onde de surface selon les conditions opératoires. Pour séparer les facteurs gouvernant le chauffage du gaz à ceux associés au dépôt de puissance par l’onde électromagnétique, nous avons normalisé nos valeurs de Tg aux intensités des émissions de l’argon liées aux transitions 2p-1s entre 700 et 900 nm. Pour des temps de résidence dans le plasma d’argon suffisamment longs (et donc de faibles débits de gaz), les valeurs de Tg normalisées montrent un comportement assez constant, ce qui indique que le chauffage s’effectue principalement de manière locale. Au contraire, pour des temps plus longs (et donc des débits de gaz plus importants), les valeurs de Tg normalisées augmentent le long de la colonne à plasma, ce qui révèle que les phénomènes de transport commencent à jouer un rôle important. On note aussi un changement de comportement à plus hauts débits de gaz dû au passage d’un régime d’écoulement laminaire à un régime turbulent. En présence de CO2, dû aux mécanismes de chauffage additionnels, les valeurs de Tg normalisées sont systématiquement plus élevées. / The present master thesis is devoted to a spectroscopic study of the gas temperature in non-thermodynamic equilibrium argon plasmas at atmospheric pressure. In particular, we were able to extract, by means of optical emission spectroscopy measurements of rotational structures of the systems OH (A2Σ+- X2Πi) and N2+ (B2Σu+- X2Σg+), the rotational temperature of a radiofrequency plasma in capacitive mode and of a microwave plasma produced by an electromagnetic surface wave. By comparing these measurements with those obtained by the analysis of line broadening from 2p2-1s2 et 2p3-1s2 of argon with an ultrahigh spectral resolution spectrometer, we were able to demonstrate that the rotational-translational equilibrium (Trot=Tg) is never achieved in the plasma configurations studied. The departure from both temperatures is ascribed to the influence of electrons competing with neutrals to impose their own temperature on the distribution of rotational levels. In addition, the effect of gas flow and addition of CO2 admixtures on the gas heating has been studied in a microwave argon plasma at atmospheric pressure. We noted significant changes in the axial profiles of Tg on the upstream and downstream plasma column according to operating conditions. To separate the factors governing the heating of gas from those associated with the deposition of power by the electromagnetic wave, we have normalized our Tg values to the intensities of the argon emissions linked to the transitions 2p-1s between 700 and 900 nm. For long enough gas residence times in the argon plasma (and therefore low gas flow rates), normalized Tg values show a fairly constant behaviour, which indicates that the heating takes place mainly locally. On the contrary, for longer times (and therefore higher gas flow rates), normalized Tg values increases along the plasma column, which reveals that transport phenomena are starting to play an important role. There is also a change in behaviour at higher gas flow rates due to the change from a laminar flow regime to a turbulent regime. In the presence of CO2 admixtures, due to additional heating mechanisms, normalized Tg values are consistently higher.
738

Nonstationarity in Low and High Frequency Time Series

Saef, Danial Florian 20 February 2024 (has links)
Nichtstationarität ist eines der häufigsten, jedoch nach wie vor ungelösten Probleme in der Zeitreihenanalyse und ein immer wiederkehrendes Phänomen, sowohl in theoretischen als auch in angewandten Arbeiten. Die jüngsten Fortschritte in der ökonometrischen Theorie und in Methoden des maschinellen Lernens haben es Forschern ermöglicht, neue Ansätze für empirische Analysen zu entwickeln, von denen einige in dieser Arbeit erörtert werden sollen. Kapitel 3 befasst sich mit der Vorhersage von Mergers & Acquisitions (M&A). Obwohl es keinen Zweifel daran gibt, dass M&A-Aktivitäten im Unternehmenssektor wellenartigen Mustern folgen, gibt es keine einheitlich akzeptierte Definition einer solchen "Mergerwelle" im Zeitreihenkontext. Zur Messung der Fusions- und Übernahmetätigkeit werden häufig Zeitreihenmodelle mit Zähldaten verwendet und Mergerwellen werden dann als Cluster von Zeiträumen mit einer ungewöhnlich hohen Anzahl von solchen Mergers & Acqusitions im Nachhinein definiert. Die Verteilung der Abschlüsse ist jedoch in der Regel nicht normal (von Gaußscher Natur). In jüngster Zeit wurden verschiedene Ansätze vorgeschlagen, die den zeitlich variablen Charakter der M&A-Aktivitäten berücksichtigen, aber immer noch eine a-priori-Auswahl der Parameter erfordern. Wir schlagen vor, die Kombination aus einem lokalem parametrischem Ansatz und Multiplikator-Bootstrap an einen Zähldatenkontext anzupassen, um lokal homogene Intervalle in den Zeitreihen der M&A-Aktivität zu identifizieren. Dies macht eine manuelle Parameterauswahl überflüssig und ermöglicht die Erstellung genauer Prognosen ohne manuelle Eingaben. Kapitel 4 ist eine empirische Studie über Sprünge in Hochfrequenzmärkten für Kryptowährungen. Während Aufmerksamkeit ein Prädiktor für die Preise von Kryptowährungenn ist und Sprünge in Bitcoin-Preisen bekannt sind, wissen wir wenig über ihre Alternativen. Die Untersuchung von hochfrequenten Krypto-Ticks gibt uns die einzigartige Möglichkeit zu bestätigen, dass marktübergreifende Renditen von Kryptowährungenn durch Sprünge in Hochfrequenzdaten getrieben werden, die sich um Black-Swan-Ereignisse gruppieren und den saisonalen Schwankungen von Volatilität und Handelsvolumen ähneln. Regressionen zeigen, dass Sprünge innerhalb des Tages die Renditen am Ende des Tages in Größe und Richtung erheblich beeinflussen. Dies liefert grundlegende Forschungsergebnisse für Krypto-Optionspreismodelle und eröffnet Möglichkeiten, die ökonometrische Theorie weiterzuentwickeln, um die spezifische Marktmikrostruktur von Kryptowährungen besser zu berücksichtigen. In Kapitel 5 wird die zunehmende Verbreitung von Kryptowährungen (Digital Assets / DAs) wie Bitcoin (BTC) erörtert, die den Bedarf an genauen Optionspreismodellen erhöht. Bestehende Methoden werden jedoch der Volatilität der aufkommenden DAs nicht gerecht. Es wurden viele Modelle vorgeschlagen, um der unorthodoxen Marktdynamik und den häufigen Störungen in der Mikrostruktur zu begegnen, die durch die Nicht-Stationarität und die besonderen Statistiken der DA-Märkte verursacht werden. Sie sind jedoch entweder anfällig für den Fluch der Dimensionalität, da zusätzliche Komplexität erforderlich ist, um traditionelle Theorien anzuwenden, oder sie passen sich zu sehr an historische Muster an, die sich möglicherweise nie wiederholen. Stattdessen nutzen wir die jüngsten Fortschritte beim Clustering von Marktregimen (MR) mit dem Implied Stochastic Volatility Model (ISVM) auf einem sehr aktuellen Datensatz, der BTC-Optionen auf der beliebten Handelsplattform Deribit abdeckt. Time-Regime Clustering ist eine temporale Clustering-Methode, die die historische Entwicklung eines Marktes in verschiedene Volatilitätsperioden unter Berücksichtigung der Nicht-Stationarität gruppiert. ISVM kann die Erwartungen der Anleger in jeder der stimmungsgesteuerten Perioden berücksichtigen, indem es implizite Volatilitätsdaten (IV) verwendet. In diesem Kapitel wenden wir diese integrierte Zeitregime-Clustering- und ISVM-Methode (MR-ISVM) auf Hochfrequenzdaten für BTC-Optionen an. Wir zeigen, dass MR-ISVM dazu beiträgt, die Schwierigkeiten durch die komplexe Anpassung an Sprünge in den Merkmalen höherer Ordnung von Optionspreismodellen zu überwinden. Dies ermöglicht es uns, den Markt auf der Grundlage der Erwartungen seiner Teilnehmer auf adaptive Weise zu bewerten und das Verfahren auf einen neuen Datensatz anzuwenden, der bisher unerforschte DA-Dynamiken umfasst. / Nonstationarity is one of the most prevalent, yet unsolved problems in time series analysis and a reoccuring phenomenon both in theoretical, and applied works. Recent advances in econometric theory and machine learning methods have allowed researchers to adpot and develop new approaches for empirical analyses, some of which will be discussed in this thesis. Chapter 3 is about predicting merger & acquisition (M&A) events. While there is no doubt that M&A activity in the corporate sector follows wave-like patterns, there is no uniquely accepted definition of such a "merger wave" in a time series context. Count-data time series models are often employed to measure M&A activity and merger waves are then defined as clusters of periods with an unusually high number of M&A deals retrospectively. However, the distribution of deals is usually not normal (Gaussian). More recently, different approaches that take into account the time-varying nature of M&A activity have been proposed, but still require the a-priori selection of parameters. We propose adapating the combination of the Local Parametric Approach and Multiplier Bootstrap to a count data setup in order to identify locally homogeneous intervals in the time series of M&A activity. This eliminates the need for manual parameter selection and allows for the generation of accurate forecasts without any manual input. Chapter 4 is an empirical study on jumps in high frequency digital asset markets. While attention is a predictor for digital asset prices, and jumps in Bitcoin prices are well-known, we know little about its alternatives. Studying high frequency crypto ticks gives us the unique possibility to confirm that cross market digital asset returns are driven by high frequency jumps clustered around black swan events, resembling volatility and trading volume seasonalities. Regressions show that intra-day jumps significantly influence end of day returns in size and direction. This provides fundamental research for crypto option pricing models and opens up possibilities to evolve econometric theory to better address the specific market microstructure of cryptos. Chapter 5 discusses the increasing adoption of Digital Assets (DAs), such as Bitcoin (BTC), which raises the need for accurate option pricing models. Yet, existing methodologies fail to cope with the volatile nature of the emerging DAs. Many models have been proposed to address the unorthodox market dynamics and frequent disruptions in the microstructure caused by the non-stationarity, and peculiar statistics, in DA markets. However, they are either prone to the curse of dimensionality, as additional complexity is required to employ traditional theories, or they overfit historical patterns that may never repeat. Instead, we leverage recent advances in market regime (MR) clustering with the Implied Stochastic Volatility Model (ISVM) on a very recent dataset covering BTC options on the popular trading platform Deribit. Time-regime clustering is a temporal clustering method, that clusters the historic evolution of a market into different volatility periods accounting for non-stationarity. ISVM can incorporate investor expectations in each of the sentiment-driven periods by using implied volatility (IV) data. In this paper, we apply this integrated time-regime clustering and ISVM method (termed MR-ISVM) to high-frequency data on BTC options. We demonstrate that MR-ISVM contributes to overcome the burden of complex adaption to jumps in higher order characteristics of option pricing models. This allows us to price the market based on the expectations of its participants in an adaptive fashion and put the procedure to action on a new dataset covering previously unexplored DA dynamics.
739

Univariate and Bivariate ACD Models for High-Frequency Data Based on Birnbaum-Saunders and Related Distributions

Tan, Tao 22 November 2018 (has links)
This thesis proposes a new class of bivariate autoregressive conditional median duration models for matched high-frequency data and develops some inferential methods for an existing univariate model as well as the bivariate models introduced here to facilitate model fitting and forecasting. During the last two decades, the autoregressive conditional mean duration (ACD) model has been playing a dominant role in analyzing irregularly spaced high-frequency financial data. Univariate ACD models have been extensively discussed in the literature. However, some major challenges remain. The existing ACD models do not provide a good distributional fit to financial durations, which are right-skewed and often exhibit unimodal hazard rates. Birnbaum-Saunders (BS) distribution is capable of modeling a wide variety of positively skewed data. Median is not only a robust measure of central tendency, but also a natural scale parameter of the BS distribution. A class of conditional median duration models, the BS-ACD and the scale-mixture BS ACD models based on the BS, BS power-exponential and Student-t BS (BSt) distributions, have been suggested in the literature to improve the quality of the model fit. The BSt-ACD model is more flexible than the BS-ACD model in terms of kurtosis and skewness. In Chapter 2, we develop the maximum likelihood estimation method for the BSt-ACD model. The estimation is performed by utilizing a hybrid of optimization algorithms. The performance of the estimates is then examined through an extensive Monte Carlo simulation study. We also carry out model discrimination using both likelihood-based method and information-based criterion. Applications to real trade durations and comparison with existing alternatives are then made. The bivariate version of the ACD model has not received attention due to non-synchronicity. Although some bivariate generalizations of the ACD model have been introduced, they do not possess enough flexibility in modeling durations since they are conditional mean-based and do not account for non-monotonic hazard rates. Recently, the bivariate BS (BVBS) distribution has been developed with many desirable properties and characteristics. It allows for unimodal shapes of marginal hazard functions. In Chapter 3, upon using this bivariate BS distribution, we propose the BVBS-ACD model as a natural bivariate extension of the BS-ACD model. It enables us to jointly analyze matched duration series, and also capture the dependence between the two series. The maximum likelihood estimation of the model parameters and associated inferential methods have been developed. A Monte Carlo simulation study is then carried out to examine the performance of the proposed inferential methods. The goodness-of-fit and predictive performance of the model are also discussed. A real bivariate duration data analysis is provided to illustrate the developed methodology. The bivariate Student-t BS (BVBSt) distribution has been introduced in the literature as a robust extension of the BVBS distribution. It provides greater flexibility in terms of the kurtosis and skewness through the inclusion of an additional shape parameter. In Chapter 4, we propose the BVBSt-ACD model as a natural extension of the BSt-ACD model to the bivariate case. We then discuss the maximum likelihood estimation of the model parameters. A simulation study is carried out to investigate the performance of these estimators. Model discrimination is then done by using information-based criterion. Methods for evaluating the goodness-of-fit and predictive ability of the model are also discussed. A simulated data example is used to illustrate the proposed model as compared to the BVBS-ACD model. Finally, in Chapter 5, some concluding comments are made and also some problems for future research are mentioned. / Thesis / Master of Science (MSc)
740

Reinforcement Learning for Market Making / Förstärkningsinlärningsbaserad likviditetsgarantering

Carlsson, Simon, Regnell, August January 2022 (has links)
Market making – the process of simultaneously and continuously providing buy and sell prices in a financial asset – is rather complicated to optimize. Applying reinforcement learning (RL) to infer optimal market making strategies is a relatively uncharted and novel research area. Most published articles in the field are notably opaque concerning most aspects, including precise methods, parameters, and results. This thesis attempts to explore and shed some light on the techniques, problem formulations, algorithms, and hyperparameters used to construct RL-derived strategies for market making. First, a simple probabilistic model of a limit order book is used to compare analytical and RL-derived strategies. Second, a market making agent is trained on a more complex Markov chain model of a limit order book using tabular Q-learning and deep reinforcement learning with double deep Q-learning. Results and strategies are analyzed, compared, and discussed. Finally, we propose some exciting extensions and directions for future work in this research field. / Likviditetsgarantering (eng. ”market making”) – processen att simultant och kontinuerligt kvotera köp- och säljpriser i en finansiell tillgång – är förhållandevis komplicerat att optimera. Att använda förstärkningsinlärning (eng. ”reinforcement learning”) för att härleda optimala strategier för likviditetsgarantering är ett relativt outrett och nytt forskningsområde. De flesta publicerade artiklarna inom området är anmärkningsvärt återhållsamma gällande detaljer om de tekniker, problemformuleringar, algoritmer och hyperparametrar som används för att framställa förstärkningsinlärningsbaserade strategier. I detta examensarbete så gör vi ett försök på att utforska och bringa klarhet över dessa punkter. Först används en rudimentär probabilistisk modell av en limitorderbok som underlag för att jämföra analytiska och förstärkningsinlärda strategier. Därefter brukas en mer sofistikerad Markovkedjemodell av en limitorderbok för att jämföra tabulära och djupa inlärningsmetoder. Till sist presenteras även spännande utökningar och direktiv för framtida arbeten inom området.

Page generated in 0.0519 seconds