• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 349
  • 79
  • 65
  • 30
  • 29
  • 12
  • 10
  • 9
  • 8
  • 7
  • 4
  • 4
  • 4
  • 4
  • 3
  • Tagged with
  • 751
  • 751
  • 106
  • 85
  • 78
  • 77
  • 70
  • 65
  • 62
  • 60
  • 58
  • 50
  • 49
  • 48
  • 44
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
591

Développement et utilisation de sources de plasma pour stériliser des instruments médicaux

Pollak, Jérôme January 2009 (has links)
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal.
592

Bootstrapping high frequency data

Hounyo, Koomla Ulrich 07 1900 (has links)
Nous développons dans cette thèse, des méthodes de bootstrap pour les données financières de hautes fréquences. Les deux premiers essais focalisent sur les méthodes de bootstrap appliquées à l’approche de "pré-moyennement" et robustes à la présence d’erreurs de microstructure. Le "pré-moyennement" permet de réduire l’influence de l’effet de microstructure avant d’appliquer la volatilité réalisée. En se basant sur cette ap- proche d’estimation de la volatilité intégrée en présence d’erreurs de microstructure, nous développons plusieurs méthodes de bootstrap qui préservent la structure de dépendance et l’hétérogénéité dans la moyenne des données originelles. Le troisième essai développe une méthode de bootstrap sous l’hypothèse de Gaussianité locale des données financières de hautes fréquences. Le premier chapitre est intitulé: "Bootstrap inference for pre-averaged realized volatility based on non-overlapping returns". Nous proposons dans ce chapitre, des méthodes de bootstrap robustes à la présence d’erreurs de microstructure. Particulièrement nous nous sommes focalisés sur la volatilité réalisée utilisant des rendements "pré-moyennés" proposés par Podolskij et Vetter (2009), où les rendements "pré-moyennés" sont construits sur des blocs de rendements à hautes fréquences consécutifs qui ne se chevauchent pas. Le "pré-moyennement" permet de réduire l’influence de l’effet de microstructure avant d’appliquer la volatilité réalisée. Le non-chevauchement des blocs fait que les rendements "pré-moyennés" sont asymptotiquement indépendants, mais possiblement hétéroscédastiques. Ce qui motive l’application du wild bootstrap dans ce contexte. Nous montrons la validité théorique du bootstrap pour construire des intervalles de type percentile et percentile-t. Les simulations Monte Carlo montrent que le bootstrap peut améliorer les propriétés en échantillon fini de l’estimateur de la volatilité intégrée par rapport aux résultats asymptotiques, pourvu que le choix de la variable externe soit fait de façon appropriée. Nous illustrons ces méthodes en utilisant des données financières réelles. Le deuxième chapitre est intitulé : "Bootstrapping pre-averaged realized volatility under market microstructure noise". Nous développons dans ce chapitre une méthode de bootstrap par bloc basée sur l’approche "pré-moyennement" de Jacod et al. (2009), où les rendements "pré-moyennés" sont construits sur des blocs de rendements à haute fréquences consécutifs qui se chevauchent. Le chevauchement des blocs induit une forte dépendance dans la structure des rendements "pré-moyennés". En effet les rendements "pré-moyennés" sont m-dépendant avec m qui croît à une vitesse plus faible que la taille d’échantillon n. Ceci motive l’application d’un bootstrap par bloc spécifique. Nous montrons que le bloc bootstrap suggéré par Bühlmann et Künsch (1995) n’est valide que lorsque la volatilité est constante. Ceci est dû à l’hétérogénéité dans la moyenne des rendements "pré-moyennés" au carré lorsque la volatilité est stochastique. Nous proposons donc une nouvelle procédure de bootstrap qui combine le wild bootstrap et le bootstrap par bloc, de telle sorte que la dépendance sérielle des rendements "pré-moyennés" est préservée à l’intérieur des blocs et la condition d’homogénéité nécessaire pour la validité du bootstrap est respectée. Sous des conditions de taille de bloc, nous montrons que cette méthode est convergente. Les simulations Monte Carlo montrent que le bootstrap améliore les propriétés en échantillon fini de l’estimateur de la volatilité intégrée par rapport aux résultats asymptotiques. Nous illustrons cette méthode en utilisant des données financières réelles. Le troisième chapitre est intitulé: "Bootstrapping realized covolatility measures under local Gaussianity assumption". Dans ce chapitre nous montrons, comment et dans quelle mesure on peut approximer les distributions des estimateurs de mesures de co-volatilité sous l’hypothèse de Gaussianité locale des rendements. En particulier nous proposons une nouvelle méthode de bootstrap sous ces hypothèses. Nous nous sommes focalisés sur la volatilité réalisée et sur le beta réalisé. Nous montrons que la nouvelle méthode de bootstrap appliquée au beta réalisé était capable de répliquer les cummulants au deuxième ordre, tandis qu’il procurait une amélioration au troisième degré lorsqu’elle est appliquée à la volatilité réalisée. Ces résultats améliorent donc les résultats existants dans cette littérature, notamment ceux de Gonçalves et Meddahi (2009) et de Dovonon, Gonçalves et Meddahi (2013). Les simulations Monte Carlo montrent que le bootstrap améliore les propriétés en échantillon fini de l’estimateur de la volatilité intégrée par rapport aux résultats asymptotiques et les résultats de bootstrap existants. Nous illustrons cette méthode en utilisant des données financières réelles. / We develop in this thesis bootstrap methods for high frequency financial data. The first two chapters focalise on bootstrap methods for the "pre-averaging" approach, which is robust to the presence of market microstructure effects. The main idea underlying this approach is that we can reduce the impact of the noise by pre-averaging high frequency returns that are possibly contaminated with market microstructure noise before applying a realized volatility-like statistic. Based on this approach, we develop several bootstrap methods, which preserve the dependence structure and the heterogeneity in the mean of the original data. The third chapter shows how and to what extent the local Gaussian- ity assumption can be explored to generate a bootstrap approximation for covolatility measures. The first chapter is entitled "Bootstrap inference for pre-averaged realized volatility based on non-overlapping returns". The main contribution of this chapter is to propose bootstrap methods for realized volatility-like estimators defined on pre-averaged returns. In particular, we focus on the pre-averaged realized volatility estimator proposed by Podolskij and Vetter (2009). This statistic can be written (up to a bias correction term) as the (scaled) sum of squared pre-averaged returns, where the pre-averaging is done over all possible non-overlapping blocks of consecutive observations. Pre-averaging reduces the influence of the noise and allows for realized volatility estimation on the pre-averaged returns. The non-overlapping nature of the pre-averaged returns implies that these are asymptotically independent, but possibly heteroskedastic. This motivates the application of the wild bootstrap in this context. We provide a proof of the first order asymptotic validity of this method for percentile and percentile-t intervals. Our Monte Carlo simulations show that the wild bootstrap can improve the finite sample properties of the existing first order asymptotic theory provided we choose the external random variable appropriately. The second chapter is entitled "Bootstrapping pre-averaged realized volatility under market microstructure noise ". In this chapter we propose a bootstrap method for inference on integrated volatility based on the pre-averaging approach of Jacod et al. (2009), where the pre-averaging is done over all possible overlapping blocks of consecutive observations. The overlapping nature of the pre-averaged returns implies that these are m-dependent with m growing slowly with the sample size n. This motivates the application of a blockwise bootstrap method. We show that the “blocks of blocks” bootstrap method suggested by Politis and Romano (1992) (and further studied by Bühlmann and Künsch (1995)) is valid only when volatility is constant. The failure of the blocks of blocks bootstrap is due to the heterogeneity of the squared pre-averaged returns when volatility is stochastic. To preserve both the dependence and the heterogeneity of squared pre-averaged returns, we propose a novel procedure that combines the wild bootstrap with the blocks of blocks bootstrap. We provide a proof of the first order asymptotic validity of this method for percentile intervals. Our Monte Carlo simulations show that the wild blocks of blocks bootstrap improves the finite sample properties of the existing first order asymptotic theory. The third chapter is entitled "Bootstrapping realized volatility and realized beta under a local Gaussianity assumption". The financial econometric of high frequency data litera- ture often assumed a local constancy of volatility and the Gaussianity properties of high frequency returns in order to carry out inference. In this chapter, we show how and to what extent the local Gaussianity assumption can be explored to generate a bootstrap approximation. We show the first-order asymptotic validity of the new wild bootstrap method, which uses the conditional local normality properties of financial high frequency returns. In addition to that we use Edgeworth expansions and Monte Carlo simulations to compare the accuracy of the bootstrap with other existing approaches. It is shown that at second order, the new wild bootstrap matches the cumulants of realized betas-based t-statistics, whereas it provides a third-order asymptotic refinement for realized volatility. Monte Carlo simulations suggest that our new wild bootstrap methods improve upon the first-order asymptotic theory in finite samples and outperform the existing bootstrap methods for realized covolatility measures. We use empirical work to illustrate its uses in practice.
593

Analysis of Interdependencies among Central European Stock Markets / Analysis of Interdependencies among Central European Stock Markets

Mašková, Jana January 2011 (has links)
The objective of the thesis is to examine interdependencies among the stock markets of the Czech Republic, Hungary, Poland and Germany in the period 2008-2010. Two main methods are applied in the analysis. The first method is based on the use of high-frequency data and consists in the computation of realized correlations, which are then modeled using the heterogeneous autoregressive (HAR) model. In addition, we employ realized bipower correlations, which should be robust to the presence of jumps in prices. The second method involves modeling of correlations by means of the Dynamic Conditional Correlation GARCH (DCC-GARCH) model, which is applied to daily data. The results indicate that when high-frequency data are used, the correlations are biased towards zero (the so-called "Epps effect"). We also find quite significant differences between the dynamics of the correlations from the DCC-GARCH models and those of the realized correlations. Finally, we show that accuracy of the forecasts of correlations can be improved by combining results obtained from different models (HAR models for realized correlations, HAR models for realized bipower correlations, DCC-GARCH models).
594

Nouveaux algorithmes efficaces de modélisation 2D et 3D : Temps des premières arrivées, angles à la source et amplitudes / New efficient 2D and 3D modeling algorithms to compute travel times, take-off angles and amplitudes

Belayouni, Nidhal 25 April 2013 (has links)
Les temps de trajet, amplitudes et angles à la source des ondes sismiques sont utilisés dans de nombreuses applications telles que la migration, la tomographie, l'estimation de la sensibilité de détection et la localisation des microséismes. Dans le contexte de la microsismicité, il est nécessaire de calculer en quasi temps réel ces attributs avec précision. Nous avons développé ici un ensemble d'algorithmes rapides et précis en 3D pour des modèles à fort contraste de vitesse.Nous présentons une nouvelle méthode pour calculer les temps de trajet, les amplitudes et les angles à la source des ondes correspondant aux premières arrivées. Plus précisément, nous résolvons l'équation Eikonal, l'équation de transport et l'équation des angles en nous basant sur une approche par différences finies pour des modèles de vitesse en 3D. Nous proposons une nouvelle méthode hybride qui bénéficie des avantages respectifs de plusieurs approches existantes de résolution de l'équation Eikonal. En particulier, les approches classiques proposent généralement de résoudre directement les équations et font l'approximation localement d'une onde plane. Cette approximation n'est pas bien adaptée au voisinage de la source car la courbure du front d'onde est importante. Des erreurs de temps de trajet sont alors générées près de la position de la source, puis propagées à travers tout le modèle de vitesse. Ceci empêche de calculer correctement les amplitudes et les angles à la source puisqu'ils reposent sur les gradients des temps. Nous surmontons cette difficulté en introduisant les opérateurs sphériques ; plus précisément nous reformulons les temps de trajet, amplitudes et angles à la source par la méthode des perturbations.Nous validons nos nouvelles méthodes pour différents modèles à fort contraste de vitesse en 2D et 3D et montrons notre contribution par rapport aux approches existantes. Nos résultats sont similaires à ceux calculés en utilisant la modélisation de la forme d'onde totale alors qu'ils sont bien moins coûteux en temps de calcul. Ces résultats ouvrent donc de nouvelles perspectives pour de nombreuses applications telles que la migration, l'estimation de la sensibilité de détection et l'inversion des mécanismes au foyer. / Traveltimes, amplitudes and take-off angles of seismic waves are used in many applications such as migration, tomography, detection sensitivity estimation and microseism location. In the microseismicty context it is necessary to compute in near real time accurately these attributes. Here we developed a set of fast and accurate algorithms in 3D for highly contrasted velocity models.We present a new accurate method for computing first arrival traveltimes, amplitudes and take-off angles; more precisely we solve the Eikonal, transport and take-off angle equations based on a finite difference approach for 3D velocity models. We propose a new hybrid method that benefits from the advantages of several existing Eikonal solvers. Common approaches that solve directly these equations assume that we are locally propagating a plane wave. This approximation is not well adapted in the neighborhood of the source since the wavefront curvature is important. Travel times errors are generated near the source position and then propagated through the whole velocity model. This prevents from properly calculating the amplitudes and the take-off angles since they rely on the travel time gradients that are not accurate. We overcome this difficulty by introducing spherical operators. Indeed we reformulate the traveltimes, amplitudes and take-off angles with the perturbation method.We validate our new methods on various highly contrasted velocity models in 2D and 3D and show our contribution compared to other existing approaches. Our results are similar to those computed using full waveform modeling while they are obtained in a much shorter CPU time. These results open thus new perspectives for several applications such as migration, detection sensitivity estimation and focal mechanism inversion.
595

Investigation of experimental and numerical methods, and analysis of stator clocking and instabilities in a high-speed multistage compressor / Investigation des méthodes expérimentales et numériques, et analyse du clocking et des instabilités aérodynamique dans un compresseur axial haute-vitesse multi-étages

Schreiber, Johannes 16 December 2016 (has links)
Les études expérimentales et numériques suivantes visent à la compréhension profonde de l’écoulement se développant dans le compresseur haute-vitesse axial de 3.5 étages CREATE, étudié sur un banc d’essai de 2 MW au Laboratoire de Mécanique des Fluides et Acoustique (LMFA) à Lyon, France. Ce travail a trois objectifs principaux : D’abord, une description globale de l’écoulement avec une identification des limites aux méthodes d’exploration utilisées ; Ensuite, la caractérisation de l’effet du clocking stator-stator dans un compresseur à haute-vitesse ; Troisièmement, l’identification des instabilités à faibles débits pour confirmer les études sur les compresseurs à basse-vitesse et contribuer à plus de compréhension.Il est montré qu’une mauvaise interprétation des données de performance stationnaire se fait facilement en raison des contraintes de mesure et des coefficients de correction sont proposés. À certains endroits dans le compresseur, des limites aux méthodes d’exploration (expérimentales et numériques) de l’écoulement sont identifiées. Cette identification va permettre la poursuite du développement des méthodes. Les principales erreurs de prédiction des simulations concernent la surestimation du blocage induit par l’écoulement de jeu et l’augmentation de pression. En outre, les mesures fournies par les sondes de pression pneumatique surestiment la pression statique en amont des stators. Cette erreur est probablement provoquée par l’interaction entre le champ potentiel du stator et la sonde elle-même. De plus, l’anémométrie Doppler laser surestime la vitesse en aval des stators. Le transport des sillages du rotor à travers des stators n’est pas correctement capturé avec les particules d’ensemencement.Le clocking a seulement un petit effet global dans la bande d’incertitude de mesure dans ce compresseur. Plusieurs contributions à ce faible effet de clocking sont identifiées par l’analyse du transport des structures d’écoulement : Le mélange circonférentiel du sillage de stator et la déformation des sillages le long de leur trajet dans l’écoulement. L’effet local du clocking dépend de la hauteur de veine en raison de la variation de la forme des aubages et du transport des sillages. Des effets positifs et négatifs sont présentés, qui globalement se compensent dans ce compresseur. Les instabilités dans ce compresseur dépendent du point de fonctionnement et des méthodes d’exploration de l’écoulement. Aux points de fonctionnement stables et à la vitesse nominale du compresseur, les résultats numériques montrent une perturbation tournante dans les rotors 2 et 3, alors que les mesures montrent une perturbation tournante que dans le premier rotor et seulement à basse vitesse du compresseur. Dans les deux cas, les perturbations montrent des caractéristiques semblables. Une étude numérique permet d’exclure l’influence des interactions rotor-stator sur la perturbation tournante et met en évidence sa source. Des nouvelles connaissances sur le comportement stable et la périodicité du rotating instability (mesuré) sont dérivées contrairement au comportement instable suggéré par la dénomination et la littérature. Il est montré que cette perturbation évolue en cellule de décrochage tournante à l’approche de la limite de stabilité. A la vitesse nominale du compresseur, une entrée en instabilités de type spike est identifiée expérimentalement. Une description précise de l’apparition brutale du spike et sa différence par rapport à une cellule de décollement tournant sont présentées. / The following experimental and numerical investigations aim at the deep understanding of the flow field in the 3.5 stages high-speed axial compressor CREATE, studied on a 2 MW test rig at the Laboratory of Fluid Mechanics and Acoustics (LMFA) in Lyon, France. This work focuses on three major objectives: Firstly, a global description of the flow field with an identification of limitations to the used exploration methods; Secondly, the characterization of the effect of stator-stator clocking in a high-speed compressor; Thirdly, the identification of instabilities arising at low mass flow rates for confirming studies on low-speed compressors and giving new insights.This work demonstrates that a mis-interpretation of steady performance data occurs easily due to measurement constraints and correction coefficients are proposed. At certain locations in the compressor, the flow field exploration (experimental and numerical) methods are identified to be challenged. This identification will initiate further development of the methods. The main mis-predictions of the simulations concern the over-prediction of the blockage induced by the tip leakage flow and eventually an over-predicted pressure rise. Furthermore, the measurements provided by the pneumatic pressure probes over-estimate the static pressure upstream of the stators. This error is induced by the interaction between the stator potential field and the probe it-self. In addition, the laser Doppler anemometry method over-estimates the velocity downstream the stators. The transport of the rotor wakes through the stators might not be correctly captured with the seeding particles in this high-speed compressor.The investigation of the stator clocking reveals only a small global effect within the measurement uncertainty band. Several contributions to the weak effect of clocking are identified by analysis of the flow structure transport, namely the time-mean mixing out of the stator wakes and the deformation of wakes along their flow path. The local effect of clocking depends on the span-height because of the variation of the circumferential position of the stator wakes and the stator blade shape over the span-height. Local possible positive and negative effects of clocking are identified and are shown to be almost in balance in this compressor. Furthermore, this work demonstrates that the unsteadiness in the flow field is not linked conclusively to the stator clocking.In this compressor, the arising instabilities depend on the operating point and flow field exploration methods. At stable operating points and nominal compressor speed, the numerical results reveal a rotating disturbance in the rotors 2 and 3, whereas the measurements show a rotating disturbance only in the first rotor and only at part speed. In both cases the disturbance exhibits rotating instability like characteristics. An exhaustive numerical study allows to exclude the commonly assumed influence of rotor-stator interactions on the rotating disturbance and pinpoints its source. New insights into the stable behavior and periodicity of the measured rotating instability are derived contrary to the unstable behavior suggested by the naming and literature. This disturbance is shown to evolve into rotating stall cells when approaching the stability limit. At nominal compressor speed, a spike type surge inception is identified I n the measured field. A precise description of the abrupt onset of the spike cell and its difference to a rotating stall cell are presented.
596

Préconditionnement de méthodes de décomposition de domaine pour les problèmes de diffraction d'ondes électromagnétiques impliquant une cavité profonde / Preconditioning domain decomposition methods for electromagnetic scattering problems involving a deep cavity

Bourguignon-Mirebeau, Jennifer 12 December 2011 (has links)
Cette thèse est dédiée à la résolution numérique tridimensionnelle des équations de Maxwell harmoniques, par des méthodes de décomposition de domaine couplant des résolutions par équations intégrales entre elles. Pour traiter les problèmes de diffraction d'ondes, la méthode des équations intégrales est un outil précieux. Elle consiste à paramétrer le champ électromagnétique solution par une source définie sur la surface de l'objet diffractant, solution d'une nouvelle équation linéaire (l'équation intégrale). Pour des applications à haute fréquence, le grand nombre d'inconnues (de l'ordre du million) nous oblige à utiliser un solveur itératif pour résoudre l'équation intégrale. Le problème du conditionnement des systèmes linéaires est alors crucial. De récents développements ont permis de construire une équation intégrale performante (la GCSIE) et de conditionnement stable avec la montée en fréquence. Cependant, la présence d'une cavité large et résonnante dans l'objet diffractant (telle que la cavité moteur d'un avion) dégrade le conditionnement de cette équation. Nous proposons deux méthodes de décomposition de domaine (DDM) afin de découpler le problème de la cavité du problème extérieur. La première (DDM en Y) s'exprime en fonction des opérateurs Dirichlet-to-Neumann Y, qui sont synthétisés via la résolution de problèmes métalliques par équations intégrales dans chaque sous-domaine. La seconde (DDM en S) s'exprime en fonction des opérateurs de scattering S, synthétisés par résolution de problèmes de type métal-impédant, donc bien posés à toute fréquence. La DDM en S permet ainsi de se débarrasser des phénomènes de résonance dans les cavités. Nous proposons dans un premier temps un préconditionneur analytique pour la DDM en Y, basé sur l'opérateur électromagnétique de simple couche. Nous calculons ensuite les modes guidés le long d'un cylindre infini tangent à la cavité près de l'interface, et nous diagonalisons les opérateurs Dirichlet-to-Neumann et scattering dans la base des traces de modes guidés sur l'interface. On extrait de cette étude deux préconditionneurs spectraux respectivement pour la DDM en Y et la DDM en S. Les résultats numériques confirment l'efficacité des préconditionneurs proposés / This work is dedicated to the numerical solution of the tridimensional harmonic Maxwell equations, using domain decomposition methods coupling integral equations between them. To deal with scattering problems, integral equations methods are a precious tool. They allow to look for the electromagnetic field by parameterizing it with a source only defined on the boundary of the scattering object, solution of a new linear equation (the integral equation). For applications at high frequency, the great number of unknowns forces the use of iterative methods. To accelerate the solution of integral equations, one moreover has to ensure the good condition number of the linear systems, or to propose well-suited preconditioners. An efficient method, the GCSIE, was developed in Onera. It is an intrinsically well-conditioned integral equation whose condition number remains stable whith the frequency increase. However, the existence of large and resonant cavities (such as air intakes) deteriorates the condition number. In order to circumvent this problem, we propose two domain decomposition methods (DDM) allowing to decouple the exterior problem from the problem of the cavities. The first one (Y-DDM) is based on Dirichlet-to-Neumann operators Y, which are built through the solution of metallic problems using integral equations in each subdomain. The second one (S-DDM) is based on scattering operators S, built through the solution of problems of metallic-impedant type, which are well-posed at any frequency. The S-DDM allows to avoid the resonance phenomena inside the cavities. First, we propose an analytic preconditioner for the Y-DDM, based on the electromagnetic single layer operator. We then calculate the modes guided along an artificial infinite cylinder, that is tangent to the cavity near the interface. We diagonalize the Dirichlet-to-Neumann and scattering operators in the basis of the traces of the guided modes on the interface. We deduce from this study two spectral preconditioners for the Y-DDM and the S-DDM. The numerical results confirm the efficiency of the employed preconditioners.
597

Three essays on the econometric analysis of high-frequency data

Malec, Peter 27 June 2013 (has links)
Diese Dissertation behandelt die ökonometrische Analyse von hochfrequenten Finanzmarktdaten. Kapitel 1 stellt einen neuen Ansatz zur Modellierung von seriell abhängigen positiven Variablen, die einen nichttrivialen Anteil an Nullwerten aufweisen, vor. Letzteres ist ein weitverbreitetes Phänomen in hochfrequenten Finanzmarktzeitreihen. Eingeführt wird eine flexible Punktmassenmischverteilung, ein maßgeschneiderter semiparametrischer Spezifikationstest sowie eine neue Art von multiplikativem Fehlermodell (MEM). Kapitel 2 beschäftigt sich mit dem Umstand, dass feste symmetrische Kerndichteschätzer eine geringe Präzision aufweisen, falls eine positive Zufallsvariable mit erheblicher Wahrscheinlichkeitsmasse nahe Null gegeben ist. Wir legen dar, dass Gammakernschätzer überlegen sind, wobei ihre relative Präzision von der genauen Form der Dichte sowie des Kerns abhängt. Wir führen einen verbesserten Gammakernschätzer sowie eine datengetriebene Methodik für die Wahl des geeigneten Typs von Gammakern ein. Kapitel 3 wendet sich der Frage nach dem Nutzen von Hochfrequenzdaten für hochdimensionale Portfolioallokationsanwendungen zu. Wir betrachten das Problem der Konstruktion von globalen Minimum-Varianz-Portfolios auf der Grundlage der Konstituenten des S&P 500. Wir zeigen auf, dass Prognosen, welche auf Hochfrequenzdaten basieren, im Vergleich zu Methoden, die tägliche Renditen verwenden, eine signifikant geringere Portfoliovolatilität implizieren. Letzteres geht mit spürbaren Nutzengewinnen aus der Sicht eines Investors mit hoher Risikoaversion einher. / In three essays, this thesis deals with the econometric analysis of financial market data sampled at intraday frequencies. Chapter 1 presents a novel approach to model serially dependent positive-valued variables realizing a nontrivial proportion of zero outcomes. This is a typical phenomenon in financial high-frequency time series. We introduce a flexible point-mass mixture distribution, a tailor-made semiparametric specification test and a new type of multiplicative error model (MEM). Chapter 2 addresses the problem that fixed symmetric kernel density estimators exhibit low precision for positive-valued variables with a large probability mass near zero, which is common in high-frequency data. We show that gamma kernel estimators are superior, while their relative performance depends on the specific density and kernel shape. We suggest a refined gamma kernel and a data-driven method for choosing the appropriate type of gamma kernel estimator. Chapter 3 turns to the debate about the merits of high-frequency data in large-scale portfolio allocation. We consider the problem of constructing global minimum variance portfolios based on the constituents of the S&P 500. We show that forecasts based on high-frequency data can yield a significantly lower portfolio volatility than approaches using daily returns, implying noticeable utility gains for a risk-averse investor.
598

Four essays on the econometric analysis of high-frequency order data

Huang, Ruihong 05 July 2012 (has links)
Diese Arbeit enthält vier Aufsätze über die Beziehungen zwischen Handelsstrategien auf Aktienmärkten und dem Zustand des Marktes. Es werden ökonometrische Methoden angewendet um den Markteinfluss von limit order Platzierungen, die Eigenschaften von limit ordern sowie die Verwendung von versteckten ordern zu analysieren. Im Kapitel 1 quantifizieren wir die Effekte der limit order Platzierung auf Preisquotierungen am Börsenplatzes Euronext. Wir zeigen, dass eine limit order signifikante Informationen enthält und illustrieren inwieweit ihr Einfluss auf den Markt von ihren Charakteristika und dem Zustand des Orderbuchs abhängt. Das Kapitel 2 enthält empirische Resultate über die limit order Aktivität und den Markteinfluss von limit orders an der New Yorker NASDAQ Börse. Wir dokumentieren, dass Marktteilnehmer die Platzierung von limit orders mit kleinen Volumina präferieren, diese aber sofort nach ihrem Einsatz wieder löschen. Basierend auf der geschätzten Marktauswirkung einer limit order schlagen wir eine Methode zur Prognose ihres optimalen Volumens vor. Im Kapitel 3 werden die limit order-Strategien von Marktteilnehmern in intransparenten Märkten untersucht. Wir zeigen, dass die Position der sogenannten versteckten Liquidität im Orderbuch von diversen Variablen abhängt, die den Zustand des Marktes beschreiben. Die Daten suggerieren, dass Händler die Platzierung sogenannter hidden orders im Hinblick auf günstige Liquidität am Markt und dem "picking-off"-Risiko ausbalancieren. Im letzten Kapitel 4 präsentieren wir ein Softwaresystem zur Rekonstruktion von Orderbüchern und zur Extrahierung von Orderflussinformationen aus message stream Daten. Die Basismodule des Systems basieren auf allgemeinen Orderbuch-Ereignissen. Sie sind abstrakt gehalten und können so einfach auf beliebige Märkte mit elektronischen Orderbüchern angewendet werden. / In four essays, this thesis examines the interaction between traders'' strategies and the state of market by the econometric analysis of maket impact of limit order submission, the typical properties of order flow and the traders'' usage of hidden orders. Chapter 1 quantifies short-term and long-term effects of limit order submissions on quotes in Euronext. We show that limit orders have significant information content and the maginitude of their impact on the quotes depends on both the order''s characteritics and the state of limit order books (LOBs). Chapter 2 provides new empirical evidence on order submission activities and market impacts of limit orders at NASDAQ. We find that traders dominantly submit small size limit orders and cancell most of them immediately after submission. Based on the estimated market impact of orders, we propose a method to predict the optimal size of a limit order conditional on its position in the LOB and the desired impact. Chapter 3 analyzes traders'' decisions on using undisclosed orders in opaque markets. Our empirical findings show that market conditions affect traders'' order submission strategies and suggest that traders balance their hidden order placements to compete for the provision of liquidity and protect themselves against picking-off risk. Chapter 4 presents a program framework for reconstructing LOBs as well as extracting order flow information from message stream data. We design the basic modules of the system in an abstract layer based on common order events in limit order markets, so that it can be easily adapted to data at any limit order markets.
599

An econometric analysis of intra-daily stock market liquidity, volatility and news impacts

Groß-Klußmann, Axel 23 August 2012 (has links)
In dieser Dissertation befassen wir uns mit ökonometrischen Modellen und empirischen Eigenschaften von Intra-Tages (Hochfrequenz-) Aktienmarktdaten. Der Fokus liegt hierbei auf der Analyse des Einflusses, den die Veröffentlichung von Wirtschaftsnachrichten auf die Aktienmarktaktivität hat, der Vorhersage der Geld-Brief-Spanne sowie der Modellierung von Volatilitätsmaßen auf Intra-Tages-Zeitintervallen. Zunächst quantifizieren wir die Marktreaktionen auf Marktneuigkeiten innerhalb eines Handelstages. Zu diesem Zweck benutzen wir linguistisch vorab bearbeitete Unternehmensnachrichtendaten mit Indikatoren über die Relevanz, Neuheit und Richtung dieser Nachrichten. Mit einem VAR Modell für 20-Sekunden Marktdaten der London Stock Exchange weisen wir durch Nachrichten hervorgerufene Marktreaktionen in Aktienkursrenditen, Volatilität, Handelsvolumina und Geld-Brief-Spannen nach. In einer zweiten Analyse führen wir ein long memory autoregressive conditional Poisson (LMACP)-Modell zur Modellierung hoch-persistenter diskreter positivwertiger Zeitreihen ein. Das Modell verwenden wir zur Prognose von Geld-Brief-Spannen, einem zentralen Parameter im Aktienhandel. Wir diskutieren theoretische Eigenschaften des LMACP-Modells und evaluieren rollierende Prognosen von Geld-Brief-Spannen an den NYSE und NASDAQ Börsenplätzen. Wir zeigen, dass Poisson-Zeitreihenmodelle in diesem Kontext signifikant bessere Vorhersagen liefern als ARMA-, ARFIMA-, ACD- und FIACD-Modelle. Zuletzt widmen wir uns der optimalen Messung von Volatilität auf kleinen 20 Sekunden bis 5 Minuten Zeitintervallen. Neben der Verwendung von realized volatility-Ansätzen konstruieren wir Volatilitätsmaße durch Integration von spot volatility-Schätzern, sodass auch Beobachtungen außerhalb der kleinen Zeitintervalle in die Volatilitätsschätzungen eingehen. Ein Vergleich der Ansätze in einer Simulationsstudie zeigt, dass Volatilitätsmaße basierend auf spot volatility-Schätzern den RMSE minimieren. / In this thesis we present econometric models and empirical features of intra-daily (high frequency) stock market data. We focus on the measurement of news impacts on stock market activity, forecasts of bid-ask spreads and the modeling of volatility measures on intraday intervals. First, we quantify market reactions to an intraday stock-specific news flow. Using pre-processed data from an automated news analytics tool we analyze relevance, novelty and direction signals and indicators for company-specific news. Employing a high-frequency VAR model based on 20 second data of a cross-section of stocks traded at the London Stock Exchange we find distinct responses in returns, volatility, trading volumes and bid-ask spreads due to news arrivals. In a second analysis we introduce a long memory autoregressive conditional Poisson (LMACP) model to model highly persistent time series of counts. The model is applied to forecast quoted bid-ask spreads, a key parameter in stock trading operations. We discuss theoretical properties of LMACP models and evaluate rolling window forecasts of quoted bid-ask spreads for stocks traded at NYSE and NASDAQ. We show that Poisson time series models significantly outperform forecasts from ARMA, ARFIMA, ACD and FIACD models in this context. Finally, we address the problem of measuring volatility on small 20 second to 5 minute intra-daily intervals in an optimal way. In addition to the standard realized volatility approaches we construct volatility measures by integrating spot volatility estimates that include information on observations outside of the intra-daily intervals of interest. Comparing the alternative volatility measures in a simulation study we find that spot volatility-based measures minimize the RMSE in the case of small intervals.
600

Development of advanced architectures of power controllers dedicated to Ultra High Switching Frequency DC to DC converters / Développement d’architectures avancées de contrôleurs de puissance dédiées aux convertisseurs DCDC à ultra-haute fréquence de découpage

Fares, Adnan 22 October 2015 (has links)
La sophistication grandissante des dispositifs intelligents ultra-portatifs, tels que les smartphones ou les tablettes,crée un besoin d'amélioration des performances des organes de conversion de puissance.La tendance des technologies d'acheminement de puissance évolue progressivement vers une fréquence plus élevée, une meilleure densité d'intégration et une plus grande flexibilité dans les schémas d'asservissement. La modulation dynamique de tension est utilisée dans les circuits intégrés de gestion de puissances(DVS PMICs)des transmetteurs RF alors que la modulation DVFS est utilisée dans les PMICs dédiées au CPUs et GPUs. Des DCDC flexibles et fonctionnant à haute fréquence constituent aujourd'hui la solution principale en conjonction avec des régulateurs à faible marge de tension (LDO).L'évolution vers des solutions à base de HFDCDC de faibles dimensions pose un défi sérieux en matière de 1)stabilité des boucles d'asservissement,2)de complexité des architectures de contrôle imbriquant des machines d'état asynchrones pour gérer une large dynamique de puissance de sortie et 3)de portabilité de la solutions d'une technologie à une autre.Les solutions les plus courantes atteignent aujourd'hui une gamme de 2 à 6 Mhz de fréquence de découpage grâce à l'usage de contrôleurs à hystérésis qui souffrent de la difficulté à contenir la fréquence de découpage lors des variations de la tension ou du courant en charge.Nous avons voulu dans ce travail étendre l'usage des méthodes de conception et de modélisation conventionnelles comme le modèle petit signal moyen, dans une perspective de simplification et de création de modèles paramétriques. L'objectif étant de rendre la technique de compensation flexible et robuste aux variations de procédés de fabrication ou bien aux signaux parasités inhérents à la commutation de puissance.Certes, le modèle moyen petit signal, au demeurant bien traité dans la littérature, réponds amplement à la problématique de compensation des DCDCs notamment quand la stabilité s'appuie sur le zéro naturel à haute fréquence inhérent à la résistance série ESR de la capacité de sortie, mais les HFDCDC actuels utilisent des capacités MLCC ayant une très faible ESR et font appel à des techniques de compensation paramétriques imbriquant le schéma de compensation dans la génération même du rapport cyclique. La littérature existante sur le fonctionnement de la machine d'état, se contente d'une description simpliste de convertisseurs PWM/PFM mais ne donne que très peu d'éléments sur la gestion des opérations synchrones/asynchrones alternant PWM,PFM,écrêtage de courant, démarrage ou détection de défaillance. Dans ce travail, notre études est axée sur les deux aspects suivants:1)La modélisation paramétrique et la compensation de la boucle d'asservissement de HFDCDC et 2)la portabilité de la conception de la machine d'états du contrôleur notamment lorsqu'elle intègre des transitions complexes entre les modes.Dans la première section, nous avons développé un modèle petit signal moyen d'un convertisseur Buck asservi en mode courant-tension et nous l'avons analysé pour faire apparaitre les contributions proportionnelle, intégrale et dérivé dans la boucle. Nous avons démontré la possibilité d'utiliser le retour en courant pour assurer l'amortissement nécessaire et la stabilité de la boucle pour une large dynamique de variations des conditions de charge.Dans la seconde section, nous avons développé une architecture de machine d'états sophistiquée basé sur la méthode d'Huffman avec un effort substantiel d'abstraction que nous a permis de la concevoir en description RTL pour une gestion fiable du fonctionnement asynchrone et temps réel.Notre contribution théorique a fait l'objet d'une réalisation d'un PMIC de test comportant deux convertisseurs Buck cadencés à 12MHz en technologie BiCMOS 0.5um/0.18um. Les performances clefs obtenues sont:une surtension de 50mV pendant 2us suite à l'application d'un échelon de courant de 300mA. / The continuous sophistication of smart handheld devices such as smartphones and tablets creates an incremental need for improving the performances of the power conversion devices. The trend in power delivery migrates progressively to higher frequency, higher density of integration and flexibility of the control scheme. Dynamic Voltage Scaling Power Management ICs (DVS PMIC) are now systematically used for powering RF Transmitters and DVFS PMICS using Voltage and Frequency scaling are used for CPUs and GPUs. Flexible High frequency (HF) DC/DC converters in conjunction with low dropout LDOs constitute the main solution largely employed for such purposes. The migration toward high frequency/small size DCDC solutions creates serious challenges which are: 1) the stability of the feedback loop across a wide range of loading voltage and current conditions 2) The complexity of the control and often-non-synchronous state machine managing ultra large dynamics and bridging low power and high power operating modes, 3) The portability of the proposed solution across technology processes.The main stream solutions have so far reached the range of 2 to 6 MHz operation by employing systematically sliding mode or hysteretic converters that suffer from their variable operating frequency which creates EMI interferences and lead to integration problems relative to on-chip cross-talk between converters.In this work we aim at extend the use of traditional design and modeling techniques of power converters especially the average modeling technique by putting a particular care on the simplification of the theory and adjunction of flexible compensation techniques that don't require external components and that are less sensitive to process spread, or to high frequency substrate and supply noise conditions.The Small Signal Average Models, widely treated in the existing literature, might address most needs for system modeling and external compensation snubber design, especially when aiming on the high frequency natural zero of the output capacitor. However, HFDCDC converters today use small size MLCC capacitors with a very low ESR which require using alternative techniques mixing the compensation scheme with the duty cycle generation itself. The literature often provides a simplistic state machine description such as PWM/PFM operations but doesn't cover combined architectures of synchronous / non synchronous mode operations such as PWM, PFM, Current Limit, Boundary Clamp, Start, Transitional and finally Fault or Protection modes.In our work, we have focused our study on two main axes: 1) The parametric modeling and the loop compensation of HFDCDC and 2) the scalability of the control state machine and mode inter-operation. In the first part, we provided a detailed small signal averaged model of the “voltage and current mode buck converter” and we depicted it to emphasize and optimize the contributions of the Proportional, Integral and Derivative feedback loops. We demonstrated the ability to use the current feedback to damp and stabilize the converter with a wide variety of loading conditions (resistive or capacitive). In the second part, we provided architecture of the mode control state machine with different modes like the PWM, PFM, soft-start, current limit,… .The technique we have used is inspired by Huffman machine with a significant effort to make it abstract and scalable. The state machine is implemented using RTL coding based on a generic and scalable approach.The theoretical effort has been implemented inside a real PMIC test-chip carrying two 12MHz buck converters, each employing a voltage and current mode feedback loop. The chip has been realized in a 0.5um / 0.18um BiCMOS technology and tested through a dedicate Silicon validation platform able to test the analog, digital and power sections. The key performance obtained is a 50mV load transient undershoot / overshoot during 2us following a load step of 300mA (slope 0.3A/ns).

Page generated in 0.0549 seconds