• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 56
  • 24
  • 11
  • 8
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 116
  • 19
  • 16
  • 14
  • 14
  • 14
  • 14
  • 13
  • 13
  • 13
  • 13
  • 11
  • 10
  • 10
  • 9
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
111

A Contribution to Multivariate Volatility Modeling with High Frequency Data

Marius, Matei 09 March 2012 (has links)
La tesi desenvolupa el tema de la predicció de la volatilitat financera en el context de l’ús de dades d’alta freqüència, i se centra en una línia de recerca doble: proposar models alternatius que millorarien la predicció de la volatilitat i classificar els models de volatilitat ja existents com els que es proposen en aquesta tesi. Els objectius es poden classificar en tres categories. El primer consisteix en la proposta d’un nou mètode de predicció de la volatilitat que segueix una línia de recerca desenvolupada recentment, la qual apunta al fet de mesurar la volatilitat intradia, com també la nocturna. Es proposa una categoria de models realized GARCH bivariants. El segon objectiu consisteix en la proposta d’una metodologia per predir la volatilitat diària multivariant amb models autoregressius que utilitzen estimacions de volatilitat diària (i nocturna, en el cas dels bivariants), a més d’informació d’alta freqüència, quan se’n disposava. S’aplica l’anàlisi de components principals (ACP) a un conjunt de models de tipus realized GARCH univariants i bivariants. El mètode representa una extensió d’un model ja existent (PC-GARCH) que estimava un model GARCH multivariant a partir de l’estimació de models GARCH univariants dels components principals de les variables inicials. El tercer objectiu de la tesi és classificar el rendiment dels models de predicció de la volatilitat ja existents o dels nous, a més de la precisió de les mesures intradia que s’utilitzaven en les estimacions dels models. En relació amb els resultats, s’observa que els models EGARCHX, realized EGARCH i realized GARCH(2,2) obtenen una millor valoració, mentre que els models GARCH i no realized EGARCH obtenen uns resultats inferiors en gairebé totes les proves. Això permet concloure que el fet d’incorporar mesures de volatilitat intradia millora el problema de la modelització. Quant a la classificació dels models realized bivariants, s’observa que tant els models realized GARCH bivariant (en versions completes i parcials) com el model realized EGARCH bivariant obtenen millors resultats; els segueixen els models realized GARCH(2,2) bivariant, EGARCH bivariant I EGARCHX bivariant. En comparar les versions bivariants amb les univariants, amb l’objectiu d’investigar si l’ús de mesures de volatilitat nocturna a les equacions dels models millora l’estimació de la volatilitat, es mostra que els models bivariants superen els univariants. Els resultats proven que els models bivariants no són totalment inferiors als seus homòlegs univariants, sinó que resulten ser bones alternatives per utilitzar-los en la predicció, juntament amb els models univariants, per tal d’obtenir unes estimacions més fiables. / La tesis desarrolla el tema de la predicción de la volatilidad financiera en el contexto del uso de datos de alta frecuencia, y se centra en una doble línea de investigación: la de proponer modelos alternativos que mejorarían la predicción de la volatilidad y la de clasificar modelos de volatilidad ya existentes como los propuestos en esta tesis. Los objetivos se pueden clasificar en tres categorías. El primero consiste en la propuesta de un nuevo método de predicción de la volatilidad que sigue una línea de investigación recientemente desarrollada, la cual apunta al hecho de medir la volatilidad intradía, así como la nocturna. Se propone una categoría de modelos realized GARCH bivariantes. El segundo objetivo consiste en proponer una metodología para predecir la volatilidad diaria multivariante con modelos autorregresivos que utilizaran estimaciones de volatilidad diaria (y nocturna, en el caso de los bivariantes), además de información de alta frecuencia, si la había disponible. Se aplica el análisis de componentes principales (ACP) a un conjunto de modelos de tipo realized GARCH univariantes y bivariantes. El método representa una extensión de un modelo ya existente (PCGARCH) que calculaba un modelo GARCH multivariante a partir de la estimación de modelos GARCH univariantes de los componentes principales de las variables iniciales. El tercer objetivo de la tesis es clasificar el rendimiento de los modelos de predicción de la volatilidad ya existentes o de los nuevos, así como la precisión de medidas intradía utilizadas en las estimaciones de los modelos. En relación con los resultados, se observa que los modelos EGARCHX, realized EGARCH y GARCH(2,2) obtienen una mejor valoración, mientras que los modelos GARCH y no realized EGARCH obtienen unos resultados inferiores en casi todas las pruebas. Esto permite concluir que el hecho de incorporar medidas de volatilidad intradía mejora el problema de la modelización. En cuanto a la clasificación de modelos realized bivariantes, se observa que tanto los modelos realized GARCH bivariante (en versiones completas y parciales) como realized EGARCH bivariante obtienen mejores resultados; les siguen los modelos realized GARCH(2,2) bivariante, EGARCH bivariante y EGARCHX bivariante. Al comparar las versiones bivariantes con las univariantes, con el objetivo de investigar si el uso de medidas de volatilidad nocturna en las ecuaciones de los modelos mejora la estimación de la volatilidad, se muestra que los modelos bivariantes superan los univariantes. Los resultados prueban que los modelos bivariantes no son totalmente inferiores a sus homólogos univariantes, sino que resultan ser buenas alternativas para utilizarlos en la predicción, junto con los modelos univariantes, para lograr unas estimaciones más fiables. / The thesis develops the topic of financial volatility forecasting in the context of the usage of high frequency data, and focuses on a twofold line of research: that of proposing alternative models that would enhance volatility forecasting and that of ranking existing or newly proposed volatility models. The objectives may be disseminated in three categories. The first scope constitutes of the proposal of a new method of volatility forecasting that follows a recently developed research line that pointed to using measures of intraday volatility and also of measures of night volatility, the need for new models being given by the question whether adding measures of night volatility improves day volatility estimations. As a result, a class of bivariate realized GARCH models was proposed. The second scope was to propose a methodology to forecast multivariate day volatility with autoregressive models that used day (and night for bivariate) volatility estimates, as well as high frequency information when that was available. For this, the Principal Component algorithm (PCA) was applied to a class of univariate and bivariate realized GARCH-type of models. The method represents an extension of one existing model (PC GARCH) that estimated a multivariate GARCH model by estimating univariate GARCH models of the principal components of the initial variables. The third goal of the thesis was to rank the performance of existing or newly proposed volatility forecasting models, as well as the accuracy of the intraday measures used in the realized models estimations. With regards to the univariate realized models’ rankings, it was found that EGARCHX, Realized EGARCH and Realized GARCH(2,2) models persistently ranked better, while the non-realized GARCH and EGARCH models performed poor in each stance almost. This allowed us to conclude that incorporating measures of intraday volatility enhances the modeling problem. With respect to the bivariate realized models’ ranking, it was found that Bivariate Realized GARCH (partial and complete versions) and Bivariate Realized EGARCH models performed the best, followed by the Bivariate Realized GARCH(2,2), Bivariate EGARCH and Bivariate EGARCHX models. When the bivariate versions were compared to the univariate ones in order to investigate whether using night volatility measurements in the models’ equations improves volatility estimation, it was found that the bivariate models surpassed the univariate ones when specific methodology, ranking criteria and stocks were used. The results were mixed, allowing us to conclude that the bivariate models did not prove totally inferior to their univariate counterparts, proving as good alternative options to be used in the forecasting exercise, together with the univariate models, for more reliable estimates. Finally, the PC realized models and PC bivariate realized models were estimated and their performances were ranked; improvements the PC methodology brought in high frequency multivariate modeling of stock returns were also discussed. PC models were found to be highly effective in estimating multivariate volatility of highly correlated stock assets and suggestions on how investors could use them for portfolio selection were made.
112

Quelques problèmes en analyse harmonique non commutative / Some problems on noncommutative harmonique analysis

Hong, Guixiang 29 September 2012 (has links)
Quelques problèmes en analyse harmonique non commutative / Some problems on noncommutative harmonique analysis
113

Approche spectrale pour l’interpolation à noyaux et positivité conditionnelle / Spectral approach for kernel-based interpolation and conditional positivity

Gauthier, Bertrand 12 July 2011 (has links)
Nous proposons une approche spectrale permettant d'aborder des problèmes d'interpolation à noyaux dont la résolution numérique n'est pas directement envisageable. Un tel cas de figure se produit en particulier lorsque le nombre de données est infini. Nous considérons dans un premier temps le cadre de l'interpolation optimale dans les sous-espaces hilbertiens. Pour un problème donné, un opérateur intégral est défini à partir du noyau sous-jacent et d'une paramétrisation de l'ensemble des données basée sur un espace mesuré. La décomposition spectrale de l'opérateur est utilisée afin d'obtenir une formule de représentation pour l'interpolateur optimal et son approximation est alors rendu possible par troncature du spectre. Le choix de la mesure induit une fonction d'importance sur l'ensemble des données qui se traduit, en cas d'approximation, par une plus ou moins grande précision dans le rendu des données. Nous montrons à titre d'exemple comment cette approche peut être utilisée afin de rendre compte de contraintes de type "conditions aux limites" dans les modèles d'interpolation à noyaux. Le problème du conditionnement des processus gaussiens est également étudié dans ce contexte. Nous abordons enfin dans la dernière partie de notre manuscrit la notion de noyaux conditionnellement positifs. Nous proposons la définition générale de noyaux symétriques conditionnellement positifs relatifs à une espace de référence donné et développons la théorie des sous-espaces semi-hilbertiens leur étant associés. Nous étudions finalement la théorie de l'interpolation optimale dans cette classe d'espaces. / We propose a spectral approach for the resolution of kernel-based interpolation problems of which numerical solution can not be directly computed. Such a situation occurs in particular when the number of data is infinite. We first consider optimal interpolation in Hilbert subspaces. For a given problem, an integral operator is defined from the underlying kernel and a parameterization of the data set based on a measurable space. The spectral decomposition of the operator is used in order to obtain a representation formula for the optimal interpolator and spectral truncation allows its approximation. The choice of the measure on the parameters space introduces a hierarchy onto the data set which allows a tunable precision of the approximation. As an example, we show how this methodology can be used in order to enforce boundary conditions in kernel-based interpolation models. The Gaussian processes conditioning problem is also studied in this context. The last part of this thesis is devoted to the notion of conditionally positive kernels. We propose a general definition of symmetric conditionally positive kernels relative to a given space and exposed the associated theory of semi-Hilbert subspaces. We finally study the optimal interpolation problem in such spaces.
114

Autonomous Raman Hyperspectral Imaging and Analysis; Advances Towards Mapping Crystalline Character in Biologically Important Polymers

Alkhalifa, Sadeq H. January 2022 (has links)
No description available.
115

Designing Effective Derivative Line Filters: Utilizing convolution to extract extra information / Utformning av effektiva derivata-linjefilter: Användning av faltning för att extrahera extra information

Lorentzon, Gustaf January 2023 (has links)
The ability to generate accurate approximations of derivatives holds significant importance in numerous scientific fields, including chemistry, economics and fluid mechanics. This thesis is centred around extracting hidden information in data using Smoothness-Increasing Accuracy-Conserving (SIAC) filters. The target application is in calculating derivatives in simulations of fluid flow. SIAC filters are based on convolution. Because of the properties used to construct the convolution kernel, we are able to design post-processing filters that can extract extra derivative information with high accuracy. In the past, these filters have typically had a tensor-product structure, which requires multi-dimensional filtering. Because of this, the filtering process can be very computationally expensive. The goal of this thesis is to develop one-dimensional line filters that are able to extract the derivative information more efficiently. By utilizing line filters, we aim to significantly cut the computational cost of the filtering process, while also maintaining the high accuracy. / Att kunna generera approximeringar av derivator med hög noggrannhet har stor användning inom många vetenskapliga områden, inklusive kemi, ekonomi och strömningsmekanik. Denna uppsats är fokuserad på att extrahera dold information i data med hjälp av en specifik typ av faltningsfilter. Dessa filter kan öka kontinuitetsgraden av data utan att minska noggrannheten. Den avsedda tilläpningen för dessa filter är inom strömningsmekanik, framförallt beräkning av derivator i flöden. Tack vare egenskaperna som används för att konstruera faltningskärnan kan vi utforma efterbehandlingsfilter som kan extrahera derivatainformation med hög noggrannhet. Tidigare har dessa filter ofta haft en tensorproduktstruktur, vilket kräver flerdimensionell filtrering. På grund av detta har filtreringen ofta en hög beräkningskostnad. Målet med denna uppsats är att utveckla endimensionella linjefilter som kan extrahera derivatainformation mer effektivt. Syftet är att använda dessa linjefilter för att betydligt miska filtreringens beräkningskostnad och samtidigt behålla den höga noggrannheten.
116

AspectKE*: Security aspects with program analysis for distributed systems

Fan, Yang, Masuhara, Hidehiko, Aotani, Tomoyuki, Nielson, Flemming, Nielson, Hanne Riis January 2010 (has links)
Enforcing security policies to distributed systems is difficult, in particular, when a system contains untrusted components. We designed AspectKE*, a distributed AOP language based on a tuple space, to tackle this issue. In AspectKE*, aspects can enforce access control policies that depend on future behavior of running processes. One of the key language features is the predicates and functions that extract results of static program analysis, which are useful for defining security aspects that have to know about future behavior of a program. AspectKE* also provides a novel variable binding mechanism for pointcuts, so that pointcuts can uniformly specify join points based on both static and dynamic information about the program. Our implementation strategy performs fundamental static analysis at load-time, so as to retain runtime overheads minimal. We implemented a compiler for AspectKE*, and demonstrate usefulness of AspectKE* through a security aspect for a distributed chat system.

Page generated in 0.15 seconds